在同聲傳譯領域,AI距離人工還有多少差距?

時間 2021-05-12 03:46:49

1樓:FedAI聯邦學習

幾個原因,決定了同聲傳譯領域AI到人工還存在的差距。

一是語言本身帶有主觀性質,遍歷目前AI落地良好的行業,會發現大多是基於客觀現實的場景。無論是在資料集中識別訊號,還是複雜路況導航。需要明確的數學或物理規則來輔助計算和決策的場景,AI都可以是OK的。

但語言不是這樣客觀的東西,自然語言是人類在交流過程中主觀構建的,雖然會有像「語法」這樣,帶有一定規律性的東西,但這些規則並非客觀的,從古代文言文,但現在白話文,也能看出其是在不斷發展和變化的。

二是「語言」帶有多重含義,以前學二外的時候,老師會說,一門外語最難的是「雙關」,當說梗時,暗示時,都可能出現「雙關」這一行為。而雙關本身對於AI來說,是目前還無法克服的問題。在某些文化中,有些詞指這件事,而在另一種文化中,相同的詞確實完全不同的另乙個意思。

不同的人有不同的口音含義,即使單詞的意思相同,發音也不同。

此外,在不同的語言中,不同的詞往往具有多重含義,而其必須與上下文關聯才能確認真實含義。例如英語中的「tear」可能指的是袋子上的孔或撕扯東西的動作,但常規我們會翻譯為「眼淚」。

此外,語言本身還帶有情緒,可以詩情畫意,可以幽默風趣,配合語調和肢體動作,還會有更多的含義。 這些都是目前AI無法去解決的。

但也可以大膽腦洞一下,未來三到五年內,普通翻譯人員會有50%被AI代替,但人工翻譯的高階從業者會變得更具有價值,作為AI輔助複核,或特殊場景同聲傳譯等使用。

2樓:

機器翻譯發言人必須遵守的五大禁令:

1. 讓發言人講標準的受控語言,不許掉書袋子,不許吟詩作詞;

2. 不允許說家鄉話,否則關麥克風;

3. 不允許說錯話,哪怕是slip of tongue也不可以;

4. 不可以加入A-B語對之外的任何詞彙,甚至在B語裡不可以加A;

5. 不允許用雙關語、諧音、笑話、隱喻、暗喻、轉喻等修辭手段。違令則機器翻譯有權做出超越人類理解的行為。

3樓:半島

我覺得AI會廣泛運用,這就是很多手工操作被機器取代了!只是AI也是科技進步的一大體現!就看哪種方式更適合我們當下的生活形式!

4樓:mouseck

具體差距我不知道,但我知道之前在我有生之年,估計是看不到AI完全取代同聲傳譯這個行業了。

現在AI發展確實比較快,而且也確實促進社會的進步,但是,並不是所有領域都可以用AI人工智慧來取代的。畢竟人是有感情的,做事情能加入自己感情,就比如翻譯這個事,我們可以根據語言意境、所處的環境氛圍、當地風情人俗等來綜合翻譯。

但是人工智慧能這樣翻嗎?

多久的未來是否可以,我不清楚,但是現在我知道是不能的。

人工智慧確實在很多領域確實智慧型,但是總歸是比較機械的,靠著指令碼來實現操作。所以說,在同聲傳譯這個領域,AI距離人工相差甚遠!

5樓:為何蔚藍

AI的發展依賴科學的進步,在同聲傳譯方面,AI還有很大的進步空間,逐步和人工縮小差距,人是有感情的,機器想要取代還有一段路需要走

6樓:雲胡不喜

同聲傳譯運用AI的確可以減少很多人力資源,但更適合一板一眼的正規的翻譯。

賽珍珠翻譯《水滸傳》時,好漢的一句「放屁!」翻譯為「pass wind」,書名則摒棄了其他版本的《發生在水邊的故事》、《一百零五個男人和三個女人》,而是結合內容翻譯為《四海之內皆兄弟》。

這些都是AI代替不了的,發展距離,任重道遠。

7樓:大山子孫

雖然在技術上AI翻譯已經取得了很大進步,但與人工翻譯比起來還是過於死板,體會不到一些句子的另一層意思,故而翻譯起來詞不達意,因此我覺得還是距離人工有一定距離的。

8樓:木空

同聲傳譯,簡稱「同傳」,是指在不打斷講話者的條件下,將講話內容不間斷的實時的翻譯給聽眾。其最大的特點在於效率高,譯文與原文間隔一般3-4秒,聽眾可以及時地獲取資訊,被廣泛地應用於國際會議、外交談判等重要場合。近年來,AI的發展對人類的職業造成很大的影響,不少領域的從業者都面臨著被AI替代的風險。

在同聲傳譯領域,AI同傳的發展也漸漸引起了人們的關注。AI離人工不遠了。

9樓:考研小知識

很多人都說在將來,Ai智慧型會取代人工,我覺得吧,在很多方面人工只能真的會取代人工,差距的話,可能就是思想和情感了吧,也不知道以後的AI智慧型會不會有感情和思想

10樓:清輕

在幾年以前AI智慧型還不完全被人們認可,覺得那只能是乙個玩具,然而幾年之間AI智慧型已經開始滲入生活的方方面面,雖未完全取代人工但所佔比例卻突飛猛進提高,所以取代人工翻譯指日可待!

11樓:清風

科技總是在人們的質疑聲中慢慢發現壯大,每一次重大科技的取得無不伴隨著人們驚訝的眼神,所以AI智慧型取代人工是科技發展的必然趨勢,並且相信能很快實現!

12樓:冒牌捐失

那些操著濃重中式口音英語的夥伴們,你們認為人家native聽你們發音很輕鬆?看不起印度英語的也是醉了,人家英語甩我們不知道幾條街。人家和印度口音交流可是暢通無阻的。

別再胡思亂想同聲傳譯基本沒有前途,說非正式場景中已經用不上了?那種跨國談判可是非常重要的,ai暫時跟不上口語變化

13樓:釉萌

同聲傳譯對於AI來說還是難了點兒吧,對於人工都很難。

畢竟這不是光靠詞彙就能解決的,還需要語法語境的結合,不能作為固定程式來實現,所以可能還得很多年。

同聲傳譯怎麼自學?

背景 10年前北外高翻學員畢業生。自由職業ing 自學同傳成功的例子有很多。最初1945 1946年在紐倫堡對納粹戰犯進行多語言審判時,還沒有同聲傳譯這一工種,都是摸著石頭過河。當初的那批譯員,自己學習自己摸索,開創了這一工種並逐漸成立各大高翻院校。90年代中國外事活動和對外經貿活動劇增。聯合國譯訓...

如何成為日語的同聲傳譯?

RionAsaya 同聲傳譯需要相當大的單詞量,以及發音要標準 不管是原語言還是目標語言 這個需要的就是不斷的背單詞和練習了 在掌握了單詞量而且發音標準了就要開始練習說了,同聲傳譯的標準是從客戶說話到你翻譯出不能超過3 4個詞,這就要求翻譯者需要很高的反應力 如果目標語言是中文有時候可能人家說一大堆...

怎麼樣當同聲傳譯?

劉經緯 有技巧的比如 So let s look at one example所以,讓我們看乙個例子吧。about how all of this comes together這是關於這一切如何做到一起的。In Haiti在海地,you know the terrible problems你知道有很...