將來出口動畫片的配音能否做乙個引擎,然後根據出口國的最終配音生成匹配口型?

時間 2021-05-07 03:56:08

1樓:

技術上沒什麼問題,後期調教基本能對上。

麻煩的在於應用。遊戲的話還好,畢竟即時渲染。

動畫的話,每一幀都是錢。等於每個有說話的鏡頭都要重新渲染,即使渲染視窗可以小到只剩嘴,需要考慮的還是很多。嘴唇下的陰影?玻璃上的反射?

最重要的是投入這些錢有必要麼?

換成特寫鏡頭的翻譯盡量對口型可以省下老大一筆錢呢。。。。。

2樓:嗨谷歌

技術上可以,但dalao們能不能解釋一下為何這是個剛需。

腦補了一下畫面,每個人物開口前都深吸一口氣,

「哦~「 」我的上帝啊」

3樓:破寶

技術上可行,但成本 hold 不住啊。即使實現了自動口型,渲染這一項也要增加很多成本的。你應該聽過這些動畫大片宣傳時總會說他們「每一秒畫面需要幾天時間渲染」的話吧,每種語言都渲一遍,本來能今年上映的是不是推後到明年?

PS:迪士尼、皮克斯部分影片上映時,會為部分畫面中出現的文字做本地化,這已經是業界良心了。

4樓:熊辰炎

直接生成就可以的,而且可以按照不同的演員(布拉德皮特,歐巴馬)的習慣來。最後做出來就是類似輸入文字和聲音,然後系統給你對口型。

我自己不是做這個的,具體你可以去看看加州理工的yisong yue的工作,也是我們華人年輕學者的驕傲。

大概說的話,我去年吃freefood聽他講的那個工作沒用deep learning, 就直接用統計機器學習的方法拿聲音的語素啥的抽feature做X, 然後輸出的是人面部各個肌肉的動作,有十幾個緯度的Y. 然後拿電視節目來train, 比如你拿趙本山的小品對著訓練,最後口型就是趙本山的。

效果我覺得挺好的,反正對著放生成的和人做的我經常看不出來,只記得訂著歐巴馬嘴唇看很奇怪... AI生成的乙個特點就是比較保守,嘴巴張得不大,有點類似下顎發炎那樣...

之後上了deep learning估計只會更好。

估計這種低端摳圖和插畫的工作是最先被AI取代的職位之一吧。主要是那個工作太機械,還是讓系統自動做吧。

5樓:Triple QMs

其實是可以做的,我們現在就在這麼做。不過目前只做了中文和英文的支援。

大概思路就是用文字和音訊直接算出嘴型變化的曲線去驅動嘴部動畫,換一種語言只需要填一套不同語言的音訊和文字,然後再渲染一遍就行了。

當然細節還是有很多的,不過目前我們的產品還沒上市,所以不方便多說。

6樓:涼風有信

理論上可行,但實際效果會非常差,

首先,口形的情感表達是軟體無法具體識別並體現到位的

再則,由於各國語序的不同影響到重點詞彙的位置,從而影響的不再侷限於口型了,影響到整段表演的動作選擇與節奏。

7樓:京一不二

幾年前siggraph看到過一家用音訊自動做表情的,不知能否不同語種適用。肯定也只能自動化乙個大概,最後也要手調。

東方夢工廠做功夫熊貓時中文版口型就是重新手K的。

8樓:baskice

將來出口動畫片的配音能否做乙個引擎,然後根據出口國的最終配音生成匹配口型?

可以做到的,而且目前已經有2D動畫的引擎了,雖然很不成熟而且通常只有日語英語兩種

不同語言表達同樣的意思用句的長度不同。

所以後期配音要硬改本地語音語氣以及時長來配合翻譯是很累的,而且觀眾聽起來翻譯腔也很嚴重觀眾也很累。

目前3D動畫口型分版製作/渲染成本根本不是問題。一開始就配合配音製作兩個版本,渲染時對二版口型只做環境光影響,不再渲染一次環境。成本很低而且可以對付大部分中遠距離,人物大頭和水下/水面這種複雜情況當然得仔細分辨處理,不過這些數量並不多。

關鍵是說話時長變了後動作也有可能出現空擋或者來不及,要調整達到好效果其實全身都要進行微調。不調的話就回到了過去要硬拉伸縮短詞句適應的情況。

在過去動畫基本只有日美兩國大量出口,而且依舊以本國市場為主的情況下,自然是沒什麼動力管海外市場動畫口型這種瑣碎的事情。這並不代表沒有需求,只是太窮了需求不明顯

9樓:葉佳桐

關於三維動畫,其實夢工廠就已經在根據不同國家的語言而修改口型了,但僅限於一些比較誇張的句子,比如「我真的超——喜歡那部動畫的!」。

那麼,「超」這個字的口型就會跟其他字的口型有比較大的區別,為了對好口型,那麼這個句子的嘴型甚至整個臉部表情變化的時機都要進行調整。

在不使用機器學習之類技術的情況下,讓計算機去辨認這些差異並修改得很自然,明顯是比較困難的。

至於二維方面,因為很多動畫片的開閉口動畫只有三張,所以軟體根據音訊自動適配也不是很困難。而且聰明的後期們其實已經寫出了AE使用的「對口型指令碼」。

但畢竟不是大公司的產品,只是從業人員為了加速流程而製作的小指令碼,在應用上還是會產生各種各樣的問題,比如自動產生的口型有事會像抽搐一樣。

《chaos;head》、《櫻花大戰》等遊戲曾經採用過類似技術,遊戲雖然使用的是立繪,但卻讓立繪根據語音的母音做出相應的口型,至於這個是否是人工調整就不得而知了(但這款遊戲的語音量非常之大,人工調整的可效能微乎其微)。

不管是人工還是自動,這樣為了在乎口型這種細節而做出處理的作品,真的少之又少。

在譯製片的配音過程當中,為了對好說著外語的角色口型,過去的配音導演或者台詞導演都要絞盡腦汁的去構思句子。

不光因為要休整句子的長短,如果出現了前面所舉的例子,還要想辦法讓中文台詞的重音剛好在需要突出的口型上。

所以如果大家看到了口型非常契合的譯製片,那不光是配音員的功勞,更是幕後默默勞動的譯制導演的功勞。

總的來說,在谷歌人工智慧技術如此發達的今天,出現任何的「自動製作」軟體,都不值得我們驚訝,從理論上來講,自動上色、自動補間在一定前提下都是可以實現的,那麼自動口型會很難嗎?

但一樣事物的出現,必須要有一定的回報趨勢它,暫時還沒有出現或已經出現只因為是內部保密技術外界無從得知。不管是哪種情況,都只能說,現階段還不是很迫切的需要它的存在。

10樓:

理論上可以實現,但是需要耗費大量的人力物力

簡而言之就是成本很高,而大部分觀眾其實對口型的問題並不是很在意,特別是手繪2D動畫。。。。。

總而言之就是,成本很高,收益很低,完全沒有必要

11樓:張一弘

1. 技術上可行,只要非手繪動畫都有類似軟體或外掛程式可以做到語音識別,自動調整動畫口型層;也有根據口型表自動填充。但語音識別效果有限,還是需要動畫人員後期調整;口型表的話還是有人要去填。

總之,人工少不了。而且這也只限於非常水的正打反打對話級別,如果牽涉到大幅度的動作可能用的就不是標準口型了。

2. 即便不是這種大片,渲染動畫和剪輯這件事都極耗費時間和金錢。如果動畫是遊戲內的即時演算,倒還不錯。

3. 雖然目的是好的,但這件事不會對票房、收視率或銷量造成什麼實質影響。

4. 美國這種比較注重口型同步(lip-sync)的動畫方式,對相對動作的契合要求也很高,改了可能會一定程度失去效果。

總之,吃力不討好。

12樓:

二維動畫目前還沒有頭緒...

三維的話技術已經有啦~

可以去玩玩星際爭霸2蟲群之心的戰役劇情注意裡面對話時左下方出現的人物特寫

國服:中文口型

美服:英語口型

變化非常明顯(當初被人告知這一點還不信,後來發現真是,當場驚為天人!)

13樓:喵小粒

重新k一次口型相當於重做。

音畫同步這件事一向是交給配音的工作。

你都說了譯製片漢化是配音員去考慮發音節奏和口型的問題,為啥會認為動畫配音不是這麼做的呢?

做的不夠好,並不代表人家沒努力嘛。

MG動畫能否做出傳統動畫片的效果,擁有電影的敘事方式,鏡頭,人物表情和肢體語言,如多啦A夢,海賊王 ?

小瓶噠噠噠 個人拙見。MG動畫主要展現的是二維平面世界,而傳統動畫,或者說動畫,會有更真實的三維空間感。AE做出來的是偽三維,所以單純的MG動畫礙於時間 財力的原因,畫面大多是單個視角。也因此,MG動畫如果要做的更加精緻,還需要在三維空間上多加設計,比如加上逐幀動畫,或者mg與三維 如c4d 結合。...

美國動畫片裡好多形象長得都像自己的配音演員 ,他們是先確定的配音演員再描繪的形象嗎?具體的順序是什麼?

福爾貓斯 簡單來說,作為商業動畫大國,美國動畫特別是電影動畫在製作前期過程中,會將 當紅 或著名 演員作為聲優 看成影片賣座的乙個重要籌碼。所以我們能看到各個動畫大廠在自己的 打江山之作 中都有大牌影星作為主角擔當,比如PIXAR的第一部影片 玩具總動員 會請到當時最紅的演員 湯姆 漢克斯作為主角 ...

一部完整的動畫片是用 Flash 軟體製做的嗎?

我覺得這個問題基本可以拆分為好幾個問題。先要了解什麼是 動畫片 然後了解什麼是 Flash 再然後,日本動畫和歐美動畫的區別這個問題貌似很大,回頭慢慢詳細解答。老是忘了回答最直接的問題 這樣說好了,你可以用Flash做一部完整的動畫片。 張力 Fl現在和諸如Id,Ai等配合進行網頁設計居多吧。動畫方...