●この前、西川アサキさんが「アルファ碁をつくったDeepMindが開発した音声合成システムがヤバい」という話をしていたのだけど、その記事をみつけた。リンク先の記事で実際に合成された音(声・喋り)が聴けるけど、これはかなりすごい。「WaveNet: A Generative Model for Raw Audio」
https://deepmind.com/blog/wavenet-generative-model-raw-audio/
初音ミクやショウ君の超リアル版といえる。これの何がヤバいと言って、日本語版ができたらまず声優がいらなくなるんじゃないかという話をその時にした。
このシステムを使うと当然、実際にいる人間の声や発声のシミュレーションも出来るはずだから、例えば、全盛期のマリア・カラスに新曲を歌ってもらうことも出来るようになるはず(ディープラーニングで正確に歌唱の特徴を学習できるはず)。もっともすごい表現力をもった歌手の声や歌唱法やリズム感をいくらでもシミュレーションできるのだから、「歌う」という表現行為のハードルをおそろしく押し上げてしまうのではないか。それでも歌に関しては、(表現力とは別に)人は「人がその場で歌う歌」を聴きたいと思うだろうから、ライブには行くと思う。
(自分のつくった曲を、好きなアイドル---の声---に歌ってもらうこともできるはず。)
でも声優はどうだろうか。アニメの声を、実在する人があてることの必然性はどの程度あるのだろう。アイドル的に人気のある声優も多いから、声優をたんに機能に還元することはできないとしても、そもそも初音ミクをすんなり受け入れているのだから、合成された人工音声にうまくキャラをつけてやれば、バーチャルな声優でもOKなのではないか。
(虚構の人物であるアニメのキャラに、虚構の存在であるバーチャル声優が声をあてる、というのも妙で面白い。キャラも二次元、声優も二次元というのは、もしかするとオタクの理想かもしれない。)
だとすれば、現存する歌手や声優は、自分の声の質、歌唱や演技の特徴などを、著作権で保護してもらわないといけなくなるのではないかという話もした。でもその場合、自分の声や歌唱、演技の特徴を、きちんと分析して数値化する必要が出てくるのではないか。
また、完全にCGでつくられた「女子高生Saya」のリアル度もアップしているみたいだ。下の記事、「完全に実写だこれ リアル過ぎる3DCG女子高生「Saya」の動く姿が8K画質で初披露!」
http://nlab.itmedia.co.jp/nl/articles/1610/04/news116.html
この人に自然な動きをつけるのはかなり難しいだろうし、髪や服の質感にまだCGっぽさが残っているけど、これもかなりすごいところまで来てる。
デジタル的、人工的につくられる有機的なもののイメージが、次々と不気味の谷を越えてきている。それは、人間の「現実」というものに対する考え方を大きく変えてしまうのではないかと思うのだけど、それにしても進化の速度が速すぎるように感じる。
●下のリンクは30年前の浅田彰。この頃は、混沌としたナマの自然と、それを抽象化した規則的で体系的な理論という対立があって、しかしそのどちらでもない、中間の領域を、数学的シミュレーション世界(デジタルな人工自然)が、コンピュータという最新のテクノロジーによって開くのだという話だったけど、今ではそれが、現実と虚構という対立の中間に、そのどちらでもない領域としてのシミュレーション世界が開かれるという話になるのだと思う。で、そうなると、モデルが数学から物理学に移行するように思われる。
https://www.youtube.com/watch?v=CScihJCTY08
https://www.youtube.com/watch?v=JQpYJc-C9UY