このNEWS AI同時通訳、五輪までに実用化 精度向上言葉 の壁消える? 2017/4/22 本日の日本経済新聞より

今日の日経注目記事は、日本経済新聞の総合面にある「このNEWS AI同時通訳、五輪までに実用化 精度向上言葉の壁消える?」です。





 政府は2020年の東京五輪・パラリンピックをにらみ、人工知能(AI)を使う同時通訳システムを実用化する方針だ。スマートフォン(スマホ)に日本語で話しかけると、その場で英語、中国語など他言語に訳して音声で出力。相手の言語も通訳してくれる。「ディープラーニング(深層学習)」と呼ぶ最新技術が通訳の精度を飛躍的に向上させており、実用化されれば日本人の外国語への苦手意識解消に役立ちそうだ。

 音声翻訳システムは既に「試用版」とも言えるものが出回っている。総務省所管の情報通信研究機構(NICT)が開発した「ボイストラ」で、スマホの無料アプリで提供している。日本語、英語、中国語、スペイン語、ベトナム語など31言語の間で、音声による自動翻訳ができる。

 利用先を広げるため国内企業がNICTと組んで様々な場面で使える通訳システムを開発する。パナソニックは拡声器で話すと外国語訳の音声が出る「メガホンヤク」を開発。富士通は病院で医師と外国人患者がタブレット端末をはさんで会話できるシステムを試作した。パネルへのタッチ操作なしで使え、まさに通訳者が間に立っているような感覚だ。

 現行のシステムは逐次通訳にとどまる。話す後から追いかけるように訳す同時通訳ができるようにするのが今回の目標だ。NICTの隅田英一郎・先進的翻訳技術研究室長は「人間の同時通訳と同じで、どこまで聞いて訳し始めるかというタイミングを計るのが難しい」と話す。

 音声翻訳は、話者の音声をテキスト情報に変える「音声認識」、テキストを他言語に翻訳する「機械翻訳」、そして翻訳テキストを読み上げる「音声合成」の3つの技術の組み合わせだ。核となる機械翻訳の研究は約60年前に始まったAI開発の歴史とほぼ重なるが、米IBMが1980年代に開発した「統計翻訳」と呼ばれる手法が近年普及し、翻訳の精度が大幅に向上した。

 それまでの「ルール翻訳」は研究者が作った文法などの規則に沿ってコンピューターが訳していた。これに対して統計翻訳では、対訳データを大量に集めて統計処理することで語順などの翻訳規則や辞書を自動的に作る。学習する対訳データが多ければ多いほど、翻訳の精度が向上する。多種類の言語に対応できるのも統計翻訳の特徴で、単語の意味や文法を研究者が理解できない言語であっても、対訳データさえ集めれば短期間で翻訳システムを作れる。

 米グーグルはネット上で利用できる「グーグル翻訳」でこの統計翻訳を使っていたが、これを進化させ、脳の働きを模したニューラルネットワーク(神経回路網)を活用した翻訳アルゴリズムへと昨年後半に切り替えた。文のパーツごとに翻訳するのでなく、文単位で文脈を把握してより適切な訳語を見つける。従来に比べて翻訳エラーを平均60%減らせたという。米マイクロソフトもほぼ同じ時期にネット上で使える「マイクロソフト・トランスレーター」でニューラルネット翻訳を始めた。

 ニューラルネット翻訳は総務省が進める自動同時通訳でも採用する方針だ。これにより翻訳部分の精度は海外のライバルと横並びの水準に高まるとみられる。グーグルなどがネットビジネスを念頭に音声を含むネット上の翻訳を重視しているのに対して、日本では言葉の壁をなくすため様々な場面で使える「現場型」の通訳システムを目指している。

 手元のスマホが通訳代わりになるのは、外国語が苦手な人にはまさに朗報。国際化への対応という強迫観念にかられて、苦労して外国語会話を学んだり、早期の英語教育の必要性が議論されたりする今の日本の外国語習得をめぐる状況は、同時通訳AIの登場でかなり変わるかもしれない。

(編集委員 吉川和輝)



コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です