英語学習ロボットやAIで学ぶ

英語学習ロボットやAIで学ぶ

英語学習にロボットやAIを使う人が増えています。

Musio

神戸学院大(神戸市中央区)は、グローバル・コミュニケーション学部の英語コースで、人工知能(AI)を搭載した英会話学習用ロボット「Musio(ミュージオ)」を全国の大学で初めて授業に導入する。現在、学生との英会話を通じて実証実験を行っており、2017年の6月から本格的に授業に取り入れる予定です。

Musioは米AKA社が開発。ネイティブな英語がプログラムされているほか、インターネットを通じて情報取得も可能です。人間との英会話もスムーズに行え、学生にとって“生”の英会話を学べるといいます。また、学生との会話内容をデータとして記録できるため、教員が記録をもとに学生の英会話能力の客観的な評価も可能になると期待されています。

同大で19日に行われた実験授業では、東淳一教授のゼミの2年生16人がMusioとの英会話に挑戦した。学生が英語で「東京の今の天気は?」と質問すると、「少し曇っていて気温は24度です」と英語で返答した。Musioの反応は少々遅れ気味だったが、学生たちは発音や文法、スピードなどを意識しながら英会話を学んでいました。

授業に臨んだ2年の藤井真直さん(19)は「想像以上に知識が豊富なのでびっくりした。ロボットなので、ためらいなくいろんな英会話に挑戦できる。これからの授業が楽しみ」と話していました。

SpeakBuddy

Musioは独立型のロボットですが、最近ではアプリやソフトでディープラーニングを応用するAIを使う英語学習があります。

人工知能を使う英会話学習アプリSpeakBuddyでは次のような説明があります。

日本人の英語学習において、最大のハードルとなっているのがスピーキング。

克服するにはとにかく話すしかないのだが、そこにさらなる障壁が。留学や語学スクールにはお金がかかるし、外国人の友達を作るというのも、いろいろ考えると大変だ。

そんな問題を一気に解決するのが、この「SpeakBuddy(スピークバディ)」。スマホに向かって話すだけで、英会話力が向上するという、夢のような学習アプリだ。

AIキャラとマンツーマンで会話レッスン

speakbuddy_2アプリ上でスピーキングの練習相手になるのは、AI。フレンドリーなキャラクターとともに、最近格段に精度が上がったスマホの音声認識を使って、英会話を練習。費用や場所、時間に縛られないのは、大きな利点と言える。

おまけに間違っても恥ずかしがる必要はない。誰にも遠慮せず、英語力をアップさせられるのも、ユーザーにとってはありがたいところだ。

会話の形式は、ストーリー性のあるシナリオモードか、自由な会話が楽しめるフリートークモード(リリース後期にアップデート予定)から選択。レベルを測る実力テストでは、キャラクターからの規定回数の質問に答えをマイクで自由入力。100段階で、英会話力を判定してくれる。

AppStore有料総合1位獲得、70万人超購入の『本気で英会話!ペラペラ英語』を作ったappArray Inc.が、AIキャラクターが英会話の相手になってくれる新アプリ「SpeakBuddy」を開発致しました!

現在の音声認識技術なら「完璧な英会話ロボット」を実現できると感じ開発したこのアプリは、スマホの音声認識を使ってAIと英会話練習ができるiPhoneアプリです!

AIキャラが英会話の相手になってくれるので、費用・時間・場所などを気にせずに英会話の練習ができ、間違った英語を話しても「恥ずかしい」という気持ちを感じることなく、英会話力をアップできます!

フレンドリーなAIキャラと高精度の音声認識を使って話せば、どんどん英会話フレーズが身についていきます!仕事で英語が必要な方、人との英会話に限界を感じている方にオススメです。

魅力

・高精度の音声認識
・会話相手となる多彩なキャラクター
・ストーリーのあるシナリオモード
・自由な会話が楽しめるフリートークモード
・英会話力を100段階でレベル付けする実力判定テスト
・採点、会話内容によるAIの機嫌の変化などのゲーム要素

AppStore教育1位を4作品で獲得した英語学習アプリの開発経験と、代表の過去計3千時間の英語学習から得た上達ノウハウを活かして作られています。

使い方

iPhoneでアプリをダウンロードし、クーポンコードを入力して頂くだけで使うことができます。

シナリオモード
色々なキャラクターから会話相手とシナリオを選んでいただくと、シナリオモードでキャラクターと英会話をお楽しみいただけます。

実力判定テスト
キャラクターからの規定回数の質問にご自身の答えをマイクで自由入力して頂くことで、100段階で英会話力を判定します。

フリートークモード
会話AIを用いて、自由に英会話をお楽しみ頂けます。

こっそり英会話学習を始めてみたいという方、外国人と話す機会の前に練習したいという方、お家やカフェで、やりたいと思った時に思う存分英語を話して頂ければと思います!

「英語を話せるようになりたいけど練習相手がいない」、日本人の大きな課題である英語学習において、最も大きなハードルとなるのがスピーキング力の強化です。外国人と話すためには、留学・英会話学校・オンライン英会話・友達を作る、などの方法がありますが、どれも金額的・時間的に現実的ではないのは多くの方がご存知ではないでしょうか?

このアプリはそんな問題をAIと会話するという方法で一気に解決し、英語学習の最終解を作るために始まりました。「日本にいながら英語が話し放題」、そんな世界を作るのが我々の目標です。

大きな間違い

英会話ロボットやAIの何が問題でしょうか。

英会話ロボットを赤ん坊と一緒にしておいたら赤ん坊は英語を話すようになるでしょうか。赤ん坊が話せるようには絶対になりません。その理由はロボットもAIも何かを話すと反応をするだけなのです。

英語を話す事は話す練習にならない

日本語でも英語でもネイティブを真似て言葉を覚えます。実はこの真似る段階で表現だけでなく、発音も、使い方も全てを真似て学習しています。言葉は意志を持った人がその意図を込めて話すもので、言葉とその意味があるだけではありません。

英会話ロボットやAIも人間の脳を真似たディープラーニングで学習しております。しかし、その学習はいろいろな表現を学習しているだけです。発音は実は音声合成ソフトまたはALが音に変換しているだけです。

質問に答えているのはそのようなプログラムがされているだけです。特に意志が働いて答えているのではありません。

我々が日本語を覚えた時は常に意志を持った人がその表現を使い、その表現や発音や表現方法や使い方まで真似ています。しかし、ロボットやALはその意志がないのですから、意志を込める事はできません。なにかの質問に仕組まれた英語が返ってくるだけです。

言葉を話すためにすべき事は、質問して答えてもらう事でも、質問されて答える事でもありません。ネイティブが使う表現を発音も、使い方も全てを真似て学習する事です。大人が学ぶ場合は長い表現も多くなりますから、反復練習が必要です。そしてフィードバッを得た修正と矯正も必要になります。

言葉は真似て覚える

英語表現をディープラーニングで覚えるなら実際に使われている英語音声を聞いて反復練習するのですから、特に相手となるロボットやAIは必用ありません。

ロボットでなく、仮に相手がネイティブでも英語を話そうとするだけでは英語を話せるようにはなりません。

その他にも音声認識システムがあります。人間の英語を音声認識システムで認識してテキストにします。しかし、人間の聞き取りの方がずっと認識率は高いのです。認識が悪ければそれに対する返事も悪くなるか、分からなくなります。

またロボットなりAIが使える表現数もかなり多いものですが、ネイティブの記憶にある表現数には程遠いと思っています。その最大の理由は人間の脳は多くの表現を記憶するとその記憶からパターンを抽出して同じカテゴリの単語を使う事で無数とも思える表現が使えます

しかし、ロボットでありAIではそれぞれの表現が記憶されているだけです。すると使える表現数は人間よりも大幅に少なくなります。

こう考えると音声認識や使える表現数でもロボットやAIは人間より劣るもので、人間の替わりにロボットやAIを使おうとするのは非常に効果の上がらない英語学習となります。

2018/05/19 のTechCrunch Japanに次のような記事があります。

人間が犯す言葉の聞き間違いをAIは正してくれるか?答はノーだ

昨日までの二日間、ヤニー/ローレル(yanny/laurel)論争に加わらなかった人は、本当に幸せ者だ。でも、それもそろそろ時間切れ。口コミで広まった合成音声がAIへの誇大な過信にぶつかり、そしてその結果は、この俗世のすべてがそうであるように、幻滅だった。

AIによる音声認識ソフトウェアを作っているSonixが、その曖昧な音の断片を、GoogleとAmazonとIBM Watsonと、そしてもちろん自社の、文字書き起こしツールに与えてみた。

GoogleとSonixは最初からうまくいった。ちなみに、正解は“laurel”だ。yannyではない。 Laurelだよ。

しかしAmazonは、そのロボット的な声に対して、何度やっても“year old”を出力した。IBMのWatsonは、驚いたことに、半分正解…“yeah role”と“laurel”をかわるがわる繰り返した。だからある意味では、Watson氏がいちばん人間的だ。

SonixのCEO Jamie Sutherlandは、各社の機械学習モデルを実際に調べたわけではないから、その不均一な結果に対してコメントはできない、と言った。

“ご存知のように人間の声はとても複雑で、声量や抑揚、アクセント、周波数などがそれぞれ違う。おそらく各社が最適化のターゲットとしているユースケースが異なるから、結果も違うのだろう。音声認識のモデルをすべての声に対応させることは、難題だ”、と彼は言う。

無知な傍観者としてのぼくの推察は、声の周波数に対するプライオリティの取り方/与え方が、各モデルで違うのだろう。そんな気がするね。

明らかに欠陥がある人間の聴覚と認識能力に基づいて作られているシステムに、権威ある正しい判断を求めるのはそもそもおかしいのだが、でもだからこそ、おもしろい実験だった。

ロボットの音声認識

人間の音声には音声学で定義する音素が並んでおりません。音素は概念の音であり、音声は連続的に変化する音のストリームです。人間と人工知能と音声認識は多くの音声とテキストデータを使う事例基盤の音声認識です。

ロボットで音声認識をしても正しい発音であるかどうかは判断できません。その音に似た発音があるかどうかを決めているだけです。

ロボットの翻訳

現在の翻訳システムは多くの対訳データを使う統計的な機械翻訳です。つまりルールによる文法解析でありません。日本語を英語にしたとき、または英語を日本語にした時もそのような訳があるかの判断するだけでです。ロボットに翻訳が正しいとか間違いの判断はできません。

人間が言語を覚える時は正しいとか間違いを判断しているのではなく、真似してい覚えています。もちろんロボットもそのようなデータを大量に使う学習をしています。

その大量にデータを使う学習が脳がやっているのであり、その学習をロボットがどれほど多くの情報を持っていても、学習そのものを助ける事はできません。[

一緒に英語を学びませんか

ディープラーニングで一緒に英語を勉強しませんか。次のサイトにメソッドと教材があります。

https://英会話革命.com/

次の方が会員として参加しています。

https://英会話革命.com/for-member/memberlist/

現在、無料モニターを募集しております。下記リンクから無料で登録できます。

https://英会話革命.com/for-member/register/