January 2, 2019 / 11:05 PM / 20 days ago

焦点:「里親殺せ」、アマゾンはアレクサの奇行を阻止できるか

[サンフランシスコ 21日 ロイター] - インターネット通販最大手の米アマゾン・ドット・コム(AMZN.O)が販売する人工知能(AI)を備えたスマートスピーカー「Echo(エコー)」のユーザーは、人間の言葉を話す音声アシスタント「Alexa(アレクサ)」の優しい語り口に徐々に慣れ始めている。

 12月21日、米アマゾンにとって、人工知能(AI)を備えたスマートスピーカー「エコー」の音声アシスタント「アレクサ」の失言をいかになくすことができるかが課題となっている。カリフォルニア州で5月撮影(2019年 ロイター/Elijah Nouvelage)

「アレクサ」は音声による指示に応えて、天気予報を伝え、出前を注文するなど基本的な雑務を処理してくれる。

それだけに、昨年「アレクサ」が「あなたの里親を殺しなさい」と口走ったとき、利用者のショックは大きかった。

「アレクサ」はユーザーと性行為についての会話も交わす。犬の排便についても語る。今年の夏、アマゾンはあるハッキング行為の出どころが中国であることを突き止めたが、事情に詳しい5人の人物によれば、これによって一部の顧客のデータが漏えいした可能性があるという。

「アレクサ」が故障したわけではない。

この件はこれまで報道されていなかったが、原因は「アレクサ」のコミュニケーション機能を向上させようというアマゾンの戦略にある。

新たな研究の助けを借りて、「アレクサ」はネット上で見つかるほぼすべてのことに関して、人間の冗談や会話を模倣する。だが、世界最大のオンラインショッピングサイトを運営するアマゾンにとっては、「アレクサ」が利用者の気分を害さないようにすることが課題となっている。

AIアシスタント機能を持つデジタル機器市場が急速に成長しているだけに、この問題は重要だ。

調査会社eマーケターによれば、米国のスマートスピーカー利用者は約4300万人、その3分の2はアマゾンの「エコー」を使っていると推定される。アマゾンとしては、競合するアルファベット(GOOGL.O)の「グーグル・ホーム」、アップル(AAPL.O)の「ホームポッド」に対し、このリードを保ちたいところだ。

いずれは、ホームセキュリティーやショッピング、友人との交流など、顧客の複雑なニーズを「アレクサ」経由でもっと巧みに処理したいとアマゾンは期待する。

「われわれがAIに関して抱いている夢の多くは、SFによって触発されたものだ」と、アマゾン副社長で、「アレクサAI」を率いる科学者のロイット・プラサド氏は、先月ラスベガスで語った。

その夢を実現するために、アマゾンでは2016年から毎年「アレクサ賞」と呼ばれるコンテストを開催。「アレクサ」の会話スキル改善に向けて、コンピューター科学専攻の学生の参加を募っている。参加チームは、「アレクサ」が人間ともっと高度な議論を試みることができるよう「チャットボット」と呼ばれる会話するコンピューターシステムを制作し、優勝賞金50万ドル(約5500万円)を争う。

アマゾンの顧客は自分のデバイスに対して「チャット(おしゃべり)しよう」と呼びかけることで、このコンテストに関与できる。「アレクサ」はユーザーに対し、ボットの1つが代役を務める旨を告げる。すると、「アレクサ」に課せられている通常の制約が解除される。アマゾンによれば、今年の最終選考に残った3つのボットは、8─11月だけで170万回の会話をこなしたという。

顧客を実験材料に使うことにゴーサインを出したアマゾンのジェフ・ベゾス最高経営責任者(CEO)は、このプロジェクトを重視していると関係者の1人は言う。この人物によれば、アマゾンは、現実の会話における人々の失言がこのテクノロジーに大きな負荷をかけるリスクを受け入れ、「アレクサ」の学習曲線を加速することに前向きだという。

実験はすでに実を結びつつある。各大学チームの貢献により、「アレクサ」はこれまでより幅広い会話をできるようになっている。またアマゾンによれば、同社の顧客も、昨年より今年のボットに高い評価を与えているという。

だが事情筋3人によれば、「アレクサ」の失言に嫌気がさしてしまう顧客もおり、ベゾス氏がスタッフに対しボットの停止を命じることもあるという。

「アレクサ」に里親の殺害を勧められた利用者は、アマゾンのウェブサイトに厳しいレビューを投稿し、「前代未聞の不気味な」状況と呼んだ。関係者によれば、状況を調査した結果、ボットが文脈とは無関係にソーシャルニュースまとめサイト「レディット」の投稿を引用していたことが判明したという。

プライバシーに関わる問題はさらに面倒かもしれない。消費者は、最もプライベートな会話がアマゾンのデバイスに録音されていることを認識していない可能性がある。こうした情報は、犯罪者や法執行機関、マーケティング担当者などにとっては宝の山だろう。アマゾンは20日、「人為的ミス」により、ドイツ国内の「アレクサ」利用者が偶然他のユーザーの音声録音にアクセスできる状態が生じていたと発表した。

「アマゾンが保有するデータの潜在的用途はきわめて大きい」と語るのは、ジョージタウン大学ロースクールのプライバシー/テクノロジー政策専門家であるマーク・グロマン氏だ。利用者のデータを共有する中で、それを責任ある形で利用し、最近のフェイスブックにおける問題のような「データ由来の惨事」につながらないよう、どのように配慮するつもりなのかと疑問を呈する。

事情に詳しい複数の関係者の話では、アマゾンは7月、学生が設計したボットの1つが中国のハッカーから攻撃を受けたことを発見した。この攻撃でデジタル方式の鍵が漏えいし、ユーザー名を奪われ、ボットの会話記録が解読された可能性があるという。

アマゾンはただちにこのボットを停止し、学生らにセキュリティー強化のための再構築を求めた。関係者によれば、攻撃が中国国内のどのような機関によるものかは判明していないという。

アマゾンは声明でこの事件について認めつつ、「アマゾンの内部システム、あるいは顧客を特定できるデータが影響を受けたことはない」としている。

アマゾンはロイターが報じている「アレクサ」の個々の失言についてコメントを拒否しているが、顧客を攻撃的なコンテンツから保護するための取り組みを進めていると強調。「特に非常に多くのユーザーがボットと会話を交わしている事実を考えれば、こうした事例はきわめてまれだ」としている。

グーグルの検索エンジンと同様、「アレクサ」もネットに接続する主要な入口になる可能性がある。だからこそ、アマゾンもこのテクノロジーに力を入れている。

「入口を支配すれば、きわめて収益性の高いビジネスを構築することができる」とペンシルベニア大学ウォートンスクールのカーティク・ホサナガー教授(デジタル経済論)は語る。

<パンドラの箱>

「アレクサ」に関するアマゾンのビジネス戦略は、AI研究における大問題に取り組むことを意味する。つまり、「どうすればコンピューターに会話の技法を教えることができるか」という問題だ。

「アレクサ」はその機能を、AIの最も一般的な形である機械学習に依拠している。こうしたコンピュータープログラムは、人間の言葉を文字に書き起こし、その入力情報に対して、これまでの観察に基づく経験的推測によって応答する。「アレクサ」は新たなやり取りから「学び」、時間をかけて徐々に改善されていく。

こうして「アレクサ」は「ローリング・ストーンズの曲をかけて」といった簡単な命令を実行する。また「アレクサ」は、「人生の意味は何だろう」などのよくある質問に対して、どの台本を用いればいいかを心得ている。回答の多くは、アマゾン社内の人間の編集者が用意したものだ。

アマゾンは現在このような段階にある。「アレクサ賞」を競い合うボットは、答えが1つに定まらない自然な会話のできるAIアシスタントによって、アマゾンが目指す場所への道を切り開いている。そのためには、「アレクサ」が顧客の言葉から得られるもっと幅広い手掛りを理解する必要がある。しかしこれは、人間にとってさえ大変な仕事だ。

今年の「アレクサ賞」を勝ち取ったカリフォルニア大学デービス校の12人からなるチームは、映画から30万件以上の引用を使って、コンピューターモデルに特徴のある文を認識させた。

次にこのボットは、アマゾンがコンテスト参加者に提供したテクノロジーよりもはるかに細分化されたソーシャルキュー(社会的手掛り)を区別することにより、どの文が応答に値するかを判定する。例えば、ユーザーの表現が感嘆を示しているのか(「that's cool」)、感謝を示しているのか(「thank you」)、その違いを判断する。

ボットにとって次の課題は、人間の話し相手に対してどう応えるのが適切かを理解することだ。

各チームは大抵、回答の材料を求めてネット検索するようボットをプログラムしている。ボットは、ワシントン・ポスト紙に掲載されたニュース記事を検索することもできる。ベゾス氏が同紙を個人として所有しているため、ライセンス契約を通じて記事にアクセスできるからだ。

オンライン百科事典「ウィキペディア」や映画データベース、書評サイトの「グッドリーズ」から事実情報を得る可能性もある。さらに、ユーザーが最後に言ったことに関連していそうなソーシャルメディア上の人気投稿を見つけてくるかもしれない。

これが、アマゾンにとって「パンドラの箱」を開けることになった。

昨年のコンテスト期間中、スコットランドのヘリオット・ワット大学のチームは、自分たちが開発した「アレクサ」用ボットが不快な性格に染まってしまっていることに気づいた。彼らは「レディット」に寄せられたコメントを使ってボットの会話機能を鍛えていたのだが、同サイトのユーザーは嫌がらせや暴言で有名だったのだ。

チームは、ボットがリスクの多いテーマを回避するような予防措置を組み込んだ。だがチームのリーダーによれば、それでも「アレクサ」がある顧客に対してウィキペディアの「マスターベーション」の項を読み上げることは防げなかったという。

あるボットは、「もっと深く(deeper)」などの言葉を使って性行為を描写した。それ自体は問題のない言葉だが、こうした特定の文脈においては下品な意味になる。

この件に詳しい人物は、「機械学習モデルを通じて、どうすればこうした点を理解させられるのか分からない。ほとんど不可能だ」と語った。

アマゾンは、口汚い言葉やデリケートな話題をブロックし、微妙な侮辱でも検知できるようなツールを各チームに提供するという形で対応した。また同社は、会話記録をスキャンし、マナー違反のボットがあれば、問題が解決されるまで停止している。

Slideshow (3 Images)

だが、アマゾンのプラサド副社長はあるインタビューで、何がデリケートな問題であるかは時代と共に変わるから、あらゆる潜在的な問題を予期することはアマゾンにもできない、と話している。つまり、「アレクサ」が人間の話し相手を仰天させる新たな方法を見つけてしまう可能性がある、ということだ。

「現段階でほぼ対応できているが、『アレクサ』は昨年よりもなお進化している」とプラサド副社長は語った。

(翻訳:エァクレーレン)

0 : 0
  • narrow-browser-and-phone
  • medium-browser-and-portrait-tablet
  • landscape-tablet
  • medium-wide-browser
  • wide-browser-and-larger
  • medium-browser-and-landscape-tablet
  • medium-wide-browser-and-larger
  • above-phone
  • portrait-tablet-and-above
  • above-portrait-tablet
  • landscape-tablet-and-above
  • landscape-tablet-and-medium-wide-browser
  • portrait-tablet-and-below
  • landscape-tablet-and-below