for-phone-onlyfor-tablet-portrait-upfor-tablet-landscape-upfor-desktop-upfor-wide-desktop-up

焦点:グーグルの文章提案AI、「性別ある代名詞」が消えた訳

[サンフランシスコ 27日 ロイター] - 米アルファベットGOOGL.O傘下のグーグルは5月、電子メールサービス「Gmail(Gメール)」において、ユーザーが入力する際に自動的に文を補完する言葉を提案する画期的な機能を追加した。

 11月27日、Gmail作成時に文章の一部を入力すると、続く文章を自動作成して提案する、グーグルの「スマート・コンポーズ」文章提案機能は、ジェンダー属性のある代名詞を提案しなくなった。ロンドンで1日撮影(2018年 ロイター/Toby Melville)

「I love(私は好きだ)」とキーを叩けば、「you(あなたを)」または「it(それを)」を自動的に提案する。愛情の対象が「him(彼)」や「her(彼女)」の場合はうまく行かない。

メール作成時に文章の一部を入力すると、続く文章を自動作成して提案する、グーグルの「スマート・コンポーズ」文章提案機能は、ジェンダー属性のある代名詞は提案しない。

なぜなら、性別やジェンダーに関わるアイデンティティーを誤って予測することでユーザーを傷つけてしまうリスクがあまりにも高いからだ、と製品開発担当者はロイターに語る。

製品開発マネジャーを務めるポール・ランバート氏によれば、社内研究員がこの問題を発見したのは1月だった。「投資家と来週ミーティングします」と彼が打ち込むと、スマート・コンポーズ機能はそれに続く質問の候補として「あなたは彼に会いたいですか」を提案した。「彼女」ではなく「彼」だったのである。

ユーザーはスマートフォンの自動修正機能による面倒なミスには慣れている。だがグーグルは、ジェンダーの問題が政治や社会に影響を与えつつある時代、そして人工知能に潜むバイアス(偏見)に対する批判的な検証が進んでいる時代において、運任せにすることを拒んだ。

「あらゆる失敗が同じ重みを持つわけではない」とランバート氏。ジェンダーに関して犯す過ちは「非常に大きなこと」だと語る。

スマート・コンポーズ機能の修正はビジネス面でもプラスに働く可能性がある。グーグルが競合他社よりも人工知能(AI)の微妙さについて理解が深いことを示すことは、同社ブランドへの好感を高め、同社のAIを駆使したクラウド・コンピューティングツールや広告サービス、ハードウェアに顧客を集める戦略の一環となる。

Gメールには15億人のユーザーがいる。ランバート氏によれば、スマート・コンポーズ機能は、それが最初に実装されたGmail.comから世界中に発信されるメッセージの11%を支援しているという。

同機能は、AI開発者が「自然言語生成(NLG)」と呼ぶものの1例で、コンピューターが文献や電子メール、ウェブページに含まれる言葉のパターンを調べることによって文章を書くことを学んでいる。

人間が書いた何十億もの文章を提供されたシステムは、ありふれたフレーズであれば巧みに完成させるが、あくまで一般論という制約の下でだ。例えば、金融や科学といった分野では長らく男性優位が続いていたため、投資家やエンジニアは「彼」だと結論づけてしまうだろう。

大手テクノロジー企業のほとんどすべてが、この問題に引っかかっている。

ランバート氏によれば、15人ほどのエンジニアやデザイナーで構成されるスマート・コンポーズ担当チームは複数の回避方法を試したが、どれもこのバイアスから逃れられないか有意義なものにはならなかった。彼らは、最も厳しい方法、つまり「対象を限定すること」が最善のソリューションだという結論に達した。

ジェンダー属性のある代名詞を禁止したことによる影響は、同機能で提示される候補の1%にも満たないとランバート氏は言う。

「信頼できる唯一の手法は、保守的になることだった」と、最近昇進するまでGメールや他のサービスエンジニアリングを監督していたPrabhakar Raghavan氏は語る。

<新たな方針>

グーグルがジェンダーに関して安全策をとる方針を決定した裏には、同社の予測テクノロジーを巡って注目を集めるトラブルがいくつか発生したという事情がある。

2015年、グーグル写真関連サービスの画像認識機能が黒人のカップルをゴリラと間違って認識したことを受けて、同社は謝罪した。2016年には、グーグルは検索エンジンの自動補完機能を修正した。ユーザーがユダヤ人に関する情報を検索したときに「邪悪なユダヤ人」という候補を提案したためだ。

グーグルは自社の予測テクノロジーから卑猥な言葉や人種的な中傷だけでなく、競合他社や悲劇的な事件への言及も排除している。

ジェンダー属性のある代名詞禁止というグーグルの新方針は、同社のスマート・リプライの回答候補リストにも影響を及ぼした。

このサービスは、ユーザーが「よさそうだね」などの短いフレーズでショートメッセージやメールに即座に返答することを可能にする。

グーグルは社内のAI倫理チームが開発したテストを利用して新たなバイアスを発見している。ランバート氏によれば、スパムや迷惑行為対策チームは、ハッカーやジャーナリストのように考えることによって、「美味しい」失敗を見つけようとしているという。

米国以外で働く社員は、それぞれ地元の文化的問題を探っている。スマート・コンポーズはいずれスペイン語、ポルトガル語、イタリア語、フランス語という4つの言語にも対応する予定だからだ。

「人間による監視がかなり必要だ」とエンジニアリングを指揮するラグハバン氏は言う。「それぞれの言語において、何が不適切かという範囲は異なってくるから」

<広範囲に及ぶ課題>

「ジェンダー属性のある代名詞」という問題に取り組むテクノロジー企業はグーグルだけではない。

トムソンロイターからの出資を受けているニューヨークのスタートアップ企業アゴロは、AIでビジネス文書のサマリーを作成している。

同社のテクノロジーでは、文書によっては、どの代名詞がどの名詞を受けているのかを正確に判断できない。そこで、サマリーではユーザーが文脈を判断しやすくなるよう、複数の文書を引用している、と最高技術責任者を務めるMohamed AlTantawy氏は語る。

細部が分からなくなるよりは引用が長くなる方がマシだと同氏は言う。「ほんのわずかな間違いでも人々の信頼を失う。求められているのは100%の正確さだ」

それでも不完全さは残る。グーグルと米アップルAAPL.Oが開発した予測キーボード機能は、「警察」を補完するのに男性形である「ポリスマン」、同じく「セールス」を補完するのに「セールスマン」を提案してしまう。

性別を示さない「ある人は兵士だ」と言うトルコ語をグーグル翻訳にかけると、英語では「彼は兵士だ」と変換される。中国のアリババBABA.Nや米マイクロソフトMSFT.Oが提供する翻訳ツールも同様だ。

アマゾン・ドット・コムAMZN.Oが自社のクラウド・コンピューティングサービス顧客向けに提供する翻訳では、同じフレーズに対して「彼女」を選択した。

AI専門家は各企業に対し、免責事項を表示しつつ複数の訳例を示すよう、呼びかけている。

マイクロソフト傘下のリンクトインが導入してから1年がたつメッセージ予測ツール「スマート・リプライ」は、潜在的な失敗を防ぐため、ジェンダー属性のある代名詞を避けているという。アリババとアマゾンにもコメントを求めたが、回答は得られなかった。

複雑なシステムにおける対策として最も多く用いられているのは、依然として「スマート・コンポーズ」などのような警告や制限だ、と統計をベースにニュース記事を生成する米オートメイテッド・インサイトの統合エンジニア、ジョン・ヘーゲル氏は語る。

「最終目標は、魔法のように書くべきことを察知する、完全に機械による生成システムだ」とヘゲル氏。「非常に多くの進歩があったとはいえ、われわれはまだその境地に達していない」

(翻訳:エァクレーレン)

for-phone-onlyfor-tablet-portrait-upfor-tablet-landscape-upfor-desktop-upfor-wide-desktop-up