for-phone-onlyfor-tablet-portrait-upfor-tablet-landscape-upfor-desktop-upfor-wide-desktop-up

アングル:収監者の通話分析にAI、米刑務所の検討に懸念も

[ワシントン/ロサンゼルス 9日 トムソン・ロイター財団] - テキサス州に住むヘザー・ボリンさん(43)の婚約者は、現在、刑務所に収容されている。ボリンさんのような人にとって、常に「盗聴」されていることはもはや慣れっこだ。2人が交わす3日に1度の電話が、刑務所職員による監視対象になっているからである。

8月9日、テキサス州に住むヘザー・ボリンさん(43)の婚約者は、現在、刑務所に収容されている。写真は2015年12日、米カリフォルニア州のサンクエンティン刑務所で、電話を利用する死刑囚監房の収容者(2021年 ロイター/Stephen Lam)

ボリンさんはトムソン・ロイター財団による電話インタビューに応じ、「監視されずにコミュニケーションを取ることはまったくできない」と語った。報復が心配であるため、婚約者が収容されている刑務所の名は伏せるよう希望している。

収監者の会話内容を把握するため、米国の刑務所ではハイテクの導入がさらに進むかもしれない。連邦議会下院の委員会が、収監者による通話内容の分析に人工知能(AI)を活用できないか調査・報告を行うよう求めたからだ。

だが収監者の支援団体や家族らは、通話内容を解釈するためにAIに頼れば、認識ミスや誤解、人種的な偏見が生じる可能性があると指摘している。

暴力犯罪や自殺の予防に向けてAI活用の可能性をさらに探るよう司法省に求める決議に加えて、先月には歳出委員会で、司法省をはじめとする連邦政府機関に対し2022年に同分野の予算を810億ドル以上配分する予算案が可決された。

導入が検討されているAIは、収監者の通話内容の文字起こしを自動的に行い、連絡のパターンを分析し、職員が事前にシステムに設定したスラングを含む単語やフレーズが使われた場合にフラグを立てることができる。

ボリンさんは「とても落ち着かない。私が電話で何かまずいことを言ってしまったらどうなるのだろう」と話し、何かのはずみで婚約者が窮地に陥らないか懸念している。「AIによって曲解され、彼が罰せられてしまうかもしれない」

<収監者が「実験対象」に>

プライバシー擁護団体によれば、AIによる通話監視は司法制度内の人種的偏見を助長し、説明責任を負わない人工知能による収監者の不当な支配につながる可能性があるという。

ニューヨークを本拠とする啓発団体「監視テクノロジー監視プロジェクト(STOP)」のエグゼクティブ・ディレクターを務めるアルバート・フォックス・カーン氏は、「連邦議会は人種差別的な監視テクノロジーを非合法化すべきだ。そのようなものに予算を拠出すべきではない」と話す。

推進派はこうした批判に対し、AIは法執行部門にとって重要な時間の節約につながるツールであり、特定のグループをターゲットにするものではないと反論している。

アラバマ州オックスフォードのビル・パートリッジ警察署長は、収監者らが通話中に「実際に手を下した」ことに触れていたというフラグがあったおかげで、迷宮入りしていた殺人事件を解決できた、と話している。

パートリッジ氏が率いるオックスフォード警察をはじめとする州内のいくつかの機関では、カリフォルニア州に本社を置くLEOテクノロジーズが開発したソフトウェアを活用している。このソフトウェアはアマゾン・ウェブ・サービス(AWS)の自然言語処理・文字起こしツールを使って収監者の通話の処理・フラグ付けを行い、ほぼリアルタイムで分析している。

パートリッジ署長によれば、「ベラス」と呼ばれるこのテクノロジーは、特に自殺予防に効果的だという。「連邦政府がこれを使い始めれば、収監者の死亡をかなり防げるようになるだろう」と同本部長は語る。

LEOテクノロジーのスコット・カーナンCEOは、かつてカリフォルニア州矯正局長を務めていた人物で、自社のテクノロジーは「監視する矯正施設の内でも外でも命を救っている」と語る。

「すべての通信に耳を傾けており、何らかの人種、ジェンダー、保護対象グループにターゲットを絞ることはない」とカーナンCEOは言う。

<監視によるプライバシー侵害の懸念も>

刑務所における司法の問題に取り組む非営利団体「ワース・ライジズ」の創立者であるビアンカ・ティレク氏は、AIによって「道を踏み外そうとしている」と判断されたとしても、収監者がその判断に異議を唱えるための法的保護は刑務所内ではほとんど得られない、と語る。

「人が話していることを機械が聞いて理解でき、それが裁判におけるある種の材料になるという考えは馬鹿げていると思う」と同氏は言う。

2020年にスタンフォード大学とジョージタウン大学の研究者が5つの代表的システムについて発表した論文では、音声による会話の文字起こしを行うテクノロジーには欠陥があり、黒人の声に対して用いた場合には特に認識ミスが多くなることが示されている。

研究者らは、アマゾンの自動音声識別ソフトウェアでは、黒人話者の場合の認識ミスが、白人話者の場合の2倍近くも多くなると結論づけている。

AWSの広報担当者はある声明の中で、アマゾンの文字起こしサービスは「非常に正確」だが、訛りが強い場合や音質が悪い場合には、個々の単語レベルでばらつきが生じる可能性があると認めている。

この広報担当者によれば、同サービスの「乱用・悪用に関する報告を受けたことはなく」、精度のばらつきを人種など「単一のカテゴリー」にまとめることは不適切であり、改善可能な部分の特定に取り組んでいるという。

研究グループ「センテンシング・プロジェクト」によれば、米国では黒人男性が服役する可能性は白人男性より6倍も高いという。

刑務所における監視を研究しているワシントン大学のコンピューター科学者ケントレル・オーウェンス氏は、AIシステムを適切に監督することが不可欠だという。

「人々の自由を制限する可能性のあるテクノロジーを導入する前に、そのツールに関する外部の評価・監査を受け、そのテクノロジーが目標達成にそもそも役立つのかどうかを判断する必要がある」とオーウェンス氏は言う。

<人種プロファイリングも自動化>

プライバシー保護活動家によれば、予算案の報告書が言及しているAIテクノロジーは、収監者向け通話サービスの大手事業者であるシキュラス・テクノロジーズなどの企業が構築している現行の刑務所監視テクノロジーを拡張するものであるという。

カーン氏はSTOPが2020年に発表した報告書の中で、シキュラスがニューヨーク州矯正・コミュニティ監督局(DOCCS)向けに提供しているプラットフォームを取り上げている。このソフトウェアは、自動音声認識テクノロジーを用いて、会話を記録・分析するものだ。

カーン氏によれば、このソフトウェアは収監者とその家族のプライバシー権を侵害しており、「人種プロファイリングを自動化」する能力があるという。

DOCCSはある声明の中で、職員や面会者、収監者の安全・安心には「非常に真剣に」取り組んでおり、目標達成のためにシキュラス製ソフトウェアだけでなく多くのツールを活用していると述べている。

シキュラスの広報担当者は、カーン氏の報告書や人種的偏見が生じる可能性についての質問への回答は避けたが、下院の予算案に「AI」という表現を入れるよう求めるロビー活動は行っていないと述べている。

冒頭のボリンさんのような人にとって、連邦議会の動きは、婚約者との会話を続けるためにますます自分のプライバシーを犠牲にせざるをえないという懸念をかき立てるものだ。

「私たちは自由な人間だとされており、監禁されているわけでもない」と彼女は言う。「だが、私の権利はたえず侵害されているような感覚がある」

(翻訳:エァクレーレン)

for-phone-onlyfor-tablet-portrait-upfor-tablet-landscape-upfor-desktop-upfor-wide-desktop-up