Arvind Narayanan & Sayash Kapoor著「AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference」
人工知能(AI)にはさまざまな種類や用途があって、得意とする分野では目覚ましい成果をあげている一方、デタラメな効用を掲げてAIシステムを売り込む詐欺に近いビジネスも横行しており、それぞれについて個別にその有効性や危険性を考えるべきだと訴える本。このところAIに関する本を読みすぎたせいでマンネリを感じていたのだけど、ひさしぶりに刺激的だと感じた。
本書は多岐にわたるAIの用例のうち、ChatGPTに代表される生成的AI、政府や企業によって効率化に利用されている予測AI、そしてソーシャルメディアなどのコンテンツモデレーションなどに使われている分類AIの三種類に注目している。定義によってはスペルチェッカーやスパムフィルタだってAIだし、将来的な汎用人工知能の発達が人類存続の危機をもたらすと訴える人たちもいるが、すでに問題なく普及したものをことさら取り上げる必要はないし、将来の予測はどうせめったに当たらないので、いま現在AIとして採用が進み社会的問題が生じているのこの3つの種類のAIを扱うというのは納得。
ここ数年、生成的AIが飛躍的に進歩したことにより、一般の人たちも生成的AIを使って文章や画像・映像などを簡単に作れるようになった。生成的AIそのものにも、もっともらしい誤情報の生成や意図的なフェイクの生成、デマや差別的コンテンツの拡散や詐欺の横行などの問題があるが、生成される反社会的なコンテンツの問題よりも、その学習データとなった元のコンテンツの作り手の許諾を得たり利益を還元する仕組みがなく、一方的な搾取が行われ、また文化的多様性が失われていることのほうが大きな問題。アルゴリズムの改良や法制度の整備によって解決する問題と、大量の学習データを必要とするという生成的AIの根本的な問題は別に切り分ける必要がある。
また、それと並んで著者たちが指摘する弊害として、生成的AIがあまりにもうまくいくものだから、他の種類のAIも同じくらいうまくいくのだろうという誤解を与えていることだ。たとえば、犯罪者の処遇や求職者の審査、融資の判断などの目的で政府や企業によって大々的に採用されている予測AIはそのほとんどがそのアルゴリズムや根拠となるデータが秘匿されており、第三者による検証がまったく行われていない。ある受刑者が再犯するかどうか、求職者が会社に利益をもたらすかどうか、学生が良い成績を挙げて卒業するかどうかなど、人間や社会が関わる未来予測は困難であり、大量のデータをもってしても偶然よりややマシといった程度の精度しか実現できていない。心理学における「再現性の危機」を受け、著者らが予測AIに関する論文の再現性を検証しようとしたところ、そもそも再現検証できるだけのデータが公開されているものはほとんど存在しなかった。その程度の、信頼性も根拠もまったく不明なAIの判断によって機会を与えられたり奪われたりするのは理不尽だし、元となったデータに含まれたさまざまな格差の影響を増幅してしまう。
分類AIについては、たとえば過去に発見された性虐待メディア(いわゆる児童ポルノ)や海賊版コンテンツと同一かその近しい派生物を検出するアルゴリズムはかなり有効であり、仮に間違いが生じた場合でもきちんと対処すれば不利益は最小限に抑えることができる。その一方で、差別的なコンテンツや暴力の扇動、過去に発見・登録されていない性虐待メディアなどを自動的に検出するには、そうしたコンテンツが生じる文脈とそのニュアンスを正確に理解する必要があり、AIによる判断に置き換えることは難しい。したがって雇われた人間によるモデレーションが必要とされているが、アメリカやヨーロッパなどソーシャルメディア企業が大きな市場とみなす地域ではそうしたモデレーションが行われる一方、小さな市場においてはデマや暴力扇動が放置される傾向にあり、それがミャンマーによるロヒンギャ虐殺などの人道危機を引き起こしてしまった。これは技術の問題ではなくソーシャルメディアプラットフォーム運営企業の責任の問題。また主に西アフリカの人たちがそうしたモデレーションを行う労働力として採用されているが、かれらのケアや労働環境の問題もまた技術面とは別の問題として扱う必要がある。
なお、顔認識アルゴリズムによる誤認逮捕が(特にそれが黒人に集中していることもあり)批判されているが、実際に誤認逮捕が起きたケースでは顔認識システムを正しく使っていなかったり当たり前のチェックを行っていなかったことが主な原因であり、誤認よりも不公正な利用に注意すべきだと著者ら。中国政府によるウイグル人監視をはじめ、民主国家とされる国でも政府に対する抗議運動を萎縮させる形で使われている。また、顔の画像や映像からそれが誰なのか特定したり、別の場所で撮られた写真に写っていた人と同一人物だと判定するアルゴリズムは一定の信頼性を得ているが(だからこそKashmir Hill著「Your Face Belongs to Us: A Secretive Startup’s Quest to End Privacy as We Know It」に書かれているように危険だが)、顔の画像や映像からその人の感情を判別したり性別や年齢を特定したり、ましてや従業員としてふさわしいかどうか判定するアルゴリズムは未来予想と同様に信頼性に欠けており、企業や政府によって採用されるべきではない。
本書はこのように、さまざまなAIの用法についてそれぞれその信頼性と問題について分析し、また技術そのものに原因のある問題と社会的な問題、制度的に対処可能な問題とそうでない問題などを切り分け、どういうAIのどういう利用について慎重になるべきか丁寧に論じている。最近わたしはワシントン州政府のAI規制関連の話にちょっと噛んでるので、とてもいい整理をしてもらったと思った。