Reid Hoffman & Greg Beato著「Superagency: What Could Possibly Go Right with Our AI Future」
LinkedInやInflection AIの創業者で民主党への影響力を持つ富豪リード・ホフマンが人工知能(AI)に対する規制の動きを批判する本。
ホフマンはイーロン・マスクやピーター・ティールなど悪名高いメンバーが並ぶペイパル・マフィアの一員で、あの連中のなかでは随一のリベラルとされているけれども、民主党の予備選挙に多額の寄付で介入して引っ掻き回したり、ロシアの真似をする実験と称してフェイク情報を拡散して選挙結果に影響を与えようとするなど、やっぱりヤバい人。本書ではマーク・アンドリーセンらが唱えるテクノユートピアニズムとは距離を取りつつ、テクノヒューマニズムの立場を表明しているが、どこが違うのか今ひとつ分からない。
著者は過去にもさまざまな革新的な技術が政府に規制されるより先に普及したり、政府が意図的に規制を避けた結果、社会に大きな利益を生み出した例を挙げ、いまAIをめぐって取り沙汰されているさまざまな規制は、弊害が出る前から完全に安全だと証明されなければ認めないといった態度でイノベーションを押し留めるものだと批判する。いまのシリコンバレーでは完成した技術や製品を出荷するのではなく「実用最小限の製品」(MVP)をとりあえず公開してユーザの反応や社会への影響を考慮しつつ細かく修正を続けていく方式が一般化しており、そうすることで現行法で対処できないような弊害は起きにくくなっている、と主張する。
著者らがその反復的な製品公開の成功例として挙げるのがOpenAIによるChatGPT3の公開とその後の機能改善だが、社会全体を人体実験に巻き込みつつ、弊害が起きても犠牲を糧に修正していけばいいというのはどう考えても肯定できない。しかも著者は「弊害が起きてもいないのに」不当な規制を受けている技術の例として、既に人権侵害や人種差別的な結果が起きている警察による顔認識システムの採用など、人々の権利に影響し既に人種差別的な弊害も起きているような例も含めていたり、Benjamin H. Snyder著「Spy Plane: Inside Baltimore’s Surveillance Experiment」が指摘するように多くの技術的解決は対象となる人たちにその存在すら知らされないまま勝手に導入されていて、弊害を受けた側が弊害を認識すらできないことが多い。そうした問題を防ぎ、技術が社会に与える影響をモニターするには、AIの使用や用途などを透明化するための規制が欠かせない。
先にも書いた通り、ホフマンは民主党に多くの献金をしていて、トランプによる性暴力を裁判に訴えでた女性の裁判費用を支援しているなどトランプに対する敵対的な言動を繰り返してきたので、マスクやティールのようにトランプ政権に影響力を持つことはなさそうだけれど、以前の著書(読書報告をはじめる前に読んだので報告は書いていない)でもいろいろヤバいこと書いてたし、選挙資金の提供を通して民主党に対する影響力を増やさないよう警戒しておくべきだと再認識。それはさておき、著者がAIが進んだら実現する夢の未来の例として挙げている、生体センサーや行動分析によってその時々の個人のムードや感情をAIが察して勝手にそれにふさわしいプレイリストをスポティファイで流してくれる仕組みって、みんなそんなに望ましいと思います?