Gerd Gigerenzer著「How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms」

How to Stay Smart in a Smart World

Gerd Gigerenzer著「How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms

ドイツ出身の心理学者による人工知能とその限界についての本。人工知能はチェスや将棋のようにルールが明快な安定した環境においては強いけれども不安定要素が多い現実においては通用しないことが多いとして、たとえば自動運転車が現存するどの道でも安全に走れるようになることはない、と指摘する。これは、街角に設置した監視カメラによって指名手配犯を正確に発見したり、再犯の可能性が高い犯罪者や児童虐待の可能性が高い家庭を正確に判定することが難しいことも意味するが、実際にはできないのに「できる」として人工知能を使ったシステムが民間企業によって売り込まれたり、国家によって採用されたりする危険は高い。中国政府が展開している「社会的信用システム」はそのおぞましい一例だが、アメリカには人口あたりで中国を上回る数の監視カメラがすでに設置されているし、ソーシャルメディアの記録や経済活動を結びつけた個人データの売買はほとんど規制されていない。

以前読んだErik J. Larson著「The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do」でもビッグデータを使った人工知能は一部で言われているほど有効ではない、と指摘されていたけれども、Larsonでは「だからそれほど懸念しなくて良い」という結論だった。ところが本書では、言われているほど防犯や病気の診断・治療に有効でないにもかかわらず、それが有効であるという前提で採用されることで社会的不公正が助長され、しかもそれがどのような理由で起きているのかすら検証できない状態になることが指摘されている。

著者は政府や民間企業による個人情報の収集に対する規制の強化とともに、利用者が利用料を払うかわりにプライバシーを売り渡すことで成立しているソーシャルメディアのあり方自体を変革すべきだと主張している。ソーシャルメディアによる広告ターゲティングはそれほど正確ではないしほかの宣伝方法より有効だという根拠も薄いけれど、それが正確だという前提で利用され、その結果人々が受け取る情報に差が生まれてしまっていることが問題だという議論。個人情報収集を規制するとともに、広告モデルからサブスクリプションモデルに変更することで、そのインセンティヴを無くすべきだという感じ。

心理学者ならではの内容としては、人間の心理をコンピュータで再現しようとする「心理学的人工知能」がうまくいかずに一時期人工知能研究が行き詰まり、その後インターネットやスマートフォンの発展によりデータポイントが増えたため現在のビッグデータを使った人工知能に取って代わられた、という人工知能研究の歴史の部分はおもしろかった。わたしの知り合いのコンピュータサイエンティストで1990年代終盤に機械翻訳をやろうとしていた人がいたけれど、コンピュータに言語を教えるのは結局無理だという結論に至った、と言っていたのを思い出した。当時はまだコンピュータに言語を教えようと頑張っていたんだ(いまの機械翻訳は言語を教えようとせずにただ大量のデータを放り込んで確率計算させている)、と思うと時代を感じる。