Daniel Oberhaus著「The Silicon Shrink: How Artificial Intelligence Made the World an Asylum」

The Silicon Shrink

Daniel Oberhaus著「The Silicon Shrink: How Artificial Intelligence Made the World an Asylum

精神疾患や自殺の危険性を早期に検出し必要なサポートを行うとされる人工知能(AI)の開発・実用化が進むなか、その可能性とともに危険を警告する本。著者はWIRED誌でも働いていたテクノロジー記者で、いじめを受け幼ない頃から精神的な困難に悩まされた妹を自殺で失っている。

妹が2018年に自殺したあと、彼女のソーシャルメディアアカウントを閉じたりネットに残していたたくさんの文章や写真を保存したりとデジタル世代に特有の追悼の役割を果たしたのは著者だった。もともとテクノロジーを専門とするライターとして働いていた著者は、妹が苦しみながらこうしたテクノロジーに居場所を求めていたことを知り、もしかしたらテクノロジーが彼女を救うことができたのでは、という考えを抱く。当時はまだ精神医学におけるAIの採用は進んでいなかったが、ここ数年でAIの利用は爆発的に普及しており、その多くが医療として認可を受けず学術的な検証も経ずに次々に市場に投入されている。

AIツールの無規範な実用化・市場投入やそれによるプライバシー侵害、利用者のメンタルヘルスへの悪影響、その他さまざまな問題について取り上げられている点はAIの現状について批判的な多数の書籍と同じだけれど、本書はそうした問題がAIによってのみもたらされるものでなく、もとはといえば精神医学の側に大きな原因があることを指摘する。フロイドの精神分析に源流を持ちながら医学のほかの分野と対等な科学であろうとしてきた精神医学は、しかしいまだに精神疾患の多くについて科学的な診断や治療を行うことができているとは言い難い。

精神医学は精神疾患の背後に何らかの心理的な問題があると考えるが、その心理的な問題を直接診察することはできない。そこで近年、患者の内面ではなく観察できる行動(本人の報告を含む)だけを対象として扱う行動主義の考えが主流になったが、そもそも医師が観察できる範囲には限界がある。しかしスマートフォンやソーシャルメディア、そしてさまざまなスマートデバイスやスマート家電、監視カメラなどの普及により、わたしたちのデータは医師ではなくテック企業によって事細かに収集され、市場で売買されるようになった。その結果、一見精神疾患とは何の関係もなさそうな日常的な行動がビッグデータによって特定の診断と結びつけられたり、自殺や自傷のリスクと関連付けられたりする。

ここで言うデータとは、ソーシャルメディアへの書き込みやウェブサイトの閲覧履歴のような明らかなものだけでなく、デバイスのカメラが捉える顔の画像・映像やアプリの開閉、通話やテキストメッセージの履歴、位置情報、スクロールのやりかた、ゲームを遊ぶときの癖から、歩くときの体重移動、その他デバイスやアプリが常に収集する大量のデータが含まれる。こうした個人情報が本人の知らないうちに(アプリをはじめて使ったときに「同意する」というボタンを押しただけで許可を出したことになる)集められ、それが精神疾患のある人や自殺(未遂)を起こした人のデータと比較されるというのはそれだけで気色悪いし、それが他人に知られて就職やその他の場面で不利になるようなおそれもある。

さらに精神医療の分野でこの問題をさらに複雑にしているのは、そもそも信用できる精神疾患患者のデータベースがどこにもないという点だ。診断基準は個々の医師や心理学者によって大きく異なるし、同じ診断を受けた患者たちは「症状のリストのうち一定の数が該当した」というだけでお互い一つも同じ症状を経験していないということもある。また患者の個人情報は法律で保護されており、そこらのベンチャー企業が簡単にアクセスすることはできない。そこでそれらの企業は、ソーシャルメディアなどで精神疾患の診断を明かしているアカウントを分析してデータベースを構築しているが、かれらが本当に診断を受けた人なのか、そもそもAIによって作られたスパムアカウントでない実在の人間なのかすら分からない。ソーシャルメディアで診断名を明かしている人のデータが精神疾患を持つ患者一般にも当てはまるのかも怪しい。

一時期、フェイスブックで自殺や自傷を生配信する人が続出したことが騒がれ、フェイスブックは自殺や自傷をしそうなアカウントをAIを使って自動的に特定し警察に通報するというプログラムを実施したが、全国で何千人もの人たちのもとを地元の警察が不必要に訪れる結果となった。多くの街では自殺や精神疾患についての専門的な訓練を受けた警察官はおらず、精神的に不安定な人は警察を襲う危険もあるという認識で警察官たちは出動するため、拳銃を構えた警察官が多くの人たちを訪れた。大多数の人はそもそも警察の助けを必要としていなかったし、なんらかの助けを必要としていた人に対しても警察の対応は当人を刺激しただけで逆効果だった。

さらにAIチャットボットが登場すると、AIはセラピストではない、と言ったところで多くの人たちがセラピストの代わりとしてチャットボットに依存するようになるが、自殺のやり方を教えたり、性虐待被害を告白した未成年におかしな対応をしたという例が多数報告された。ChatGPTのような汎用チャットボットだけでなく、カウンセリングを行う専用のチャットボットも多数登場したが、それらはあくまでエンターテインメント、あるいは自己啓発本をインタラクティヴにしただけ、といった説明がされ、安全性や有効性の裏付けもないまま提供されている。そうしたチャットボットを展開するテック企業のなかには、ユーザの会話データを別のAIの訓練のために売るなどプライバシーへの配慮を極度に欠いているものや、ユーザを実験台にして集めたデータを元に医療としての認可を目指すという既存の医療器具認可や臨床実験のプロセスではありえない戦略を取るものもある。

著者はテクノロジー記者であり、以前WIRED誌で働いていたことからも分かるように、反テクノロジー論者ではない。若い妹を自殺によって失った遺族としても、テクノロジーが彼女のような人たちを救ってくれることを期待している一人だ。しかし安全性や有効性の検証すら後回しにしたままテック業界が進めている監視資本主義・データ行動主義的な解決は、少なくとも当面は弊害のほうが大きそう。AIを精神医学に有効に利用するためには精神疾患とその患者についての良質なデータが必要だが、個人情報保護の仕組みを別としても、そもそも精神医学に良質な診断データは存在しない。AIの発展段階で言うなら写真に写っているがネコなのかイヌなのか正確に判定した学習データすらない(たとえばある患者が気分障害なのか不安障害なのか専門家の判断を一致させる方法がなく、当然信頼できる臨床データベースもない)状況においてAIに精神疾患の検出や診断、自殺の危険度の査定を行うのは不可能であり、またチャットボットにセラピストの役割を与えるのであれば医療器具として通常の認可プロセスに従うべき。医療ではないと言いつつ医療のような使われ方をするテクノロジーについては、利用者の健康やプライバシーを保護する施策も進める必要がある。