Matt Britton著「Generation AI: Why Generation Alpha and the Age Of AI Will Change Everything」
「デジタル・ネイティヴ」と呼ばれたミレニアル世代やZ世代に続き、「AIネイティヴ」なアルファ世代が社会に出ることで社会がどう変わるか論じる本。と見せかけつつ、世代がどうとかでなく普通に「AIによって世の中はこうなる!」的なよくある本だった。
書いてある内容にとくに目新しいものはない。たとえば著者はChatGPTに自分の医療データを全部アップロードして、○年後に自分が死ぬとしたら最もありそうな死因は何かリストアップしてもらい生活習慣の改善に役立てた、と言うけれど本当に健康に長生きために役立っているかはまだ分からないし、ChatGPTのプライバシー設定を過信するのもどうかと。ていうかChatGPTが学習したデータセットが人種や性別・階級などの点で偏っているせいで同じAIシステムを使っても恩恵を受けられる人とそうでない人がいるけれど、恩恵を受けられない人ほど通常の医療へのアクセスを持たないので医者ではなくAIに頼らざるをえない状況が生まれている。
アルファ世代の若い人たちがチャットボットや仮想人格AIの利用により現実の人間との関係を失ってしまったり、間違った情報を与えられて心身の健康を損なうような問題もあるけれど、著者は「親や教師がきちんと指導しろ」というだけ。アルファ世代の親であるミレニアル世代はデジタル・ネイティヴだから大丈夫っしょ、って言うんだけど、勝手に有害なシステムを公開しておいて親や教師に責任を押し付けるテック業界の論理をそのまま繰り返しているだけ。また、AIにおけるバイアスの問題について取り上げる部分で例として挙げられるのは「歴史的な集団の画像を求められたグーグルのGeminiが当時ありえない構成の集団の画像を作成した」件。
たとえばGeminiを使ってナチスドイツの兵士の画像を生成したところ、なぜか女性や黒人の兵士が混ざっているの画像が生成された、みたいな話が2024年に右派メディアや政治家らによって「シリコンバレーの行き過ぎたダイバーシティ路線の証拠」としてDEIバッシングに利用されたのだけれど、これはAIのバイアスの実例というよりは、生成AIにありがちな白人男性中心主義的なバイアス(たとえば兵士や医者、弁護士の画像を求めると、白人男性の画像ばかりが生成されてしまう)を是正しようとして内部プロンプトをいじったところやり方を間違えた例だし、そもそも生成AIの評判が傷ついた以外に直接の被害は起きていない。いっぽう、福祉受給資格の審査や不正受給の摘発、警察による取り締まり場所の選定や犯罪容疑者の特定、人事採用や大学入学の際の応募者の評価、親が子どもを虐待する可能性や仮釈放された犯罪容疑者や受刑者が再犯する危険の審査など、過去の偏ったデータを学習したAIが実用化され既に人権に関わる重大な問題が起きているようなバイアスについては触れられない。
唯一おもしろいと思ったのは、著者が本書を書くにあたって実際にどういうAIツールをどのように使ったか書いている、巻末だったりする。たとえば本書は序章がClaudeによって書かれているほか、元の原稿をClaudeにアップロードして「最低でも95%は元の表現を残し、自分の文章スタイルを残したまま、残りは自由に改善してくれ」と頼んだと書いていたり。あと、著者は自分自身の執筆や発言のスタイルを学習させたチャットボットも公開しており、読者は本書に関する疑問や質問を著者AIにぶつけることができるという。ほかにも様々なAIを著者がどう使っているのか書かれていて、あんまり真似をしたいと思うものはないのだけれど、そこそこ参考になる。ていうかわたし、読書報告を現時点で1300冊分以上も書いてブログに載せてきたのだけれど、そろそろ電子書籍をチャットボットにアップロードしたらわたしっぽいスタイルで勝手に読書報告を書いてくれるシステムを作れそうな気がする。