Virginia Eubanks著「Automating Inequality: How High-tech Tools Profile, Police, and Punish the Poor」

Automating Inequality

Virginia Eubanks著「Automating Inequality: How High-tech Tools Profile, Police, and Punish the Poor

犯罪予防・捜査や福祉、教育、医療、その他のさまざまな場面で政府の決定に使われているアルゴリズムの危険性を訴える本。誰を犯罪容疑で捜査するのか、誰を収監し誰を釈放するのか、どの家庭が児童虐待の可能性が高いのか、誰に生活保護を出すべきなのか、どのホームレスの人に優先的に住居を与えるべきなのか、など多くの場面で、政府職員は大きな影響のある判断を迫られる。そうした重大な決定を個人の判断に任せることは、人種差別やその他のバイアスの介在を許し、結果的に不合理かつ不公平な結果をもたらしてしまう、という反省から、データをもとにしたアルゴリズムに判断を任せたほうがいい、という考え方が広まっている。しかしデータやアルゴリズムは必ずしも公平ではない。

たとえば犯罪者の再犯率のデータがあったとして、そのデータは実際には「再犯した割合」ではなく「再犯したとして逮捕された割合」のデータだ。もし警察の取り締まりが人種差別やその他の差別に基づいていた場合、そのデータは特定の人種の人たちが実際に「再犯した割合」より多く逮捕されたことを示すことになる。そのデータをもとにしたアルゴリズムが特定の人種の容疑者の刑罰や刑期を重くした場合、その事自体が不公平なだけでなく、その人たちの釈放後の社会復帰をより難しくし、結果として再犯を犯す人の割合を増やすかもしれない。つまり一見客観的に見えるデータやアルゴリズムは、現存する差別や格差を反映するだけでなく、より拡大するように機能しかねない。

この本はそうしたデータやアルゴリズムの悪用や失敗の実例を多数挙げ、それらを防ぐための方策––おもにアルゴリズムの透明性と検証可能性の担保と民主的な監視––を訴える。必読。