科学技術は中立であるという思い込み
国連の「現代的形態の人種主義、人種差別、外国人排斥および関連する不寛容に関する特別報告者」であるアシュウィニ・K.P.氏は、国連人権理事会の第56会期(6/18~7/24)にて、人種差別とAI(人工知能)との関係に焦点をあてた報告書を提出しました。
アシュウィニ特別報告者は、生成AIの最近の発展と急速な実用化が深刻な人権問題を継続的に引き起こしており、それには人種差別に対する懸念も含まれると述べています。
この背景には、〈技術が中立的で客観的である〉という誤った観念が一般にまかり通っていることがあると報告書は指摘しています。実際には、AI技術はその設計者や使用者の価値観や利益を反映しており、社会にすでに存在する不平等な構造によって形作られているにも関わらず、技術に対する中立幻想によってこれが不可視化されることでAIによる人種差別が永続化されてしまうということです。
AIが人種差別を増長する交差的要因
アシュウィニ特別報告者は、構造的レイシズム[1]の観点からAIの影響を評価する必要があると指摘し、AIが人種差別を増長する交差的要素として以下の4つをあげています。
①データにおけるバイアス ②アルゴリズムの設計におけるバイアス ③差別的意図にもとづく利用 ④プロセスの不透明性、説明責任 |
AIが引き起こす人種差別的影響
報告書は、法執行機関、医療、教育の3つの領域でAIが引き起こしている人種差別的影響について取り上げています。
法執行機関において人種的偏見が再生産される一例として、将来犯罪をおかす可能性があるとされる人物や犯罪が発生する可能性のある場所を、位置情報や個人データに基づいて評価する「予測ポリシング(Predictive policing)」が挙げられます。
「予測ポリシング」についてアシュウィニ特別報告者は、「歴史的に人種にもとづいて過剰な警察活動を受けてきたコミュニティへの影響をさらに悪化させる可能性がある」と指摘し、「法執行機関が歴史的にそのような地域に重点を置いてきたため、その地域のコミュニティのメンバーは警察の記録に過剰に現れており、これが将来の犯罪が発生する場所をアルゴリズムが予測する際に影響を及ぼし、その地域への警察の配備が増加する結果となる」と述べています。また、刑事司法システムが再犯リスクを評価するために利用するAIツールのアルゴリズムが、人種差別に影響された過去の逮捕データを用いることで、将来の予測を歪める可能性があることにも報告書は警鐘を鳴らしています。
医療分野では、健康リスクスコアを作成するAIのアルゴリズムに人種に基づいた補正係数が使用されている事例などがあげられています。
また、教育ツールにAIを適用する際にも人種的な偏見が含まれることがあります。例えば、学業や職業における成功可能性を予測するアルゴリズムでは、アルゴリズムの設計やデータの選択によって、人種的マイノリティは成功する可能性が低いと評価されることが多いことが示されており、アシュウィニ特別報告者は、「社会経済的背景、教育水準、居住地などの変数を利用することが、人種の代用となり、歴史的な偏見を永続させる可能性がある」と指摘しています。
制度的レイシズムと国際人権法の理解にもとづいたAI規制の構築を
フォルカー・テュルク国連人権高等弁務官は、ビジョンステートメント「人権:解決への道筋」において、生成AIは人権を享受するための想像を超えた新たな機会を提供するが、その負の社会的影響はすでに広がっているとし、「人権に対するリスクが特に高い分野、例えば法執行機関においては、十分な安全対策が導入されるまで利用を停止することが唯一の選択肢である」と述べています。
アシュウィニ特別報告者もまた、AIの持つ影響力とその可能性を認識しながらも、AIがすべての社会問題の解決策とはならず、その利益とリスクのバランスを取るために効果的に管理されなければならないと強調します。
各国がAIの規制に対して人種差別の永続化のおそれを考慮し、より危機感を持って対応すること、構造的レイシズムと国際人権法に対する包括的な理解にもとづいたAI規制の枠組みを構築すること、すべてのAI技術の開発および導入において、人種的偏見を評価する明確な基準を含む包括的な人権デューデリジェンス評価を行う法的拘束力のある義務を確立すること、そして、人種差別を助長するなど、容認できない人権リスクがあると示されたAIシステムの使用を禁止することを提案しています。
[1] 構造的レイシズムについて報告書は「国家機関、民間セクター、社会構造において、法律、政策、慣行、態度が複雑に相互に関係し合うことで、意図的であるか無意図的であるかを問わず、人種、肌の色、世系、国籍または民族的出自にもとづく法的または事実上の差別、区別、排除、制限、または優遇が直接的または間接的に生じること」と定義しています。
【参照】
Racism and AI: "Bias from the past leads to bias in the future"
https://www.ohchr.org/en/stories/2024/07/racism-and-ai-bias-past-leads-bias-future
【参考】
人権の視点から生成AI(チャットGPT)への期待と懸念を考える(北口 末広)(国際人権ひろば No.176(2024年07月発行号)
https://www.hurights.or.jp/archives/newsletter/section4/2024/07/aigpt.html
(2024年09月05日 掲載)