MENU

ヒューライツ大阪は
国際人権情報の
交流ハブをめざします

  1. TOP
  2. 資料館
  3. ニュース・イン・ブリーフ
  4. 人種差別とAI:「過去の偏見が未来の偏見を生む」

ニュース・イン・ブリーフ サイト内検索

 

Powered by Google


ニュース・イン・ブリーフ Archives


人種差別とAI:「過去の偏見が未来の偏見を生む」

科学技術は中立であるという思い込み

 国連の「現代的形態の人種主義、人種差別、外国人排斥および関連する不寛容に関する特別報告者」であるアシュウィニ・K.P.氏は、国連人権理事会の第56会期(6/187/24)にて、人種差別とAI(人工知能)との関係に焦点をあてた報告書を提出しました。

 アシュウィニ特別報告者は、生成AIの最近の発展と急速な実用化が深刻な人権問題を継続的に引き起こしており、それには人種差別に対する懸念も含まれると述べています。

 この背景には、〈技術が中立的で客観的である〉という誤った観念が一般にまかり通っていることがあると報告書は指摘しています。実際には、AI技術はその設計者や使用者の価値観や利益を反映しており、社会にすでに存在する不平等な構造によって形作られているにも関わらず、技術に対する中立幻想によってこれが不可視化されることでAIによる人種差別が永続化されてしまうということです。

AIが人種差別を増長する交差的要因

 アシュウィニ特別報告者は、構造的レイシズム[1]の観点からAIの影響を評価する必要があると指摘し、AIが人種差別を増長する交差的要素として以下の4つをあげています。

①データにおけるバイアス
 アルゴリズムの訓練に使用されるデータ集合は、しばしば不完全であり、特定の属性の人々が過剰または過小に含まれることでアルゴリズムのバイアスが生じる。またデータ集合にバイアスを帯びたデータが含まれる可能性もある。

②アルゴリズムの設計におけるバイアス
 仮にアルゴリズムの訓練に使用されるデータが完全であっても、アルゴリズムの設計がバイアスの影響を受ける可能性がある。アルゴリズムの設計者が、アルゴリズムに使用する変数、情報を分類するためのカテゴリーや閾値の定義、アルゴリズムを構築するために使用されるデータなどについて行う選択にバイアスが紛れ込むことで偏った結果を導く。

③差別的意図にもとづく利用
 AIは、人種差別的な目的で使用されることで差別的な結果をもたらす場合がある。例えば、法執行機関が、人種差別的な基準に基づいて特定のコミュニティを監視し、過剰に警戒するために意図的にAIを使用しているという報告がある。また、AIが明確に人種差別的な目的で使用されるもう一つの方法として、偽情報の拡散がある。政治的なアクターがAIを使用して、テキスト、画像、動画を生成し、世論や政治的プロセスを操作して自分たちに有利に働かせたり、制度への信頼を損なわせたりすることが可能であり、それが人種的な分断を助長する場合もある。

④プロセスの不透明性、説明責任
 AIが人間から独立して意思決定を行うとき、特にAIのアルゴリズムが自ら更新を続けるうちに当初プログラムされていなかった新しいパターンをコードや意思決定に組み込むようになると、その意思決定プロセスは不透明で外からは分からなくなる。また、企業によって開発されたアルゴリズムの多くが、契約や知的財産法の制約により精査されないことは、説明責任の問題を悪化させる。これらは、人種差別を経験する人々が救済を求めて司法にアクセスすることへのさらなる障壁となる。

AIが引き起こす人種差別的影響

 報告書は、法執行機関、医療、教育の3つの領域でAIが引き起こしている人種差別的影響について取り上げています。

 法執行機関において人種的偏見が再生産される一例として、将来犯罪をおかす可能性があるとされる人物や犯罪が発生する可能性のある場所を、位置情報や個人データに基づいて評価する「予測ポリシング(Predictive policing)」が挙げられます。

 「予測ポリシング」についてアシュウィニ特別報告者は、「歴史的に人種にもとづいて過剰な警察活動を受けてきたコミュニティへの影響をさらに悪化させる可能性がある」と指摘し、「法執行機関が歴史的にそのような地域に重点を置いてきたため、その地域のコミュニティのメンバーは警察の記録に過剰に現れており、これが将来の犯罪が発生する場所をアルゴリズムが予測する際に影響を及ぼし、その地域への警察の配備が増加する結果となる」と述べています。また、刑事司法システムが再犯リスクを評価するために利用するAIツールのアルゴリズムが、人種差別に影響された過去の逮捕データを用いることで、将来の予測を歪める可能性があることにも報告書は警鐘を鳴らしています。

 医療分野では、健康リスクスコアを作成するAIのアルゴリズムに人種に基づいた補正係数が使用されている事例などがあげられています。

 また、教育ツールにAIを適用する際にも人種的な偏見が含まれることがあります。例えば、学業や職業における成功可能性を予測するアルゴリズムでは、アルゴリズムの設計やデータの選択によって、人種的マイノリティは成功する可能性が低いと評価されることが多いことが示されており、アシュウィニ特別報告者は、「社会経済的背景、教育水準、居住地などの変数を利用することが、人種の代用となり、歴史的な偏見を永続させる可能性がある」と指摘しています。

制度的レイシズムと国際人権法の理解にもとづいたAI規制の構築を

 フォルカー・テュルク国連人権高等弁務官は、ビジョンステートメント「人権:解決への道筋」において、生成AIは人権を享受するための想像を超えた新たな機会を提供するが、その負の社会的影響はすでに広がっているとし、「人権に対するリスクが特に高い分野、例えば法執行機関においては、十分な安全対策が導入されるまで利用を停止することが唯一の選択肢である」と述べています。

 アシュウィニ特別報告者もまた、AIの持つ影響力とその可能性を認識しながらも、AIがすべての社会問題の解決策とはならず、その利益とリスクのバランスを取るために効果的に管理されなければならないと強調します。

 各国がAIの規制に対して人種差別の永続化のおそれを考慮し、より危機感を持って対応すること、構造的レイシズムと国際人権法に対する包括的な理解にもとづいたAI規制の枠組みを構築すること、すべてのAI技術の開発および導入において、人種的偏見を評価する明確な基準を含む包括的な人権デューデリジェンス評価を行う法的拘束力のある義務を確立すること、そして、人種差別を助長するなど、容認できない人権リスクがあると示されたAIシステムの使用を禁止することを提案しています。

[1] 構造的レイシズムについて報告書は「国家機関、民間セクター、社会構造において、法律、政策、慣行、態度が複雑に相互に関係し合うことで、意図的であるか無意図的であるかを問わず、人種、肌の色、世系、国籍または民族的出自にもとづく法的または事実上の差別、区別、排除、制限、または優遇が直接的または間接的に生じること」と定義しています。

【参照】

Racism and AI: "Bias from the past leads to bias in the future"
https://www.ohchr.org/en/stories/2024/07/racism-and-ai-bias-past-leads-bias-future

【参考】

人権の視点から生成AI(チャットGPT)への期待と懸念を考える(北口 末広)(国際人権ひろば No.176(202407月発行号)
https://www.hurights.or.jp/archives/newsletter/section4/2024/07/aigpt.html

(2024年09月05日 掲載)