AIと倫理は切り離せない!トロッコ問題から学ぶ判断の本質とは?【G検定対策】

G検定対策

はじめに

AIの社会実装が進むなか、技術そのもの以上に重要視されているのが「倫理」の問題だ。
特に自動運転や医療AIなど、人命に関わる分野では、倫理的な意思決定が避けられない。

G検定でも、こうしたAI倫理に関する設問が複数出題されている。今回はその中から、「トロッコ問題」に関する過去問を取り上げ、背景と正答の理由を整理しておこう。


スポンサーリンク
スポンサーリンク

トロッコ問題とは?

トロッコ問題(Trolley Problem)」とは、ある人間が直面する倫理的ジレンマを描いた思考実験だ。

例えばこういう状況がある:

暴走したトロッコが5人の作業員のいる線路に向かって進んでいる。
そのままでは5人が命を落とす。しかし、あなたの前にあるレバーを引けば、トロッコの進路を変えることができる。
ただし、別の線路には1人の作業員がいて、そちらに進めばその1人が犠牲になる。

あなたはレバーを引くべきか?
この問いは、AIが判断を下す場面においても無関係ではない。


実際の出題内容

以下のような問題が出題された。

以下の文章を読み、(●)に最もよく当てはまる選択肢を選べ。

(●)は、自動運転などのAIに関する倫理観の議論となる問題の1つであり、別名トロリー問題ともいわれる。

選択肢

  1. 局所的最適解
  2. トロッコ問題
  3. フレーム問題
  4. 過学習

正解は「2. トロッコ問題


なぜ「トロッコ問題」が正解なのか?

この設問では、「自動運転などのAIに関する倫理観の議論」「別名トロリー問題」といった文脈がヒントとなる。
トロッコ問題」はまさに倫理的ジレンマを問う代表的な事例であり、G検定でも頻出のキーワードとなっている。

人間であれば「直感的」「感情的」「状況的」な判断が可能だが、AIに同様の判断をさせるには、あらかじめルールを設ける必要がある。
自動運転車が事故を回避できない場合、AIは「より少ない犠牲を選ぶ」のか、それとも「ドライバーの命を優先する」のか。
こうした選択をどう設計するかが、AI倫理の核心だ。


他の選択肢が誤りである理由

それぞれの用語を理解しておくことで、G検定の他の問題にも対応しやすくなる。

選択肢 説明 なぜ誤りか
局所的最適解 全体最適ではなく、一部分だけを最適化した結果 倫理問題とは直接関係がない。最適化アルゴリズムの用語にあたる。
フレーム問題 AIが現実世界の無数の状況に対応しきれないという課題 倫理ではなく、知識表現や推論の制限に関する問題である。
過学習 学習データに依存しすぎて、汎化性能が低下する現象 機械学習モデルの性能に関わる問題であり、倫理とは無関係。

このように、他の選択肢はいずれもAI技術に関する問題であるものの、倫理観の議論という観点からはズレている。


トロッコ問題が現代のAIに突きつける問い

では、なぜG検定でトロッコ問題が問われるのか?
それは、AIが自律的に意思決定を行う時代において、「倫理的判断」をプログラムとして実装する必要があるからだ。

例えば、自動運転車が事故を回避できない状況に直面したとしよう。
以下のような選択が必要になる。

  • 子どもを避けるために高齢者に衝突するか?
  • 自車の乗員の命を優先するか、歩行者の命を優先するか?

このようなジレンマをどう処理するかは、技術だけでなく倫理の問題だ。
それを象徴するのが「トロッコ問題」なのである。


まとめ

G検定では、AI技術だけでなく「その技術をどう社会に実装すべきか」という倫理的視点が問われる。
特にトロッコ問題は、AIが現実世界で判断を迫られる場面において、避けて通れないテーマだ。

✅ トロッコ問題とは → AI倫理の典型的な思考実験
✅ なぜ出題されるのか → 自動運転など、倫理的判断を要する場面が増えているから
✅ 他の選択肢との違い → 技術的な課題ではなく、価値判断を問う問題

G検定合格を目指すなら、こうした倫理的観点も押さえておきたい。技術に詳しくなるだけでなく、社会との接点を意識した視野を持つことが、これからのAI人材に求められている。

コメント