はじめに
AIの社会実装が進むなか、技術そのもの以上に重要視されているのが「倫理」の問題だ。
特に自動運転や医療AIなど、人命に関わる分野では、倫理的な意思決定が避けられない。
G検定でも、こうしたAI倫理に関する設問が複数出題されている。今回はその中から、「トロッコ問題」に関する過去問を取り上げ、背景と正答の理由を整理しておこう。
トロッコ問題とは?
「トロッコ問題(Trolley Problem)」とは、ある人間が直面する倫理的ジレンマを描いた思考実験だ。
例えばこういう状況がある:
暴走したトロッコが5人の作業員のいる線路に向かって進んでいる。
そのままでは5人が命を落とす。しかし、あなたの前にあるレバーを引けば、トロッコの進路を変えることができる。
ただし、別の線路には1人の作業員がいて、そちらに進めばその1人が犠牲になる。
あなたはレバーを引くべきか?
この問いは、AIが判断を下す場面においても無関係ではない。
実際の出題内容
以下のような問題が出題された。
以下の文章を読み、(●)に最もよく当てはまる選択肢を選べ。
(●)は、自動運転などのAIに関する倫理観の議論となる問題の1つであり、別名トロリー問題ともいわれる。
選択肢
- 局所的最適解
- トロッコ問題
- フレーム問題
- 過学習
正解は「2. トロッコ問題」
なぜ「トロッコ問題」が正解なのか?
この設問では、「自動運転などのAIに関する倫理観の議論」「別名トロリー問題」といった文脈がヒントとなる。
「トロッコ問題」はまさに倫理的ジレンマを問う代表的な事例であり、G検定でも頻出のキーワードとなっている。
人間であれば「直感的」「感情的」「状況的」な判断が可能だが、AIに同様の判断をさせるには、あらかじめルールを設ける必要がある。
自動運転車が事故を回避できない場合、AIは「より少ない犠牲を選ぶ」のか、それとも「ドライバーの命を優先する」のか。
こうした選択をどう設計するかが、AI倫理の核心だ。
他の選択肢が誤りである理由
それぞれの用語を理解しておくことで、G検定の他の問題にも対応しやすくなる。
選択肢 | 説明 | なぜ誤りか |
---|---|---|
局所的最適解 | 全体最適ではなく、一部分だけを最適化した結果 | 倫理問題とは直接関係がない。最適化アルゴリズムの用語にあたる。 |
フレーム問題 | AIが現実世界の無数の状況に対応しきれないという課題 | 倫理ではなく、知識表現や推論の制限に関する問題である。 |
過学習 | 学習データに依存しすぎて、汎化性能が低下する現象 | 機械学習モデルの性能に関わる問題であり、倫理とは無関係。 |
このように、他の選択肢はいずれもAI技術に関する問題であるものの、倫理観の議論という観点からはズレている。
トロッコ問題が現代のAIに突きつける問い
では、なぜG検定でトロッコ問題が問われるのか?
それは、AIが自律的に意思決定を行う時代において、「倫理的判断」をプログラムとして実装する必要があるからだ。
例えば、自動運転車が事故を回避できない状況に直面したとしよう。
以下のような選択が必要になる。
- 子どもを避けるために高齢者に衝突するか?
- 自車の乗員の命を優先するか、歩行者の命を優先するか?
このようなジレンマをどう処理するかは、技術だけでなく倫理の問題だ。
それを象徴するのが「トロッコ問題」なのである。
まとめ
G検定では、AI技術だけでなく「その技術をどう社会に実装すべきか」という倫理的視点が問われる。
特にトロッコ問題は、AIが現実世界で判断を迫られる場面において、避けて通れないテーマだ。
✅ トロッコ問題とは → AI倫理の典型的な思考実験
✅ なぜ出題されるのか → 自動運転など、倫理的判断を要する場面が増えているから
✅ 他の選択肢との違い → 技術的な課題ではなく、価値判断を問う問題
G検定合格を目指すなら、こうした倫理的観点も押さえておきたい。技術に詳しくなるだけでなく、社会との接点を意識した視野を持つことが、これからのAI人材に求められている。
コメント