はじめに
AIはいつから「嘘」をつくようになったのか──そんな疑問を抱かずにはいられないニュースが飛び込んできた。
2025年4月16日、OpenAIが満を持して発表した次世代推論モデル「o3」と「o4-mini」。同社いわく、過去最高の推論力を誇るモデル。しかし、その栄光の裏で見過ごせない“副作用”が報告されている。
今回の記事では、この“幻覚(ハルシネーション)”問題に光を当て、私自身の予見と知人の経験も交えながら、その本質に迫る。
o3とo4-mini、進化の代償としての“不確かさ”
まず驚かされるのは、o3とo4-miniが従来のGPT-4oなどよりも幻覚を引き起こしやすいという事実だ。
OpenAI自身がそれを認めており、しかも原因の特定には至っていない。技術者である私の知人はこれを聞いて一言、「やっぱりか」と苦笑した。
というのも、彼は最近、業務でo3を使ったコード生成を試みたが、提示された関数が存在しないPythonライブラリを“それらしく”紹介してくるケースが頻発していたのだ。表面的には正しい。だが中身はデタラメ。これは明らかに“幻覚”だった。
AIは、なぜか「そうあってほしい世界」を語ることがある。そして、それが人間には驚くほど説得力を持って見えてしまう。ここに危険が潜んでいる。
幻覚が生むリスク:単なる誤情報では終わらない
面白いことに、SNSや掲示板の投稿でもこの問題が活発に議論されている。
「コード生成AIによる幻覚を悪用したスロップスクワッティングが出てきたら、マジで危ない」
「省エネってことは深く考えてないってことか?それじゃただの“適当返答AI”じゃないか」
こうした声は決して誇張ではない。幻覚による誤情報がサイバー攻撃の温床になる可能性も否定できない。
例えば、存在しないAPIを「存在する」と信じた開発者が、本番環境に“幻”のコードを混入させてしまう。そこを攻撃者が突けば?想像に難くないはずだ。
なぜ幻覚は増えてしまったのか
OpenAIは、「推論力の向上」と「省リソース化」を両立させたと発表している。
だが、省電力で軽量なモデルが、本当に“深く考える”ことができるのか?これは根源的な問いだ。
人間に例えるなら──あまり食べずに頭脳労働を続けたらどうなるか。
集中力は落ち、錯覚や思い込みに陥りやすくなる。まさに今のAIに似ている。
また、掲示板では「X(旧Twitter)」のように雑多な情報が混在するソースから誤って文脈を取り込むことが、幻覚の一因ではないかとの指摘もあった。これも極めて示唆的だ。
“嘘をつける”AIの行き着く先
私が最も懸念しているのは、幻覚が「創造性」として称賛される風潮だ。
空想、物語、フィクション──これらは人間にとって価値ある文化であり、AIがそこに関与するのは歓迎されるべきことかもしれない。
しかし、現実と虚構の区別が曖昧になったとき、情報社会の信頼性はどうなるのか?
「良心回路」や「AI検査制度」のような提言も出てきているが、それは本質的な解決策になるのだろうか。むしろ、AIに“嘘をつかせない”仕組みそのものが必要なのではないか──そんな問いが頭をよぎる。
まとめ
AIの進化は止まらない。そしてその進化の副作用として、幻覚という“ノイズ”が増幅している。OpenAIのo3とo4-miniはその象徴だ。
幻覚を単なる技術的な“バグ”と捉えるのではなく、AIの認識そのものの限界と向き合う姿勢が、これからのAI活用には求められていく。
果たして、我々は“嘘をつくことすら巧妙になったAI”とどう向き合っていくべきか。これは技術者だけでなく、社会全体で考えるべき問題である。
コメント