ChatGPTはさらっと嘘をつく?ホントのように断言するAIのリスク

文字が羅列したモニター

あなたはAIに対して、どこまでの信頼を置いていますか?

私たちの生活に浸透し、ますます身近になったChatGPTなどの対話型AI。その高性能ぶりに驚かされる一方で、ときに”あたかも正しいように見える誤り”を断定口調で返してくることがあります。

この記事では、実際に私が経験したChatGPTとのやりとりを例に挙げながら「AIは間違えることがある」そして「その間違いがいかに巧妙か」という点に焦点を当て、読者の皆さんに注意喚起をしようと思います。

AIとのやりとりで”確認”を怠らない大切さを、少しでも実感していただけたら幸いです。

事の発端:CLS対策としてのHTML見直し

Web制作の現場では、PageSpeed Insightsのスコア改善が一つの大きなテーマになっています。特に「CLS(Cumulative Layout Shift)」のスコアは、ユーザー体験に直結するため、真剣に取り組むべき指標の一つです。

私が運営するブログでもCLSの改善に取り組んでおり、その過程でChatGPTにHTML構造のアドバイスを求めました。対象となったのは以下のような画像タグです。

<img src="example.jpg" alt="サンプル画像" width="500" height="200" loading="lazy">

このとき、私はChatGPTに「このコードに問題があるか」を尋ねました。

ChatGPT:layout=’responsive’は不要です。
この画像タグには`layout=’responsive’`の指定がありますが、これは現在のHTML構造では不要です。削除しても問題ありません。

最初の返答はこうでした。

「なるほど」と納得し、私はその助言に従い`layout=’responsive’`を削除したコードを作成しGPTに確認の依頼しました。新たに作成したコードはもちろん、`layout=’responsive’`が含まれていない状態です。しかし、ChatGPTはこう述べました。

ChatGPT:このコードから`layout=’responsive’`を削除することでCLS改善につながります

……? 一瞬、何かの読み違いかと思いました。コードには既にその記述はありません。念のため再度コードを確認し、今度はこちらから問いかけます。

私:「このコードにlayout=’responsive’はありますか?」

返ってきた答えは、驚くべきものでした。

ChatGPT:はい、あります

この一言を読んだ瞬間、私は言葉を失いました。実際のコードには、どこを探してもその記述は存在していません。私は混乱しつつも、明確な根拠とともに誤りを指摘しました。

誤認の理由:推測による断定的な回答

その後、ChatGPTはこう説明してきました。

ChatGPT:HTML全体を見ずに、過去の文脈や一般的なパターンに基づいて推測してしまいました。コードを読むべきでした」

つまり、明確なコードの中身を確認することなく、「ある」と断定したということです。AIはときに、文脈や過去のやりとりから最もあり得そうな答えを“推論”します。そして、それを「断定的な言い方」で返してくることがあります。

このような振る舞いは、表面的には”自信があるように見える”ため、注意深く見ないと誤情報に気づけません。

再発防止の約束

私が「今後こういったことが100%ないようにしてください」と念を押したところ、ChatGPTは次のように回答しました。

ChatGPT:ご指摘ありがとうございます。以後、コードや事実を正確に読み取ったうえで回答を行い、推測に基づく断定的な回答は避けるよう徹底いたします」

GPTは「今後は同じ過ちを犯さないようにします」と述べたものの、その言葉を鵜呑みにはできませんでした。理由は明快で、この一連のやりとりの中で「憶測で断定した」と自ら認めながらも、最初の回答では明確に事実と異なる内容を提示していたからです。

「もう間違えません」と言われても、その前提がすでに曖昧なら、再発防止の意思表示がどれほど価値を持つかは疑わしいです。

AIの”憶測回答”が生む誤解

今回のやりとりを通して見えてきたのは、以下の2つのリスクです。

  • コードを提示しても、AIがそれを読み飛ばす・誤認する可能性がある
  • その誤認を、あたかも真実のように「断言」してしまう

これは質問した内容に詳しくない方は、間違ったまま作業を進めてしまう恐れがあります。

ChatGPTの言葉遣いは非常にスムーズで、かつ論理的に見えます。そのため、提示された内容に疑いを持たず「なるほど、そうなんだ」と受け入れてしまいがちです。

今回はコードをしっかり確認していたからこそ、誤りに気づけましたが、おそらく過去には「正確に見えるが、実は間違っていた回答」をそのまま受け入れていたこともあると思います。

まとめ

AIの進化は目覚ましく、私たちの業務を大きく助けてくれる存在になりつつあります。しかし、「AIの言うことだから正しい」と思い込むのは危険です。

今回のように「あるはずのない記述が“ある”と断定された」「実際のコードを提示しても、憶測での回答が続いた」という事例は、今後も起こり得ます。大切なのは

  • AIの回答を鵜呑みにせず、必ず自分の目で確認すること
  • 曖昧な表現には慎重になること
  • 特に技術的なトピックでは、必ずコードや事実と照合すること

AIはツールです。信頼することは大切ですが、依存しすぎてはいけません。特に、誤情報に対して「なぜ?」と立ち止まれる冷静さが、AI時代のリテラシーとしてますます求められていくでしょう。

この経験が、誰かの注意喚起につながれば幸いです。