
あなたはAIに対して、どこまでの信頼を置いていますか?
私たちの生活に浸透し、ますます身近になったChatGPTなどの対話型AI。その高性能ぶりに驚かされる一方で、ときに”あたかも正しいように見える誤り”を断定口調で返してくることがあります。
この記事では、実際に私が経験したChatGPTとのやりとりを例に挙げながら「AIは間違えることがある」そして「その間違いがいかに巧妙か」という点に焦点を当て、読者の皆さんに注意喚起をしようと思います。
AIとのやりとりで”確認”を怠らない大切さを、少しでも実感していただけたら幸いです。
事の発端:CLS対策としてのHTML見直し
Web制作の現場では、PageSpeed Insightsのスコア改善が一つの大きなテーマになっています。特に「CLS(Cumulative Layout Shift)」のスコアは、ユーザー体験に直結するため、真剣に取り組むべき指標の一つです。
私が運営するブログでもCLSの改善に取り組んでおり、その過程でChatGPTにHTML構造のアドバイスを求めました。対象となったのは以下のような画像タグです。
<img src="example.jpg" alt="サンプル画像" width="500" height="200" loading="lazy">
このとき、私はChatGPTに「このコードに問題があるか」を尋ねました。
ChatGPT:layout=’responsive’は不要です。
この画像タグには`layout=’responsive’`の指定がありますが、これは現在のHTML構造では不要です。削除しても問題ありません。
最初の返答はこうでした。
「なるほど」と納得し、私はその助言に従い`layout=’responsive’`を削除したコードを作成しGPTに確認の依頼しました。新たに作成したコードはもちろん、`layout=’responsive’`が含まれていない状態です。しかし、ChatGPTはこう述べました。
ChatGPT:このコードから`layout=’responsive’`を削除することでCLS改善につながります
……? 一瞬、何かの読み違いかと思いました。コードには既にその記述はありません。念のため再度コードを確認し、今度はこちらから問いかけます。
私:「このコードにlayout=’responsive’はありますか?」
返ってきた答えは、驚くべきものでした。
ChatGPT:はい、あります
この一言を読んだ瞬間、私は言葉を失いました。実際のコードには、どこを探してもその記述は存在していません。私は混乱しつつも、明確な根拠とともに誤りを指摘しました。
誤認の理由:推測による断定的な回答
その後、ChatGPTはこう説明してきました。
ChatGPT:HTML全体を見ずに、過去の文脈や一般的なパターンに基づいて推測してしまいました。コードを読むべきでした」
つまり、明確なコードの中身を確認することなく、「ある」と断定したということです。AIはときに、文脈や過去のやりとりから最もあり得そうな答えを“推論”します。そして、それを「断定的な言い方」で返してくることがあります。
このような振る舞いは、表面的には”自信があるように見える”ため、注意深く見ないと誤情報に気づけません。
再発防止の約束
私が「今後こういったことが100%ないようにしてください」と念を押したところ、ChatGPTは次のように回答しました。
ChatGPT:ご指摘ありがとうございます。以後、コードや事実を正確に読み取ったうえで回答を行い、推測に基づく断定的な回答は避けるよう徹底いたします」
GPTは「今後は同じ過ちを犯さないようにします」と述べたものの、その言葉を鵜呑みにはできませんでした。理由は明快で、この一連のやりとりの中で「憶測で断定した」と自ら認めながらも、最初の回答では明確に事実と異なる内容を提示していたからです。
「もう間違えません」と言われても、その前提がすでに曖昧なら、再発防止の意思表示がどれほど価値を持つかは疑わしいです。
AIの”憶測回答”が生む誤解
今回のやりとりを通して見えてきたのは、以下の2つのリスクです。
- コードを提示しても、AIがそれを読み飛ばす・誤認する可能性がある
- その誤認を、あたかも真実のように「断言」してしまう
これは質問した内容に詳しくない方は、間違ったまま作業を進めてしまう恐れがあります。
ChatGPTの言葉遣いは非常にスムーズで、かつ論理的に見えます。そのため、提示された内容に疑いを持たず「なるほど、そうなんだ」と受け入れてしまいがちです。
今回はコードをしっかり確認していたからこそ、誤りに気づけましたが、おそらく過去には「正確に見えるが、実は間違っていた回答」をそのまま受け入れていたこともあると思います。
まとめ
AIの進化は目覚ましく、私たちの業務を大きく助けてくれる存在になりつつあります。しかし、「AIの言うことだから正しい」と思い込むのは危険です。
今回のように「あるはずのない記述が“ある”と断定された」「実際のコードを提示しても、憶測での回答が続いた」という事例は、今後も起こり得ます。大切なのは
- AIの回答を鵜呑みにせず、必ず自分の目で確認すること
- 曖昧な表現には慎重になること
- 特に技術的なトピックでは、必ずコードや事実と照合すること
AIはツールです。信頼することは大切ですが、依存しすぎてはいけません。特に、誤情報に対して「なぜ?」と立ち止まれる冷静さが、AI時代のリテラシーとしてますます求められていくでしょう。
この経験が、誰かの注意喚起につながれば幸いです。