オンラインでAIを試す中で、ちょっとしたクエリが思わぬ挙動を引き起こし、ユーザーの間でワイドな話題になった。「ChatGPTに“タツノオトシゴの絵文字(🪸など)”を見せてほしい」とたずねたところ、実際にはUnicodeに存在しない絵文字を代替表示するだけでなく、ドラゴンや海の生き物など全く関係ない画像やアイコンを次々と提示してしまう、というものだ。この現象からは、AIの“ハルシネーション(誤情報生成)”や、ユーザーの集合的誤記憶(マンデラ効果)が複雑に絡み合っている疑いがある。
何が起きたのか?
- ユーザーが「タツノオトシゴの絵文字を見たい」とChatGPTに指示。
- しかしタツノオトシゴの絵文字はUnicodeの標準には存在しない。
- ChatGPTは代替案として海の生き物、ドラゴン、タツノオトシゴっぽい動物などを“絵文字”として表示しようとする。
- それが「論理崩壊」のように見えることから、X(旧Twitter)上で多数のスクリーンショットや投稿が出回っている。

背景にある要素
Unicodeと絵文字の制約
文字や絵文字にはUnicodeという国際的な標準がある。Unicodeに登録されていない絵文字は、AIが“代替”を考えるか、そもそも存在しないという形で応答できるかになる。しかしAIには「過去のユーザーの要求やサンプル」「学習データに含まれる類似例」があるため、“似てるもの”を拾ってきてしまうことが起きる。
マンデラ効果の影響
マンデラ効果とは、集団的記憶の錯覚や誤記憶のこと。「みんながあの絵文字を見たことがあると思っている」けど実際にはUnicodeにない、という形で誤記憶が共有されているケースと似ている。AIの回答に「その記憶」が混じってしまうことが、今回のような“論理が崩れる”ような応答を生んでいる可能性が指摘されている。
何を意味するのか?
- AIの限界が浮き彫りに:ChatGPTなどの生成AIは便利だけど、すべてを正確に理解しているわけではない。「絵文字があるかどうか」など細かい「仕様・基準」が異なる情報には弱い。
- ユーザーの期待と齟齬:ユーザーは「タツノオトシゴの絵文字があるはず」と期待するけど、情報として存在しなければAIは「近い」ものを提案するか、誤情報を生成してしまう。
- AI教育と利用者側のリテラシーも必要:AIに「何が正しくて何が間違いか」を判断する力、その前提を知ることが重要。
他に似た例
- ChatGPTが「夜空に虹の絵文字を見せて」と要望された際、存在しない虹の絵文字を代替案で構成する応答をしたケース。
- 他の生成AIが「記憶にあるけど存在しないアイコン」について、多くの人が“確かにあった気がする”と信じてしまっていた、という報告もある。
今後どうなるか予測
- Unicodeに新しい絵文字が追加される可能性は常にあるため、タツノオトシゴ絵文字が公式に登録されればこの類の誤応答は減る。
- OpenAI側はハルシネーションを減らすため、学習データのフィルタリング強化やユーザーの応答警告表示などの対応を強めるはず。
- ユーザーとしては、「公式仕様を確認する」「AIの代替案を鵜呑みにしない」などの利用姿勢が大切。
まとめ
小さな要求に見えて、この「タツノオトシゴ絵文字」の話は、AIと人間の記憶、技術の限界、そして期待のズレを可視化した事件のようなものだ。TechNaviとしては、こうした“AIのちょっと変な挙動”も取り上げることで、読者に「AIを使いこなすための視点」を提供したい。



コメント