ChatGPTの「ウソ」が巧妙化してきた…AI研究者が解説「ハルシネーションとうまく付き合うプロンプトの書き方」
「ノーベル文学賞を受賞したのは村上春樹を含め3人」と言われたら
Profile
ChatGPTを仕事でも使う人が増えているが、事実と異なる回答が出てくることが多い。北陸先端科学技術大学院大学客員教授の今井翔太さんは「現在のAIで間違いをなくすことは構造的に難しく、またなぜウソをつくのかも正確に解明できていない」という――。
仕事では使えない⁉ ChatGPTは驚くようなウソをつく
――対話式生成AIの「ChatGPTチャットジーピーティー」を仕事で使っていたところ、明らかなウソをつかれました。そのときに知ったのですが、こういった現象を「ハルシネーション」というそうですね。
【今井】はい。言語生成AIがウソの情報を出力してしまうことを「ハルシネーション(日本語では幻覚、妄想の意味)」と呼びます。われわれは、2022年11月30日にChatGPTが正式公開される前から、AIを研究しているわけですが、ハルシネーションは昔からある問題で、公開時は「江戸幕府を開いたのは織田信長です」とびっくりするような間違いもしていましたし、これだけ高性能なAIがなぜそんなウソを言ってしまうのか、現状では解決されていない。そもそもなぜハルシネーションが起こるかということも正確には明らかにできていない状況なんですね。