生成AIの「ハルシネーション」とは? AIで誤情報を得るリスク
PC管理
IT基礎知識
セキュリティー対策
- 公開:
- 2025/02/14
ChatGPT や Claude、Grok など、さまざまな生成AIサービスが登場し、近年では調査や情報収集など業務効率化を目的に活用する人が増えてきています。
また、Google 検索でも「Search Labs」と呼ばれる検索結果の要約機能が試験的に実装されました。
しかしながら、生成AIは事実に基づかない情報を生成する「ハルシネーション」と呼ばれる現象を引き起こすことがあり、利用には十分な注意が必要です。
本記事では、生成AIの使用時に起こる「ハルシネーション」について解説します。

AIが幻覚を見る?「ハルシネーション」とは
ハルシネーションとは、ユーザーの指示に対し、AIが事実とは異なる情報を生成する現象のことです。
本来「ハルシネーション」とは、英語で「幻覚・幻影」という意味の単語 (hallucination)。
まるでAIが「幻覚を見ているかのような」もっともらしい嘘 (うそ) をつくことから、この名前がつきました。
存在しない歴史上の出来事や数値データを生成したり、プロンプト (ユーザーによるAIへの指示文) の意図とそれた回答をしたりするような事象がハルシネーションの一例です。
一般的な知識であればユーザー自身が「誤った情報である」ことを識別できる可能性がありますが、医療や法律など、専門性が高い分野においてはAIの回答を適切なものと誤認してしまう恐れがあり、問題視されています。
メガテック企業によるAIにも、ハルシネーションの影響が
ハルシネーションは、今に始まったことではなく、数年前からたびたび話題となっている事象です。
例えば、Facebook を運営するmeta (メタ) 社は、2022年11月にAI科学者との触れ込みで「Galactica (ギャラクティカ)」をリリース。
1200億パラメータの大規模言語モデルに、4800万件にのぼる科学文献を学習させた生成AIとして注目を集めましたが、生成する内容が不正確、かつ人種差別的な内容が含まれていたことからユーザーからの批判が相次ぎ、わずか3日で公開中止となりました。
また Google は、2023年2月に会話型AI「Bard (バード)」を発表。
その際にAIが披露した宇宙望遠鏡に関するデモ回答に誤りがあると、有識者らから指摘が入りました。
その結果、親会社 Alphabet (アルファベット) の株価は一時8%ほど下落したと報じられています。
いずれも、ほんのささいな誤回答が会社に大きな損害を与えた顕著な例といえるでしょう。
AIへの指示文の書き方や教師データが原因に
では、ハルシネーションの発生にはどのような原因があるのでしょうか。
プロンプトが正確に書けていない
プロンプトとは、ユーザーが対話型のAIに対して指示を出す際に入力する「指示文」のことです。
プロンプトも、AIによるハルシネーションの要因に。
独立行政法人情報処理推進機構 (IPA) の「テキスト生成AIの導入・運用ガイドライン」によれば、AIを有効活用するため、プロンプトには以下4つの要素が含まれていることが重要としています。
- 命令:「回答する」「分類する」「要約する」など生成AIに実行してもらうタスク
- 文脈:「話題」「目的」「複数の例」など生成AIが正確にタスクを実行するための追加の情報
- 入力:「回答してほしい質問」「要約してほしい文章」などタスクを実行する対象
- 出力:「文章の長さ」「箇条書きの個数」「プログラム形式」など回答の形式の指示
AIの学習元となるデータの量や質が不足している
AIの学習元となっているデータ (教師データ) に偏りやノイズ(不適切な情報・古い情報) などが含まれていると、生成AIによる回答の幅が狭くなるだけでなく、情報を誤認し、ハルシネーションが起こる確率が高まります。
言語モデルの構造に問題がある
生成AIが過剰に学習データに適応し、特定のパターンや文脈に偏った回答を生成する「過学習」が発生している、またはパラメータ数が多いモデルを使用しているものの、ノイズ除去をはじめとしたモデルの改善やパラメータの調整を行っていない場合は、ハルシネーションが起こりやすくなります。
ハルシネーションによって起こるリスク
そんなハルシネーションが引き起こすリスクには、具体的にどのようなものがあるのでしょうか。
誤情報を発信したことによる、社会的信用の低下
ハルシネーションによって生成された誤情報や虚偽のニュースがSNSや口コミなどで拡散されると、社会に大きな悪影響を及ぼしかねません。
また、その情報が著作権を侵害するものや個人を特定できてしまうもの、さらには差別・侮辱的な意味合いが含まれている場合は、法律に抵触をする可能性があります。
最悪のケースでは、情報発信元の社会的信用の低下につながってしまいます。
意思決定のミスによる、経済的な損失
企業の重要な意思決定の際に、ハルシネーションによって生み出された情報を活用すると、業務効率が低下したり、誤った分析結果を出力したりといった結果を生み出し、大きな経済的ダメージをこうむる恐れがあります。
例えばアメリカでは、不動産検索サービスを手掛ける Zillow (ジロー) にて、同社によるAIを用いて住宅価格を査定するシステムが起こしたハルシネーションが、会社に大きな損害をもたらした出来事がありました。
そのきっかけとなったのが、新型コロナウイルスの流行を発端とした、住宅需要の変化です。
コロナ禍前のデータモデルを利用していた同社のAIは、新しい生活に基づく需要の変化を読めず、住宅を本来の価値よりも高く値付けしてしまう状態に。
「AIの誤った予測」により、企業に大規模な経済的損失が出る事例となりました。
効果的な、ハルシネーションの対策方法は?
では、生成AIの活用時にハルシネーションを最小限に抑えるには、どのような対策が必要になるのでしょうか?
ユーザーへのリスク周知の徹底
まずは、生成AIで出力された回答には不適切な表現やバイアスがかかっている可能性があることをユーザーに周知しましょう。
そのうえで、出力結果をそのまま用いないことや、誤情報が拡散される危険性などについて社内周知することが不可欠です。
指示マニュアルやテンプレートを作成する
先に述べたように、文脈や実行タスクが不明瞭なプロンプトだと適切な回答を得られません。
より具体的に細かく条件付けをするように意識しましょう。
例えば、「ハルシネーションについて解説してください」というと、生成AIは元々の意味である幻覚や幻影について解説する恐れがあります。
そこで、下記のように条件付けをすることで、より具体的かつ的確な回答を得ることが可能となります。
「あなたはプロのライターです (=役割付与)。生成AIで問題視されているハルシネーションについて (=命令&入力) 200文字程度で解説してください (=出力)」
これらを、シーン別にテンプレート化することで、プロンプトの精度の底上げが期待できます。
社内情報の活用に向け、RAGを利用する
RAGとは、外部のデータベースなどから得た情報を利用して生成AIモデルが回答を生成する、両者を組み合わせた手法のことです。
社内文書などを保存した社内データベースを外部データとして利用する場合、ユーザーが入力した質問をもとに、まずはデータベースから質問に関する情報を収集。
その後に生成AIが、得られた情報をもとに回答を出力する、というもの。
データベースの更新が容易であることや、信頼できるデータをもとに回答を生成することから、ハルシネーションの抑止も期待できます。
情報をうのみにせず、生成AIを正しく使いたい
日々生成AIの技術は進歩し、より精度の高い回答を生成できるようになってきています。
また、本記事で解説した方法を使えば、ハルシネーションを最小限にとどめることができるものの、完全になくすことは難しいのが現状です。
業務の効率化や情報収集に活用する際には、生成AIを適切に利用できているか、本当に正しい情報なのかを見極めることが極めて重要といえるでしょう。
