2025.09.08
生成AIにおけるハルシネーションとは?発生する原因や対策をご紹介
「業務で生成AIを活用したいけれど、偽の情報を出力するかもしれない…」といった、ハルシネーションのリスクを感じている方もいるのではないでしょうか?
本記事では、生成AIにおけるハルシネーションとはどのようなものなのかを詳しく解説します。原因や頻発する理由、発生しやすいトラブルなどもわかりやすくまとめました。
AIにおけるハルシネーションとは?
まずは、生成AIを業務利用するうえで避けては通れない「ハルシネーション」という現象について、発生メカニズムを解説します。
- ハルシネーションはAIが誤った情報を生成する現象のこと
- ハルシネーションが生成AIで頻発する理由
とくに生成AIで頻発する理由についても、触れています。
ハルシネーションはAIが誤った情報を生成する現象のこと
ハルシネーション(Hallucination)とは、英語で幻覚や幻影を指す言葉です。このことから、生成AIにおけるハルシネーションとは、生成AIが事実とは異なる情報を提供することを指します。
信憑性のある情報のなかに、誤った情報が紛れ込むため、ハルシネーションが発生している部分を見つけにくいのが特徴です。
AIモデルの学習目的が「事実の正確性」よりも「文章の流暢さ」を優先するため、もっともらしく聞こえる回答を生成するリスクがあります。
ハルシネーションが生成AIで頻発する理由
ハルシネーションは従来型のAIよりも、生成AIで頻発する傾向です。従来のAIは、指定されたルールや限定されたデータにもとづいて回答を出力していました。しかし、生成AIは膨大かつ多様なテキストデータから統計的なパターンを学習し、次に来る単語を予測して文章を生成するため、事実と異なる内容を生成する可能性があります。
生成AIが学習するデータにも、古い情報や誤った情報、偏った情報などが含まれていることがあります。その場合、統計的に出力結果に反映させてしまうため、結果的に誤った回答が生まれてしまいます。
たとえば、とある国の文化の偏った情報のみを処理した場合、一方的な主張が生成されるなどです。
ハルシネーションは生成AIの仕組み上、避けることが難しいとされています。しかし、昨今では生成AIのアップデートなどにより、ハルシネーションの発生率も低くなっています。
完全に防ぐことは難しいですが、プロンプトの調整や人間によるファクトチェックなど、適切な対策をすれば、影響を抑えられるでしょう。
AIにおけるハルシネーションの種類
生成AIにおける、ハルシネーションの主な種類について解説します。
- 学習に用いたデータとは異なる事実を出力する(Intrinsic Hallucinations)
- 学習に用いたデータには存在しないものを出力する(Extrinsic Hallucinations)
それぞれ順番に見ていきましょう。
学習に用いたデータとは異なる事実を出力する(Intrinsic Hallucinations)
内在的ハルシネーション(Intrinsic Hallucinations)は、学習データとは異なる内容を出力するものです。
参照すべき情報よりも、AIがもつ膨大で一般的な事前学習知識を優先してしまったり、重要なキーワードや数値を正確に捉えきれなかったりする場合に発生します。
たとえば、製品マニュアルに「保証期間は2年」と書かれているにもかかわらず、AIが「保証期間は3年です」と回答するケースがこれに該当します。
対策としては、生成AIに情報の出所を提示するように指示することが有効です。
学習に用いたデータには存在しないものを出力する(Extrinsic Hallucinations)
外在的ハルシネーション(Extrinsic Hallucinations)は、学習データには含まれていないにもかかわらず、AIが統計的推測で“もっともらしい情報”を補った回答を生成する現象のことです。
生成AIが学習済みの広範なデータから、統計的にもっともらしい言葉をつなぎ合わせて、それらしい「作り話」を生成してしまいます。
生成AIが、情報を完全に捏造(ファブリケーション)している状態であり、より検知が難しく、ビジネスにおいて訴訟や取引停止などのリスクにつながりやすいタイプです。
対策としては、生成AIの回答を制限し、常に外部の事実と照合する、ファクトチェックのプロセスを組み込むことが有効です。
AIにおけるハルシネーションの原因は?
生成AIによるハルシネーションの根本的な原因について、さまざまな観点から深掘りして解説します。
- 学習データの不足や偏りがある
- AIモデルの構造的な限界がある
- 曖昧なプロンプトによるもの
- AIが文脈を理解できていない
それぞれの原因を見ていきましょう。
学習データの不足や偏りがある
生成AIの学習データそのものに、不足や偏り、誤った情報などがあると、ハルシネーションが発生する原因となります。
生成AIは膨大なテキストを学習しますが、学習データには事実と異なる情報や、すでに古くなった情報があふれています。生成AIは、情報の真偽を判断する能力をもっていません。そのため、事実として学習してしまうのです。
専門分野や最新情報では学習データが不足しがちです。そのため、生成AIは確率的な推測を根拠に回答を組み立ててしまい、事実と異なる内容を「正しそうな情報」として出力するリスクが高まります。
AIモデルの構造的な限界がある
ハルシネーションは、現在のAIモデルがもつ構造的な限界も原因のひとつです。
生成AIは、「人間のように流暢で、もっともらしい文章を生成すること」を最優先にしています。そのため、事実として正しい難しい表現よりも、事実とは異なっていても統計的に出現しやすい表現があれば、後者を選択してしまうことがあります。
生成AIの構造を理解し、出力結果を真実ではなく、あくまでも仮説として扱うことが重要です。
曖昧なプロンプトによるもの
生成AIの利用者が、曖昧な指示・プロンプトを入力した場合、ハルシネーションを引き起こす場合があります。
AIは人間のように文脈や暗黙の了解を汲み取れないため、誤った回答やハルシネーションが発生します。
曖昧なプロンプトを避けるためには、いつ・どこで・誰が・何を・どのようにといった、5W1Hを含めるのがコツです。
たとえば「広告デザイン案を出して」だけでは伝わりにくいでしょう。「30代の薄毛に悩んでいる男性に対して、シャンプーを訴求する広告デザイン案を出して」のように具体化すると、よりイメージに近い出力結果が得られます。
AIが文脈を理解できていない
ハルシネーションが発生する原因のひとつに、プロンプトが適切であっても、AI自身の処理能力に限界があるため、AIが文脈を理解できていないことがあります。
たとえば、多くの会話ラリーや長文を扱う際に、AIが対話の初期段階で与えられた重要な情報を忘れてしまうことがあります。矛盾した内容や、無関係な回答を生成するかもしれません。
長い文脈を扱うタスクでは、重要な情報をプロンプトの最後に含める、対話の要約を定期的にプロンプトに含めるといった工夫が有効です。
ハルシネーションが引き起こすAIリスク
生成AIによるハルシネーションで、企業や社会にどのような具体的なリスクをもたらすのかを解説します。
- 誤情報が拡散する
- 誤った情報をもとにした判断によるトラブル
- 名誉毀損や法的な責任問題が発生する
- 企業への信頼が低下する
リスクを踏まえたうえで、生成AIを利用する体制を整えることが大切です。
誤情報が拡散する
生成AIがハルシネーションを引き起こすことで、誤情報が拡散するリスクがあります。
生成AIは、専門知識がなくても、人間が書いたかのような自然な文章を低コストで大量生産できます。そのため、AIによって生成された偽情報が企業のブログコンテンツやSNSで拡散されることもあるでしょう。
一度拡散されると、真偽を検証する作業が追いつかなくなるため注意が必要です。
誤った情報をもとにした判断によるトラブル
生成AIがハルシネーションを起こすと、それを信じた従業員や経営層が、誤った意思決定を下すおそれもあります。
たとえば、AIが生成した市場調査レポートの需要予測を信じて大規模な投資をした結果、製品がまったく売れずに莫大な損失を被る、といった事態も起こり得ます。
AIによる分析結果は、あくまで意思決定の参考情報と位置づけ、人間によるファクトチェック(事実確認)が欠かせません。
名誉毀損や法的な責任問題が発生する
生成AIによるハルシネーションは、名誉毀損や著作権侵害につながるリスクもあります。
たとえば、実在する個人や企業に関する虚偽の情報を生成することで、企業が肖像権の侵害や名誉毀損など予期せぬ法的責任を負うことになります。
AIの生成物を利用する際には、内容が第三者の権利を侵害していないかを確認してください。人間による確認体制を整えることが重要です。
企業への信頼が低下する
企業が提供するサービスや公式な情報発信においてハルシネーションが発生すると、顧客や市場からの信頼が低下するリスクがあります。
株価の下落やブランドイメージの毀損といった、深刻な経済的打撃につながる可能性があります。
顧客や取引先に正確な情報を伝えるためにも、生成AIの回答はそのまま使用せずに、必ず人間の目で一度チェックを挟むことが大切です。複数の情報源をもとにファクトチェックしながら、出力結果の正確性を担保します。
AIにおけるハルシネーションの対策方法
AIのハルシネーションリスクを管理する、具体的な対策方法を解説します。
- 学習データの品質を向上させる
- 外部データを参照させる
- ファクトチェックを実施する
- プロンプトを調節する
上記の4つについて、詳しく見ていきましょう。
学習データの品質を向上させる
AIに学習させるデータの品質を向上させることで、ハルシネーションの発生確率を下げられます。最新の情報かつ、偏りのないデータセットを用意することが大切です。
具体的には、信頼できる情報源である、査読済みの学術論文や公的機関の統計データなどを優先的に使用します。
しかし、多くの企業にとって、AIモデルの学習データ自体を直接管理することは現実的ではありません。そのため、より実践的な対策は、信頼できる「自社のデータ」をAIにリアルタイムで参照させる仕組みを構築することです。
外部データを参照させる
AIのハルシネーションを抑える方法として、信頼できる外部データを参照させる手法があります。
グラウンディングでは、社内規定や製品マニュアルなどの確かな情報源に接地させ、取得した事実情報をもとに回答を生成します。
RAG(検索拡張生成)では、データベースや検索結果から関連情報を取得して回答に反映させることで、最新かつ正確な知識を活用することが可能です。
外部データの参照は、専門知識や最新情報が必要な場面でとくに有効です。
ファクトチェックを実施する
生成AIの出力は、一見正確に見えても誤情報を含む可能性があります。そのため、信頼できる複数の情報源と照合し、事実かどうかを確認するファクトチェックが必要です。
とくに数値や固有名詞、引用内容は優先的に検証します。必ず、人間の目で確認し、情報に責任をもつようにしましょう。
また、出力結果に対して出典やソースを確認することも有効です。生成AIに根拠となる情報源を明示させることで、事実と推測を区別しやすくなり、誤情報の拡散を防げます。とくに専門性の高い内容は、提示されたソースを自ら検証することが重要です。
生成AIの誤りを早期に発見することで、企業の信頼を失うリスクを最小限に抑えられます。
プロンプトを調節する
AIへの指示(プロンプト)の出し方を工夫することは、手軽で即効性のあるハルシネーション対策です。
AIは与えられた指示を文字通りに解釈するため、具体的で明確な指示を与えることで、出力結果を変えられます。曖昧さを排除し、AIが推測に頼る余地を減らすことが、意図しない応答を防ぐポイントです。
たとえば、ただ「要約して」と指示するのではなく、「以下の文章を、小学生にもわかるように、300字以内の箇条書きで要約してください」のように、具体的に指示するとよいでしょう。
AIでハルシネーションを起こさないプロンプトの書き方
生成AIでハルシネーションを起こさないために、今日から実践できる具体的なプロンプトの書き方のコツを紹介します。
- 具体的で詳細な指示を出す
- 情報源を明示させる
AIへの指示の出し方を工夫するだけで、出力結果の品質が向上するでしょう。
具体的で詳細な指示を出す
AIへの指示は、5W1Hを意識して、具体的かつ詳細に記述することが大切です。
- いつ
- どこで
- 誰が
- 何を
- なぜ
- どのように
たとえば、悪い例としては「スキンケアブランドのマーケティング施策を考えて」「会社のセキュリティーについて教えて」など、抽象的なプロンプトが挙げられます。
プロンプトは、下記のように目的や条件を明確にすることで、回答の質が向上します。
「20代女性向けの新しいスキンケアブランドのマーケティング戦略について、SNSを中心とした具体的な施策を3つ提案してください」
「新入社員向けに、会社のセキュリティポリシーをわかりやすく500文字以内にまとめてください」
情報源を明示させる
生成AIを利用する際には、プロンプトに「引用元を示してください」という指示を含めることで、根拠のない情報を生成するリスクを抑えられます。
たとえば、「提供された社内文書『2025年度事業計画書.pdf』の内容のみにもとづいて、新規事業の概要を要約してください。回答の各部分が文書の何ページにもとづいているか、[P.XX]の形式で明記してください」と指示します。
まとめ
生成AIが誤った情報を提示するハルシネーションは、ビジネス上の大きなリスクになります。場合によっては、法的な問題に発展するおそれもあります。
原因を理解し、適切な対策を実施することが大切です。自社の用途に合わせて、安全な生成AIの運用を心がけましょう。
生成AIの導入に関するお困りごとがある方は、富士フイルムビジネスイノベーションのお問い合わせフォームより、お気軽にご相談ください。AIを活用した、業務フローの改善をわかりやすくご提案いたします。