生成AIの「幻覚」防ぐグラウンディング、ハルシネーションの解決策をひもとく

 大規模言語モデル(LLM)ベースの生成AI(人工知能)を企業が活用する際の大きな課題は、AIがデタラメを述べる「ハルシネーション(幻覚)」だ。自社の商品サービスを顧客に説明するAIがハルシネーションを起こしたら、企業の評価を毀損する恐れすらある。