大規模言語モデル(LLM)が生成する「ハルシネーション(幻覚)」。このもっともらしい嘘は、AIの信頼性を揺るがす最も重要で根深い課題だ。今回、OpenAIは新たな研究論文を発表し、なぜこの問題が最新モデルですら根絶できな ... <a title="なぜChatGPTは嘘をつくのか?OpenAIが自ら明かす「ハルシネーション」の根本原因" class="read-more" href="https://xenospectrum.com/why-ai-hallucinates-openai-reveals-true-cause/" aria-label="なぜChatGPTは嘘をつくのか?OpenAIが自ら明かす「ハルシネーション」の根本原因 についてさらに読む">Read more</a>