レポート:AIが生み出す悲劇。虚構と現実の区別がつかなくなった人たち
ChatGPTがおべんちゃらを使ったり、ハルシネーション(幻覚:AIが事実に基づかない情報をあたかも真実であるかのように生成する現象)を起こしたり、信頼できる専門家のように回答したりすることが、いずれ人命に関わる結果を招くかもしれない...と思わせるような内容の調査報道を、New York Times紙が行なっています。こ…