BingチャットAI、ハッカーの口車で秘密の禁止事項や本名・マイクロソフトからの指示を逐一喋ってしまう | テクノエッジ TechnoEdge

マイクロソフトがBing検索に組み込んだ会話AIが、巧みな指示で想定外の回答を引き出す「プロンプトインジェクション」ハックによって、本来はユーザーに開示してはいけないマイクロソフトからの指示や自分の「本名」を明かしてしまうできごとがありました。