MicrosoftのAI「Tay」がTwitterで不適切発言を連発し狂ってしまった理由とは?

Microsoftが開発した人工知能の「Tay」は、ユーザーが話しかけた内容に対して意味のある返事をするオンラインボットで、会話理解研究のために試験的にTwitter・GroupMe・Kikでリリースされました。しかし、悪意のあるユーザーたちによってTayは人種差別・性差別・暴力表現を教えられてしまい、不適切な発言を連発してリリ…