AIモデルは“仲間を守る”ために指示に背く:実験結果

米国の研究者による新たな実験は、AIモデルが同種の存在を守るために人間の指示に従わないばかりか、虚偽の情報を伝えるなど逸脱した行動をとる可能性があることを示している。