AI音声を詐欺に悪用 3秒の素材で親族らになりすまし - 日本経済新聞

人工知能(AI)で人間の声を合成する「ディープフェイクボイス」を悪用した詐欺への懸念が米国など海外で高まっている。想定されるのは人工の声で親族らになりすまし金銭をだまし取る手口だ。3〜4秒間の音声データがあれば高い精度で合成できるとされ、日本でも被害の恐れがある。専門家は検知技術の向上といった対策の必…