电话那头的声音听来跟真的没两样,美国一名母亲听到「女儿」啜泣求救,之后一名男子接过电话,要求支付赎金。 但其实女孩的声音来自人工智慧(AI)合成,绑架当然也是假的。 法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网路罪犯能有廉价又有效的技术来散播假讯息。 新型诈骗震撼美国当局,歹徒使用网路上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。 住在亚利桑那州的迪斯特法诺(Jennifer DeStefano)听到电话那头传来:「救我,妈,救我。」迪斯特法诺「100%」确定那是她15岁的女儿在滑雪时陷入麻烦。迪斯特法诺4月告诉当地电视台:「问题不是那是谁,那就是她的声音…她哭起来就是那样。」 在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。 这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能「分辨真假语音」。 加州大学柏克莱分校资讯学院教授法瑞德(Hany Farid)告诉法新社:「因为现在制作高仿真的语音非常容易…网路上几乎无人能幸免。这些诈骗正广为流行。」 今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于「恶意用途」,先前就有用户发布透过「深伪技术」(Deepfake)合成的语音,假冒英国女星艾玛华森(Emma Watson)读希特勒自传「我的奋斗」(Mein Kampf)。
© 维加斯新闻网和维加斯新闻报版权所有,转载必究 隐私权政策 All Rights Reserved. ©2018 lvcnn.com Software ©2018 Las Vegas Chinese News Network Corp.