重磅干货,第一时间送达 ![]() 会议之眼 快讯 ![]() 2亿港元AI换脸视频诈骗案 近期,香港警方曝光了一宗令人震惊的AI“多人换脸”诈骗案,案涉金额高达2亿港元。据悉,在这起案件中,一家跨国公司的香港分部员工受邀参加一场由总部首席财务官发起的多人视频会议。在会议中,该员工按照指示多次进行转账,将大笔资金转入5个本地银行账户。直至事后向总部查询时才发现受骗。警方调查揭示,这场所谓的视频会议中,除受害者外,其余参与者全都是通过AI换脸技术伪装的诈骗者。这一事件不仅暴露了人工智能技术被恶意利用的危险性,更凸显了诈骗手段的不断翻新与进化,警示着公众对于网络安全的日益重要性。 ![]() 科技公司老板被骗430万 据悉,福州市一家科技公司的法人代表郭先生接到了一个微信视频电话,声称是他的好友。对方声称有个朋友在外地参加投标,需要借用郭先生公司的公对公账户转430万元保证金。好友还发来了银行转账单的截图,称已经将钱打到了郭先生的账户上。虽然郭先生觉得好友的面貌和声音都没有问题。 但后来才发现这是对方利用智能AI换脸技术冒充的。郭先生表示:“他一直没有跟我说要借钱,只说会先把钱打给我,再让我转给他朋友。而且视频里面我也认出了他的长相和声音,所以我就没有多想。” 这种涉及AI合成视频、换脸、换声技术的诈骗案件引起了广泛关注。这起案件涉及利用先进的人工智能技术,制作虚假视频,将受害者的好友、家人或其他熟悉的人物的面部特征和声音进行替换,以此来诱骗受害者转账或透露个人敏感信息。这一案件再次提醒我们,虚拟身份的制作已经达到了前所未有的逼真程度,我们必须提高警惕,加强网络安全意识! AI合成语音绑架案 根据迈克菲(McAfee)在2023年发布的调查报告,令人震惊的发现揭示了网络安全的深层挑战。据报告显示,仅需提供3-4秒的录音,网络上的免费AI工具即可生成相似度达到85%的克隆人声,这引发了对语音合成技术的深切担忧。调查涵盖了7000多位全球受访者,其中70%的人表示无法确定是否能够分辨AI合成语音,而大约有10%的人曾遭遇过AI语音诈骗的不幸经历。尤其令人担忧的是,社交媒体上出现了大量留学生的发帖,描述了他们遭遇利用AI合成本人语音进行诈骗的经历。这些诈骗手法以绑架为借口,发布AI合成的求救语音,同时利用时空差制造恐慌心理,进而骗取大量资金。通过AI技术,诈骗者能够模仿受害者亲友的声音,进行精准诈骗,使得识别和防范变得更加困难。 如何防范应对AI诈骗? 在AI时代,我们要善于利用人工智能技术来预防和应对各种诈骗。善用AI技术将成为我们保护个人和财产安全的重要手段。 AI换脸诈骗防范策略: 1、面部运动验证:要求对方在视频通话中做一些特定的面部运动,如侧脸转向、面部遮挡、捏鼻子等,以辨识AI换脸的可能性。 2、使用AI视频识别工具:利用如Deepware这样的AI视频识别工具,对可疑视频进行分析,以识别AI生成或换脸内容。 3、注意社交平台标记:留意短视频平台对AI内容的标记提醒,如“疑似包含AI创作信息”的提示,作为识别AI生成视频的参考。 AI合成语音诈骗防范策略: 1、语音内容辨析:引导对方说出一些特定的话或问题,通过内容上的辨析来判断真伪。 2、保护声音样本:避免在不安全的环境中透露过多的声音信息,减少声音样本被用于AI合成的机会。 3、使用AI语音检测工具:使用会议之眼、AI Voice Detector等工具。 AI虚假信息诈骗防范策略: 1、使用AI文本检测工具:使用如会议之眼、GPTZero、Copyleaks等工具,来检测文本内容是否由AI生成。 通用防范策略: 1、提高个人防范意识:对于任何未经验证的信息,特别是涉及金钱交易的请求,保持警惕。 2、多重验证:在进行任何形式的转账或提供敏感信息之前,通过其他渠道核实对方身份。 3、教育和培训:定期接受有关AI诈骗手段和防范方法的教育和培训,更新知识和防范策略。 通过这些策略,我们可以在一定程度上提高对AI诈骗的防范能力,减少受害风险。 官方网址:https://www./ 还在犹豫什么?快来免费体验吧! ![]() |
|