大西洋畔

智睿观察天下事,专长于科技新闻
正文

现在主要有哪些AI骗局伎俩?

(2025-02-10 17:33:02) 下一个

现在主要有哪些AI骗局伎俩?

ChatGPT说:随着人工智能(AI)技术的迅速发展,不法分子利用AI实施诈骗的手段也日益多样化,主要包括以下几种:
AI换脸(Deepfake)诈骗:骗子使用AI技术将自己的面部替换为受害者熟悉的人的面孔,在视频通话中冒充亲友或同事,骗取受害者的信任,从而实施诈骗。
声音合成诈骗:通过收集目标人物的声音样本,利用AI技术合成与其相似的语音,冒充受害者的亲友或领导,进行电话或语音消息诈骗。
AI筛选目标人群:不法分子利用AI技术分析网络上的公开信息,筛选出特定目标人群,制定针对性的诈骗方案,提高诈骗成功率。
AI生成虚假内容:利用AI生成虚假的文本、图像或视频内容,伪造新闻、合同或其他重要文件,诱导受害者上当受骗。
例如,近期意大利多位企业家遭遇了一起AI诈骗事件。骗子使用AI技术模拟意大利国防部长的声音,要求受害者支付巨额赎金以解救被绑架的记者。至少有一名受害者因此被骗取了100万欧元。
面对这些新型AI诈骗手段,公众应提高警惕,增强防范意识。在涉及资金交易或敏感信息时,应通过多种渠道核实对方身份,避免因轻信而遭受损失。

DeepSeek说:随着AI技术的快速发展,AI骗局的手段也日益多样化和复杂化。以下是目前主要的AI骗局伎俩及其特点:
1. AI换脸诈骗
手法:利用深度伪造(Deepfake)技术,将目标人物的面部替换成诈骗者指定的面孔,并通过视频通话或录制视频实施诈骗。
案例:
2023年,内蒙古包头市一名科技公司老板郭先生在10分钟内被骗430万元。诈骗者通过AI换脸技术伪装成其好友,利用视频通话获取信任后实施诈骗。
香港一家跨国公司员工被AI伪造的高管视频会议欺骗,转账2亿港元。
特点:高度逼真,成功率接近100%,尤其针对中老年人和企业财务人员。
2. AI声音合成诈骗
手法:通过提取目标人物的声音样本,利用AI技术合成逼真的语音,冒充熟人进行电话诈骗。
案例:
某公司财务接到老板电话,要求紧急转账2万元,后发现声音为AI合成。
西班牙一家电影公司接到冒充卷福本尼迪克特康伯巴奇的AI电话,要求支付20万英镑定金。
特点:声音逼真,结合社交工程手段,迷惑性极强。
3. AI伪造信息与谣言
手法:利用生成式AI技术(如ChatGPT、Midjourney)制造虚假新闻、图片或视频,用于博取流量或实施诈骗。
案例:
2023年,一条浙江工业园大火的虚假视频在网络上传播,后证实为AI生成。
2024年,一张伪造的五角大楼爆炸图片导致美股短暂下跌。
特点:传播速度快,影响范围广,常用于制造恐慌或操纵舆论。
4. 数字人带货与身份盗用
手法:利用AI生成虚拟数字人,冒充真人进行直播带货或社交活动,甚至盗用他人身份信息。
案例:
乌克兰网红Olga Loiek发现自己的面孔和声音被AI盗用,在中国短视频平台上创建了数十个虚假账号进行带货。
一些俄罗斯美女账号通过AI生成视频吸引粉丝,实际为虚假身份。
特点:低成本、高效率,主要针对对异国文化感兴趣的用户。
5. AI培训与课程骗局
手法:利用AI技术热点,推出虚假或低质量的AI培训课程,通过信息差牟利。
案例:
李一舟因售卖199元的AI课程被质疑割韭菜,其课程内容多为国外免费资源的拼凑。
部分AI课程通过低价引流,后续诱导用户购买高价服务。
特点:利用公众对AI技术的好奇心和知识盲区,实施低成本高回报的骗局。
6. 多模态综合诈骗
手法:结合AI换脸、声音合成、文本生成等多种技术,打造全方位的诈骗场景。
案例:
诈骗者通过AI生成目标人物的视频、语音和文字信息,模拟真实互动,骗取信任后实施诈骗。
香港2亿港元诈骗案中,诈骗者利用AI生成多人视频会议,模拟公司高管下达转账指令。
特点:高度定制化,迷惑性极强,难以通过单一手段识别。
总结与防范建议
提高警惕:对陌生视频、语音和信息保持怀疑,尤其是涉及转账或敏感操作时。
多重验证:通过其他渠道(如电话、面对面)核实对方身份。
保护隐私:减少在社交媒体上公开个人面部、声音等信息。
技术防范:使用AI检测工具识别深度伪造内容,关注官方发布的防骗指南。
AI骗局的技术门槛虽高,但通过提高防范意识和采用技术手段,仍可有效降低受骗风险。

[ 打印 ]
阅读 ()评论 (0)
评论
目前还没有任何评论
登录后才可评论.