设为首页收藏本站
我的广告
     
切换到窄版

 找回密码
 立即注册
薅羊毛,扫我就赚了!
查看: 115|回复: 0

一杯奶茶的钱就能拿到你“露脸且说话”的视频

[复制链接]

  离线 

  • 打卡等级:女儿国进士
  • 打卡总天数:89
  • 打卡月天数:0
  • 打卡总奖励:1116
  • 最近打卡:2024-06-04 12:59:22

998

主题

48

回帖

6043

积分

版主

积分
6043
发表于 2024-4-3 06:48:24 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:0  参与人数:0  我的评分:未评
这年头的诈骗真是越来越高级了,你能相信给你打电话、开视频的“熟人”是被骗子换了脸换了声的吗?
; I, u1 j. B+ Z' K5 z在AI技术的加持和深度合成技术开放开源下,深度合成产品和服务越来越多,现在有图不一定有真相,耳听眼见也都不能为实了。+ y1 `* a+ n! q8 S% R
最近一起利用“AI换脸”的虚假视频诈骗就在全国炸开了锅。
; W3 Q2 H. o! u& O  m# `* ~; V  F罪犯假借好友名义称自己急需用钱,并拨打微信视频联系受害者。在视频中确认了面孔和声音的受害者放松警惕,将 430 万元分两次转给了对方。令受害者万万没想到,所谓的微信视频通话中的“好友”是由AI换脸换声技术制作而成的。' v3 U0 J8 W5 w! e) v
在这起案件中,我们看到了骗子惊人的耐心和难以看出破绽的技术能力。
0 n; O# r* ?# R8 k; M7 U
9 z% S- I" l2 t3 ?( F2 |因为骗子的微信号并没有造假,是直接盗用了受害者好友的微信号来进行视频通话的。骗子熟悉该好友的“关系网”,谁有钱没钱,跟谁关系好,再借助过往聊天记录对被盗号者和朋友的对话风格进行了一番研究,可见很早就盯上了被盗号者,且前期准备得十分充足。在这个过程中,骗子还掌握了很多被盗号者的图片、音视频素材用来训练模型,也难怪受害者从始至终都没发现好友的面容和声音有问题。
, |, O7 h. n( p8 b) k* D) H' ~骗子的诈骗手段显然已超出人们的认知范围,更可怕的是,专属于每个人的诈骗剧本或许正在路上。
4 t7 n4 [. _( r2 j9 G+ j这不,继“10分钟被AI换脸骗走430万元”事件之后,又发生了一起“安徽男子9秒被骗132万”的AI换脸诈骗。
8 t* \/ c2 _+ T) m* f6 t1 [
5 J! {' h( F0 C  I6 c我们不得不接受一个事实,AI换脸、合成声音的技术已相当成熟,这就说明了AI换脸的成本已相当低,换个角度看就是,使用AI诈骗的成本已相当低。
5 E0 c- O& {* l据媒体报道,制作一套“露脸且说话”视频成本低至数十元,只需提供正面照就能生成视频,不仅眼睛、嘴巴、头会动,如果提供文字口型也能对上,一个晚上就能完工。
. P: G+ j' t, c( t) @1 |有商家称用照片生成一段1分钟时长的视频仅需30元左右。如果视频时间短。质量要求不高几块钱一段都可以。
1 c3 W8 V) F# l4 t从其提供的宣传视频来看,AI生成的男子,不仅合成了真人语音,发声时的口型也能与其完全对应,如果用于诈骗活动,很难令屏幕面前的网友发现端倪。3 h# c5 k9 T/ S8 ^+ K
近来,与AI相关的恶意事件频频发生,人们没法不担忧。( q8 P: a& S8 q$ c3 j: I" v
据公开报道显示,利用AI技术实施造谣、诈骗,此前已发生多起案例。而这些案件背后,均涉及了AI换脸、换装以及声音合成技术。
7 N/ Y  I+ m- P
5 z0 b1 G" s  @# K( y- AAI脱衣
/ A2 Y  j1 F7 }& G( s早在今年3月,一则“女子地铁照被AI一键脱衣传播”的新闻引发公众关注。
  b6 M5 {8 Z4 Z" j( U一女性网友曾在社交平台晒出了自己在地铁车厢拍摄的照片,该照片却被人下载利用 AI 技术除去衣物,随后在网络广泛传播,罪犯还广泛散布不实信息对该女子进行污蔑。6 g6 l* ^) D, W; ]4 X
“去衣”的制作过程十分简单,软件导入一张人像图片后,用“画笔”涂抹人像上的衣服,经过一些设置,导入人像照片的衣服就消失不见,原本正常照片就变成了一张裸照。) x  F5 V3 F( _/ A! i2 f* ?

0 Z6 x/ j: w; K- b( R这样的“一键脱衣”技术早在2019年时就已在国外出现,但抵不过舆论争议和网友声讨,项目迅速关闭下架,这股不良之风却在今年的AI热中再次吹到国内。通过网页检索会发现,不少网站贴出了相关软件的下载端口。/ t; V% c# n1 @0 y7 `
; n9 G8 ~, ^) W$ f" ]9 {  T* U
可怕的是,AI视频变装服务已成为一门链条完整的黑色产业。
, u3 W" w% ~+ s7 ~5 r% x7 L( R2 S3 P) N7 v3 [# g2 ?0 N
此前百万级网红博主“Caro赖赖_”公开表示,有人用AI合成其色情视频在外网售卖。她称曾看到过一个网红名单,表里密密麻麻写满了熟悉的名字。他们根据博主的粉丝量级进行分类,假视频价格在30-50元不等。但只要你花200元就可以进群,进群后不仅可以享受永久半价,甚至还能接“私人定制”。而所谓的私人定制,即提供“一键脱衣”的合成服务。只需要付费后给这些账号发送带人像生活照,他们就能通过AI合成的方式制成假的视频。% A, [  [5 \8 ~, O
4 |5 t9 U2 ?# W6 B! B# V+ ^) i: t* C
若不加制止,今后很可能出现这种情况,当你好端端地走在路上,被人拍摄下来后用AI“一键脱衣”,在赛博空间里被扒得一丝不挂。在现今AI强大的算法下,时间、地点都对得上的情况下,伪造的黄图令你百口莫辩。更有甚至,不法之人用来制作色情淫秽视频,以此作为勒索、骚扰的手段。2 t/ V2 C8 q8 m* H! E
0 Q4 R- O6 ^' ^* \0 O
AI换脸& a% n: [! J% x; N
这是最容易获取对方信任的一类诈骗手段。+ i. W: z) L6 C3 L
早前,“AI换脸”主要是被大量使用到影视剧二度创作、趣味恶搞视频、表情包制作当中。9 f% d. y) D- }) |$ g# z' j
不过近年来,随着技术的发展,AI实时换脸已从最初的娱乐“整活”向着伪装熟人脸实施诈骗、伪装明星脸进行直播带货发展了。
% g  F! }( q% M+ X# |+ m3 X据报道,近日,有多个直播间都开始采用AI换脸明星的方式进行直播带货,女明星如杨幂、迪丽热巴、Anglebaby等人成了重点换脸对象。相比请明星本人来带货,使用换脸的带货主播显然成本更低,但消费者或明星粉丝就可能会冲着明星效应进行消费而被坑骗。8 s! \9 D9 Q9 m% h- ^
4 j! n9 s+ b1 h0 U  i! p
据悉,通过智能后台的AI换脸技术,主播可以实现形象的实时替换。而使用AI换脸则需要进行模型训练,模型和素材直接关系到合成的效果。# o+ |1 Z: a$ x% B  ]1 R
据提供“换脸软件”的网站介绍,使用者自己从零开始训练模型,如果24小时挂机不停地训练模型,需要经过半个月到一个月的时间,才能达到可以合成视频的效果。
' W0 Z* X9 h) G/ c" Z比起自己花费大量时间训练模型,更多人选择购买现成的模型,在素材充足的情况下,仅需数小时就能直接合成视频,模型还可以替换任意素材使用。
) F+ i7 q2 C' k3 ]: T而这类面向精准、实时的大型直播平台的AI换脸全套模型,购买价格在3.5万元,且不存在延迟、也不会有bug。
9 k8 |* ]2 h% F- j  T$ P2 @$ Q  Z; h( r  s7 m6 H2 ]" M0 l
声音合成
6 \! o! g+ ^/ B- r* U1 z  W+ G在国内最具代表性的事件就是“AI孙燕姿”爆火网络一事。  C* `' W: E! q+ ?5 h0 {. Y
沉寂了很久的歌手孙燕姿因AI翻唱而重新进入大众视野,她“翻唱”的《发如雪》《下雨天》《我记得》等歌曲在B站播放量均破百万。
- w  |" p4 y6 \6 f! v+ p. I由于“AI歌手”与真人演唱的音色并无区别,不仅换气声都能清晰听到,连咬字尾音都与本人十分相像。即便是孙燕姿的歌迷粉丝都感慨难以辨别真假。网友表示,听了一晚上AI孙燕姿,出不去了,甚至有网友宣布“这是2023年最火的声音”。- o  k+ F6 j$ v0 C0 _2 U3 P0 ?
面对“AI孙燕姿”的出现,孙燕姿本人也发了长文给予回应。+ Y4 _+ n# y, H2 ]! k+ R
她并未通过法律手段进行追究,而是采取了较宽容的态度,她称:“你跟一个每几分钟就推出一张新专辑的人还有什么好争的。”同时又表现出无奈和悲观,“讽刺的是,人类无法超越它已指日可待”、“你并不特别,你已经是可预测的,而且不幸你也是可定制的”。
- b. I: A- I8 d# g" v从回应中不难看出,孙燕姿对AI翻唱一事不欣赏也不恐惧,面对突飞猛进的人工智能以及AI在某些方面已足以替代甚至超越人类的事实,她选择坦然接受、淡然处之。不过对于普通人而言,面对AI技术滥用造成的侵权或许很难无动于衷。% b5 c( ^. g/ a! j' c0 E* i# j% ]
此外,有关AI的恶性事件还包括AI假照片泛滥成灾、利用AI编撰新闻炮制谣言等等。6 f. ~5 e3 x9 s* Y) f
种种事迹表明,AI负面用途的爆发远快于我们的想象。$ k0 q7 O' r5 ^, A1 l% L
究其原因,其一是,随着AIGC技术的大爆发,AI 生成虚假内容越来越方便了,只要一张照片、一段音频和一款工具,人人均可上手。
4 m2 P7 x* @# V: t4 }! Y就拿语音合成来说,由于新模型和开源项目不断涌现,相关技术已炉火纯青,效果愈发逼真了。! ^" i( C* M$ L2 ^/ v+ A
今年初,微软推出了新的语音模型VALL·E,只需3秒就可以复制任何人的声音,甚至连环境背景音都能模仿。, ^: j: T0 C8 y$ V5 `  q) h
此外,具备语音合成功能的工具Bark,除了声色接近真人,还能加入背景噪音和高度拟真的笑声、叹息和哭泣声等效果。0 d: ~( _4 [+ H( \
人们完全可以通过一些开源的语音合成技术,基于大量声音数据,来合成听不出破绽的声音。
2 |) t8 {/ }5 I( Q4 o  D+ I7 W" h其二,就是目前有关人工智能方面缺乏更加严厉的监管机制和伦理审查规则。
9 Z# L/ N0 G  P8 z6 O3 }所以,要想关上潘多拉的魔盒,需要制度的约束和科技向善、人心向善的引导。
, i& s* R. \9 k' b4 {那么作为普通人的我们,应该如何预防AI诈骗?
4 ?9 P6 b6 b7 X  d3 @2 P, B* ?6 U! ^9 K- B! k  s7 x  J
保护个人信息:
& P/ F% o# _( n9 o; f9 \3 N3 h5 U0 R) y8 w8 y; P, {/ ]) h- k1 q. B
注意保护自己和他人的个人信息,不轻易提供人脸、指纹等个人生物信息给他人或不明平台,不过度公开或分享动图、视频等,也不要透露自己的身份证、银行卡、验证码等信息。
; J7 {- W: @' w保护个人信息不仅是为了守住自己的钱财,也是守住了家人或好友的钱袋子,因为你不小心泄露的信息,可能转头就被骗子用来诈骗身边的人。
1 ]" F" i0 |! z6 A* X- D4 M& x+ t, q0 K4 ^( V4 b
加强警惕:
. o# W9 w! j$ c, ^7 V; c& Q/ C$ o1 S+ q
任何时候都要提高警惕,对于不明来源或可疑的视频或语音通话要谨慎接听或回复。在涉及钱财时,无论面对的是熟人、领导还是权威人士,都要通过电话、见面等多重验证对方身份。2 Z( f4 i5 x- s# F1 a) R
( P/ W3 T8 W: V5 K: q
提升辨别能力:. c" d" u' F$ t! z7 H

* @. Z( @2 {8 B% k8 t将这篇文章分享给亲友,和大家一起了解一些常见的AI诈骗特征和方法。在AI时代,文字、声音、图像和视频都有可能是深度合成的。细心的朋友可以尝试从细节上发现异常或破绽,例如我们可以注意对方的声音是否有断续或失真的现象,是否有与语境不符或不自然的表达,语调、语速、重音上是否存在问题,是否有与视频不同步或不匹配的情况,是否有与原人脸不一致或不协调的特征等。& r( L) K  g. U
" q1 Q% E5 M) Z& t5 I' z
及时报警:( Q; c! Z( n: K# t8 D
, k5 q% k8 F8 y* ]/ Z- D' ?6 F
一旦遭遇AI诈骗,务必及时报警,并留存好相关的聊天、转账记录等证据。同时,我们也应该积极配合警方的调查和追缴工作,争取挽回损失。
- C8 W# e& `# H) y. C7 W最后,期待相关部门加强对人工智能技术的监管和对违法行为的打击力度,维护网络秩序和公众利益。
  C, O4 R# \) m# Q6 W6 A
6 m, B. i* `( P+ L& [
女儿国免责声明
1、本主题所有言论和图片纯属会员个人意见,与本论坛立场无关
2、本站所有主题由该帖子作者发表,该帖子作者与女儿国享有帖子相关版权
3、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和女儿国的同意
4、帖子作者须承担一切因本文发表而直接或间接导致的民事或刑事法律责任
5、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责
6、本站所有带作者名的小说均收集于网络,版权归原作者所有,本站只提供整理校对排版
7、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意
8、女儿国管理员和版主有权不事先通知发贴者而删除本文
贡献值排行榜:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|《女儿国小说网》

GMT+8, 2024-10-18 16:42 , Processed in 0.180000 second(s), 40 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表