
离线
- 打卡等级:女儿国探花
- 打卡总天数:313
- 打卡月天数:0
- 打卡总奖励:4419
- 最近打卡:2025-03-01 21:25:29
版主
- 积分
- 21494
|
- m3 x4 H, E& o' B
* ~0 Y" n0 z0 f" s% w4 }4 D( u
a/ U4 O- L* c9 v/ h# _3 i我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。9 T" P* d( |' u! r5 s$ m
0 Z8 i2 U( [ P
. c% H3 x( c& {- k只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!" e6 |: V* p$ Q
1 \8 C1 n1 R) g& z; h/ x
而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。( C* ^# O/ w0 j
% m8 ]! Z! M. u9 ~) I3 ]7 x大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。
# K$ x7 a9 w+ O( c) Z
9 ` I# S2 }6 g新型骗局:“眼见不一定为实”/ A0 P. d9 I' r
" t5 m" I* j) y
之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。
; a! Z# o8 O G) f. n6 t' Y6 ^2 R5 i$ `9 P9 B2 i
在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。0 @) Q+ [2 x7 w$ A
. d$ h: M6 s9 q0 F4 S3 G
现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。3 h8 I$ t7 j! j2 x* o# r
- T+ P& B/ K2 i/ i可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。7 @/ m. U6 M" p5 d$ J& o
. h/ ?0 d& ]7 h- c/ B
AI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。
6 ?! K# d4 ~% @/ ~" \4 M; G6 n; }6 O$ D3 w' Q8 h
2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。
( L: M( a, t6 i% Y8 I8 e, @5 _* L+ K9 {
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。% ^* }' l- @6 H$ w1 s8 _* |! B: h7 G
5 C) Q+ l3 ~- L( E8 ~- o" U
其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
6 a; i& l& a7 @0 a4 N9 _* l7 b9 q. z' `# T4 _
后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!
3 f- u1 T- Q8 i7 ~) e. C; w5 K/ h9 H' M" p( A8 Y& s' X+ n
所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。
, E5 o2 P3 B: Y2 S) ~3 _" G5 a! ]6 @5 E+ q# `% r& ]
现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。4 f; ^/ F& d& m) x
! M+ n1 d% Y4 ]4 d* G2 j. f- t
更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。5 k& w" |$ }4 R5 A' H9 c
7 s) B- M% f. y0 J7 t# t" a
我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。
; u8 v& B& s6 G! i. @6 E' E6 F7 P; m
$ ~' y ?3 s- h# j; O6 O0 J换脸换声音3 c) Z4 p1 p2 i) a( R! Q* W2 V* k
" x" w5 s- N& e) h. pAI的出现,确实方便了人们的生活,这一点是毋庸置疑的。
% ^+ b2 S" H; k$ @+ S$ ^# E
8 f6 a" D* A8 D8 X6 v但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。, `" Z, o+ k( w! F8 X
- j, C5 ?. U- ~7 M* y
那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。0 W# E5 K; d& w5 U% ?
/ Y* d) E! |5 b" ]4 U8 G% q
AI换脸视频
# }5 d: A% k% a5 @8 H2 ^3 g7 \! x$ @( k( l$ ~8 u' J
9 O- r* O/ L# W8 V( ^: |" ~2 B
当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。$ `3 w+ Y$ J$ [3 b! d# m. g7 N$ ?2 Q
# t3 a# a+ k! q* P
特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。
2 l0 b& ]5 s9 E. Q+ l% Y: _
# G( y( `7 k- w# H有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。/ J) v: J* L ~$ F; ^2 p6 p% o
p% E2 q# S, l2 ~$ n1 k就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。1 z5 j# C9 ~' i" M7 q+ j( ]/ }3 u
! v- ]7 B& S) C以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》
" c* O+ ~" i8 F6 @这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。/ v* Y) u" V- u) a4 r* y4 {2 A7 ?
( A4 F. T; j& V) R9 f+ m- }
除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。
- d' Y! x; u; B: S. ]" L
) ?0 w# p$ {* L8 K; h很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。
7 Q) O8 `5 U! p0 H. h
/ m! J: q! \, ?0 q' j- F5 _以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》1 M2 e0 s+ `# P. e# t3 B
那么,在我们的日常生活中,又该如何去分辨呢?
- r! H4 U( z& Z/ H2 s6 y" o& A" ^) t# d" Q
如何分辨1 E' O4 X! e9 R7 L! D( G o7 S
* n* Q1 D5 K$ x& Q
既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。- y/ M @) B7 U
. j/ p9 k1 m6 \# V其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。
1 d2 m2 Y* m4 L G9 w
2 r& V0 B# g& r7 ?& ?/ m但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。8 J |7 }' m/ r! g! S9 L: o) M
6 {, k F( ]) H, [! k- K8 C在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。
# q$ d& u' ~5 a+ g$ _- _, G
3 _* x i" \* d5 g作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
N' C4 `* Y# {9 n4 s6 \) z/ l1 p8 O* s& ?3 }
在生活中,更是要提高警惕,以免落入骗子的“圈套”。
. P# W. ]9 S- n6 o+ e% U8 e; L; F4 P- }( b6 d4 D, F
|
|