
离线
- 打卡等级:女儿国探花
- 打卡总天数:313
- 打卡月天数:0
- 打卡总奖励:4419
- 最近打卡:2025-03-01 21:25:29
版主
- 积分
- 21494
|
! @, \9 G8 A R) D
, l* C1 ~! y( s+ w) o; K& K" X& u+ X4 p; E
我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。
( |7 U( W. `# m8 s# P5 t
' F. m* S/ r0 o# H% ?3 o& n7 w7 j5 @" X- Y7 @2 y+ P, g
只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!
- e( r. ~- z8 s s5 C5 M
- J9 {7 d* Z) s; }8 G3 F而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。
3 p/ ? n9 L0 r8 T6 d/ U# \
4 E& ^+ ?4 @ ?9 t大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。
/ L7 d( Q' M$ V7 j. A
5 ], L2 Z- W7 g0 I. E+ B+ v新型骗局:“眼见不一定为实”
$ D# R) p& z- U4 o
# c/ a9 [- h0 c$ _ ~. A* ?/ \3 y之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。" j" e+ q) }( j) \1 [4 z
" E6 Y& j3 z j: o+ s5 i在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。, f$ d( B5 A0 d/ q' W* k. F* M# l- B( `4 T
- Y0 T2 G, [ A) L( M% P; B
现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。
7 B" E9 f! a* p: \* e- A- E+ w( i, m' d q# g: b( B
可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。
# h6 c" B1 ]# H: b: {# v1 U3 v) H% }* G
AI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。 m& T" c" s' v" i j( m- r
+ ]8 K! q3 g$ w5 u: B% r3 I
2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。
# i' P" _0 u! R- p, k' y& b0 j, W, M+ O
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。
2 L# v8 U; d% d5 K# {
8 L" v# g) Q) o其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
! y e- Z+ e+ e; t( e4 t8 d0 }% u" b. r
后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!* p6 n; i* s3 K3 `1 C4 F- N: h
4 t5 J1 B7 W7 `1 ?2 S所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。0 V5 n5 I6 U5 R: g, Q+ ]
; ^ f) Y$ ?) c4 P( _' u! }) x
现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。6 F# r6 l( f0 @
0 h7 M! b C2 c) f更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。6 ?1 e4 s% d$ }) d$ g* E9 h
# [7 s6 U y5 t; h5 G3 f; e7 e' A
我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。/ t! I; @1 t- o( B P1 x9 \1 w
4 S& P& {) P. w. [" P0 R7 s换脸换声音: J+ t6 S/ i: g4 {+ J @
* m$ h7 u1 ^5 v8 X2 b9 F0 w J8 Z
AI的出现,确实方便了人们的生活,这一点是毋庸置疑的。
4 P* H$ W' K! r6 R# h/ r" I s' e2 Y: d
但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。
! E3 A0 j1 I" |, w6 N: h4 _/ ]/ z4 H$ U" Z+ c+ g/ j
那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。
- [& g& G* P4 F( k0 g S s% K% U7 y# `
AI换脸视频" l P: A j# G) {- K, S
6 P" m' b7 C3 n* b+ \" U9 w6 L
. e! ^6 Y Y4 _% [! W( ]
当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。
f2 C3 r d/ F! l
6 f( `+ w" a3 B, {! h. w特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。, q! W0 T( t9 k7 a: {) R
( d- h" e$ {% h) A有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。
9 q8 f u" q! }* l: A" H# P5 h1 ]. P/ |6 s; O: o* } F
就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。
) A1 k4 K O" n* N' A. S0 y( d+ w
以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》. O# [6 g# h8 g
这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。
7 I! I, i* E+ Z i' L" w- g, c+ y$ D5 \, l- Z
除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。! d9 A: ]4 g8 n! Q: I: }( c
9 w. B$ G) z$ V& i0 z$ C$ c0 W
很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。
0 j' t6 N8 Y9 ^0 C0 R; h; X
7 f" P! i6 `5 q) z以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》
0 `0 k- s3 A. v L! s0 R3 e& r3 ~% ~那么,在我们的日常生活中,又该如何去分辨呢?
; t" D( n, p" _+ N+ i9 r9 Y3 q3 h# p2 ?$ V
如何分辨8 ~( M, q$ X, A+ C2 c+ C$ Y8 K$ E
( H' r* u; Z" {& k/ c, V, I/ d) ?
既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。
. Z( m& k; e) E$ A4 \
4 `+ U- i- Y+ _5 M& A其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。: v3 e$ a9 F: c( B* [
( R; T r) U) }但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。. v1 g8 S3 v7 e& p
6 S V6 k; Z$ M: O1 X9 }0 K% V
在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。5 l, f0 n) X9 t2 |) k& O; P: u" N# V
0 h6 ~. r# D$ M5 `作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
. e) o$ L# ?0 n5 u. r0 f
) c m/ O$ j. \3 B& i* n' P4 ]在生活中,更是要提高警惕,以免落入骗子的“圈套”。
& ^! i8 b0 q2 Y) \! f5 r; r2 O3 M. y* l$ V
|
|