
离线
- 打卡等级:女儿国探花
- 打卡总天数:316
- 打卡月天数:1
- 打卡总奖励:4457
- 最近打卡:2026-01-02 09:48:00
版主
- 积分
- 21442
|
# R1 y# m; b4 {' v
. ?7 R* o C$ r$ B0 ~: c, N% K$ V U* `; T( j
我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。
, ~, r( A! ~5 n9 f& v& y* W
3 |2 m2 C1 t2 p. w2 U5 ]0 k J8 k+ w, d$ A) w
只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!
4 Z' e/ l5 U! K
4 D* D L* _" U0 W+ {& Z而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。
! V( m0 Y; |, s# y# l
( S: U+ a2 ] N; I8 o; M# y大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。
& ]( Y3 c; d1 l5 n# s
* T6 G& c, W+ L) U @新型骗局:“眼见不一定为实”: K! l$ x' `' ^5 c2 Y2 J
! ^- o% P6 n0 ]7 _7 Y6 D之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。
8 z8 P. B& V: t% N+ F
: c4 j. r8 Q0 A/ E% U在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。
$ |. {5 U, G! S# d* V3 R- G( W
现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。
/ J! [# o. [/ W5 z7 G
9 b* U' {$ Y0 P z7 r" E! I8 R可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。
F5 X9 }+ u8 @* O8 X7 I; ?. n! C$ B8 S0 i; K% D8 K. m8 `
AI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。9 m* @# v5 {. n7 O. o9 H$ J
8 U3 R2 d, c& W) ^4 I
2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。
% n0 G! R$ V6 q4 f( m
8 t; N( k2 ?7 h/ _1 M' w2 m' z郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。
2 n* @$ J/ u- J" I) F0 t. e$ f2 f) a0 u& W4 [
其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
V- S; [/ B7 N' W- H8 g" N
T& H/ t9 S7 j! j8 `后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!& z) B( T8 ?9 Y7 V3 D
3 ?& }: R# L' a" o. X9 F6 r所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。( ~0 ?4 L3 h1 b7 s1 W5 ?
8 d4 A9 w; }+ L4 X1 y现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。5 }/ l; j" ?/ {8 |2 c9 d5 O
% u# w, Y5 I' Z) Q5 E
更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。7 I2 ]& g2 O/ b+ z
& j, U$ z8 Z% ^我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。" j4 g. ~4 ?, s9 c4 I
. ]5 M( B2 X) N' {" x4 E
换脸换声音2 ^+ M6 F9 O2 q+ l/ ~5 S: w
4 K9 _2 U7 J1 ^5 L. B' N
AI的出现,确实方便了人们的生活,这一点是毋庸置疑的。
5 U9 E M$ p' V0 H% ?7 w* Z @$ a! ?0 N2 A. H1 R0 ?
但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。
$ D3 B! { S% B g# X! Z w, e3 H) D& N$ ^5 @5 h/ b
那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。
3 F8 p6 u# V* v, S
) a$ j) P1 X& X) E) W; UAI换脸视频$ U8 [& {, F+ j
" T7 ?4 J+ I |. d/ t8 k& P" a; a2 p5 [) z% k y9 D! j+ x3 e
当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。
2 T+ o& i: B# v, d8 j3 \/ T {+ u: T. Y2 A. G3 y6 m" i* h) ?% ]
特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。* \. g" v$ l- u4 c) a( B4 K4 z
$ C/ y k& y, X9 \& @有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。# g5 R4 S& t2 W+ c# e: j' D; C: Q
3 C' p) W. B; `
就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。1 S \+ _; ^ o7 q `
0 n C3 ^- f- i6 F
以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》
# {! d, P+ L# ~& a7 ]! Z: C这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。
5 M$ x+ E7 `9 D9 E; g" x# L6 T4 v! |/ q3 z; e/ z0 i! B# C; W' H
除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。; N2 R- V2 g9 o g7 X6 ?- v% U
3 T. `5 l1 x1 J' [+ `
很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。8 T& `# H) P' u
/ Z4 p' c4 R' F/ k' Y: h% C
以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》( A3 j+ ^+ c/ A- h
那么,在我们的日常生活中,又该如何去分辨呢?
' ~" f: I, f' k' p; R4 h1 ]) y1 ~) A7 G
如何分辨1 ^5 B4 }7 T! |0 ]( \- Q7 O
' _* ^( G7 y+ m5 d; Z* H既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。
/ s/ a2 X N/ z2 @% I2 }& @0 d1 u$ Q1 P4 V6 S: g
其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。7 M8 _' d# b" s2 D& O* b+ a& V$ n, p* L
, v& q8 G) C6 k1 N0 l, [+ n
但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。
! [1 D6 A) R: T7 Y `' d5 z8 y1 F% k* m! ]; F8 O6 ~- b
在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。9 U8 a0 y5 b% q# ~- T6 O
! P7 ?% |( G& w* E作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
. m r% d: m" Z, i' C/ V' F$ d. d n6 O8 q- I M& l
在生活中,更是要提高警惕,以免落入骗子的“圈套”。
& G: t2 Q2 A+ @8 F
' q5 C% X+ s# n- Q |
|