
离线
- 打卡等级:女儿国探花
- 打卡总天数:313
- 打卡月天数:0
- 打卡总奖励:4419
- 最近打卡:2025-03-01 21:25:29
版主
- 积分
- 21494
|
# e: \9 I$ k8 o' X1 I0 a* b" Y3 [4 I5 s" N) n
5 d! W9 E4 s9 ~3 v我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。
* ~7 g6 h8 q" @# q# W3 j* l" w- P
- ~" z1 ~5 m1 `/ }* S& u9 [
1 q( ?9 k% h5 }4 Q9 H6 y Q, ~: q+ Q只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!
1 N% |4 t6 F* x3 k
7 i1 u9 @ {6 r! M; Q- H而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。
! x9 g! U9 d: r% w8 w. v& X/ T
% q" s! N8 h/ u; ?* j$ v, N大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。
3 g& l0 r0 T% O+ L* N. o2 X6 t3 k) O4 v( [, U' {. c
新型骗局:“眼见不一定为实”) c h( v* R3 N. L5 o
5 f9 X+ s" l' ]9 k/ w A
之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。& l, i/ d% {- g3 X
( q" N! v' e$ ?/ w8 o" T在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。
8 q4 p2 i0 b) c2 U& N* P4 ]/ B8 ?2 Y e1 R8 y3 T8 e/ B0 y
现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。5 M0 N1 p3 C% {1 G
5 d6 @! N$ f* f: B
可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。, {- F, n" d4 V5 j
# |, Z$ {1 V3 v9 T2 FAI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。5 M; m6 ^- i* w: S8 V. t0 x
. u4 |( \8 L% `' H% T2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。
6 u% G9 l# d6 U" `3 Z' S- P* ?) r6 N3 u: z3 f9 J" g" v# k
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。7 z5 o& i( ^1 N! R; _9 H1 z
+ P. _. v, P) k1 x- X5 D6 a其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
9 {: ^+ `! C' w" {2 E( b9 |$ N4 k7 d2 P% }4 I* U' ?" e9 z4 E
后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!
6 |9 \" m" q# I, O( G& U- i
% [$ ]. s6 y3 m) h+ A, S所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。1 ?3 Y( Z: A& v
. m: k! f; m2 B& a3 {7 a: w
现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。) M- x# P5 M: W% p& Y
7 T6 N: S8 K- M: w+ t+ j更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。$ J# c5 i8 I5 N4 J. s; T
: a8 c: v& o" M4 T" }; g
我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。
0 {! z p X2 g4 F
5 r, V$ d5 i8 k2 Z换脸换声音. G: W; d- Y& X7 w6 m4 W
: e; ]$ P& [, j. s
AI的出现,确实方便了人们的生活,这一点是毋庸置疑的。
$ S4 C. R( U7 G1 h: g& s! }
0 g# y( F* p$ H# V9 o2 p: _但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。
- Q5 _; T8 D5 H; B& ]. X% |
* G* h: s) Y8 [% y' n3 C6 v那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。9 T3 y' L. ~9 L7 P6 c! H
0 z. \8 i6 R; r+ u% AAI换脸视频
, T) B4 B3 T- M, B; U5 F7 b* i: A. R/ A( u8 v. z0 U
6 O$ S3 L# W# K" D0 ]6 U6 n0 u: i% t( L当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。
1 }# d" V5 E# J* u4 e4 G/ I8 j# V: m8 N# {1 o+ R7 d/ c
特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。" z& @% p# `1 G7 _$ s
" b7 N; U/ A$ `$ ?* G! X3 e3 v有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。
, _ j, m! J" _ G9 d& J. Y Z# G5 g1 j6 U4 K0 W
就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。0 M* y4 _/ v$ c: T
7 F4 I4 L/ b1 [6 w8 G: n. f
以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》
) b/ E& J; t4 p5 u. i( ?这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。
- w! [: ]& g* F( S% _% ~, c2 F; m4 Z. R+ r( y# o( N5 z; P
除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。$ _( l' A0 v2 @" X5 e4 Z4 H
/ f: o' j+ s' @# [很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。
: a+ P% H( z! m/ R" ]. T, m7 Z2 z
以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》# Z" H' F) J* c' N0 T2 Z6 D
那么,在我们的日常生活中,又该如何去分辨呢?" j0 ?( J8 I& n7 S. k3 f4 w9 A2 c
/ V" _' y/ _# q1 l1 p' g
如何分辨5 H0 n% Y. {9 I3 T6 Q
3 D2 [ d3 | [6 k7 c- N既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。8 V) s V) A8 k
1 p) F5 G) S, R" f5 d5 H8 ~- |, S
其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。5 O- y) w( M J, E" o8 L; c
$ v" k& Y& O2 L: r, Z但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。$ a% _# P; g4 V' D2 |
2 S7 b* [" Z' v* Y
在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。
: B, m: [% v/ ?& E3 C: t; Z0 f5 h* F, B( Q8 f, r4 U) f6 P2 B1 i
作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
% ~- b! z4 i' Z# L; Q2 C9 g+ N" r2 V* F
) _* O; O, ]5 X3 {8 t( n在生活中,更是要提高警惕,以免落入骗子的“圈套”。5 c5 o; t# Q& ]) l
0 A4 C. ^5 n. u8 ] |
|