
离线
- 打卡等级:女儿国探花
- 打卡总天数:316
- 打卡月天数:1
- 打卡总奖励:4457
- 最近打卡:2026-01-02 09:48:00
版主
- 积分
- 21442
|
; I4 O s+ e R, I
' L2 A! R7 t6 O( \3 `9 l
( C( U0 K9 a0 V0 q$ x我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。
: ]7 m6 M' p7 N. i. f1 g, X: }2 H: C. w! w0 x
9 J( s, d- `& P+ j, y4 z
只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!. N6 X. p1 e. ]
- c) D9 Q0 W! e* F+ p0 ?1 Z而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。8 A3 V1 ^2 i1 h8 T. |
! G8 d# P* L" R6 O$ x _大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。; b8 i4 v& }+ B4 }, ~+ d% E5 D4 O; T6 p
8 v8 G, m& i8 E, X) d. g2 _新型骗局:“眼见不一定为实”+ a, _ G: r9 j' M) N
! l: D, Z2 L4 k/ C# s: n% _8 V# F
之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。
9 ]9 |9 p# W) d, L; v% _( V: w: F0 {! ]
在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。
4 t$ a" Y6 Z) [( L1 j2 E
5 A! W5 ^* r/ Z5 ]9 S4 f/ C现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。) h5 ^2 F& [: A' r
& S7 _( m z0 X# ?+ I# f可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。4 L5 U7 k2 W4 i A+ E; s
: F( X- o& e8 YAI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。/ {- y; ^" h& a, t: L7 g) ?' F
* j% {+ }/ J: @$ g, r- ^2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。* [$ O( i2 w; b6 I
9 s9 u! V) q* y, K: U! G
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。
/ B* F; c; Y u, ]8 k
9 {. t% L8 s9 z- e9 H其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
' {1 C3 g" j7 v; \
) R* _0 s. y @后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!
* \8 ~1 j' o5 r6 `) [( Z% h2 ]$ `8 ~$ T% p
所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。
, R. I" I6 u, `9 S1 l$ D5 c' W$ ^. G8 G8 y
现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。. [# ~* P2 E9 u& B k8 g
! ]0 _7 _5 R {% S$ {0 T) z
更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。
8 |" V* V2 }8 K3 l! C& u# ]6 z5 U4 `0 d: a! _
我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。* Q6 U( ]6 z6 u9 e Z
3 l1 j, M3 k! r0 b8 W5 Z换脸换声音# d2 M) `3 R5 S: f* g
6 J- C" s, R0 z9 NAI的出现,确实方便了人们的生活,这一点是毋庸置疑的。
U* V" {' K8 K; G- X; N. m% k" }) z0 _
) F6 t7 Y: _) G" n9 a" W4 Q/ r但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。& a, ?, s# R# V7 |1 @( X. Q' j( L
5 ]& t- Q. c$ l- a' m4 E+ X# d+ t1 i那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。
9 G4 k* i+ [$ t {( }
, L. u0 |5 _+ y3 t1 J" ?7 s9 y& }6 ?AI换脸视频
! T: u, u/ U4 ^- n
W: `( h: S( Z# v7 n2 Q+ Z8 B* A2 i/ z0 s9 D
当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。0 X, |; h6 S* `+ G' B# @- a
. T8 N* H. Q' G特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。
7 {* |: p& o, N& k/ L1 \' S" M1 W/ S' g7 B- W) r$ F
有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。: s+ `2 p a( t8 \! W
" n: p3 b- ~' ^1 w, B
就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。( V9 R" r" M+ t1 a* [* S1 V2 v
! X) `: I1 |+ w! H4 M以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》
& J; y* P: w8 F- X# m2 F' I& H! p这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。' T" n4 F4 q1 @ j3 p8 V5 V1 W
! o) V8 R' p0 K9 |
除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。. r' h. H2 a) u
9 K7 i0 ^+ V, }" ~/ M/ i4 b
很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。
" Q0 s6 m, t, X+ b, m4 h$ a, Q5 v! o& }# [' l0 a# T
以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》* r3 f2 }; U* T* `, b( F4 }% q
那么,在我们的日常生活中,又该如何去分辨呢?* @3 N0 c$ ~/ @4 z+ v
+ J/ C% v& h3 O+ M9 i如何分辨5 l* q, K7 X, x- m! q
: U( I- \1 R! o5 `* a9 V
既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。) | ^0 s3 w+ L1 ~
3 @) N9 m$ [. D) ^, a其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。
+ _$ C' |2 E) x* w6 T5 y H+ `( M$ K' U: p; ]8 t3 F: c
但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。. [# `9 ^9 G% }0 b& ]) W$ q0 y
c0 V$ Z! H ]/ J1 n% m0 {在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。
7 D6 V5 K* K) @3 D* J* X3 i: R' L% Z3 t* S4 q
作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。- X, |5 @2 Y* \6 k
# @, x( B* }8 L$ W I0 g4 K* Y在生活中,更是要提高警惕,以免落入骗子的“圈套”。- l% @; b% X6 \( y! y
5 q' C3 z# z; q, E
|
|