
离线
- 打卡等级:女儿国探花
- 打卡总天数:313
- 打卡月天数:0
- 打卡总奖励:4419
- 最近打卡:2025-03-01 21:25:29
版主
- 积分
- 21494
|
# t! I: b: ^- Q
8 v+ d8 X6 M! e# Z8 l& C
: o$ c3 c+ }9 F' f% I9 K- B
我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。
3 v% p @3 j% T( W2 z* Q! }' C/ n' X1 u: P$ M
/ R( U+ Z& W u* i只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!
( c+ Z* _# f( u( g* f/ p% J
u8 {, D. l$ o% y' t而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。" L' u( ~- o) }
4 x1 f0 T# E, M- v3 Y& k$ _大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。+ d7 K7 t" ?0 c+ ^* G) n$ J+ \
" J- K e1 I8 g$ K+ ?- @* E ^4 n& h新型骗局:“眼见不一定为实”+ O1 |. z9 @# Y/ e' g
4 |7 }; ^/ I" \' E/ t* T* U
之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。! }% j" Q- h0 V E5 O5 y+ _
4 H: ]3 ?. M) H- y2 K- [# L& u在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。# o5 Z: ^0 E8 y/ ^
$ n& Z B2 C7 g. T& r6 ]% V现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。6 n2 N J' d% N7 @9 ~4 }4 _8 T
6 F; p+ n# X5 U3 I- C' i& ?$ B$ k5 T可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。
" J' C4 \$ X! a; u9 H q+ N1 M( f7 \! {" h7 K$ z: o6 z$ u
AI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。
7 z) T" N; z, z2 o* e0 `3 T: }9 G1 P$ i. s/ X
2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。6 Y, W( [* y( l4 Q9 ~7 Q+ M
: ] i1 |; V5 R4 M2 k) ?
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。
9 z4 |6 X3 u2 j. S/ L' C q7 J8 V( y- T% I
其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。 x, X& R q, E$ O7 Y5 C9 m
+ N7 ?3 N5 M2 k8 D2 q, K
后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!
. z# Y' |+ ^5 @+ S9 O* d
+ A. K% V# c7 g4 V% F所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。
3 S! ~& [4 ~- o) C3 C
4 q4 N( Q( m' {& R" D0 E6 Q4 H现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。
) L) q5 g6 x0 [( A
$ [4 \, O6 u( G0 f3 a更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。
* U3 s* Z# L& W6 K, \- g. c% N) [" d$ ]# y
我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。
2 T: u2 j: Y, p. o0 ^6 { x S# ?8 e; E: e; ?, W# c5 I O5 o
换脸换声音% C! G7 Y3 I" z. u8 h; o
' h) w. k( w6 l1 p& u( j0 l
AI的出现,确实方便了人们的生活,这一点是毋庸置疑的。
. X& v S( r5 Z4 X8 h. ~6 _9 K" l) J! n+ @+ C
但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。
7 g4 U5 m5 T$ X! a5 X" _! g$ [
$ C# A. g; [+ _; V: W& c$ L8 t那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。
+ k; |5 L0 M4 Z, F4 ?9 B
% D+ Y0 S' \* |# rAI换脸视频
2 @- F, M: B% l4 i f: j/ S' d# w" I3 a: f
0 ~+ {. P, Q- V3 k9 M当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。5 o; D% L) Z/ V$ r2 ^% A
3 r4 N& s, L7 h6 s( b特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。# P: h; D& G6 I8 G0 C/ J
/ M% y) u$ J) f5 X/ m7 e/ o
有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。; R7 }# ?9 i1 {) u
6 M/ v6 F# \* x5 Y1 ^就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。, @& G* N# n( j+ N3 W
3 ~+ D w+ D* J! K" U5 [
以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》
" f4 E7 A, J+ P8 Q5 k- v) b这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。2 U) n' K, Q) L
7 r D- M1 h6 @% B: h; o, m, K) G0 n除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。
. h B x1 H! M# h
6 D5 S# M. l" {+ B很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。
( z% K" `% B/ i7 m) K* K7 ^5 I% q8 W
c+ o5 Z5 t2 q/ H* e$ Y# n以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》
6 e p C8 j1 G% M' a2 _+ _' x那么,在我们的日常生活中,又该如何去分辨呢?
2 i; J7 ~& M7 `& R3 N5 @& A' ]7 p+ f" Q
如何分辨$ Y6 X5 n/ k; A) `7 i
- b; F" m o* S0 `. L" Q3 s: I0 ?8 P既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。
. q1 i$ M/ D3 l/ N8 s6 [+ c
# l* M5 O7 h5 T其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。
" X$ [! H1 N5 c6 z# a3 P$ V
2 _, g6 x1 {' x6 t# m但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。
- k' Y' K# C3 _% x9 ]6 }5 V+ ?- D4 B8 W) a; f* I2 W
在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。
6 ]3 t9 X8 A8 b0 B' M2 p0 t8 B4 t9 B1 [" W3 g, q0 e
作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
! u5 T( c/ ^) U; o
8 B- _6 p C) Q9 X( I在生活中,更是要提高警惕,以免落入骗子的“圈套”。
0 P$ M c' E: l+ P' ^! R- c
6 o, z& w! A& x( z* |$ Z |
|