
离线
- 打卡等级:女儿国探花
- 打卡总天数:313
- 打卡月天数:0
- 打卡总奖励:4419
- 最近打卡:2025-03-01 21:25:29
版主
- 积分
- 21494
|
" X; R4 d0 o6 V! L1 X% z
6 B4 Z' q1 i' E g M( k& i9 M' S0 \3 p; i( L3 `3 }5 U1 v
我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。
* y8 y) Q" e; C: l- @& [. K3 t% i2 ]
; L* ~8 q8 J9 s
8 [6 |" K& _+ B2 m8 x- m只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!0 f0 [/ c$ b( u+ p
. V- J# @7 n2 V2 ]8 D而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。
; E5 ]. Z! X* n
4 F3 g: L0 T) w: Q4 t2 y6 T' X N3 x大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。
6 E# {/ t7 M1 p' N
- U( Y$ _# I! ?6 o( h B4 U新型骗局:“眼见不一定为实”
/ U! L4 _! p' Q# \6 J( N
% v+ O4 Y- p- O4 B) \, w# ^之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。
3 e" [/ w$ O# L9 B; V9 x* I; i' Y" U0 A7 C8 g' ^2 y+ @1 n
在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。
9 m" j* F( A8 W- H Y* ~ _; f S5 ?9 m( ]( ^
现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。
* I6 R4 ]1 i1 c# m3 E
- U8 Y3 b. m, }9 ]5 f; ~) h3 ?可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。
7 R1 x1 S& |/ x0 c3 g$ E9 K' @- C
! b2 U& Z4 i& N; l7 Q% Y6 F$ l0 R) yAI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。+ \7 u' ^$ L2 q; J7 ^& t
7 \4 e4 y2 Z( B' n
2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。
4 p0 a( s/ }/ V% J% { ?$ R+ p$ c3 C) C7 ^% \3 k( L/ v: ?2 U
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。! W0 y$ ~% h3 V8 B
1 J$ n) ?* Q- p3 M d其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
/ N9 F8 b# ], d! e+ |0 f+ ^
4 ?( \8 W' v6 d" X1 K后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!- ~: h6 i$ }3 W
3 L$ c& f1 k" l( O3 G
所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。
4 S c' }% B% d9 ^; S* P0 Q! {, \5 ], P) q. N) W
现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。1 f E, z* V! z- _& m2 R2 [
. O5 i/ u! Y' a' W更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。! F* o/ U' ?2 a) _0 X0 [; K
0 r- z' }( a$ n) G/ @: X3 I
我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。
/ j; E, `/ j9 [5 y% [* H3 Q. b! o" J
换脸换声音
* H$ n& \- E" D# S0 Y5 ^! o* {1 W/ ^2 e: U7 X) J
AI的出现,确实方便了人们的生活,这一点是毋庸置疑的。# K- p$ s5 O. K0 z$ Y M
0 F" U1 f! i+ s! E& S- `
但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。
3 F/ ^0 V5 @0 p) b5 w3 Q1 X+ W! A, h$ f+ K8 _" K
那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。
1 A/ R/ E( a" H, G2 B: U7 b3 B) m
9 j- J b1 o7 ~( _0 hAI换脸视频
5 f$ j) [8 t5 u# l7 f
2 A8 z6 X* e% ]# d4 K! @5 P" p# B* K
当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。1 E' D7 e/ v$ L( W: y
( }5 i8 f6 M8 V特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。, q# l: X+ z' a0 {, y/ M
0 G \ @& s- H& z
有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。1 L+ |. T, y/ f/ \. P
1 }$ q! |9 X- N3 n
就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。
' n" p( o: V2 F; s
, R3 c0 `0 s0 _+ ]8 m+ r0 a以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》
3 o( C9 b6 q5 x: }5 _这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。$ a6 }. x6 v" J. X9 H3 o, o
. Y! i; _2 C ?! n/ y7 R( {3 [3 R
除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。1 @3 l a0 }. O- s7 t
5 B& @2 k# K4 h2 n7 X& g& S
很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。
" t3 d3 T; o! j/ u9 |2 \( a! p/ M5 r
; w' I4 m% e! M" o以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》
# n& b& J7 z3 z那么,在我们的日常生活中,又该如何去分辨呢?
1 [& F$ Y9 @3 J4 Q4 [9 X) O9 B. j* v! w7 z. l; w
如何分辨
8 q$ H. ^! z2 R4 T8 M3 V( t+ ]6 b
既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。3 x/ A9 K8 i! ^7 Y8 ?5 L2 M7 |
5 a: E u( b0 S5 P; x0 ]
其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。) l2 F1 Q: C4 k6 g/ O& m: E( r4 `2 O
' s6 Y- e( D) d( ?4 e+ M2 h但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。( q% `9 n) _5 N$ o, B
2 _. C# R! P: G; z, s4 @
在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。
7 i+ f! j2 S3 C. i! P
1 ]* W! t4 P1 E* V0 d作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
9 V; f& I! `. n! s& i. k. E: z; Q; X1 o6 y# c
在生活中,更是要提高警惕,以免落入骗子的“圈套”。" b' F8 y* d$ W
/ Z; M4 J) N9 k& C |
|