设为首页收藏本站
我的广告
     
切换到窄版

 找回密码
 立即注册
薅羊毛,扫我就赚了!
查看: 207|回复: 0

新骗局来了!诈骗成功率接近100%,大家一定要警惕,建议转告家人

[复制链接]

  离线 

  • 打卡等级:女儿国探花
  • 打卡总天数:313
  • 打卡月天数:0
  • 打卡总奖励:4419
  • 最近打卡:2025-03-01 21:25:29

2082

主题

18

回帖

2万

积分

版主

积分
21494
发表于 2024-12-19 16:12:46 | 显示全部楼层 |阅读模式
22.jpg
9 _' P' Z. h# j, y& V( v+ w# y! ^* T9 O

" C5 o  [5 E0 S9 o. T5 X' x; D我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。; u% f; ?& v* o1 v- i: W5 j0 A, q

) {) i0 ?3 C0 ~9 T2 n9 }% ^6 C5 B* D) E: l
只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!% o: R3 ~: ]# b* F8 Y  w/ k) v' b; D

/ r" O. B+ M# y5 W' R. ?而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。
& {( u% a* |* Z8 _# Y3 u. e3 i& \" u; ~
大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。
- E: q2 t: |$ _- H6 ~/ a. Z5 b, I. e
新型骗局:“眼见不一定为实”0 U/ L1 M7 T# k/ k
" e( j# }& A( l8 I* M
之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。
! W, B! m; g. C- D; t, o. n# i& I2 i3 \4 U# I5 z8 w
在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。& `( l8 h. l6 s7 b0 T7 u" k! h
3 U0 E. z# }: E, B) r
现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。
# ~1 \: @! A2 V! L% o  t5 `0 U9 g+ k
9 ]* o4 l" Z4 x% @可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。
9 v( y3 U* D0 n
1 \0 X! j4 M0 P: ]& VAI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。
! G0 L( E; Z7 S1 l7 D$ Y
) a$ L7 Z0 Y: d0 ^1 o: E2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。0 ]1 @3 J1 X$ }4 G" P' A2 E
: y6 V4 X! I; o0 n3 @
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。& V2 E# f0 |, y7 ]/ c* i
3 C/ i% |0 b5 b0 y7 Q
其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
3 n0 i$ I4 Z3 w4 S7 v! y: _; x* ~1 g8 N% i8 N' T
后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!; ]. j" V9 g, v' B2 j

6 x/ n5 E# c6 k: K4 w5 ?所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。- w6 N: B- A8 P0 i' k" i, P
3 ]" T5 c1 }, [3 ~
现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。5 v+ m% N1 t! d$ _: T" Q
6 a& s2 i& s- i/ C  e& ?& c
更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。- _* z8 T) p# h9 b; _
2 Z5 H2 N9 u7 ^  c
我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。$ u) g4 e& e+ {& ?# K% z7 c: z" N
2 z8 n, e+ D4 @, b$ y& W2 ~" E
换脸换声音
3 l8 e1 i5 R7 K  L4 G4 k- Z+ x+ r* M2 G7 K
AI的出现,确实方便了人们的生活,这一点是毋庸置疑的。, }- S+ k. _4 H, e0 H* I/ q
5 T" f! A: p, ~5 \0 G
但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。3 Q7 @1 p) W, R/ V# Z
6 }6 K1 }& F+ g* j) ]
那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。) @$ Z0 T2 l1 L$ ?$ O/ a0 m

) b4 j) D6 ^, W+ LAI换脸视频6 m! r6 ?" v& |) F* n& t. J
; L) v- W( ~9 X! c, m) V4 r( K- J

" c9 R6 V! I) S1 o0 Q当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。
; [5 L; p- `+ u$ Q& @
; P0 l! e+ w) x4 Q% c# N特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。/ }5 M8 R# I4 e0 ^/ U
4 A* g4 z: J/ y9 p+ B! T; P' W
有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。! N) Z9 p8 k2 l- {" m2 m
9 u9 o2 Y4 c. k! W+ g/ s; ?
就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。
6 a, c& T  X- t
- c% G5 K) f6 q以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》& |* n. V8 [: h$ d4 ]* h
这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。; X& b3 ]9 ?7 r/ _: x

+ b& B) p5 S+ X" W; P& @' R除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。
, B) j# g6 A0 [. }$ ?0 ^
9 l9 I, r7 o  ?/ \" `" Z9 T很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。- y6 A# n" y+ E& P: w8 O% t' _

1 I* R: p5 o9 Y0 S0 o以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》$ k. ~5 Z2 ?: [! i* w) X1 M5 ?
那么,在我们的日常生活中,又该如何去分辨呢?
, r/ E$ f% q3 P* a" }+ R7 Q9 S$ E3 S5 G' e0 V
如何分辨2 I& |- e: f+ i& [
+ X% t: i2 N. o# `! l5 A  L
既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。9 r  o: H& i2 a  T) k& ?" x3 x+ w

. I! x+ ]% q6 f" S8 \) Q/ M5 C其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。: n. E: r+ U4 v* J' E) M
- m8 v0 o8 M$ s. r
但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。; e/ i. h. H( e6 T1 V. Y
( L( r5 h  `1 l" A" e- [5 I+ t
在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。
. m3 `7 @: F' s$ c7 q! H$ R5 _! A7 n* G& F
作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
7 I* M* S7 N, ~' Q7 o, X0 w
. ?6 d8 h- }8 W8 Z3 S: `在生活中,更是要提高警惕,以免落入骗子的“圈套”。: ~5 P& N6 e& M
9 O: P. e9 h  F! E
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|《女儿国小说网》

GMT+8, 2025-8-31 01:56 , Processed in 0.208379 second(s), 32 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表