设为首页收藏本站
我的广告

     

 找回密码
 立即注册
薅羊毛,扫我就赚了!
查看: 279|回复: 0

新骗局来了!诈骗成功率接近100%,大家一定要警惕,建议转告家人

[复制链接]

  离线 

  • 打卡等级:女儿国探花
  • 打卡总天数:315
  • 打卡月天数:2
  • 打卡总奖励:4442
  • 最近打卡:2025-11-04 09:48:39

2082

主题

18

回帖

2万

积分

版主

积分
21582
发表于 2024-12-19 16:12:46 | 显示全部楼层 |阅读模式
22.jpg ' k1 s- G$ \8 u  p7 _( u! s: D

$ E2 R# G6 T* T, O7 s
6 D9 K3 k; y' Z2 C我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。* Z' A( V9 }1 _3 N
9 r4 n3 R! L9 `1 A$ W/ n' c, N

6 }# L# o/ e( `1 Y7 E9 U$ y只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!
: f( X3 o, G6 B/ `! l/ d+ p
/ v7 d/ }) b( j% `! l+ o而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。
0 b* x1 k2 K& |; N2 V1 _. C6 Y7 i  k/ r% W
大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。( R! |$ O5 K5 x

8 h- m- U- T( W7 v! D. w5 o新型骗局:“眼见不一定为实”% Y6 L9 c8 R9 X6 I6 }( R  j* w

: ^. h: M7 X% W0 Q3 a之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。
" i. w& \% h0 D2 a0 x( ^
, y; \7 j4 i( |3 x- D在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。
. [9 Q( p3 d5 x, e
3 |5 b/ [& [/ ^$ g  {  F现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。
4 Z+ M5 Y& h, _3 u1 j* y
+ n, b" Q9 K2 T2 @$ o可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。
& r+ U6 M+ @( j4 V! B  z
0 o/ \" T% S* ^0 J6 dAI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。
$ y! `, d, M, k- O( n6 x, R
  d( m$ l2 q  P9 s4 l- a2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。- e  q+ T: J7 `/ n7 {0 }+ r
# j# g  E6 ?: l% ~# W/ C
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。
0 J- {9 W. U/ x8 l  p
) t) G6 \1 Y, W. J* s其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。- y- n% j* J. I& h& s; V

, x% y: y& m$ z, i$ \" G后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!8 J$ g* T9 T$ Q

7 h; l+ g8 k* Z4 |所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。
# ^7 g; z8 Z' ~2 x! M5 J
6 m# W% `0 _9 C8 o* v# T' g8 p) I现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。3 R& y) Y$ R1 t! {# [/ l" N

- F' w% N. D# }9 G0 z更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。) ], j. q. v* l4 p2 e

, a0 W( Z; h: R3 x+ U' ~我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。
, s' e# `  U! p% T& y3 Q3 b$ K, w  g) v+ n# g8 y# r- b; v, @5 i8 P1 f
换脸换声音" t7 T& H* D9 V, a% y" F# j

; M* A2 f! C# j- HAI的出现,确实方便了人们的生活,这一点是毋庸置疑的。4 N3 z& @4 y; [1 p

9 w1 \2 L0 `# ?5 s+ f但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。
' g" C# |! p( r2 q7 q5 A! k. R4 N( y8 b
那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。) F9 T$ y" w& R: ~$ L2 q

1 F# E! D3 R* U, Y8 ?. W5 h% wAI换脸视频4 u4 F) n) R1 ~) N8 K- }0 ~: U
4 @- ~7 R  A  y% x

' A. s9 m8 v, K4 \8 j当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。, V' ]5 S. `- q9 ~5 \( z. g' c

8 ~0 z' i& r  N' @, y: t特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。
1 O) O/ L- m% @  L
) a! e2 b2 U4 ^有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。
+ k0 O* u$ y, x8 S) d+ |, S/ v
: |+ Z7 v/ s7 g1 h就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。+ U: A  r2 m9 C3 H8 g: y! b

! c- a* m1 T, ~  _" X: u以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》8 j, N6 W# r# M4 ^2 ^/ \% l
这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。( Q" H. f2 O% y7 E5 E7 f

$ @( b. B) o2 W* [+ X2 A& t除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。' `- ^/ `& T: A7 s
$ }" ~3 Q: v- G. [. [% |
很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。, G. ?0 s& c4 a* k. y, P, L
/ g; I- U) r) J4 c. _; k' ?
以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》# p1 c! o" \4 `! g: h+ N9 K; D( b/ U
那么,在我们的日常生活中,又该如何去分辨呢?, n( T5 e( e7 _+ c( \
& b) W1 q5 h% E: z
如何分辨* x5 h: @# ?0 \
3 S- d( k5 H" l8 l. G
既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。; w0 C* R5 H; J- N: M
" }4 M4 ^$ [: s9 i5 L1 w8 ~
其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。0 ~; g# m1 R: g( d1 r; R. A& o+ R: [
1 W  `, O( o) i% a# {4 ^( U- ^% ~. P
但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。
. C. l" m2 N! e2 D" u1 W
+ h7 h/ t, }- h5 I5 N  u  r在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。
$ e. S( S* w+ Y5 q+ V3 Q; T$ s2 r( `+ h; `' D% i% [( W0 U
作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。
: D, i0 Q$ ]5 C+ T* W) F) p% Q& w& H) d1 p3 J3 ]$ |
在生活中,更是要提高警惕,以免落入骗子的“圈套”。& R1 @( H6 P, B2 P# T0 H( ?2 z: |6 i

4 H& v, j; l- h" t$ P  Q/ Y
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表