设为首页收藏本站
我的广告
     
切换到窄版

 找回密码
 立即注册
海门地区修电脑装监控,请加我好友!
查看: 445|回复: 0

新骗局来了!诈骗成功率接近100%,大家一定要警惕,建议转告家人

[复制链接]

  离线 

  • 打卡等级:女儿国探花
  • 打卡总天数:320
  • 打卡月天数:0
  • 打卡总奖励:4499
  • 最近打卡:2026-03-25 18:40:02

2121

主题

18

回帖

2万

积分

版主

积分
21798
发表于 2024-12-19 16:12:46 | 显示全部楼层 |阅读模式
星级打分
  • 1
  • 2
  • 3
  • 4
  • 5
平均分:0  参与人数:0  我的评分:未评
22.jpg
' e* G$ _/ d% c9 j. Z% p
4 }! ~8 B3 J$ @
" g& V3 |7 m, v* k我们常说“眼见为实”,可有时候,肉眼看到的也不一定是真的。1 b' k+ K2 ~1 ?5 v' c9 M. b

8 V8 K* Z0 O0 P3 {. L4 a0 T+ j1 e6 L6 a* D0 T, T+ _
只需要一张照片,就能够进行实时AI换脸,从而冒充你身边最亲近的人,对你进行“诈骗”!$ O/ b' D3 V$ C  q* O
# O( d, D. S' J# F" ?3 t
而这种诈骗手段的成功率更是高达100%,可能在你不知情的情况下,就已经被骗了。
$ v  \1 T  p) X, G4 b4 ~+ i, p" V* C5 [
大家一定要对这件事情提高警惕,更要学会如何分辨诈骗手段,保护自己和家人安全。
2 T4 I  |% i% b: S: z( S1 c. J) O
新型骗局:“眼见不一定为实”4 X% d2 Q! v4 x1 n

& p( t' ?) W) z! t( S* j$ w  W" P之前发生过的一些诈骗事件,其实有很多都是骗子盗取亲朋好友的账号,冒充对方,假装遇到了非常大的困难,然后趁机骗取钱财。! g+ z. }6 H. R9 x

4 F% S, f5 K( X/ r在这样的诈骗手段被识破之后,那些诈骗分子的诈骗手段更是跟着科技发展的速度进行了“更新换代”。
2 G. s8 j; F' |  b" {, M6 Y9 k' W# X& _9 K& }" s
现在很多人在看到好友借钱的时候,就会先给对方打个电话或者是发个视频,证明对方是本人之后才能放心大胆的将钱转给对方。
( x4 b1 X/ K6 a2 d' m  {4 J: l
5 W; t" ?$ k" i5 X* E( G: A4 ^3 `可是,你以为的视频、语音可以避免被诈骗,可殊不知,骗子的诈骗手段已经高到让人分辨不出来真假了。
+ i# T& J; M# Y. Z- v! J
3 L& q" j7 e1 ^4 yAI换脸,就是一个新型的诈骗手段,它可以模仿出来任何一个人的脸,而且还能够和家人打电话,根本分辨不出真假,“10分钟被骗430万”,这样的事情也是真实发生的。
' `) D8 n& n' h7 @8 p2 C% }& s
# J% S/ [# M3 D+ s. L8 {- c2023年5月份的时候,关于“AI诈骗正在爆发”的一条消息出现在了大家的视线中,而福州一位公司的法人代表郭先生,就是其中的一位受害者。
, d6 J  G: E# j* z) q  U$ p% ]0 `" X7 b$ E$ S+ y+ h% s
郭先生的一位好朋友忽然给他打了微信视频,并且向他“借”430万,对方给出的借钱理由则是,自己在外地竞标,但是需要430万的保证金,而且需要公对公账户过账,所以想要借郭先生的公司账号进行走账。: b) |. N- B. d) a1 @" p; H% ^5 q

3 M( {2 v% \& c其实这样的事情也是无可厚非的,毕竟对方是自己的好朋友,而且这其实也不算是借,只是走一下账而已,于是郭先生在没有受到对方转账的时候,就已经先把这430万转给了朋友给的银行卡账户上。
* e- n  ~3 x! T  b. R# I+ b
. U* @& i/ Z6 V+ c1 }  N% [后来,郭先生给自己的朋友拨打了电话,这才发现,自己竟然被骗了!. a# Y$ h8 M) H6 k* N+ Q
4 w5 q, z$ T3 S) g1 A$ d  f' D
所谓的视频聊天和声音,全部都是经过处理的,听起来看起来和郭先生的好友是一模一样的,但这却并不是本人,而这,就是“AI换脸和拟声技术”,也就是说,郭先生被一个AI换脸的虚拟人物被骗。
, L* U' T, _" K) J" }- Z. B% {
( x. X1 d. Y; v/ \! }现在AI技术发展的速度是非常快的,它能够快速合成一个你身边的朋友的脸或者是声音,然后用合成的“人”给你打视频电话,从而打消你的防备心理,以此来达到他们的“诈骗目的”。0 F0 n: S7 T* F3 o* `0 D7 ]
) p, H. s. ~8 U
更可怕的是,这样的诈骗技术,成功率更是接近100%,也就是说,只要有人接到这样的诈骗电话,那么几乎上百分百是会上当受骗的。
. u% o0 Y9 q# k, P- x7 |
7 c# [; y" p( W/ j3 d  r9 R我们常说的眼见为实,在AI出现之后,也告诉了我们,眼见的不一定就是真实的。& ~0 [, j5 v0 |" R

7 T% i, C. V6 F. X2 H6 _. }6 _* b换脸换声音
$ F* c" h1 `2 {7 P; g' r9 h3 c8 ?" u0 l! j
AI的出现,确实方便了人们的生活,这一点是毋庸置疑的。2 j& U6 k# k* w% t* g1 [; g3 v, R0 o
: W, I# u& I9 W* `+ h' v
但是同样的,它也是一把双刃剑,到了诈骗分子的手里,AI技术则成为了他们实施诈骗的工具。
# a: r5 x- X/ p$ o2 ]& l% p0 X8 F! {3 Q
那些骗子可能只需要一张照片,或者是一段语音,就可以在AI技术的加持下,生成一段类似于一个人的视频和声音,而这种视频的迷惑性更是非常大。& K3 H* K. o5 `8 v2 e6 O  w

, P# G: u: Z# |0 G/ d, {AI换脸视频
! E) |9 @1 B$ W( ^! @# d, C( Y. _; g

  B1 f4 V: n2 Z- P/ t当骗子把你的声音和诈骗全部都合成之后,这样的视频就足以迷惑到你的亲朋好友了,那些诈骗分子只需要想好一个理由,比如说遇到某种困难需要大量的资金,那么就可以用这样的借口去向你的家人好友求助,从而骗取家人的钱财。
/ x! M2 r/ l- X4 h9 }. h; T6 d" l- B7 h- [0 x6 ]4 V  N
特别是对于老人来说,AI合成的声音更是让他们难以分辨,很多老人都没听过AI合成的声音,根本想象不到它和真人说话的相似度。8 X  z' s3 R, [  e

: e& U- j% i. _6 C% }有记者利用不同的生成软件,声称了一段语音,然后又录制了一段真人的声音,当把真实的声音和AI声称的语音播放给老人听的时候,结果发现,参加测试的10位老人都没有正确的分辨出哪个是“真人”的声音。% u9 t! ]/ H! k/ p% h
6 g: V6 l( v+ A2 {! j* }3 J
就算是听到自己亲人的声音,老人也很难分辨出来,记者还把老人们家人的声音分别录制了真人的和AI生成的,但是老人在听到生成的声音之后,便会认为这就是自己家人的,而且每一个都不像是电脑生成的。1 [# S8 }/ q, n, l- m2 r8 z. L6 j8 Y; X

. J* o& F" N+ c. r2 \3 T8 T以上信息来源:北京日报 2024-04-08 《调查|不法分子盯上老年人,“AI换脸换声”难以辨别》: ]) N$ t5 U8 g( E/ f0 Z1 V2 ~) g# L
这样的情况,并不是偶然发生的,基本上在大多数老人群体中,他们都没有办法识别。2 `; J% F+ z. B2 F2 u% w

4 }* K" r, `7 J7 F2 N除了会用最亲近的人进行诈骗之外,有的人还会使用“公众人物”的照片去获得更多的利益。; h' U$ \; \: Q3 v  B

& V- p, p5 y) m很多公众人物都是有非常多的粉丝的,他们的一举一动都是受到粉丝关注的,同样的,他们的照片和声音也是非常容易获取的,如果有人将他们AI合成的话,那么是非常容易迷惑粉丝和观众,从而误导大家消费的,而这也侵犯了他们的肖像权。
( j, q1 A9 w1 D) Z9 P7 X5 g2 k; F2 x7 m, ~3 v6 ~/ q. s. w6 i9 z2 \
以上信息来源:央视新闻 2024-12-15《“AI换脸”不是想换就能换 侵害肖像权后果自负》3 h. B" j1 G9 q  Q& Z' [  o" k6 v
那么,在我们的日常生活中,又该如何去分辨呢?4 ]5 K! a. p; V3 ]8 x7 M* E* v
+ j/ N; X3 y$ B! g4 X4 S% r
如何分辨
6 y+ z( ?$ o7 n1 W6 z: x
) _! R9 G  W& F, h3 @. O既然诈骗分子会通过视频进行诈骗,那么如果接到亲朋好友借钱的视频时,是可以通过其它的联系方式去证明真假的,比如说打电话、或者是换一个其他软件甚至是当面确认等,就算是对方已经视频了,大家也一定要通过其它方式进行验证。& e1 ^- ]) U# L% O8 X' J
1 |8 @5 c8 g7 e
其实一些AI合成的视频还是会有漏洞的,比如说人脸的一些生物特征很有可能是不符合人的生理特性的,比如说眨眼的频率以及人的嘴部运动,这些都是非常容易“穿帮”的。
4 p  W! y3 B( j5 y# J2 F9 }8 T
' _( B; x0 f* w0 d6 P5 k但是对于老人来说,他们的听力视力本身就不是很好,这更是让诈骗分子能够“趁虚而入”,所以说,在日常生活中,只要是涉及转账交易等行为的,一定要留个心眼。3 [2 h6 h# E. f
6 o/ u& b5 T% r' }+ w  h# T. e/ {
在接到陌生电话的时候,一定不要做先开口的那一方,因为不确定对方到底是不是“诈骗分子”,如果自己先开口的话,对方很有可能就会提取你的音频,从而生成“AI合成”的声音去对你最亲近的人进行诈骗。+ ~, g5 h1 R! P, u8 u
* ?2 a* S% W* Y% k
作为子女,是需要及时和父母进行沟通交流的,关心老人的日常,了解他们的一些财务状况等,更是需要经常给自己的父母进行防诈骗知识的一些“科普”,跟他们强调现在的AI诈骗技术的先进程度,提高老年人的自我风险防范能力,让父母做到心里有数。/ s2 S8 w- x6 n; Y

& r7 X5 a* U6 ]/ w* l在生活中,更是要提高警惕,以免落入骗子的“圈套”。& V. L, }6 G; D9 |* ~! r9 U

' L( P$ l. H" _7 ^1 T, d' y
女儿国免责声明
1、本主题所有言论和图片纯属会员个人意见,与本论坛立场无关
2、本站所有主题由该帖子作者发表,该帖子作者与女儿国享有帖子相关版权
3、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和女儿国的同意
4、帖子作者须承担一切因本文发表而直接或间接导致的民事或刑事法律责任
5、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责
6、本站所有带作者名的小说均收集于网络,版权归原作者所有,本站只提供整理校对排版
7、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意
8、女儿国管理员和版主有权不事先通知发贴者而删除本文
贡献值排行榜:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|《女儿国小说网》

GMT+8, 2026-4-21 23:29 , Processed in 0.207666 second(s), 41 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表