设为首页收藏本站
我的广告
     
切换到窄版

 找回密码
 立即注册
薅羊毛,扫我就赚了!
查看: 195|回复: 0

被AI盗脸造黄谣,她说:我没想过这种事会发生在自己身上

[复制链接]

  离线 

  • 打卡等级:女儿国秀才
  • 打卡总天数:35
  • 打卡月天数:0
  • 打卡总奖励:424
  • 最近打卡:2025-01-17 08:48:00

1440

主题

3

回帖

1万

积分

版主

积分
11316
发表于 2024-10-14 20:30:33 | 显示全部楼层 |阅读模式
  首先涌来的是羞耻、愤怒,在揭开真相的过程中,她又逐渐感受到了焦虑和恐惧。借助AI技术,那些隐藏在身边的施害者,让她陷入巨大的“不安全感”。
* O: {6 N2 s/ N& U( q7 |5 \9 b# }8 o/ i$ s& F4 y2 `& u; f, Z
  那些照片出现后,林致的生活彻底被搅乱了。一周前,几名“求交友”的陌生人发来照片,内容让她吃惊——一些淫秽不堪的女性图片里,长着与自己极其相似的脸。) D9 {& F/ y: Q2 g

- n" r( w" |( \! s& @) e4 Z  首先涌来的是羞耻、愤怒,在揭开真相的过程中,她又逐渐感受到了焦虑和恐惧。借助AI技术,那些隐藏在身边的施害者,让她陷入巨大的“不安全感”。
* W6 u/ o9 o- ^( Z% ^: a2 \3 n$ a' }! e" n, s
  近些年,AI从最初的“工业级”技术逐渐“飞入寻常百姓家”,更低的使用门槛和创作成本,给施害者,甚至不法分子提供了便利。AI换脸诈骗、换明星脸直播卖货、换脸和明星“接吻”、乘地铁的照片被“脱衣”等案例层出不穷。AI盗脸“造黄谣”“一键脱衣”也突破了法律和伦理界线,侵入到普通人的生活。* d/ }6 c: K5 ]: u+ _1 {

) A  h0 G, @! W$ r8 i  调查发现,唾手可得的制图工具和难以追溯的传播渠道,让AI“黄谣”制造者更加猖獗。当他们肆无忌惮地散布谣言时,受害者却困于自证——不再信任社交网络,反复检视自己,对周遭世界的信任也逐渐瓦解。
1 l3 b8 T" [; C9 R
' Q3 ~& {5 y5 t  a7 \2 h% j  在倚靠AI换脸衍生的其他领域,也不乏擦边投机者的身影。他们有些在社交平台兜售换上明星脸的淫秽视频;有些提供有偿定制换脸、脱衣图像的服务;还有的拿脱衣当噱头,销售“操作教学”。
+ F$ u: |$ x+ o' I' ?  p& P3 |( d. B4 |' \& u
  “你没有错,错的是造谣者”
( {* w( y$ B9 Z( f# ]2 y7 t
& y2 P: ]7 F* J$ s  一周前,林致突然收到近10名陌生人发来的微信好友请求,留言都是“小姐姐,交个朋友”。
9 ~# |. H  ~7 @$ p& D2 M+ P" K; P. e# Z; @" x8 }
  林致觉得奇怪,平日她极少把微信号给别人。她社交圈很小,除了同事、朋友和家人外,几乎不加别人微信。她一一拒绝,但有两三个陌生人反复发送请求,最终她添加了其中一名。
: A/ I6 W% s* c/ `4 M4 S1 A" D6 ~- r, e
  陌生人称,他见过林致的一些“大尺度”照片。对方先是发来几张林致的生活照,林致认出,那是自己曾发在朋友圈里的照片。随后,是她从未见过的淫秽照片和视频,那些赤身裸体的女性脸上,长着与自己相像的五官。
2 U0 f: N- }6 R  n
: `9 P7 K$ b) z6 n. |$ Q6 r  “我被AI盗脸了。”林致很快反应过来,她没想到,这种事会发生在自己身上。; \  T9 j# N; l

% j3 x9 N+ |( W* C0 @1 U+ J  为了弄清真相,林致又同意了另两名陌生人的好友请求。在聊天中,林致了解到,他们是在国外社交软件Telegram(下称“电报”)的淫秽聊天群中,看到有人发布了她的照片和视频,上面的文字总是带着“荡妇”“可撩”等字眼,有些暗示她是性工作者,他们再私聊发布者,获取了她的隐私信息。
" A. N; ~. k* h4 d1 p! q2 Q& [$ H; E
  尽管林致一开始就告诉他们自己已婚,但他们还是不断用轻浮的言语挑逗,“姐姐”“宠你,想追你”。- Q5 q" g2 T$ q5 N& g$ s

9 y" Q( p5 `6 e0 e  了解越多,林致越感到恐惧。制图者对她了如指掌,知道她的名字、年龄和家庭住址。而根据流出照片的时间跨度来看,制图者早就认识林致,“最早的照片是去年5月发的,最晚的是今年5月初发的,我推测是熟人作案、长期蹲守。”
% }+ ]  x% @* p. k. g6 ^$ _0 m
/ B3 Z4 U. }+ r6 G8 D  林致说,“黄谣”里既有真照片,又有AI换脸的假照片,两者很像,普通人难以分辨,就更增加了“真实感”。如果要自证清白,她就掉入造谣者的圈套。她想找到那个造谣者,给自己一个交代。
. G7 T0 w& E9 c, s- I; g
0 ^: W$ G! ]4 H/ t0 a7 X0 A “我一直很纠结。”林致担心影响扩大,希望造谣者不要再发,可如果不发,就找不到他。林致和丈夫下载了电报,试图用陌生人提供的关键词找到线索。但只检索出许多盗用她脸伪造的淫秽图像,发布者不断销号、建新号,难以追踪。
$ _4 F  j, w! X' Y6 q, y5 K* V* A
$ A! c/ N3 v4 F, C, A  为了抓到“活着的”制图者,她只能不停地搜索、查看,“每看一次都是精神污染。”
; W+ n' z) e/ h; d+ r' ]  i) T" W- q$ p
  疫情期间,林致患上了抑郁症,两个月前病情才稳定,刚刚停药。但事发后,焦虑、怀疑和不安再次笼罩心头,脑鸣、失眠的症状也出现征兆。她担心,不久后又要服药了。* n% s% y1 q# L9 W1 x, T8 D
% M( ~6 z. @$ G( A, ?
  “你没有错,错的是造谣者。”丈夫和挚友不断鼓励林致。但有时,她还是会陷入自我怀疑。紧张焦虑时,她看谁都像是那个制图者。奶茶店的陌生男子、公司的同事,甚至家人,都成了她的怀疑对象。5 P$ ~% X8 z' F% k1 x

0 L; ~2 T9 \$ J; Q  事发后,林致弃用了十几年的微信号,在新账号的朋友圈里,她把隐私设置为“仅自己可见”。“一切分享欲都消失了,以后再不敢随便发照片。”
; b( k) B, o6 [/ `  O1 w
9 ?! o& y, F% }/ J  ]2 r  5月23日,林致去公安局报案,做了笔录。还有些受害者因为种种原因,选择了沉默。  j4 A0 Q* [2 g

, l9 t8 l3 {6 w, X8 P3 r  W  一位受害者被AI盗脸造黄谣后,有陌生人加了她好友,一直给她打电话,发用AI伪造的淫秽视频。因为害怕,她不敢报警。“我又没做错什么。”她安慰自己,随后把陌生人拉黑,再不理睬。
, {0 N: C" l$ ]# B- v8 n! I
( `" q2 w2 [9 W1 i' t  另一位受害者告诉新京报记者,她发在社交媒体上的两张自拍照,曾被人用AI脱衣后传播。这件事让她意识到,“在任何地方都要保护好自己的隐私”才是解决之道。在她看来,电报等海外软件上的造谣者很难被抓到,维权艰难。
0 N- U$ i2 V8 Y1 K: d6 J+ b5 |- }5 a' u) O# d" |! e
  “那些人骚扰我时很恶心,但想到那些身体不是我的,就问心无愧吧。”* |" ?9 l# M; H/ z. r; L8 I

. U8 `- h* O% n- o3 ~9 X3 @  传播渠道特性导致难以溯源
) H) g  G9 S: e: s* `$ ^3 n1 t& l0 W) Q$ L* F  l+ s7 x
  电报以“隐私”“安全”著称,由于服务器架设在境外,相关部门更难追溯到造谣者。此外,记者注意到,“阅后即焚”的功能让警方难以获取证据——用户在注销账号时,可将先前发布的信息也一并销毁。
" x& X9 |7 L0 n8 e3 x3 _5 G: C5 Y/ P
' m; a/ j( g: t& J  正是这些特性,让不法分子以为找到了安身之所。记者在电报搜索栏中输入含性暗示的关键词,显示近10个超过5000名订阅者的淫秽聊天群,其中一个群内有1.3万余名订阅者。
( w) @; K  G1 E2 Q. z, R% Q
" Z' n$ I' L, w0 r' w  W9 L3 [+ v  “反差”“曝光”“自毁”“社死”是这些群名里的高频词汇,其中的聊天内容也多为制作、公开女性的淫秽图像和隐私信息。除了图像外,不少女性的身高、体重、年龄等信息被公开,甚至还有家庭住址、社交媒体账号和身份证号。4 @3 Y. R2 t' l. W

5 C7 B; Y7 @0 m0 u$ h+ e  记者注意到,大量“荡妇羞辱”相关内容出现在聊天中,字里行间充斥着“狗”“贱”“欠”等辱骂性字眼。8 }7 g3 }6 n8 Y2 [4 C, \
# c: b: }, C' v' E' H' U; X
  提到制发淫秽照片的目的,一些发布者常常提到“欠骂”“报复”“羞辱”等词汇。在评论区,一些网友会索要被曝光女性的联系方式,有的发布者会直接公开,有的则需要私聊。
8 z* Q; J. w; e% P7 l6 y( X' z4 w, W, Q+ `9 p. |
  记者发现,只需点击搜索到的群名,便可免费浏览所有历史信息,甚至不用进群。
: M' C  C9 Q& E; ~" c( u/ G
. P8 O4 Y, G1 G# u" M. B, B2 `  一些仿真程度高的换脸视频能以假乱真,让人误以为生活照和淫秽图像中的是同一人,就连受害者自己见到时也会恍惚。林致告诉记者,她觉得假照片中人脸的五官,与自己非常相像,但细看会发现,脸型不一样。1 T1 Q8 J2 J) n5 I- _

, {3 I: k0 S( P$ f3 Z  而一些低质量的换脸图像,可以直接从脸部线条看出破绽。一些照片的面部线条模糊、扭曲,甚至断裂。评论区的网友也会指出,“一看就是换脸的”“太假了”。
9 \! b: u2 W/ V/ _4 L  m) W! {% f4 R( C: T# P% t8 o
  然而,不管质量高低,评论区都会充斥大量性情节描述和辱骂词汇。因为受害者的隐私被公开,一些同城的网友声称要过去,意图骚扰。1 i6 @3 E# k4 Z; N

" q0 Q: b6 l9 y$ X9 h! y9 Y  有偿定制
2 A; [+ p" c/ s% c
4 T" a4 ]1 e) {, \  在流量加持下,一批不法分子趁机涌入,靠私人定制、搬运和卖课等方式获利。其中不乏擦边出售淫秽内容的投机者们,他们在一些主流社交平台定期更新AI作品,并暗示网友,可有偿制作淫秽图像。
* o- ^7 O4 X2 g( p! X5 `) m
5 D6 m" b, T. l1 B  一名“供应商”告诉记者,他可以按需求定制AI美女图像。根据图像画质高低,每张价格从100到180元不等。在记者提出要先看样图后,他随即发来一张AI生成的女性图片,图中女性的隐私部位露出。“看到了吧?一切按照你的要求。”他表示,随即撤回露点图片。
% O: y  Q: `- g* O" _# H1 L( V7 n1 {7 @: v+ h+ f/ [1 o. A9 e+ f& \
  记者询问,能否对真照片进行AI脱衣,他表示,需要支付定金,便可操作。
# w; Q$ h' [/ B4 M) \* S2 ]6 I2 o* X( k1 [
  此外,女明星的换脸视频成为投机者的主要噱头。记者发现,百度贴吧内,部分网友专门出售换了女明星脸的淫秽影像。
1 a. Z. d0 u  p+ d' g0 H' S* n/ [& ]( q# X2 P
  同时,在一黄色网站的“换脸AI”专区,充斥着换上女明星脸的淫秽视频。网站称,充值200元即可成为VIP会员,免费观看“换脸AI”专区内容。
8 M; E5 ~/ y( \+ k) N
* m! m2 W) G" c  在电报群里,类似的行为更加猖獗。记者在搜索“AI换脸”“脱衣”等关键词,显示多个相关群,群内均在传播淫秽图像。在一个有4000余名订阅者的群中,充斥着大量AI换脸、脱衣的淫秽影像。
  H1 {4 b4 D. r  \
: x5 ^8 J; V% T) b$ ]  影像中的被盗取的面容,不乏当下知名女星、网红。同时,普通女性在学校、商场、办公室、地铁等日常场景中的照片也成为AI盗脸的对象。她们被AI换脸,或脱去外衣,赤身裸体。“反差”“内在美”等词被用来形容换脸后的照片。每一条类似的群消息,都有数千甚至近万次的浏览量。( M2 O7 ~- z: h4 H5 U; `; \

' Q. b' \+ v) r0 s) n( H. d6 J9 w  有发布者称,“适当娱乐,满足自己即可,千万不要发给对方或者骚扰对方,一旦报警麻烦不断!AI脱衣,你给我照片,我帮你做图。”6 x# P. L' V  [7 ?$ N! w2 H8 ^; i
- @. m9 c" B* l7 v$ H8 j% b1 \
  还有发布者拿淫秽视频当噱头,在群内发布AI换脸、脱衣软件的购买链接。“私人定制,无硬件门槛,全流程汉化,傻瓜式操作,即时能出作品。”
) C' x) n9 b! q1 ~4 I! a) ^$ ~* ]0 u  ^' C) G- r
  记者点进一购买链接询问。客服表示,直接提供软件,需收费200-350美元(手机和电脑端收费不同),一年有效期,包教学。) ?2 c# r+ o$ K% N! b1 p

- g- b4 \& ^9 r1 r# A  直接制作图片30美元一张,视频50美元一条。用户付款后,仅需提供一张照片或视频作为素材,一小时后便可获得处理好的影像。客服还称,购买软件后,可进入VIP专属群,享受更多AI影像资源。
& O& k4 A4 o. n1 U3 o3 f
1 U0 ], I7 }( i0 g# F" |  AI换脸的门槛变低,也易引发违法问题
0 e) z5 X2 X3 R, ^1 z# E* t4 k& e: X+ j
  记者调查发现,AI制作淫秽图片的成本和门槛都相对较低,在一些网站、软件充值后,便可一键生成AI脱衣图像。+ l5 a* ^; h8 e# E6 M" R2 I
: w8 W. d7 q- l+ H& a, U
  以国外一家一键脱衣网站为例,在不登录的情况下,只需等待40秒,上传符合网站要求的照片,再点击加工,不到半分钟后,便可生成脱衣后的图像。此时,显示的图像是模糊的,如果想下载高清版,则需充值。充值29.95美元,便可一键生成100张AI脱衣图像。
. x3 d4 T$ V1 w0 i6 o% ~+ \8 f0 [) v& k" W
  “想复制一个人的人脸信息,往往收集一张照片就可以实现。”一位从事多年网络安全工作的专家告诉新京报记者,以目前的AI技术,即便只有一张正面照,AI也可以通过深度学习补齐其他角度的图像,获得立体的人脸图像,再将图像映射到视频中。
, A, z' a7 e( ?- u6 K% j- A& m. Z- Y  z4 V5 N3 _$ b
  专家向记者展示了一个案例:通过AI补齐,平面画作中的人物被立体化,原本只露出正脸的人物一转头,侧脸便露了出来。记者注意到,立体化后的人物动作流畅,被补齐的脸部细节自然。' `- V7 G3 J: B; G) R! u" c& |1 \' S

9 r8 e$ A. d2 }& e9 _0 s. ]  专家表示,目前在主流社交平台发布的照片清晰度,大部分足够生成自然贴合度较高、难辨真假的换脸照片和视频。即便清晰度较低,也可以通过AI补齐,提高换脸图像的贴合程度。3 k% k6 Y% P! E, g
$ Z3 ?& T0 Z% r
  这得益于AI深度学习技术已经成熟,网上有不少开源的人脸模型训练项目,具有较高的深度学习能力,很多都是操作简单的免费工具,这些都可以导出非常自然逼真的换脸视频。# ?3 U$ {6 t0 V/ D2 R" R) s$ ~

3 X* v- D5 D  W, T  AI运行时,对设备硬件的要求也已大大降低。许多AI换脸软件接入云服务器,操作在云端进行,完成后再回传本地。
8 f! o6 h& u# l" |& }
& f7 @  f  v1 m' g: J2 U. b8 d( X% _& r  在这位专家看来,尽管换脸后的图像可以达到极高的逼真程度,但只要仔细观察,还是有办法区分的。- N) W$ f5 J- n: k4 _9 h" U5 v

& {1 H3 [* j. p6 n; l  比如,注意眼部、眉毛与肤色的过渡是否自然;光影效果是否自然;画面中人物与环境的比例是否真实。另外,还可以检查图像质量,换脸涉及图像处理、合成,因而图像质量可能会受到影响,出现模糊、失真或噪点高等现象。/ g4 N" J, u( V! y

# _, q' X" C* h0 d* U+ X# |  一方面,低成本、低门槛的AI换脸技术让每个人都有机会使用这种娱乐工具;另一方面,唾手可得的技术,也更容易引发违法犯罪问题。9 }1 d% H. H& p) R, q$ |: l

6 Y# `8 g6 \0 t3 v2 E. G  江苏法德东恒律师事务所高级合伙人律师蓝天彬表示,在未经当事人同意的情况下,不法分子利用AI技术制作、传播淫秽图片或视频,从民事层面来看,已涉嫌侵犯当事人肖像权、名誉权和隐私权。此外,行为主体还涉嫌违反《治安管理处罚法》,公安机关可对行为人治安处罚。" K: Q" e# Y( i7 [$ k

* g% r9 v6 \, J" `7 Z' i! ~  蓝律师提到,若行为人以牟利为目的,且达到一定涉案数量或金额,那么行为人则涉嫌制作、传播淫秽物品牟利罪。* v2 K$ A3 J  X
% B( _( I+ R1 P- K# r7 H
  “即使没有牟利,行为人也可能涉嫌传播淫秽物品罪。”蓝天彬说。
+ v! i0 H5 [3 I$ q6 e! {& {: H4 a0 ?6 ^! K, W  y
  河北厚诺律师事务所律师雷家茂认可上述观点。雷家茂分析,以往单纯的“造黄谣”行为,一般情况下仅为民事侵权,即侵犯名誉权,情节严重的可能涉嫌诽谤罪;而利用AI换脸技术传播他人的淫秽图片、视频及真实照片,则涉嫌传播淫秽物品罪、诽谤罪,行为人将会被数罪并罚。, J, c8 b& M1 i

/ |  j+ {' Z. L6 b  p; X  雷律师表示,该类案件维权难点主要在于取证及锁定违法犯罪。因不法分子可能采取关闭网站、删除链接等措施,导致无法固定证据。此外,网络信息易传播、发布者匿名化等原因,将难以锁定发布源头。! v) C6 R2 i  D! }! @  q; i8 J
3 G3 D) w. |: I
  雷家茂建议,若遇到该情况,受害者应立即截屏存证,及时报警并向警方提供自己留存的证据及线索。" ?* o9 }8 o- q9 h: n* e
7 m$ R: G8 w& m5 ]" ]' E
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|《女儿国小说网》

GMT+8, 2025-7-7 14:17 , Processed in 0.217739 second(s), 29 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表