
离线
- 打卡等级:女儿国探花
- 打卡总天数:316
- 打卡月天数:1
- 打卡总奖励:4457
- 最近打卡:2026-01-02 09:48:00
版主
- 积分
- 21442
|
想问大家一个小问题,大家用过AI换脸吗?
# u& ]. y# T. P! o' v1 ~4 w0 c6 v
1 t. x; H, `; S! b; [我猜绝大多数人都是用过的5 S) P3 z, a9 P: N, P* v8 R
毕竟很多短视频or修图拍照app都会出类似的特效,像是换脸成热门剧的男女主啦,成年人和小孩/宠物换脸啦,查看性转后的自己哇……随手一拍,再搭配上灵性BGM,一个「热门视频」就诞生啦~' ^/ g5 N: |( U0 z+ F7 h% p* y+ M A
从这个角度来说,AI换脸这项技术的成熟确实是在丰富咱的网络生活。但从另外一个角度来看,潜在的危险也离我们越来越近……
; K' p. O& v/ D' V! i* ~- W, x V9 o7 |8 k: F
2020年那场震惊世界的韩国「N号房」事件,大家还有印象吗?就在最近,它重演了!就是以AI换脸的形式……1 u/ [ \5 D w! {9 `; i. d( L0 e
! _4 w* \* x/ y
9 v3 r4 Q" F3 w- O7 g+ ^' p9 ~+ h「N号房」重演了?$ N" ?0 J0 K$ a/ r" y( Q
& f) T) [4 v2 W% j: L
随着2021年下半年的终审,主犯赵主彬被判处了42年有期徒刑,至此韩国N号房事件告一段落,相关立法也在同步进行。
) d( Q7 e: Q. A; ^5 w) G2020 年 3 月,赵周彬被移交给检察机关
. V: ?# ?7 T0 U7 R: z: k
6 L% V, H6 R/ { T/ w5 n但N号房,就像是一只被看到(且拍扁)的蟑螂,而这意味着在我们看不到的地方可能已经藏了千千万万只了……/ H ]" u+ d- t' G" K& q/ b
0 S+ Q! O8 I/ }: X6 n2 J
就在N号房落幕的同一年,两名首尔大学的毕业生,已经开始在通信软件Telegram上私密传播用「deepfack」技术合成的色情照片或视频,也就是使用AI换脸的色情制品。3 m! ^8 ~7 r, |2 `
% Z: l; G' X, Z
这些视频几乎无需和受害人有多少接触,仅仅是利用受害者的社交媒体甚至是毕业照,就可以完成一场真实的性剥削。
( s# l- P# u) d7 F6 M0 m5 i, o! |* X5 c8 m
从2021年7月至今,他们共制作了2100多段色情视频和图片,受害者有60多人,其中不乏大学女生和未成年人。
* Y% b# }1 E( o" p H; H, J
* Z7 \5 X. W' ]. S9 @而这些伪造的视频和图片还会被摆在受害人面前,变成要挟她们接受线下侵害的威胁。
/ j- r, n$ U0 F7 `3 @2 V6 |: L ]
1 J# S+ l( N/ G, C" I# ?. ^- G: ?4 |3 u1 _不敢想象,那些十几二十岁的女生突然面对「自己主演」的色情制品时该有多崩溃。+ z" m1 ?5 N0 H$ }6 [# Y, E7 ]6 a8 d, s
4 }' t6 r1 |6 w+ |: n" e也不只是国外,国内也早有例子证明,AI换脸或许早就可能触及道德和法律的底线。, P+ x# X; B! P
) O) D! L2 q4 b
在2020年,杭州虞某就曾利用相关软件制作大量的淫秽色情视频并传播,受害人中有女性明星,也有被变态暗恋者定制换脸色情视频的普通女性。
9 d# b3 |; z/ ?& W9 \% v Z* K( i" `$ }; F* l; D
虽然最终虞某被判处有期徒刑7年3个月,但这些视频和图片很大程度上因为传播范围之广、传播途径的隐蔽,并没有办法完全消除干净……
g% @9 H) Y M0 R: ?& U% k) W. }; \( x2 z8 m+ s
而关于「deepfake」滥用的事情,不仅是韩国,在全世界范围内有很多很多' j/ a5 P9 q- h# P8 J4 S
虽然多数事件都以法律制裁收尾,但躲在暗处的情色霸凌真的停止了吗?!处在这个AI技术迅速发展的时代,毫不夸张地说,每个人都可能是猎人,也都可能是猎物。* ]: e( [) h; ~4 b" B& i
0 B: H, Q! V5 g$ ^/ j3 Y8 f
AI能做的真的太多了( L1 W) q [0 @) Q7 u3 S8 q9 S% q
$ @5 ?$ h" e* U* T0 O( Q4 [
(1)AI脱衣/换装
3 v9 d: \$ {! {) ~; i$ f只要一串代码,就可以脱下任何一个人的衣服;只需要几张脸部照片,就可以生成色情图……
6 a' X. i1 ~) l: N' I. [5 _/ F6 W3 E如此低门槛的方式,也意味着荡妇羞辱和色情复仇的成本越来越低,而它们的受害者通常是女性。. H7 }0 s$ z7 X" a
8 n T& k' d5 y2023年夏天的广州地铁中,一个女性乘客就曾被「AI一键脱衣」。+ v) v7 d J& {( R2 G
$ @- s0 K' {" r- d
生成裸照只用了几秒钟,但随即展开的赛博围剿却持续了十数天之久,有人说她是夜店舞女,也有人说她明码标价,还有人对她的身体评头论足……
6 M# z; y' i- n; A# {7 f- I/ b7 u
在理性网友找到原图后,后知后觉的人们才发现,这竟然是一次零成本的AI黄谣。造谣者不费吹灰之力,便可以让受害者深陷难以自证的泥潭。
' H2 E3 _" Z N' b$ i0 O1 @7 d/ g- U
但即使涉事相关AI软件已经被封禁,那张图还在互联网上能搜到,而制图者依旧在茫茫人海中完美隐身……& O$ W, e G6 R
% X% M' i: C* c/ [0 F5 G
而这只是AI绘画中很基础的操纵,更高级的AI可以根据不同的提示词和多张图片生成更多崭新的图片。6 j# d. E5 ~3 T, A" o
5 C b2 ]& O J3 {& G它和AI换脸/修图还不一样,换脸/修改就意味着有原图,有原图就可以证伪;但AI生成的图片是没有原图的,女性要如何证明那张逼真的大尺度照片上的人不是自己呢?0 ?/ b& K" v8 j
* j3 p2 @ b& q) M3 L/ i0 J
而比AI绘画更难辨别真假的,还有AI视频。
$ T1 k* K) q: r9 P3 z) D5 w- A, p: @ J2 k4 f# `9 A. z
9 _# j: I+ x+ m* G! W
6 i! i" O+ h0 F! a' b, n
+ W; {+ z; |3 M7 h, Q9 D, M! U, D
(2)AI视频换脸
+ g4 o( [% ]) k: q
+ [) I9 U' ^" @% S随着AI技术的发展,一键换脸的功能也被一些综艺节目使用,虽然看起来和五毛特效差不多,但是不难想象随着技术的发展,真假的辨别也将会成为一个问题。
: S: i2 l& l( @2 A曾经我们认同眼见为真、视频为证,但是在AI如此发达的今天似乎不太成立了。
5 W0 B/ d) ?3 F% J" W/ P; V/ J! Q5 x# `; H& T: B Y
而这项让人惊叹的技术,早就被不法分子盯上了。6 A5 ?8 u: S( i1 M8 W: T7 p
$ B4 |. H# u$ E0 N" K& T1 T今年2月就曾曝出,一家跨国公司香港分部的职员受邀参与总部的视频会议,被要求将2亿港元分别转账到5个账户中,转账后向总部查询才发现受骗。" l4 ?: M: j: E0 r* _/ a" ^- X) C: Z
3 _: w) ~. G" i2 B* h
随着警方的调查,该职员参加的多人视频会议,只有他一人是真人,其他人都是AI换脸合成的。
- X9 Z: m, p3 h _* C0 y1 v5 g7 e7 B: \& L9 C1 d d
类似诈骗事件在陕西也出现过,受害者陈述时也提到,照片视频电话都有,很难判断这是假的。
7 i) L6 i4 g/ @$ s* c) `; \/ \# w' l) M1 j- _6 r" z* U
所以当这项技术用到了生成女性色情视频上,取证、追查、下架视频的难度又会有多大!对受害者的身心伤害又会有多大!我们真的不难想象。
& d% ^: O; c& X, s+ L5 d# w7 h5 \0 z& T S" J; @7 m* D
那么,当推动社会发展的技术可能变成斩向我们的利刃时,我们应该怎样更好地保护自己呢?
5 \, D$ C* F# q$ Z' w/ l. x3 r" @ E" |+ s6 V
& |# Q" D* |1 _6 S面对AI换脸,我们该怎么办?9 {9 {4 x" ]% z" D2 D
* r2 D. \: m7 p0 l2 i2 S
(1)立法、用法
3 T5 Q" \ Z* Q% D2023年8月15日我国就已经通过并施行了《生成式人工智能服务管理暂行办法》 ,其中对人工智能的技术发展方向以及使用规范做了明确的规定。7 `8 h! A1 P0 w$ k L+ S1 r& s
0 x9 p. Q& [1 E( C: D- E
不过还是希望立法部门可以有更加明确细致的立法,国家能加大宣传普法力度,让更多的人了解以AI为手段实施违法犯罪行为可能触犯什么类型的法律,如果做了会受到什么惩罚以及受害者如何维权。
, U1 P# q/ u7 n& Z- R8 I8 E) A# o! |
就目前来说,根据《中华人民共和国治安管理处罚法》第四十二条第六项,偷窥、偷拍、窃听、散布他人隐私的,处五日以下拘留或者五百元以下罚款;情节较重的,处五日以上十日以下拘留,可以并处五百元以下罚款。4 d$ p" y& m p$ G# w1 j
) S* u% y. s* Q/ [# L同时,根据《中华人民共和国刑法》第三百六十四条规定,传播淫秽的书刊、影片、音像、图片或者其他淫秽物品,情节严重的,处二年以下有期徒刑、拘役或者管制;第三百六十三条规定,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的,处三年以下有期徒刑、拘役或者管制,并处罚金;情节严重的,处三年以上十年以下有期徒刑,并处罚金;情节特别严重的,处十年以上有期徒刑或者无期徒刑,并处罚金或者没收财产。8 y/ j5 N% S; U7 W
- z/ j. `0 x0 s% L, T如果利用色情图片对当事人采取恐吓、威胁或要挟等方法进行索要钱款等行为,可能涉嫌敲诈勒索罪。此外如果利用照片和视频威胁、逼迫女性继续与其进行性行为,可能涉嫌构成强奸罪。
. {* S: g+ |+ J; s$ N1 [+ O `/ {9 H
逃避和妥协只会助长犯罪者的气焰,如果真的遇到了这些情况,屏幕前的家人可以采用以下这些方式保护自己。6 w- G5 x# Y- q6 f* d9 @
' I- N* n# [( ]0 H4 s. t$ X0 D( W" G4 c5 W! U
(2)如果遇到了,我该怎么办?' K5 J# F1 \- F9 e$ r
2 t8 h7 B4 m; G C, M$ U
① 收集证据- |4 z; F; t; v. t% M
首先,立即保存并备份所有涉及你的色情视频和照片的截图、录屏/原始文件。
+ `- A$ A( r2 ^" |6 X$ f
( f6 q* r5 m- _% |收集与这些视频和照片相关的所有信息,如发布时间、发布平台、发布者ID账号、浏览转发数量、相关评论,保存侵权主体的相关信息及传播信息,以作为情节严重程度的判断依据。
* V$ Y7 f& O! d, @, h
4 Q8 l5 Z0 ]- ~9 s. d② 报警
' y3 l' O& X& |6 ^3 u7 T4 J6 a( R立即向当地公安机关报案,提供相关证据和信息;详细描述情况,包括如何发现这些视频和照片,以及可能的嫌疑人或动机。
& ]0 ~6 M, S" [③ 联系平台
. M* T. z5 ], \; h0 y
3 Y" f' C' p" \ h2 \5 I如果这些视频和照片被发布在某个在线平台上,立即联系平台管理员或客服,请求他们删除相关内容。如果平台不配合,可以向警察反馈,请求协助立即下架或删除视频,避免进一步传播。
3 ~& t, A7 Y$ v1 \! ^
4 c" [+ I& C0 H, ]; g④ 依靠法律审判施暴者1 A- G8 b5 _8 h0 t! a# b7 b/ d) _
2 w1 R0 @5 H, f- W如果有明确的犯罪者或犯罪平台,可以咨询专业律师,了解你受到侵害的法律权益和可能最大限度维护权益的法律途径。根据律师的建议,采取进一步的法律行动,如提起诉讼或要求赔偿。
' x8 k; @: e% f& [& _$ @7 U# O6 m, X" C/ d/ C/ I
⑤ 必要时可以出公开声明:
' f3 H9 M2 |' |' J' u! G M, J' h. t) C* S9 C) }
如果情况严重且公开说明有助于保护你的名誉和权益,可以考虑在适当的时候发布公开声明。1 `" p1 L" s: x1 s, [6 ~& p
2 ]& ~' }5 a3 W5 ?在声明中澄清事实和警察的调查进展,表明这些视频和照片是伪造的,并呼吁身边人不要传播或相信这些虚假内容。4 \3 P! H U/ ~4 E+ V9 C
. n- W2 f! l9 _$ n# g; e* J& s. k$ c7 i& ]* c7 m6 Z3 S
(3)如果我看到了,可以怎么做?0 @) d1 h& ?- c* X$ }& A
. r K* h \5 w% x, O z
, o/ o' U! ^! u5 M2 l
《房思琪的初恋乐园》后记中有这样一段话:, R- Y n4 h) ?" Z5 b/ _
「任何关于性的暴力都是社会性的,或应该这么说,任何关于性的暴力,都不是由施暴者独立完成的,而是由整个社会协助施暴者完成的。」
! ?) c# H' w; C+ m
% _* h' C G( r4 b. T+ |. z当数字性暴力被简单化为所谓的「资源」,一个从生产到消费的灰色产业链闭环就形成了。% Z: P4 }6 p/ U% g
6 Z4 J- _$ @+ ?; X' `- U( c
因此不生产、不消费才是我们对这种犯罪最基本且最鲜明的态度。
, E1 S1 C7 _" V) {8 x4 i+ q% l* i* c/ c6 |# l& x# D J
如果屏幕前的你看过这样的内容,希望大家可以反手就是一个举报,不感兴趣、不下载、不传播,怎么不算是对受害人的帮助呢,又怎么不算是对灰色产业链说「不」呢。
* [; r( b7 V2 W% g
5 H8 N8 [$ m4 Y# q& @ ~
7 _0 K% d8 q e) D* X0 P8 w |
|