星级打分
平均分: 0 参与人数: 0 我的评分: 未评
想问大家一个小问题,大家用过AI换脸吗?
' q9 }* Z7 O2 ]& O0 E% u
7 g& p6 V9 v4 q- H4 R
我猜绝大多数人都是用过的
' A Y2 A5 M8 ?# S) x7 c- o 毕竟很多短视频or修图拍照app都会出类似的特效,像是换脸成热门剧的男女主啦,成年人和小孩/宠物换脸啦,查看性转后的自己哇……随手一拍,再搭配上灵性BGM,一个「热门视频」就诞生啦~
+ \! v, I+ s' E1 j8 ?6 c6 m 从这个角度来说,AI换脸这项技术的成熟确实是在丰富咱的网络生活。但从另外一个角度来看,潜在的危险也离我们越来越近……
% s' J1 w2 R* X0 N: O / e# j$ ]5 M' V+ @' j% @
2020年那场震惊世界的韩国「N号房」事件,大家还有印象吗?就在最近,它重演了!就是以AI换脸的形式……
, {! a6 @3 l) x; u0 Z9 M u ' Y3 u, l7 V$ ^. n9 o& e1 t
# P- L! E0 E. A# |- c3 P* H
「N号房」重演了?
5 P+ d& j% _+ k9 U
: J9 ^& T- g% L0 @# l3 M; z, s 随着2021年下半年的终审,主犯赵主彬被判处了42年有期徒刑,至此韩国N号房事件告一段落,相关立法也在同步进行。
4 |7 m: i0 K! G2 x6 ~- {6 u K0 l( W 2020 年 3 月,赵周彬被移交给检察机关
* n# o& _3 a# l- } 9 S' }" F. O& d# S+ v, [7 Z. f
但N号房,就像是一只被看到(且拍扁)的蟑螂,而这意味着在我们看不到的地方可能已经藏了千千万万只了……
: L4 c# T/ G9 }; b' C7 }
9 ~& B( l" N: e8 w 就在N号房落幕的同一年,两名首尔大学的毕业生,已经开始在通信软件Telegram上私密传播用「deepfack」技术合成的色情照片或视频,也就是使用AI换脸的色情制品。
6 ]; E6 Q% a, g1 ~ 4 W; h& ^! H6 h( b4 s" T
这些视频几乎无需和受害人有多少接触,仅仅是利用受害者的社交媒体甚至是毕业照,就可以完成一场真实的性剥削。
4 [$ x* h) O+ w2 } I. ]3 M! M
; }$ O* b3 ]+ e: n 从2021年7月至今,他们共制作了2100多段色情视频和图片,受害者有60多人,其中不乏大学女生和未成年人。
, t8 `* `4 g, }7 E$ [( @8 x) }- m
8 P6 A( b% |3 ?7 J$ k R! s 而这些伪造的视频和图片还会被摆在受害人面前,变成要挟她们接受线下侵害的威胁。
2 R4 u! A: _+ v" A$ b# f( c9 _
) ^7 E. D( v B6 r8 X7 R 不敢想象,那些十几二十岁的女生突然面对「自己主演」的色情制品时该有多崩溃。
, `/ j$ Y6 Q, k) }
7 W4 }4 O, t$ W6 W
也不只是国外,国内也早有例子证明,AI换脸或许早就可能触及道德和法律的底线。
" N- n' E; k; m
$ h' Z4 |: X; D/ `6 t- r$ R 在2020年,杭州虞某就曾利用相关软件制作大量的淫秽色情视频并传播,受害人中有女性明星,也有被变态暗恋者定制换脸色情视频的普通女性。
' d7 ]; X# Z( |
3 x- q" h: Z+ \
虽然最终虞某被判处有期徒刑7年3个月,但这些视频和图片很大程度上因为传播范围之广、传播途径的隐蔽,并没有办法完全消除干净……
8 M2 @% i7 a( N" I2 A+ X" k
# t1 m9 A% l/ a0 e4 V 而关于「deepfake」滥用的事情,不仅是韩国,在全世界范围内有很多很多
3 q3 z5 D/ c4 @% k 虽然多数事件都以法律制裁收尾,但躲在暗处的情色霸凌真的停止了吗?!处在这个AI技术迅速发展的时代,毫不夸张地说,每个人都可能是猎人,也都可能是猎物。
! l2 Y7 c/ X H6 J5 b2 n8 B$ I0 n' Q 2 b! n% i6 ?- H, y3 O# u( C' x
AI能做的真的太多了
8 s$ t, w( V6 C( F. x( _8 d+ J) u% t ( m4 z/ X3 c6 L( Y ^
(1)AI脱衣/换装
7 H; R* ~0 C" l2 a9 ^: O
只要一串代码,就可以脱下任何一个人的衣服;只需要几张脸部照片,就可以生成色情图……
$ j" {! g' J8 f, @' \5 Z
如此低门槛的方式,也意味着荡妇羞辱和色情复仇的成本越来越低,而它们的受害者通常是女性。
4 i% X) ]' \- R5 ^3 H" q
( G5 a. @5 |/ J6 u8 i8 v+ m
2023年夏天的广州地铁中,一个女性乘客就曾被「AI一键脱衣」。
. q) [: k5 a- k0 o4 k% Q 8 j y& Y! `& P' [3 B
生成裸照只用了几秒钟,但随即展开的赛博围剿却持续了十数天之久,有人说她是夜店舞女,也有人说她明码标价,还有人对她的身体评头论足……
0 s0 I6 _, W- w- `7 L $ E! ^0 P" ]' Y/ N
在理性网友找到原图后,后知后觉的人们才发现,这竟然是一次零成本的AI黄谣。造谣者不费吹灰之力,便可以让受害者深陷难以自证的泥潭。
! V9 E+ @9 J3 Z, l3 K
7 m$ {" O0 N+ h1 c0 \ 但即使涉事相关AI软件已经被封禁,那张图还在互联网上能搜到,而制图者依旧在茫茫人海中完美隐身……
+ ?4 {$ s1 n* i# W6 x$ X " B1 L0 M6 ]9 a. t' h0 W! I
而这只是AI绘画中很基础的操纵,更高级的AI可以根据不同的提示词和多张图片生成更多崭新的图片。
( r$ a. r4 a! n/ F: [
7 S. m; U. \9 Q/ U 它和AI换脸/修图还不一样,换脸/修改就意味着有原图,有原图就可以证伪;但AI生成的图片是没有原图的,女性要如何证明那张逼真的大尺度照片上的人不是自己呢?
2 f; ~6 y* e j- I) R& z* P0 F0 j
9 ?- e" b4 S; j 而比AI绘画更难辨别真假的,还有AI视频。
6 {9 d- F, v7 g0 H( K3 e
9 v3 v( X$ A% H1 G3 A& E$ [
( e U# F( C' L2 p1 F; M' x! J9 c) d
7 @8 Z* y8 F: }7 Q
/ P* X g4 G( B% z: e
(2)AI视频换脸
6 j5 \) f7 ^1 p: H$ r- V - s: S8 {- [* [4 [4 S
随着AI技术的发展,一键换脸的功能也被一些综艺节目使用,虽然看起来和五毛特效差不多,但是不难想象随着技术的发展,真假的辨别也将会成为一个问题。
5 b3 X9 S% C+ c' t/ |; H6 x: K 曾经我们认同眼见为真、视频为证,但是在AI如此发达的今天似乎不太成立了。
- i* R( E/ f# I. F" b
$ r# Z8 |3 m2 r/ F6 a+ k# |& O 而这项让人惊叹的技术,早就被不法分子盯上了。
5 _' N @4 t/ @4 b' _ F$ v" v ( O0 h4 F5 I0 {# B4 r
今年2月就曾曝出,一家跨国公司香港分部的职员受邀参与总部的视频会议,被要求将2亿港元分别转账到5个账户中,转账后向总部查询才发现受骗。
$ u4 O) S* E' t/ S4 i" r: O
' u9 F9 t1 m/ m+ z2 p
随着警方的调查,该职员参加的多人视频会议,只有他一人是真人,其他人都是AI换脸合成的。
# u1 Z- C' }; @ p- F e5 n R2 p5 k9 H; M
类似诈骗事件在陕西也出现过,受害者陈述时也提到,照片视频电话都有,很难判断这是假的。
1 P+ n$ }0 Q" u4 W' ^
. g, e' t: j3 R3 D) | 所以当这项技术用到了生成女性色情视频上,取证、追查、下架视频的难度又会有多大!对受害者的身心伤害又会有多大!我们真的不难想象。
; z# y2 [+ p# X
! R0 Y$ c5 |6 z
那么,当推动社会发展的技术可能变成斩向我们的利刃时,我们应该怎样更好地保护自己呢?
! t, a& O% X' c& y8 v6 U. W
9 c* o( [7 }3 V5 w$ B4 i
8 d# Q) E( W* R 面对AI换脸,我们该怎么办?
& |5 z+ |/ W/ z: l
' ?1 l3 P# i0 l, B: H) A- I5 x4 F (1)立法、用法
3 V7 M+ D& V, h
2023年8月15日我国就已经通过并施行了《生成式人工智能服务管理暂行办法》 ,其中对人工智能的技术发展方向以及使用规范做了明确的规定。
! V5 k/ K* `8 n
# T) X. G5 x( z2 Z' p0 b 不过还是希望立法部门可以有更加明确细致的立法,国家能加大宣传普法力度,让更多的人了解以AI为手段实施违法犯罪行为可能触犯什么类型的法律,如果做了会受到什么惩罚以及受害者如何维权。
& d8 V* a$ ?- R7 q% q& ^ 3 P |' b$ ?9 w1 I! j2 W( f
就目前来说,根据《中华人民共和国治安管理处罚法》第四十二条第六项,偷窥、偷拍、窃听、散布他人隐私的,处五日以下拘留或者五百元以下罚款;情节较重的,处五日以上十日以下拘留,可以并处五百元以下罚款。
, x7 C$ u4 L! {) a/ k6 F2 t 3 n0 [: H9 y. O, ^
同时,根据《中华人民共和国刑法》第三百六十四条规定,传播淫秽的书刊、影片、音像、图片或者其他淫秽物品,情节严重的,处二年以下有期徒刑、拘役或者管制;第三百六十三条规定,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的,处三年以下有期徒刑、拘役或者管制,并处罚金;情节严重的,处三年以上十年以下有期徒刑,并处罚金;情节特别严重的,处十年以上有期徒刑或者无期徒刑,并处罚金或者没收财产。
/ Y' D$ x& V- G& g
- V, m2 {# A! ~8 i2 v/ x6 z! ? 如果利用色情图片对当事人采取恐吓、威胁或要挟等方法进行索要钱款等行为,可能涉嫌敲诈勒索罪。此外如果利用照片和视频威胁、逼迫女性继续与其进行性行为,可能涉嫌构成强奸罪。
% R6 e* L* N6 _; Z
5 r+ A* I, Y- ~3 ~. d0 C0 s 逃避和妥协只会助长犯罪者的气焰,如果真的遇到了这些情况,屏幕前的家人可以采用以下这些方式保护自己。
. t& I* s+ B& g' }& c
9 }% U( c% v! M# P 4 }" W) t; w7 S) T+ B
(2)如果遇到了,我该怎么办?
# {7 f* M. r+ \
9 ]4 H) H7 N& L" }8 |/ } ① 收集证据
' H) @3 t! A3 }+ I. R
首先,立即保存并备份所有涉及你的色情视频和照片的截图、录屏/原始文件。
8 @* \# H+ P2 f3 I* G- \
' n# ^1 M) f t3 ^+ Q 收集与这些视频和照片相关的所有信息,如发布时间、发布平台、发布者ID账号、浏览转发数量、相关评论,保存侵权主体的相关信息及传播信息,以作为情节严重程度的判断依据。
: k% `/ v. \1 |0 C3 P% Z 2 _( I0 y& C; Q1 C
② 报警
1 e( {- X( l" N) {
立即向当地公安机关报案,提供相关证据和信息;详细描述情况,包括如何发现这些视频和照片,以及可能的嫌疑人或动机。
4 E" S. e6 y$ L% B2 l3 ^ ③ 联系平台
" r$ i+ ?! f* p9 g2 e; F
. O( k$ R5 i. h% k
如果这些视频和照片被发布在某个在线平台上,立即联系平台管理员或客服,请求他们删除相关内容。如果平台不配合,可以向警察反馈,请求协助立即下架或删除视频,避免进一步传播。
6 b( ?( f+ d0 B+ ?" {
: A8 W0 B0 H, M) ~$ a- V ④ 依靠法律审判施暴者
, L5 s3 j& C+ ^# h" n- P4 z; K3 R2 \
# o" V, a4 E1 k9 O1 X9 U 如果有明确的犯罪者或犯罪平台,可以咨询专业律师,了解你受到侵害的法律权益和可能最大限度维护权益的法律途径。根据律师的建议,采取进一步的法律行动,如提起诉讼或要求赔偿。
4 K. |$ }# F k4 o5 ^8 Z 5 H& X' D' m t s
⑤ 必要时可以出公开声明:
4 v/ a2 |$ d# I1 l 9 H+ @$ b/ P+ X9 t- A% l% r
如果情况严重且公开说明有助于保护你的名誉和权益,可以考虑在适当的时候发布公开声明。
, v* J4 g7 ^/ B9 J6 v% O
! {. ?$ e1 f! W& _+ |. u/ i 在声明中澄清事实和警察的调查进展,表明这些视频和照片是伪造的,并呼吁身边人不要传播或相信这些虚假内容。
. }7 |$ C& _( w% B8 X- f 5 f, _: j Q, g
0 [0 s: }' X1 b$ v* |2 g
(3)如果我看到了,可以怎么做?
6 F9 m3 o! J9 c, ]# n
# ?. h3 ^& p7 S 5 D, h) h) X/ M( P! n& y. O& o. n
《房思琪的初恋乐园》后记中有这样一段话:
5 w! {8 e1 o7 c, Q 「任何关于性的暴力都是社会性的,或应该这么说,任何关于性的暴力,都不是由施暴者独立完成的,而是由整个社会协助施暴者完成的。」
; _; ~! ^, M4 L/ x! |
8 B: Q2 }/ x0 ^4 U& v* z
当数字性暴力被简单化为所谓的「资源」,一个从生产到消费的灰色产业链闭环就形成了。
0 `4 @1 M! x& {3 H4 v Y) G" t
: d/ b6 O8 K+ F5 _ 因此不生产、不消费才是我们对这种犯罪最基本且最鲜明的态度。
1 r9 b2 x3 O$ m7 H 5 Q6 E/ J! W8 N
如果屏幕前的你看过这样的内容,希望大家可以反手就是一个举报,不感兴趣、不下载、不传播,怎么不算是对受害人的帮助呢,又怎么不算是对灰色产业链说「不」呢。
( i! H# u1 B" _* h4 V
4 l; r3 R% s% O ; s b/ h3 e" M4 A% t