星级打分
平均分:0 参与人数:0 我的评分:未评
想问大家一个小问题,大家用过AI换脸吗?
" f% Q1 C* c& O8 ]1 Q
! R6 T+ K/ p5 C \5 R3 O8 P' K我猜绝大多数人都是用过的
- p3 @* A* A5 Q) m& Z5 @$ c毕竟很多短视频or修图拍照app都会出类似的特效,像是换脸成热门剧的男女主啦,成年人和小孩/宠物换脸啦,查看性转后的自己哇……随手一拍,再搭配上灵性BGM,一个「热门视频」就诞生啦~
. j$ B2 @! N% l4 |" M. w从这个角度来说,AI换脸这项技术的成熟确实是在丰富咱的网络生活。但从另外一个角度来看,潜在的危险也离我们越来越近……
5 G ~4 Z6 O' r2 U# e* a, W3 D# ~/ f# z$ C; o9 B
2020年那场震惊世界的韩国「N号房」事件,大家还有印象吗?就在最近,它重演了!就是以AI换脸的形式……
) }4 S) T9 V# a4 Q0 k
) n) d- {; @9 U
9 F& f" R% I) c7 }$ ]) M
「N号房」重演了?
9 w+ W- [% _' W# W# b/ b
9 J4 e" |2 D6 H" x q) P
随着2021年下半年的终审,主犯赵主彬被判处了42年有期徒刑,至此韩国N号房事件告一段落,相关立法也在同步进行。
" O$ Y+ D7 x) x. p$ K2 ^# U3 a* }
2020 年 3 月,赵周彬被移交给检察机关
; K6 b7 X3 W$ a$ P! P0 w/ v8 Y0 s5 U
# S' N1 N: A" e3 t但N号房,就像是一只被看到(且拍扁)的蟑螂,而这意味着在我们看不到的地方可能已经藏了千千万万只了……
, G5 T, ]2 M2 g2 Z( _
+ Y* K6 ]' p7 _) q2 Q" g就在N号房落幕的同一年,两名首尔大学的毕业生,已经开始在通信软件Telegram上私密传播用「deepfack」技术合成的色情照片或视频,也就是使用AI换脸的色情制品。
# X5 k# [5 _1 Q. l# S7 r6 R- w) _2 Y
+ m" G& D9 V# ?3 n) G. y: ]3 }% z这些视频几乎无需和受害人有多少接触,仅仅是利用受害者的社交媒体甚至是毕业照,就可以完成一场真实的性剥削。
, i" e: \8 r+ O0 d8 D# o4 P
$ T& V' {1 d/ \3 R% V从2021年7月至今,他们共制作了2100多段色情视频和图片,受害者有60多人,其中不乏大学女生和未成年人。
, R |! t( R$ P1 \
% A% w! A* @# m; V8 o
而这些伪造的视频和图片还会被摆在受害人面前,变成要挟她们接受线下侵害的威胁。
6 ?. r% h2 p- B, Y
) I) F; Y1 S; e6 D9 ?+ P) M不敢想象,那些十几二十岁的女生突然面对「自己主演」的色情制品时该有多崩溃。
; g$ w+ R2 e8 w/ S
/ W- x3 e/ u) R9 f. b" q- A, _也不只是国外,国内也早有例子证明,AI换脸或许早就可能触及道德和法律的底线。
6 c- u/ w* `7 l: W7 I( Q' F; I/ ~& p# F* l
在2020年,杭州虞某就曾利用相关软件制作大量的淫秽色情视频并传播,受害人中有女性明星,也有被变态暗恋者定制换脸色情视频的普通女性。
6 Y8 [9 l. R2 w0 s4 m, W. I: ~$ q' G; x7 P7 S: f. I
虽然最终虞某被判处有期徒刑7年3个月,但这些视频和图片很大程度上因为传播范围之广、传播途径的隐蔽,并没有办法完全消除干净……
2 V/ b* ^; a& c
( z4 { `0 Q4 k' C而关于「deepfake」滥用的事情,不仅是韩国,在全世界范围内有很多很多
2 ]5 Q. J; A& q( r5 C' `虽然多数事件都以法律制裁收尾,但躲在暗处的情色霸凌真的停止了吗?!处在这个AI技术迅速发展的时代,毫不夸张地说,每个人都可能是猎人,也都可能是猎物。
0 J8 Y8 S# r' g& [+ @1 t7 N3 Y
$ {' j; o; d& h6 t+ X8 u4 NAI能做的真的太多了
- A& }8 X9 c5 t
! q. ~( E# v( P7 h$ a(1)AI脱衣/换装
( G# l% O5 C! f$ A3 U
只要一串代码,就可以脱下任何一个人的衣服;只需要几张脸部照片,就可以生成色情图……
) u+ ] G/ [6 c) u4 I3 N6 s
如此低门槛的方式,也意味着荡妇羞辱和色情复仇的成本越来越低,而它们的受害者通常是女性。
7 v( r; V5 K! j6 d A3 q0 J! V. D+ \6 g4 f1 h9 w2 S7 ^
2023年夏天的广州地铁中,一个女性乘客就曾被「AI一键脱衣」。
7 ?; f& p; G4 k% Y7 }, x
) Y7 D$ {1 C9 ~生成裸照只用了几秒钟,但随即展开的赛博围剿却持续了十数天之久,有人说她是夜店舞女,也有人说她明码标价,还有人对她的身体评头论足……
4 U+ C! b4 p8 D) o' [5 _4 a
' R* X7 Q; {% C. n在理性网友找到原图后,后知后觉的人们才发现,这竟然是一次零成本的AI黄谣。造谣者不费吹灰之力,便可以让受害者深陷难以自证的泥潭。
; B" O& P; k: E0 Y: y3 D
\% p A) ~. J! S* _$ q( j7 b9 N) K
但即使涉事相关AI软件已经被封禁,那张图还在互联网上能搜到,而制图者依旧在茫茫人海中完美隐身……
: Z% ?8 h @, t1 H& A/ o* F7 ]" M$ l' z0 L
而这只是AI绘画中很基础的操纵,更高级的AI可以根据不同的提示词和多张图片生成更多崭新的图片。
& |" t& ^9 s# J
/ I! m8 k% W& b+ x* S$ S它和AI换脸/修图还不一样,换脸/修改就意味着有原图,有原图就可以证伪;但AI生成的图片是没有原图的,女性要如何证明那张逼真的大尺度照片上的人不是自己呢?
7 R4 G9 D9 c, \0 l7 j% r7 f& L+ y. X4 X$ W: |
而比AI绘画更难辨别真假的,还有AI视频。
9 ^0 F" T- r8 ~ `% L
; y( S+ N& U4 ^, D- p; z! d
+ _1 f z0 G0 n5 Q
2 d4 _% Y/ N U$ ^
1 [- M7 y# N0 E, {7 B
(2)AI视频换脸
6 A& o* N6 @8 v& y! a; v; ^* T) v( [
随着AI技术的发展,一键换脸的功能也被一些综艺节目使用,虽然看起来和五毛特效差不多,但是不难想象随着技术的发展,真假的辨别也将会成为一个问题。
* ]' e- n7 g$ ~7 \2 n6 B# t
曾经我们认同眼见为真、视频为证,但是在AI如此发达的今天似乎不太成立了。
: s$ z5 S8 p+ q
3 t9 X6 e* _8 G# [& m而这项让人惊叹的技术,早就被不法分子盯上了。
0 B8 S0 K' ` N7 }
, B/ q+ {( i) B- K' @
今年2月就曾曝出,一家跨国公司香港分部的职员受邀参与总部的视频会议,被要求将2亿港元分别转账到5个账户中,转账后向总部查询才发现受骗。
) p! i, \+ f- K, F; u8 s* K6 r& E" A' `
随着警方的调查,该职员参加的多人视频会议,只有他一人是真人,其他人都是AI换脸合成的。
: v& X: x+ A, y- _' J* v
; O( C5 N8 l4 }5 a9 m6 L类似诈骗事件在陕西也出现过,受害者陈述时也提到,照片视频电话都有,很难判断这是假的。
6 o# p8 D, k+ `2 u& Y- [- `# e9 k/ V
5 p. T* @5 b& \% Y" O
所以当这项技术用到了生成女性色情视频上,取证、追查、下架视频的难度又会有多大!对受害者的身心伤害又会有多大!我们真的不难想象。
9 n7 G0 D" A3 g) B% U) \1 ]
! l( F# a# k1 o: P7 `
那么,当推动社会发展的技术可能变成斩向我们的利刃时,我们应该怎样更好地保护自己呢?
2 g. W! q' r. a- R% c2 U0 Y
# w% g) a/ ]% H5 D# c4 a' _
w# T: S7 j; [2 L
面对AI换脸,我们该怎么办?
4 a. A5 ~0 r) T2 g8 j( W9 e" ^: d
! A' V* ?5 \; n) _, ?+ n% Y(1)立法、用法
$ b m( V$ h8 v2023年8月15日我国就已经通过并施行了《生成式人工智能服务管理暂行办法》 ,其中对人工智能的技术发展方向以及使用规范做了明确的规定。
8 ]) z6 |9 I9 B& i1 X
+ X! I w- W1 N3 C4 i* I5 d不过还是希望立法部门可以有更加明确细致的立法,国家能加大宣传普法力度,让更多的人了解以AI为手段实施违法犯罪行为可能触犯什么类型的法律,如果做了会受到什么惩罚以及受害者如何维权。
\" I, H) B! u) W! w
% t2 x9 W' K. l1 f8 ?/ n" |
就目前来说,根据《中华人民共和国治安管理处罚法》第四十二条第六项,偷窥、偷拍、窃听、散布他人隐私的,处五日以下拘留或者五百元以下罚款;情节较重的,处五日以上十日以下拘留,可以并处五百元以下罚款。
, J% I; Q# e" L' C* X9 u2 i" X3 f
, R$ c5 F8 X( K" O E同时,根据《中华人民共和国刑法》第三百六十四条规定,传播淫秽的书刊、影片、音像、图片或者其他淫秽物品,情节严重的,处二年以下有期徒刑、拘役或者管制;第三百六十三条规定,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的,处三年以下有期徒刑、拘役或者管制,并处罚金;情节严重的,处三年以上十年以下有期徒刑,并处罚金;情节特别严重的,处十年以上有期徒刑或者无期徒刑,并处罚金或者没收财产。
! N$ X: `% ?+ b% d9 N9 U4 u' o q7 _; g' z9 Q1 s% \$ C6 t
如果利用色情图片对当事人采取恐吓、威胁或要挟等方法进行索要钱款等行为,可能涉嫌敲诈勒索罪。此外如果利用照片和视频威胁、逼迫女性继续与其进行性行为,可能涉嫌构成强奸罪。
; d7 l: G/ c1 r3 t1 U
' d( t! U/ J4 O6 W% R: t: v1 y
逃避和妥协只会助长犯罪者的气焰,如果真的遇到了这些情况,屏幕前的家人可以采用以下这些方式保护自己。
% Q3 ?4 B+ Y$ {+ z8 g! I
: ~. a. `' E& p+ x- p5 O' K# n
% e* o4 J; b# ~6 s) f(2)如果遇到了,我该怎么办?
1 i* L* f# r* y- A
1 m' ^+ M* X0 W' ?$ v1 c' y
① 收集证据
4 ~8 X& R$ t7 l* D- b- K# s
首先,立即保存并备份所有涉及你的色情视频和照片的截图、录屏/原始文件。
# C" r- K) ^7 _. F8 [/ @
e* C o, B! ~/ f0 Y收集与这些视频和照片相关的所有信息,如发布时间、发布平台、发布者ID账号、浏览转发数量、相关评论,保存侵权主体的相关信息及传播信息,以作为情节严重程度的判断依据。
9 R/ G6 ~# h K* q% V4 k+ U" D! C" k) n8 Z$ d! t" V
② 报警
6 P7 K# \$ E8 Z8 e0 B1 J* t8 c立即向当地公安机关报案,提供相关证据和信息;详细描述情况,包括如何发现这些视频和照片,以及可能的嫌疑人或动机。
9 {7 `; p# d: M. k% {- B6 Q0 }% u
③ 联系平台
. z' q/ t* R5 ^8 q/ ?5 }% ~9 B
# H9 k! E: F+ s如果这些视频和照片被发布在某个在线平台上,立即联系平台管理员或客服,请求他们删除相关内容。如果平台不配合,可以向警察反馈,请求协助立即下架或删除视频,避免进一步传播。
3 |" S; Y+ r ?& Y/ U- u$ }) p; d; F1 S# A9 p% }$ i9 w% @) _
④ 依靠法律审判施暴者
! C6 Z! W' h1 }! P
" S* a7 ^* W: S7 d' V( Y如果有明确的犯罪者或犯罪平台,可以咨询专业律师,了解你受到侵害的法律权益和可能最大限度维护权益的法律途径。根据律师的建议,采取进一步的法律行动,如提起诉讼或要求赔偿。
( t j( n1 Q: R# J* g1 V: y& m* r" p2 I" w, p, @7 _) ^
⑤ 必要时可以出公开声明:
* L7 ?. y0 C( i+ D2 }- x
# d* S! J( U# I Z如果情况严重且公开说明有助于保护你的名誉和权益,可以考虑在适当的时候发布公开声明。
8 T& N) w3 s8 B, T- R& T6 y
% g ~6 E8 M; `8 q0 o, V* K& f% i& z9 ~在声明中澄清事实和警察的调查进展,表明这些视频和照片是伪造的,并呼吁身边人不要传播或相信这些虚假内容。
2 M3 ^, ?, n# h& { @2 }: o4 j+ Y! r! V! V! ~$ ]" \
6 O( _" o6 A3 m5 D& m; C$ J1 X J
(3)如果我看到了,可以怎么做?
( |$ Y2 ?$ o) u% U% h- B
9 O2 ?" S& y0 I4 m) S3 L
. g0 F/ p) u7 `5 b+ v3 \《房思琪的初恋乐园》后记中有这样一段话:
8 \/ E' D: ^& i' c「任何关于性的暴力都是社会性的,或应该这么说,任何关于性的暴力,都不是由施暴者独立完成的,而是由整个社会协助施暴者完成的。」
& P2 A4 q" L. Z i! q! d6 k
# W. U$ E; z) ?. T当数字性暴力被简单化为所谓的「资源」,一个从生产到消费的灰色产业链闭环就形成了。
2 `' Q! e0 ]$ z
+ f. R/ p# ^, e, o* P" C3 g ^1 p因此不生产、不消费才是我们对这种犯罪最基本且最鲜明的态度。
& X8 q6 q- Z3 Y# ^+ A+ j7 T
2 Y" x* O# | u2 x; Z2 E+ `
如果屏幕前的你看过这样的内容,希望大家可以反手就是一个举报,不感兴趣、不下载、不传播,怎么不算是对受害人的帮助呢,又怎么不算是对灰色产业链说「不」呢。
' [) [$ A1 u) ~
7 ?/ C$ d: X5 C
" @. T6 m2 g# W1 Q