想问大家一个小问题,大家用过AI换脸吗? ! i$ o& ]+ ^1 J9 \5 V! L ; C0 S* M: \! Y, M) }: e8 _8 [2 [我猜绝大多数人都是用过的; r; l8 R1 r: m" s6 o% l
毕竟很多短视频or修图拍照app都会出类似的特效,像是换脸成热门剧的男女主啦,成年人和小孩/宠物换脸啦,查看性转后的自己哇……随手一拍,再搭配上灵性BGM,一个「热门视频」就诞生啦~0 {9 g$ B- z- c3 S0 K
从这个角度来说,AI换脸这项技术的成熟确实是在丰富咱的网络生活。但从另外一个角度来看,潜在的危险也离我们越来越近……& ]! e+ X d9 q* `
0 X& l' L, S/ N/ O0 f+ J7 I2020年那场震惊世界的韩国「N号房」事件,大家还有印象吗?就在最近,它重演了!就是以AI换脸的形式……5 n! J" H6 d5 j7 F3 e T/ |
/ L. o O7 [ p" F
) P a2 \% I6 K7 d |: V
「N号房」重演了? 8 X5 g6 g( r# l. p A1 Q c( S- C3 Z+ y' l7 N+ ]8 |
随着2021年下半年的终审,主犯赵主彬被判处了42年有期徒刑,至此韩国N号房事件告一段落,相关立法也在同步进行。6 ?, E) x& \8 J5 o! L" K l1 D
2020 年 3 月,赵周彬被移交给检察机关- {9 Z$ y5 f- s1 f
0 P4 v0 a. e$ r但N号房,就像是一只被看到(且拍扁)的蟑螂,而这意味着在我们看不到的地方可能已经藏了千千万万只了…… }1 g. K' q' X9 b + s# D/ n5 \' N$ h; |" s4 `! ?9 ]就在N号房落幕的同一年,两名首尔大学的毕业生,已经开始在通信软件Telegram上私密传播用「deepfack」技术合成的色情照片或视频,也就是使用AI换脸的色情制品。 ! n/ ]* r/ ~! h; p+ o* q) k% c/ ]9 X6 P" w- h6 D. U
这些视频几乎无需和受害人有多少接触,仅仅是利用受害者的社交媒体甚至是毕业照,就可以完成一场真实的性剥削。 ( M3 \- R0 m7 ]& H* H: c5 n 0 @) \" }! A8 i7 D# t从2021年7月至今,他们共制作了2100多段色情视频和图片,受害者有60多人,其中不乏大学女生和未成年人。& d9 L3 P! k2 V ]0 ]1 W- ^
% k+ k& O' r# ?' Y4 a而这些伪造的视频和图片还会被摆在受害人面前,变成要挟她们接受线下侵害的威胁。 `& N8 j0 _7 c: Z! w
! Y, @5 ?; w1 A; Z. b8 H2 s0 n4 ]1 I
不敢想象,那些十几二十岁的女生突然面对「自己主演」的色情制品时该有多崩溃。' G$ }; i' V B3 a
# _3 ?9 c, W3 v6 f* K( J2 `也不只是国外,国内也早有例子证明,AI换脸或许早就可能触及道德和法律的底线。4 v& t2 T) j7 U+ B8 v) Q
" H5 v( J) C; h7 `7 L0 V
在2020年,杭州虞某就曾利用相关软件制作大量的淫秽色情视频并传播,受害人中有女性明星,也有被变态暗恋者定制换脸色情视频的普通女性。 / F* _: \ a; `; M; Z: M & H. \; ] p0 }3 }) U; L虽然最终虞某被判处有期徒刑7年3个月,但这些视频和图片很大程度上因为传播范围之广、传播途径的隐蔽,并没有办法完全消除干净……8 I9 C/ k& f6 @" ~$ s
! o0 ^: i; h9 u% ~6 R6 ]5 _
而关于「deepfake」滥用的事情,不仅是韩国,在全世界范围内有很多很多9 T5 p: G0 {" N8 y! W! P6 B
虽然多数事件都以法律制裁收尾,但躲在暗处的情色霸凌真的停止了吗?!处在这个AI技术迅速发展的时代,毫不夸张地说,每个人都可能是猎人,也都可能是猎物。 # T# C9 F& g: S( ~( O' d* A+ H6 L* f0 e; g# V* J2 c& b2 O4 h" K) L4 }
AI能做的真的太多了+ ]; e2 y+ ~; V O: t) h7 V
3 c( e4 p& |) J4 h* E4 m# f
(1)AI脱衣/换装 # c& W* b2 F( @只要一串代码,就可以脱下任何一个人的衣服;只需要几张脸部照片,就可以生成色情图…… . p% G( v4 q4 ]7 n! ~如此低门槛的方式,也意味着荡妇羞辱和色情复仇的成本越来越低,而它们的受害者通常是女性。 " L+ E, p t; N/ R C, i0 ^& F, G1 ~" N4 o- c9 s
2023年夏天的广州地铁中,一个女性乘客就曾被「AI一键脱衣」。 $ {; l: M. @3 v; j9 _( \ . F. ~! b: F& ?4 z生成裸照只用了几秒钟,但随即展开的赛博围剿却持续了十数天之久,有人说她是夜店舞女,也有人说她明码标价,还有人对她的身体评头论足…… / B) P# O' G6 s0 N) `/ c; R) o8 _" A: |, s6 }
在理性网友找到原图后,后知后觉的人们才发现,这竟然是一次零成本的AI黄谣。造谣者不费吹灰之力,便可以让受害者深陷难以自证的泥潭。* O9 \- Z$ s$ S
9 M; W. |5 H/ q8 U但即使涉事相关AI软件已经被封禁,那张图还在互联网上能搜到,而制图者依旧在茫茫人海中完美隐身……8 w) z# a4 o0 R
, \ l5 e; C( k; ^
而这只是AI绘画中很基础的操纵,更高级的AI可以根据不同的提示词和多张图片生成更多崭新的图片。: |: X7 w6 q, V5 u; V, y
( N. U$ U; ~& A' |5 K它和AI换脸/修图还不一样,换脸/修改就意味着有原图,有原图就可以证伪;但AI生成的图片是没有原图的,女性要如何证明那张逼真的大尺度照片上的人不是自己呢? . c% |; T6 U! z# n3 s' c8 L3 l) s K+ y6 o/ c9 w+ R; @
而比AI绘画更难辨别真假的,还有AI视频。3 f0 E- R6 Z' ^! ` W: U. l
. @9 k7 h' w& z! ]- _ 6 D9 y/ u$ l4 h. J2 H% f) `! e) N) n
+ K, H5 ^/ q5 @& o: c
(2)AI视频换脸% l; [3 @( }; {* f; I/ O4 U
# s) h9 |5 J. o7 U4 i$ A0 o
随着AI技术的发展,一键换脸的功能也被一些综艺节目使用,虽然看起来和五毛特效差不多,但是不难想象随着技术的发展,真假的辨别也将会成为一个问题。 5 E8 a- O8 R) U8 x! ~3 D曾经我们认同眼见为真、视频为证,但是在AI如此发达的今天似乎不太成立了。 8 c6 C0 Q' W; |. K" O) c$ H0 t% H5 X* e
而这项让人惊叹的技术,早就被不法分子盯上了。. z3 e! u. F$ P, ~
' Y1 E: F" U2 H% v1 K7 f2 \
今年2月就曾曝出,一家跨国公司香港分部的职员受邀参与总部的视频会议,被要求将2亿港元分别转账到5个账户中,转账后向总部查询才发现受骗。 _* f. [; S9 @
+ k9 T3 g' k; R* Q* ?0 [0 ^! Q, Y
随着警方的调查,该职员参加的多人视频会议,只有他一人是真人,其他人都是AI换脸合成的。 $ \5 o' o2 X7 k! ]0 |8 r" s$ k5 S2 W " d- [* Z4 U2 }类似诈骗事件在陕西也出现过,受害者陈述时也提到,照片视频电话都有,很难判断这是假的。& b+ i$ C* ]+ \: ?4 V2 R0 O
2 k9 w; }# }7 v: ~9 A* @
所以当这项技术用到了生成女性色情视频上,取证、追查、下架视频的难度又会有多大!对受害者的身心伤害又会有多大!我们真的不难想象。6 |. X ]$ t; f& I