
离线
- 打卡等级:女儿国探花
- 打卡总天数:316
- 打卡月天数:1
- 打卡总奖励:4457
- 最近打卡:2026-01-02 09:48:00
版主
- 积分
- 21442
|
想问大家一个小问题,大家用过AI换脸吗?
& _, l9 [' H9 C! c3 @8 o. O. m2 I& S* C- d( b! o; q
我猜绝大多数人都是用过的
; C: S0 N+ k: D毕竟很多短视频or修图拍照app都会出类似的特效,像是换脸成热门剧的男女主啦,成年人和小孩/宠物换脸啦,查看性转后的自己哇……随手一拍,再搭配上灵性BGM,一个「热门视频」就诞生啦~$ Y4 Z) L$ P1 t! u
从这个角度来说,AI换脸这项技术的成熟确实是在丰富咱的网络生活。但从另外一个角度来看,潜在的危险也离我们越来越近…… C- U* {, \ }7 E# f) J
# E/ a) A' f2 k Z! d
2020年那场震惊世界的韩国「N号房」事件,大家还有印象吗?就在最近,它重演了!就是以AI换脸的形式……
3 p* J" D* j1 O; U4 j F! K4 v2 O5 S
' i) B* {. |# n: x+ Z
* q J/ k {! X' L$ J3 O「N号房」重演了?
' B1 R: E( c1 |4 o' i/ J3 h$ W% s9 V& j; L* u# G/ G
随着2021年下半年的终审,主犯赵主彬被判处了42年有期徒刑,至此韩国N号房事件告一段落,相关立法也在同步进行。# I2 _+ c5 R& y$ y7 ^
2020 年 3 月,赵周彬被移交给检察机关" A, P0 l7 A U; [6 R) [
1 |# g* X4 z0 P+ b+ j
但N号房,就像是一只被看到(且拍扁)的蟑螂,而这意味着在我们看不到的地方可能已经藏了千千万万只了……. u2 s: n, o9 |/ T- P
/ m e0 |& u' E9 l* U$ L
就在N号房落幕的同一年,两名首尔大学的毕业生,已经开始在通信软件Telegram上私密传播用「deepfack」技术合成的色情照片或视频,也就是使用AI换脸的色情制品。
, E7 W5 S! ~/ b" g; F. m3 @" c0 {7 n
这些视频几乎无需和受害人有多少接触,仅仅是利用受害者的社交媒体甚至是毕业照,就可以完成一场真实的性剥削。
: x R3 p4 O2 s) g' ]( P- B8 ?, g3 P. c. g, ?% x
从2021年7月至今,他们共制作了2100多段色情视频和图片,受害者有60多人,其中不乏大学女生和未成年人。
, ~+ }! C7 g3 y3 A1 U. L* F% f. m
' A7 S) P$ F4 v' v2 k而这些伪造的视频和图片还会被摆在受害人面前,变成要挟她们接受线下侵害的威胁。
( T0 ~) c e, }0 D
% g* T! ` p$ ^; F9 i- q. k不敢想象,那些十几二十岁的女生突然面对「自己主演」的色情制品时该有多崩溃。; ~9 F; V1 W* ?6 u, ^4 o
. `2 j) y2 ~3 j x! k也不只是国外,国内也早有例子证明,AI换脸或许早就可能触及道德和法律的底线。. d& U& Y* N. u
% [; n8 h c G7 U$ f' K2 W在2020年,杭州虞某就曾利用相关软件制作大量的淫秽色情视频并传播,受害人中有女性明星,也有被变态暗恋者定制换脸色情视频的普通女性。4 C5 ~& N7 P$ A/ _! D
3 L0 s/ i1 _2 \虽然最终虞某被判处有期徒刑7年3个月,但这些视频和图片很大程度上因为传播范围之广、传播途径的隐蔽,并没有办法完全消除干净……5 s+ V( T' H/ }
5 b) q3 {. @; W5 M; a6 x
而关于「deepfake」滥用的事情,不仅是韩国,在全世界范围内有很多很多
& s# c6 }- v/ e) f* G虽然多数事件都以法律制裁收尾,但躲在暗处的情色霸凌真的停止了吗?!处在这个AI技术迅速发展的时代,毫不夸张地说,每个人都可能是猎人,也都可能是猎物。
5 P; T, E* F# _* [
$ @' D% {8 U4 G( h5 C0 HAI能做的真的太多了
0 F/ J% @3 M% v% S' f1 g2 A+ v: Q m, J
(1)AI脱衣/换装; \) U2 z8 i- B, i2 K2 Q
只要一串代码,就可以脱下任何一个人的衣服;只需要几张脸部照片,就可以生成色情图……
" k3 Q% h/ o4 R" h Z) O' s6 |) D如此低门槛的方式,也意味着荡妇羞辱和色情复仇的成本越来越低,而它们的受害者通常是女性。
& \( r9 r- T' D1 O1 b
7 ]" Q! A8 D5 m$ h7 Z' v/ P* x. ?2023年夏天的广州地铁中,一个女性乘客就曾被「AI一键脱衣」。, G l; _1 u6 p0 H! e/ m( {9 V
4 n8 _% Z6 \( o) O/ f# F6 I/ q
生成裸照只用了几秒钟,但随即展开的赛博围剿却持续了十数天之久,有人说她是夜店舞女,也有人说她明码标价,还有人对她的身体评头论足……
! C' q, w. `/ n, I6 i' K$ k* _/ B2 H3 a5 [" c3 }# i
在理性网友找到原图后,后知后觉的人们才发现,这竟然是一次零成本的AI黄谣。造谣者不费吹灰之力,便可以让受害者深陷难以自证的泥潭。+ |& S4 A8 s; ?5 N _; A; V
' r* P4 q9 B/ o$ j* e但即使涉事相关AI软件已经被封禁,那张图还在互联网上能搜到,而制图者依旧在茫茫人海中完美隐身……
- e+ y8 o7 V7 t* K: \" N5 Q4 ]: s' A0 B. J' F
而这只是AI绘画中很基础的操纵,更高级的AI可以根据不同的提示词和多张图片生成更多崭新的图片。
l$ E) o6 l+ `6 A- r. Q
1 u; w# T: b9 V' B5 @它和AI换脸/修图还不一样,换脸/修改就意味着有原图,有原图就可以证伪;但AI生成的图片是没有原图的,女性要如何证明那张逼真的大尺度照片上的人不是自己呢?
: `% `# `8 k. K& k, Z7 n6 [7 c4 {& E' Q/ J5 Q- f0 |/ J5 E1 M
而比AI绘画更难辨别真假的,还有AI视频。) j% d5 F. A2 b% f5 t
. j' ?+ y% S9 }/ O
[1 @' _: w( t7 Q9 Y9 O% i. v: W! U0 \, ?; F
! ?3 F% K' u1 [: P
(2)AI视频换脸
& p' x: @2 D0 Z) P0 ?! \: i
- `7 u- h# u$ I随着AI技术的发展,一键换脸的功能也被一些综艺节目使用,虽然看起来和五毛特效差不多,但是不难想象随着技术的发展,真假的辨别也将会成为一个问题。
: i `; \# t" q4 c曾经我们认同眼见为真、视频为证,但是在AI如此发达的今天似乎不太成立了。 M' {% v2 y; F5 x
9 y% o4 f/ V9 f' B2 w
而这项让人惊叹的技术,早就被不法分子盯上了。! S2 q0 \9 ]+ o2 \/ I0 [
+ x7 `8 @5 Q! I5 N4 b今年2月就曾曝出,一家跨国公司香港分部的职员受邀参与总部的视频会议,被要求将2亿港元分别转账到5个账户中,转账后向总部查询才发现受骗。: J! W7 y" }% w( ]* F2 E8 s
: u6 c- d7 o* R D# x0 c( G随着警方的调查,该职员参加的多人视频会议,只有他一人是真人,其他人都是AI换脸合成的。7 @4 b" Y" s: p M7 h0 K2 i
( ~8 v9 p Y- g( H5 ]. ^类似诈骗事件在陕西也出现过,受害者陈述时也提到,照片视频电话都有,很难判断这是假的。
* z3 L$ K9 Y% Q. c( Q! Q, x( a& O* u; b( p+ H* o
所以当这项技术用到了生成女性色情视频上,取证、追查、下架视频的难度又会有多大!对受害者的身心伤害又会有多大!我们真的不难想象。
8 `2 C% z7 h" s' k" j+ U x( |3 A3 j; Y' U* s) g6 Y
那么,当推动社会发展的技术可能变成斩向我们的利刃时,我们应该怎样更好地保护自己呢?
; T; L& K: b# }" C" t, a/ |0 |* M2 q; \* W& l3 F) K4 c
/ r; x+ w, q' z
面对AI换脸,我们该怎么办?4 _+ y L5 y6 R& f* i" s
, Q u: {( P0 u f
(1)立法、用法+ _/ O6 H! O) u
2023年8月15日我国就已经通过并施行了《生成式人工智能服务管理暂行办法》 ,其中对人工智能的技术发展方向以及使用规范做了明确的规定。
* e6 P3 n9 b+ i2 k; d9 y+ ^: L
# g1 w' ]- d3 X8 Y, Y, \不过还是希望立法部门可以有更加明确细致的立法,国家能加大宣传普法力度,让更多的人了解以AI为手段实施违法犯罪行为可能触犯什么类型的法律,如果做了会受到什么惩罚以及受害者如何维权。
* e* C% J- i. n6 p2 z1 q, A4 G G# m+ X' S1 l
就目前来说,根据《中华人民共和国治安管理处罚法》第四十二条第六项,偷窥、偷拍、窃听、散布他人隐私的,处五日以下拘留或者五百元以下罚款;情节较重的,处五日以上十日以下拘留,可以并处五百元以下罚款。; x0 b8 z9 ]4 L4 H1 K1 n1 ^5 F
0 S, g3 q) t a2 x4 R X
同时,根据《中华人民共和国刑法》第三百六十四条规定,传播淫秽的书刊、影片、音像、图片或者其他淫秽物品,情节严重的,处二年以下有期徒刑、拘役或者管制;第三百六十三条规定,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的,处三年以下有期徒刑、拘役或者管制,并处罚金;情节严重的,处三年以上十年以下有期徒刑,并处罚金;情节特别严重的,处十年以上有期徒刑或者无期徒刑,并处罚金或者没收财产。1 \2 W* Y1 Q) ?, a- j# K8 }
) _6 N. c" }- E8 Z8 a' \$ p. j; F! Y
如果利用色情图片对当事人采取恐吓、威胁或要挟等方法进行索要钱款等行为,可能涉嫌敲诈勒索罪。此外如果利用照片和视频威胁、逼迫女性继续与其进行性行为,可能涉嫌构成强奸罪。7 m) T1 r; b2 G% o5 z5 f& q1 e. c
+ i) A( C' T* c" V
逃避和妥协只会助长犯罪者的气焰,如果真的遇到了这些情况,屏幕前的家人可以采用以下这些方式保护自己。
7 V! |) t8 |7 f. F o* f
9 o' Q/ g' m+ ^8 P* H
0 Y+ L4 O* |. S' P(2)如果遇到了,我该怎么办?
6 j- ], [0 l7 i( s+ m0 P5 O- ^ K" N6 u5 A/ S% n
① 收集证据/ d5 B, Z/ ]+ ]5 h
首先,立即保存并备份所有涉及你的色情视频和照片的截图、录屏/原始文件。
; G, p1 Z: t) {& h+ r' ]3 d4 A) p7 a9 _( u& F
收集与这些视频和照片相关的所有信息,如发布时间、发布平台、发布者ID账号、浏览转发数量、相关评论,保存侵权主体的相关信息及传播信息,以作为情节严重程度的判断依据。8 C4 l+ c k0 d! w/ Y4 J3 L7 \0 a
& S- \5 W' M# o2 j; {7 C& |② 报警
. F! m8 ]0 i. f3 V( u1 X! ?立即向当地公安机关报案,提供相关证据和信息;详细描述情况,包括如何发现这些视频和照片,以及可能的嫌疑人或动机。3 h& m e% M e6 U) T* `
③ 联系平台
6 d% Q, x; \' t4 H" r7 p! O/ z8 ^/ R" s" T7 S$ K- p
如果这些视频和照片被发布在某个在线平台上,立即联系平台管理员或客服,请求他们删除相关内容。如果平台不配合,可以向警察反馈,请求协助立即下架或删除视频,避免进一步传播。6 z9 b7 Q/ A% }+ J- O. N& ^
+ V/ x% _/ B6 |/ N3 o& B8 j/ b④ 依靠法律审判施暴者7 l- f7 ?8 S% g, H2 C% G# \
! f5 _1 Y6 @; m7 F0 G j! a
如果有明确的犯罪者或犯罪平台,可以咨询专业律师,了解你受到侵害的法律权益和可能最大限度维护权益的法律途径。根据律师的建议,采取进一步的法律行动,如提起诉讼或要求赔偿。
4 U5 k5 X7 Y2 j8 W/ @& K$ T& y+ A3 h; S( X# q* \- j
⑤ 必要时可以出公开声明:
: i7 K& {# S2 F( [+ ]& Z! ~" E8 G1 o1 g% W" ^
如果情况严重且公开说明有助于保护你的名誉和权益,可以考虑在适当的时候发布公开声明。+ Q, z9 |$ T$ {/ ~( H" e
, V5 g4 {! M$ U# n) _7 V+ Q8 v在声明中澄清事实和警察的调查进展,表明这些视频和照片是伪造的,并呼吁身边人不要传播或相信这些虚假内容。; ~8 R. F( ^7 f4 p% J+ N/ d. D, S
! F& X+ N$ q0 D$ A0 B
: y7 y. j2 X8 w' W8 e; M(3)如果我看到了,可以怎么做?( |! x* x" |$ H$ F. T; \
8 H# U" N3 C7 C$ \ G* d$ j
6 R" v, s" Z- S5 L- l《房思琪的初恋乐园》后记中有这样一段话:
$ e/ D/ ^& `, D7 {* X3 O+ n8 h8 y「任何关于性的暴力都是社会性的,或应该这么说,任何关于性的暴力,都不是由施暴者独立完成的,而是由整个社会协助施暴者完成的。」
, n# @" V# I$ M4 x% B
5 t$ u* g$ J$ Q0 e( D: L当数字性暴力被简单化为所谓的「资源」,一个从生产到消费的灰色产业链闭环就形成了。
$ }! y/ k; c! O
7 L- W; d- @% U- R因此不生产、不消费才是我们对这种犯罪最基本且最鲜明的态度。5 o" y v9 s3 I( a( m
% X, W# w' ~, C" Y+ W
如果屏幕前的你看过这样的内容,希望大家可以反手就是一个举报,不感兴趣、不下载、不传播,怎么不算是对受害人的帮助呢,又怎么不算是对灰色产业链说「不」呢。; i( v2 ^8 S4 y+ z2 I& _9 A: ]
' p0 r( I3 X3 @; V! i) Y' {9 |1 Z. B) r0 B( H7 E% m- G7 g
|
|