
离线
- 打卡等级:女儿国探花
- 打卡总天数:317
- 打卡月天数:0
- 打卡总奖励:4468
- 最近打卡:2026-01-28 13:22:55
版主
- 积分
- 21699
|
想问大家一个小问题,大家用过AI换脸吗?1 F$ L7 k+ k$ m; e, p
* b5 `: w4 u8 O( M# A9 I5 t我猜绝大多数人都是用过的' R1 ]5 z* B- F
毕竟很多短视频or修图拍照app都会出类似的特效,像是换脸成热门剧的男女主啦,成年人和小孩/宠物换脸啦,查看性转后的自己哇……随手一拍,再搭配上灵性BGM,一个「热门视频」就诞生啦~2 |/ a/ Z. a( G) ? |! h: I
从这个角度来说,AI换脸这项技术的成熟确实是在丰富咱的网络生活。但从另外一个角度来看,潜在的危险也离我们越来越近…… I W; H M" t8 v! S n& ^/ D
. h) F, ^ b6 n' o2 ~1 p% S2020年那场震惊世界的韩国「N号房」事件,大家还有印象吗?就在最近,它重演了!就是以AI换脸的形式……
2 q' a2 F/ x* x, J: u# ^1 P: J
- d) ~; h! T7 Z* M4 Z
「N号房」重演了?
9 @" L3 c4 X5 G% _
, A# y M( `$ B随着2021年下半年的终审,主犯赵主彬被判处了42年有期徒刑,至此韩国N号房事件告一段落,相关立法也在同步进行。$ h, ]* t2 O2 {5 _; w
2020 年 3 月,赵周彬被移交给检察机关9 U* J) ^! d0 z* s& |
B1 |+ u" {, r7 l5 N; ]. g但N号房,就像是一只被看到(且拍扁)的蟑螂,而这意味着在我们看不到的地方可能已经藏了千千万万只了……
* r* C v# `9 h& T h6 D T% Q8 W' ~3 ?8 G+ x& n$ J! `( U
就在N号房落幕的同一年,两名首尔大学的毕业生,已经开始在通信软件Telegram上私密传播用「deepfack」技术合成的色情照片或视频,也就是使用AI换脸的色情制品。
: W; o7 G" N0 ?6 Y; c% ]# k/ w2 x& n% b) w3 \+ L w" x
这些视频几乎无需和受害人有多少接触,仅仅是利用受害者的社交媒体甚至是毕业照,就可以完成一场真实的性剥削。
) F0 h& Z2 v+ o& k" d8 e, U; p+ v+ y5 }- c3 _. o& p
从2021年7月至今,他们共制作了2100多段色情视频和图片,受害者有60多人,其中不乏大学女生和未成年人。
# d6 G4 Z+ w* Y8 I5 r) o) O) z( h& }& k) \, U: I9 p
而这些伪造的视频和图片还会被摆在受害人面前,变成要挟她们接受线下侵害的威胁。" I* ~' P# z/ Z/ r/ z
% B3 \: |% ]- t. g( \5 _不敢想象,那些十几二十岁的女生突然面对「自己主演」的色情制品时该有多崩溃。
+ j1 R9 O: u2 u( Q
& {& ?: A6 @2 d9 L也不只是国外,国内也早有例子证明,AI换脸或许早就可能触及道德和法律的底线。
# {+ W/ x( d) u5 l/ G" J: X
- g2 z1 {( o) m6 M& I& [' F7 c5 r在2020年,杭州虞某就曾利用相关软件制作大量的淫秽色情视频并传播,受害人中有女性明星,也有被变态暗恋者定制换脸色情视频的普通女性。
/ y! ^9 o7 i' i( e5 Q0 N! L. I7 K3 P* I7 x1 f
虽然最终虞某被判处有期徒刑7年3个月,但这些视频和图片很大程度上因为传播范围之广、传播途径的隐蔽,并没有办法完全消除干净……( V! v; Q1 X' u6 Y/ B
) [7 p- P% L$ G3 i9 O" w5 A/ D
而关于「deepfake」滥用的事情,不仅是韩国,在全世界范围内有很多很多8 V: l0 I% `/ Z3 U9 B% O
虽然多数事件都以法律制裁收尾,但躲在暗处的情色霸凌真的停止了吗?!处在这个AI技术迅速发展的时代,毫不夸张地说,每个人都可能是猎人,也都可能是猎物。
- ]. [* ]2 |1 V! W" b. I8 C# `! I# i9 p6 J# Q
AI能做的真的太多了
/ p9 @- G c1 E( j. g, ` a- c7 G% b; J5 r: t
(1)AI脱衣/换装7 n4 y# S1 q' o
只要一串代码,就可以脱下任何一个人的衣服;只需要几张脸部照片,就可以生成色情图……) e3 X9 _' r8 W
如此低门槛的方式,也意味着荡妇羞辱和色情复仇的成本越来越低,而它们的受害者通常是女性。" L9 n2 [* d A: j) ^7 _
4 Y5 s! P9 A4 J5 r* s2023年夏天的广州地铁中,一个女性乘客就曾被「AI一键脱衣」。 X( N# A0 m2 ~
1 f9 H& f7 @8 b* f& w/ h% J( ~# k
生成裸照只用了几秒钟,但随即展开的赛博围剿却持续了十数天之久,有人说她是夜店舞女,也有人说她明码标价,还有人对她的身体评头论足……
Y: N6 M6 N/ d9 j- B6 M) `. o5 D6 C, j
" Y- ?$ ~6 z. ]+ o& [/ |3 E; N在理性网友找到原图后,后知后觉的人们才发现,这竟然是一次零成本的AI黄谣。造谣者不费吹灰之力,便可以让受害者深陷难以自证的泥潭。+ ]7 X4 g3 r' i
" b/ c0 v; S5 r0 M5 R. z Z$ J) `
但即使涉事相关AI软件已经被封禁,那张图还在互联网上能搜到,而制图者依旧在茫茫人海中完美隐身……
2 g4 {$ @9 G6 P1 ^1 Q' l
3 n, E1 {' x) a1 x/ t( a0 K而这只是AI绘画中很基础的操纵,更高级的AI可以根据不同的提示词和多张图片生成更多崭新的图片。: U' b0 U! r% g! W$ `
9 n4 \& V& C8 }
它和AI换脸/修图还不一样,换脸/修改就意味着有原图,有原图就可以证伪;但AI生成的图片是没有原图的,女性要如何证明那张逼真的大尺度照片上的人不是自己呢?( c& J9 t& U3 Z5 o4 g% K Y
# Q' v7 Q5 z) N M9 t' `
而比AI绘画更难辨别真假的,还有AI视频。 a; {. y7 f8 z* Z8 t* ~
& r: {: A, c/ V
+ P6 x6 {0 m: g; h; ^$ t' O
" x* r( G: |* E
% x3 T3 y9 w4 D0 ^6 E8 o# r(2)AI视频换脸
+ U3 \* p+ W% {7 q
1 H7 Y8 p4 X5 m2 X* a, h) z随着AI技术的发展,一键换脸的功能也被一些综艺节目使用,虽然看起来和五毛特效差不多,但是不难想象随着技术的发展,真假的辨别也将会成为一个问题。, |* W4 ]# D3 v+ C
曾经我们认同眼见为真、视频为证,但是在AI如此发达的今天似乎不太成立了。) B% H" H) I2 F9 t4 y; Q, o# L
% ~) v7 b! C7 }8 I% s: K
而这项让人惊叹的技术,早就被不法分子盯上了。
- z+ [3 C' A8 D: {0 V/ W
3 j% R @- |8 j2 a% y _2 w今年2月就曾曝出,一家跨国公司香港分部的职员受邀参与总部的视频会议,被要求将2亿港元分别转账到5个账户中,转账后向总部查询才发现受骗。
' R9 |/ l: y3 P" c0 V9 N- U
! R) N# Y8 P, n/ x0 |. [随着警方的调查,该职员参加的多人视频会议,只有他一人是真人,其他人都是AI换脸合成的。
5 w, o) d+ Q/ r& K; f8 O2 g2 w! Q* T9 c* F& B- P
类似诈骗事件在陕西也出现过,受害者陈述时也提到,照片视频电话都有,很难判断这是假的。
; m& L. W3 v, j( u1 H" u1 s8 X/ W* U) e- P# ~5 n4 D' {
所以当这项技术用到了生成女性色情视频上,取证、追查、下架视频的难度又会有多大!对受害者的身心伤害又会有多大!我们真的不难想象。3 \: N4 J: ^$ m( j5 e
! v2 b8 @4 w. e那么,当推动社会发展的技术可能变成斩向我们的利刃时,我们应该怎样更好地保护自己呢?
H5 _# g0 a7 S4 _( m) `0 W7 A) o
+ `; B( l! S( W
面对AI换脸,我们该怎么办?; S% X; f/ G& O
n" g* j2 q9 f" C# u2 r( t
(1)立法、用法; e" W0 k! W7 F, ~- G& p7 v4 [' C
2023年8月15日我国就已经通过并施行了《生成式人工智能服务管理暂行办法》 ,其中对人工智能的技术发展方向以及使用规范做了明确的规定。
. g" A; i; ]; @, R
e, h: Z* }4 R. I c5 \* v% s不过还是希望立法部门可以有更加明确细致的立法,国家能加大宣传普法力度,让更多的人了解以AI为手段实施违法犯罪行为可能触犯什么类型的法律,如果做了会受到什么惩罚以及受害者如何维权。" Y+ b2 i6 i8 i* t+ \3 R: I. s
8 T; W; Y" a' M* s4 t/ w0 c6 p4 C5 Y* {
就目前来说,根据《中华人民共和国治安管理处罚法》第四十二条第六项,偷窥、偷拍、窃听、散布他人隐私的,处五日以下拘留或者五百元以下罚款;情节较重的,处五日以上十日以下拘留,可以并处五百元以下罚款。
3 R) U5 o; ?& J9 O5 y( D) Q! g" d7 a1 S6 g; i1 t: m
同时,根据《中华人民共和国刑法》第三百六十四条规定,传播淫秽的书刊、影片、音像、图片或者其他淫秽物品,情节严重的,处二年以下有期徒刑、拘役或者管制;第三百六十三条规定,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的,处三年以下有期徒刑、拘役或者管制,并处罚金;情节严重的,处三年以上十年以下有期徒刑,并处罚金;情节特别严重的,处十年以上有期徒刑或者无期徒刑,并处罚金或者没收财产。
6 T0 s, D# j m
8 ^/ K. T- `- P& Q7 w& W如果利用色情图片对当事人采取恐吓、威胁或要挟等方法进行索要钱款等行为,可能涉嫌敲诈勒索罪。此外如果利用照片和视频威胁、逼迫女性继续与其进行性行为,可能涉嫌构成强奸罪。 d* W: V# g3 p6 v& o W$ l
4 V! Z/ C- p3 d! @9 V" U逃避和妥协只会助长犯罪者的气焰,如果真的遇到了这些情况,屏幕前的家人可以采用以下这些方式保护自己。
+ _7 n& S: c* A9 ~* C5 f# W' M1 T _" o" O$ h4 s9 }9 b
* e+ S+ r9 b9 H( H" p(2)如果遇到了,我该怎么办?
: M9 J5 W% a- D- g" P# x+ g2 o5 w' o; Z9 U# Y' P7 f
① 收集证据
4 L$ \# E J8 [* ]; {6 q4 ~ L首先,立即保存并备份所有涉及你的色情视频和照片的截图、录屏/原始文件。! C' G/ N* T, `, @) i: P# \( O
& r, J7 u' ~- q收集与这些视频和照片相关的所有信息,如发布时间、发布平台、发布者ID账号、浏览转发数量、相关评论,保存侵权主体的相关信息及传播信息,以作为情节严重程度的判断依据。
5 m- |! Z1 B; A$ \# }+ T" g1 v/ U
0 i% ~; b4 p5 m0 t) x( E4 p② 报警0 ^/ r+ O9 L3 D" E) V9 h
立即向当地公安机关报案,提供相关证据和信息;详细描述情况,包括如何发现这些视频和照片,以及可能的嫌疑人或动机。2 q2 G& ~0 E3 f I. L3 m
③ 联系平台
1 H3 z* T* Z4 b/ k
( R0 H& J; ~+ D& @如果这些视频和照片被发布在某个在线平台上,立即联系平台管理员或客服,请求他们删除相关内容。如果平台不配合,可以向警察反馈,请求协助立即下架或删除视频,避免进一步传播。5 n) e* R2 W% C# E% X- [
# i1 N" [- ^4 r/ J$ s4 c( Y④ 依靠法律审判施暴者; R+ r5 u3 a) P) p8 [
" ~' M l J( o5 h% c/ Q) F如果有明确的犯罪者或犯罪平台,可以咨询专业律师,了解你受到侵害的法律权益和可能最大限度维护权益的法律途径。根据律师的建议,采取进一步的法律行动,如提起诉讼或要求赔偿。
& @( C/ L4 C* `+ G* e* u8 ^
) q7 e; A3 Q2 Y3 V, Z7 d$ n⑤ 必要时可以出公开声明:
/ {2 N6 T4 @& g4 H, m% E5 c0 H0 q
B' n) ]4 e0 e. Z如果情况严重且公开说明有助于保护你的名誉和权益,可以考虑在适当的时候发布公开声明。; Z5 J8 K" l% o8 Q, r- X
; ? Q3 N' I) P
在声明中澄清事实和警察的调查进展,表明这些视频和照片是伪造的,并呼吁身边人不要传播或相信这些虚假内容。$ b4 \4 b# J7 b) M! c6 ~
$ H0 X( k$ n7 \+ i1 A9 m
! Z+ n( h+ U% U0 G3 S; c' {: s- z$ c
(3)如果我看到了,可以怎么做?
5 Q) M/ d9 B6 U# c8 [/ k0 B% | X7 v
' J4 k2 b! x) g# ?! L* l) a( {; |% v
《房思琪的初恋乐园》后记中有这样一段话:
# s# `7 y7 F% W C2 V. Y7 }「任何关于性的暴力都是社会性的,或应该这么说,任何关于性的暴力,都不是由施暴者独立完成的,而是由整个社会协助施暴者完成的。」" Y: i3 A0 Q% e# Z! k5 M8 B+ o
T: A- f f- z( e+ k5 M! `
当数字性暴力被简单化为所谓的「资源」,一个从生产到消费的灰色产业链闭环就形成了。6 T2 d& ?6 W1 Q3 F& ?/ d
+ V; y5 i6 l" n: y: k" b
因此不生产、不消费才是我们对这种犯罪最基本且最鲜明的态度。' Q1 d/ {/ u: }+ e7 [
8 U6 ~0 [( m# Z: ]! K8 E
如果屏幕前的你看过这样的内容,希望大家可以反手就是一个举报,不感兴趣、不下载、不传播,怎么不算是对受害人的帮助呢,又怎么不算是对灰色产业链说「不」呢。
) n/ s7 H; \! J1 I, [; a, X3 [+ l! s* v7 @# u
3 u7 [) Q0 Q( j# p A+ v A
|
|