近日,女子地铁照被AI一键脱衣传播的话题引发网友热议。5 D. @/ i5 O3 r" m) a1 d5 f
+ k- M: U5 H* j; D- \0 o8 f, g' \# g
一女性网友曾在社交平台晒出了自己在地铁车厢拍摄的照片,该照片却被人下载利用 AI 技术除去衣物,随后在网络广泛传播。/ T3 G1 M' X% n' |: ^
( ~$ Y( b3 O& v4 s尽管上述“一键脱衣”AI技术的APP已被封禁,但通过网页检索会发现,仍有网站贴出了替代品的下载端口。 & D& S, Q. Z- }# z% q; P * s) g5 L# P3 j/ {0 R6 R: w根据相关软件的描述,有“一键去衣”等功能生成人体肖像,在产品说明页中还有着详细的“AI算法一键去衣优势阐述”、“AI算法一键去衣用户评测”等。 % L* R+ K: r) l8 n% m- A* a2 w! H, i; `! l
部分APP甚至打出了“免费下载,免费试用”的广告。/ @3 F% X/ q: x: T0 |
# |% T/ u, N/ }3 l# U6 y; s, W
如此龌龊的互联网行径,引发了国内很多女性的恐慌。有媒体指出,可能今后自己好端端地走在路上,就被人拍摄下来,用AI“一键脱衣”了,在赛博空间里被扒得一丝不挂。在现今AI强大的算法下,时间、地点都对得上的情况下,伪造的黄图可能会让当事人百口莫辩。 * H& T: V1 e R$ H2 s! E$ x/ a9 @" ?' N$ N8 r* |
这些虚假的图像或视频不仅导致受害者名誉和形象受损,带来难以想象的精神压力,甚至很可能被用做勒索、骚扰的手段。7 d/ P" @( v# s* z) W6 w/ s$ a8 I8 k1 ^
, ?2 i3 W& g. o5 P& X$ o
新京报等媒体指出,希望网信部门强化源头治理,坚决取缔这种非法应用,还要倒查到底是谁在开发这种龌龊的App。. C, ]/ R. g& ~/ A
" y; n5 a: f3 p( k$ }" S! W& `0 d
实际上早在2019年6月,一名国外程序员就开发出了 DeepNude 这款使用 AI 技术“脱衣”的应用,通过使用类似 deepfakes 的深度学习技术,DeepNude 使用女性裸照训练之后可将图像中女性身上的衣服替换掉,创造出以假乱真的合成裸照,也就是大家所说的“一键脱衣”。 ( A k$ S8 Q+ x% G/ Z/ H- \& I7 W. D1 a% o' K P+ G$ F
这款软件发布仅几小时便因访问请求多大迅速宕机,而后有大量女性在未知情的情况下,被伪造了色情图片并上传到公共媒体平台。最终因巨大的舆论压力,开发团队最终关闭此项目。# ]* D: {1 n0 B0 Y- L
* @+ ~+ }6 {1 W% I/ s8 V W* K& Z
不曾想,火遍全球后被封杀的“AI一键脱衣”软件,又卷土重来了。# w4 Q3 @) i( ?4 w) K9 w* p+ v
& n9 K* L x% j
究其原因,其一可能是 AI 生成虚假内容越来越方便了,只要一张照片,人人均可上手;其二,就是目前有关人工智能方面缺乏更加严厉的监管机制和伦理审查规则。 ' Z; m% u/ ^6 a( o1 ? 2 s6 V! Y, T- N* x3 ~# _1 b所以,要想关上潘多拉的魔盒,需要制度的约束和科技向善、人心向善的引导。 1 b) }6 I; C$ C' Y + e8 o$ ^% z* j$ q2 Z0 L和AI脱衣相似的,还有近年来走红网络的“AI换脸”,包括明星艺人都深受困扰。, P; ]8 x2 h+ ~+ O! C: v3 b3 U! e
9 f5 r4 t$ V7 k2021年8月,公众人物刘昊然发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。* c* F. D1 |! v+ F7 x* D6 @
8 v+ R& E. T# f9 x X$ H6 y) O# v
前不久,某网红特效合成师,利用电脑后期制作将电视剧中和女明星有亲密镜头的男主角换成了自己的脸,遭到大量网友抵制。 - |6 _, O6 }* W) Y% u" z$ G& n0 K4 z5 e/ B6 D6 ?1 Y$ |$ D
但其实,对于AI“一键换脸”“一键脱衣”等深度合成技术,并不缺乏法律法规的约束。 3 F" x+ S9 C! K! {0 u; Z. G! I* j 7 G; C# b( I( K: M4 C) W2022年底,三部门联合发布了《互联网信息服务深度合成管理规定》,对AI合成的服务提供方做出了多项规定。 N( ~- V- S: L8 n8 ^3 e 8 }+ Y c' ? T- D" Z+ k5 f, U比如,不得利用深度合成服务从事侵犯他人合法权益等法律法规禁止的活动;AI合成服务提供者必须要求内容创作者实名认证,监督创作者标明“这是由AI合成”之类的标识,以免误导公众;在提供人脸、人声等生物识别信息编辑功能前,应该征得被编辑者的同意;建立健全辟谣机制,若发现有利用合成服务进行传播虚假信息行为的,应当保存有关记录并向有关部门报告;同时完善数据管理、保障个人信息安全等。 $ `) ^5 [9 N1 ]1 I2 `0 v# W9 B4 g8 U9 ]6 i
《规定》也指出,网信部门和电信主管部门、公安部门等监管部门,需要加强监督检查、技术治理,对不当使用AI合成技术的机构和人员,按照有关法律、行政法规采取措施,进行整改;造成严重后果的,依法从重处罚。' [& D- ?; f7 H! y/ U
% H. l0 y* u, V* _
这表明,所有深度合成服务的提供者、技术支持者以及使用者都将成为受法律法规约束对象。 . C7 T: n8 k) ]- L" A1 f1 I9 N2 @+ H5 B: q( Q1 T
此外,根据《民法典》《刑法》《网络安全法》等相关法律规定,开发、使用、传播“一键脱衣”类 APP 都属违法。" C& g" T n. [5 a9 h
1 S+ M! j5 y( ]
恶意P图造谣以及进行传播等行为主要涉及一下法律问题: ! b9 L$ g7 [- s2 O" m% Z' r" X: G# T/ H; p. c; h2 h3 D; @
从民事层面来说,造谣侵犯了公民个人的名誉权和肖像权,公民有权请求停止侵权、恢复名誉和赔偿损失。 . y+ i4 I! _6 F% l从行政层面来说,行政机关可对造谣、传播谣言者处以罚款和拘留的行政处罚。 0 Q8 Z& u* B$ A+ Q2 K7 L' V& _从刑事层面来说,故意采取P图等形式,歪曲他人形象,传播淫秽信息,涉嫌侮辱罪;将淫秽信息上传至第三方平台,涉嫌传播淫秽物品罪,如果以此牟利的,涉嫌传播淫秽物品牟利罪。 - ~" {5 {: W0 @: {- F. Y; ]0 e" @5 K. F& i- k. a
专家指出,网络本身就是一个公共空间,利用AI技术“脱去”女性衣服,属于情节严重的侮辱女性的行为,已经达到可以追究刑事责任的程度。- R& Z- z$ d$ f4 L$ |+ C0 |
* m( `0 l8 J2 |4 d# {& u+ n同时,相关APP的开发运营者也要承担相应的责任。 6 `3 x# q% L: t, T5 ?+ d! D8 X. f* P. D3 W3 w$ E
在《网络安全法》第二十七条的规定当中特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持。如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。 + {. z* q7 k! K: Q8 r' R( r7 z1 m# } h4 [, P
种种事迹警示我们,在 AI 技术愈加发达的今天,不仅要警惕 AI 技术在网络上的滥用和扩散虚假信息的风险,也要更加谨慎地保护个人隐私和形象权,避免自身权益受到侵犯。 3 H2 I6 s# y! Z \& [% `' T+ e- j; W( q如果当事人发现自己的照片被人为的篡改,可以要求对违法行为人进行行政处罚甚至刑事处罚,也可以通过民事诉讼的方式,要求行为人进行赔偿。' {" ~, H. r! n/ C9 I7 x. w: y+ E) L