% F: S8 U+ I) | v2 b9 n; A“技术本身并不违法,20年前,人们用Photoshop也可以做类似的换脸效果。”乌米如此应对外界对他使用深伪技术的指责,“如果应用得当,可以带来创造力。我不是法学家,也许他们可以要求深伪技术处理过的视频需要贴个标签之类。我只是个创作者。我也想通过这些短视频告诉大众,所见,也许并非所得。” & `5 U$ S2 U, l% ], m: l I& q2 d5 S/ \
鉴假工具更新赶不上造假速度 " T! u0 j* O$ Y: ^2 [6 m& _0 `( O4 d9 H* ?
与乌米这样走到台前自曝身份,并揭盅技术拆解的“造假者”不同,一批应用开源深伪软件的人群隐身于屏幕后甚至暗网中。利用深伪技术“瞒天过海”的案例屡见不鲜,名人是率先被模仿的群体。 + n7 S' I4 [% h" H) U ; }/ }$ ?( v0 p% U# S, v4 |/ J. X国际范围内,政客演讲视频被深伪技术调慢速度,营造出身体不佳的假象;马克·扎克伯格受访视频被重新调整嘴型,说出“要删除社交网络”等他从未说过的话。 7 R4 K% c' z7 Q7 m5 g; H 6 ]& S1 g \" J0 O在中国,抖音、快手等短视频平台上,骗子利用简单的合成技术,自称是靳东、马云等知名人士本人,骗取中老年人的感情和金钱。虚假的明星视频甚至形成了规模化的造假产业链,完成了直播带货、转手倒卖或者骗取钱财等多种利用造假变现的形式。' C7 M3 }& T; F' o5 f# D# d' k+ Z! t
2 n1 `$ y3 X/ e9 z8 q“假靳东”们引导粉丝关注、点赞、评论养号,或骗取钱财,形成黑产链条。 # Y. F: T$ O" i. X9 i$ O. h3 }' }) ]" C) [7 f0 M0 N1 G9 X0 W
“假视频或是假图片都不是什么新鲜事物,但现在所能达到的精度和造假工具的可及性,是让我担心的地方。”美国加州伯克利大学数字鉴假专家Hany Farid在接受外媒采访时表示。 ; Y. k) C- N$ e g" m. n 9 ^! h% a. p9 b: b纽约州立大学布法罗分校计算机工程系教授吕思伟对作者解释道,假音视频愈发“以假乱真”源自三重发展:除了过去十年人工智能在计算机视觉技术上的更新之外,还有赖于CPU、GPU所带来的硬件算力能力提高,和社交媒体普及后影像数据集的指数级增加。机器算法的仿真能力,源自巨量数据集的“喂养”。% a7 u" B2 n' t9 [& f9 C' l
7 @0 g5 n3 D0 k# ]* y造假并非无药可解,吕思伟所在的实验室正在通过机器学习的方法,寻找鉴别虚假音视频的技术解决方案:“欺骗人眼相对容易。但就好像医生可以通过X光看到人眼看不到的问题一样,算法也可以提供数字鉴证的工具。” & R$ R- b' q8 x6 ]2 Q- I. X. y C9 `) V& o: \$ L
但问题是,道高一尺,魔高一丈。鉴假工具更新赶不上造假速度。吕思伟的团队曾经采用眨眼频率的方式来鉴别假视频,因为第一代虚假视频中大量使用网络静态任务图片训练算法。这些图片中的人物都睁着眼睛,因为没人愿意把闭眼的形象展示给公众,而造成造假时的漏洞。 8 D7 Q3 b7 q0 X$ n9 j4 L K * c8 W& Z3 I9 e4 Q% a- a* p% ?但随着更多动态视频进入数据集,造假视频的仿真程度进一步升级,则需要引入阴影渐变边界等物理特征的区别信号,进行数字鉴别。. \+ j8 V1 b( ]$ ~# F9 H8 E