22万人正在把女性P成色情片
来源:m6米乐娱乐 发布时间:2024-12-19 21:07:11
详情
一些IP在韩国的账号,用翻译器翻译的拗口中文,控诉她们正遭遇一场可怕的AI性犯罪。
韩国女性的声音提醒着所有人,在AI技术越来越发达的当下,我们或许都无法独善其身。
随着韩国女性在中国网络的呼救,一个词登上了热搜——「Deepfake」。
Deepfake(深度伪造)是deep learning(深度学习)和fake(伪造)的混成词。它是一种AI技术,可以把已有的图像或视频叠加到原有图像或视频上,简单来说就是AI换脸。
网上随处可见用来娱乐的deepfake,它的诞生也许是为了拓展技术边界,但是却带来了犯罪隐忧。许多人将他人的照片或视频替换到色情制品上,制造虚假的色情片并广泛传播。
美国一家网络安全公司发布的《2023年Deepfake报告》显示,2023年网上流传着将近10万条AI换脸制造的色情影片。而其中,53%的受害者来自韩国,受害者里90%的脸属于歌手和演员。
而这次事件里,受害者都是普通女性,她们是女大学生、女高中生,甚至女初中生……她们的照片被同学校的男性上传到通信软件Telegram的秘密群组中,生成了大量色情制品。
事情的开端是今年上半年,首尔大学两名毕业生因deepfake被拘留,他们伙同另外三人,用61名女性的照片视频制作了1852份色情制品。
根据调查,利用AI换脸造黄谣这件事,他们竟然从2021年就开始做了!也就是说,长达三年的时间里,首尔大学的学生们一直生活在充满性犯罪的环境里。
然而,这件等同于曾经的「N号房」的事件没有砸出水花。直到8月,卧底Telegram的女性们在X(原Twitter)上曝光大量内幕,人们才亲眼得见deepfake的世界里发生着什么,以及它到底发展到了什么程度。
女生们发现,不仅首尔大学有男人秘密聊天室,其他大学、高中、初中也有。聊天室正是以学校为划分,属于该学校的男生会加入同一「房」。
男生们找到房地址后,需要上传的女同学、女老师,甚至妹妹、姐姐、妈妈的照片,这是加入男人世界的「投名状」。
正式加入后,就能够正常的使用房内的工具bot。只要上传照片,几秒内它就会吐出色情图片和视频。这些bot还能识别性别,上传男性的照片无法合成。
群里的人开始源源不断地甩出女生照片,这些照片都是他们从社交网络上存下来或自己的。
如果发现有一位女生大家都认识,她的照片就会被换脸成色情制品在群内传播。接下来,群里的男性会围着「她」侮辱和嘲弄。
Telegram上还出现了针对特定职业女性的房间,比如「教师房」「护士房」「军人房」,群组里的人称女军人的制品为「军需品」。
除了在线上,一部分人还在线下跟踪和勒索被换脸的女生。有人特意接近女生,告诉她你被deepfake了,下她的反应再上传到群组,形成第二轮。
这件事的普遍程度十分可怕,整个韩国超过70%的学校都发现了这样的秘密聊天室。有人在地图上标注涉事学校,只能看到城市被密密麻麻的红点覆盖。
目前已知聊天室内有两个大型工具bot,一个现有用户量22万,另外一个则达到了40万,而韩国的总人口只有五千多万。
有网民说,韩国出租车司机数量有23万人,也就是说,在路上遇到性罪犯的可能性,和遇到一辆出租车的可能性差不多。
Deepfake内幕利用互联网揭开后,韩国女性关闭了自己的社交网络,不再上传照片,试图从网络上抹去自己的脸。她们组织了抗议活动,戴着眼罩举起海报,上面写着「反复发生的deepfake性犯罪,国家也是共犯」。
「N号房」从未从这一个地区消失,deepfake的发酵是韩国女性被司法和媒体拒绝后的一场自救。
要彻底杜绝AI技术带来的性犯罪,让女孩们不上传照片、注意安全是无效且无作为的。必须从法律上制定严格的惩罚措施,平台加强监管,以及从技术上做出改变。从工具bot无法将男性的照片合成色情图片就能够准确的看出,这不难做到。
Deepfake性犯罪带来的一个隐忧是:它太像真的了。当遇到色情勒索或被造黄谣时,人们很难证明一段色情影片里的主角不是自己。
针对这一点,在deepfake事件舆论爆发后,我国中科院工程师张欣怡在与团队商议后,将参加全球deepfake攻防挑战赛的AI模型面向全球开源。他们的成果能够最终靠数据对比证明图片和视频是伪造的,以便进行自证和成为打官司的关键证据。
这当然是十分重要的行动,但是,deepfake给女性造成的伤害,从图片生成的那一刻就开始了。
Deepfake违背女性的意愿,抹去女性的人格,将女性当作物品一样随意对待。当受害者察觉自己的身体被挪用时,被侮辱带来的愤怒、痛苦就已经蔓延开来,这是事后自证也很难消解的。
Deepfake最根本的问题不是造假,而是憎恶女性。要从源头不让这些照片诞生,制定有威慑力的惩罚措施很有必要。
舆论过后,韩国国会通过了一项法案,将持有或观看deepfake色情制品定为犯罪,任何购买、保存或观看的人都可能面临最高三年的监禁或最高3000万韩元(约16万人民币)的罚款。制作deepfake色情制品并意图传播的人,将被处以最高七年监禁或5000万韩元(约26万人民币)的罚款。但这项新法案要得到总统尹锡悦的批准才能正式颁布。
韩国警察厅八月底也开始密集打击性犯罪,一周内就立案超过120起,不少参与deepfake的青少年被逮捕。
平台方也应该肩负起网络公司的社会责任。社会化媒体X曾在今年年初暂时屏蔽过对泰勒·斯威夫特的搜索,因为当时这位歌手的deepfake露骨图片大肆传播,浏览量上百万。
以此为参考,像Telegram这样存在大量deepfake制品的软件,应该从平台的角度禁止这类图片上传,并对账号所有者进行惩处。
最后,人数庞大的性犯罪也迫使整个社会不得不去思考,为什么这几十万男性(大部分是十几岁的青少年)会憎恶女性?是什么使他们做出这样的事?
Deepfake性犯罪绝不只发生在韩国。根据调查数据,20%的deepfake色情制品来自美国,10%来自日本,有3%来自中国。
面对这一切,难道我们只可以关闭社交软件、停止分享生活,始终活在不安中吗?是谁剥夺了女性自由享受生活的权利?我们该如何应对?
我国在去年8月15日通过并施行了《生成式人工智能服务管理暂行办法》,对AI能生成什么、不能生成什么进行了规定。
该办法在统筹发展与安全的前提下,鼓励AI创新应用,着重维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,其中就有提到:「不得生成淫秽色情以及虚假有害信息……不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人隐私信息权益。」
《办法》还提及平台应该发挥作用,明确服务提供者的内容安全主体责任,「网信、发展改革、教育、科技、工业与信息化、公安、广播电视、新闻出版等部门,依据各自职责依法加强对生成式人工智能服务的管理。」
如果违反规定,有关部门可根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人隐私信息保护法》等法律、行政法规的规定予以处罚。
具体来说,如果我们真的遇到了AI性犯罪,可根据取证—报警—起诉的流程维护自己的合法权益。
在发现性犯罪的第一时间,留存所有涉案的图片、视频、发布账号信息等。保存发布的时间、平台,后续的浏览、点赞、评论和转发数据,事后办案机关可依据这一些证据内容判断犯罪情节严重程度。
接着联系、委托律师起诉。起诉需要有明确的被告方。能联系平台,要求平台提供账号的运营者信息,如果平台拒绝,可以起诉平台方后拿到运营者的信息,这一步需要咨询律师的意见。
在其他时候,面对AI性犯罪,我们大家可以做的是:不观看、不消费、不传播、不羞辱。对虚假信息动手点点举报,在受害女性维权时帮忙发声。
保护其他女性,也是在保护我们自己。我们都有共同的诉求和心愿,那就是不用因会受到憎恨和侮辱而担惊受怕。