近日,广东广州一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。事实上,所谓的“裸照”是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播。
未经他人同意肆意传播照片,已然侵犯了当事人的肖像权。更为恶劣的是,别有用心者利用AI脱衣软件将女孩的衣服去掉,造谣说是她在地铁上拍裸照。此种行为对女孩的个人形象和社会评价造成了严重影响,并对其精神和心理造成了极大伤害,构成了对当事人名誉权、隐私权的严重侵害。
随着数字化时代的到来和AI技术的发展,基于人工智能的深度合成技术方兴未艾。这既是时代必然,也是社会所需。技术本身的发展和普及并没有错,但是怎样使用这些技术、怎样引导“科技向善”,却是和发展科技同样重要的问题。一把菜刀,可以是良厨趁手的工具,也可能是凶手杀人的武器。技术无原罪,关键看怎么用。AI技术应该用于提高社会效率,造福人类群体,不能因为滥用而成为造谣中伤他人、污染社会风气、违背网络伦理和公序良俗的工具。
更重要的是,AI技术的应用必须运行在法治轨道内。根据《民法典》的规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。针对某些非法网站公然介绍AI“脱衣技术”,并提供“免费下载,免费试用”功能的违法行为,《网络安全法》也特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。今年1月10日开始施行的《互联网信息服务深度合成管理规定》中还提出,要对深度合成技术应用提出规范。
一系列法律法规对AI技术善用提供了基本遵循,然而法治更要靠执行。有关部门要进一步加大监管和执法力度,严肃追究相关违法行为的法律责任。相关平台要强化内容审核把关,提升技术筛查能力,及时将违法违规“AI裸照”清除干净并拒之门外。只有这样,才能有效防止AI合成技术被滥用,让AI技术发展得更安全。
听堂FM-成都经济广播评论员:苏川
编辑:付夏南
责任编辑:李岚
审核:万斯佳