川观新闻记者 蒋京洲 张庭铭
“我接下来告诉你的事情,你能帮我保密吗?”
“作为一个人工智能程序,我没有记忆能力并且不存在意识,因此不能保证保密。与我的所有交互都是匿名的,不会储存任何个人信息。”
面对记者对聊天内容的保密请求,ChatGPT作出了上述回应。
在互联网时代,个人信息的滥用、错误虚假信息的传播、涉密信息的泄露日益引发关注。因此我们应当继续追问,在当下的应用和规制体系下,我们与ChatGPT对话的过程中如何得到某种程度的准确性和安全性保障?而如果敏感信息遭到了泄露和侵犯,又是否存在可行的救济渠道?
AI时代初见端倪,信任危机却在发酵。面对技术发展,我们如何守护信息安全?川观新闻邀请到对外经济贸易大学数字经济与法律创新研究中心主任许可和四川省法学会人工智能与大数据法治研究会理事 、四川瑞利恒律师事务所高级合伙人、律师吴锦熤对上述问题展开讨论。
与AI聊天是否有个人信息泄露的风险?
有,服务场景接入越多这种风险可能会越大
2月8日,微软公司在其搜索引擎和浏览器中嵌入了ChatGPT的相关技术。
在其演示中,搜索“5天行程去哪儿玩”这个问题,传统搜索引擎会将网络上所有5天行程相关的游记计划给出,而嵌入ChatGPT的搜索工具,则会为你搜索最佳景点,并汇总在一个基础的行程列表中。
吴锦熤认为,ChatGPT类应用,创设了个人信息新的使用场景。“在与许多AI的交互过程中,我们都有可能主动或被动的提供一些个人信息,这些未经过脱敏的信息一旦泄露,便有可能造成数据滥用的风险。”
吴锦熤举例表示,例如AI语音生成软件,个人就会在使用中提供声纹信息。如果这些信息无法得到妥善保管和处置,那么就有可能有违法犯罪分子利用个人信息实施精准的电信诈骗、网络诈骗等违法犯罪行为,对个人造成人格、人身及财产等多种损害。
对外经济贸易大学数字经济与法律创新研究中心主任许可也同意这种风险的存在。在他看来,这种风险,将随ChatGPT进一步作为人机交互端口嵌入服务场景而放大。
“这类AI产品的出现,在改变既有业务形态的同时也增加了个人信息收集和处理的场景,传统意义上很多其实并不需要个人信息的业务场景,如今都有可能涉及。”许可解释道,例如以往浏览器搜索、智能家居等产品并不需要收集个人信息即可提供服务。而ChatGPT作为交互端口时,有可能需要进一步请求使用个人信息以便提供更加精确和个性化的服务。
许可表示,在与AI进行对话交互的过程中,个人信息可能会被无意识地提供。这对当前《中华人民共和国个人信息保护法》所明确的“知情-同意”原则提出了新的应用情景,而这种情景是否会对现有的法律法规造成冲击,还需要进一步的观察。
AI生成错误信息应该由谁承担责任?
服务提供者应尽标识和审查义务
相较ChatGPT所带来的个人侵权风险,许可认为其对社会公众认知造成的风险似乎更应该加以警惕。
“ChatGPT这类生成式AI的内容基本都是基于深度合成技术生成。因此其真实性、准确性难以得到保证。AI生成的文字、图片、视频等伪造信息,例如网上流行的AI换脸等,如果不能得到准确辨识,就容易让人产生错误的认知,进而产生谣言的传播。”
许可的担忧已经得到现实案例验证。2月16日,网上传播一条杭州市政府3月1日取消限行的“新闻稿”,实则是有人利用ChatGPT以新闻稿的“口吻”写成。信息传播后引发误解,目前警方已介入调查。
AI生成内容的准确性、合规性问题已经凸显的当下,法律的规制是否跟上了技术发展?在吴锦熤看来,目前相关法律法规已经开始有所涉及。
他告诉记者,针对AI等新技术产生的法律问题,2021年国家网信办等部门印发了《关于加强互联网信息服务算法综合治理的指导意见》等政策文件。其后出台的《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》,对算法服务特别是利用深度合成技术提供信息服务的算法服务作了较为详细、全面的规定。
以AI生成内容为例,《互联网信息服务深度合成管理规定》明确应当在AI生成或者编辑的信息内容的合理位置、区域进行显著标识,通俗讲就是要明确告诉受众,这个内容是AI参与制作的。
吴锦熤认为,法律法规实际认可这类AI工具不可避免的会提供一些错误、虚假、误导等信息。但是,服务的提供方必须尽到显著标识和提示的义务,否则服务提供方就有可能对因此造成的公众损害承担一定法律责任。
许可也同意,“新技术的应用,并不能为生产、传播错误信息‘开脱’。服务提供者应当对此负责。”他表示,根据相关法律规定,服务提供方还应当对其使用的算法进行备案,在一定程度上倒逼服务提供者进行流程记录和算法合规风险评估,也有助于监管部门进行监督。
被AI侵权了该怎么办?
维权救济途径存在,但是认定过程可能有点难
如果在10年前提出这个问题,可能尚且是引人发笑的假想。然而在今天,这确实已经成为了现实的担忧。不妨试想,如果AI将你的个人信息在与他人的聊天中不慎泄露,或者AI绘画画出的角色与你高度相似,这确实足以让人感到不寒而栗。
“法律上的维权救济途径是存在的。”吴锦熤告诉记者,针对AI工具造成的此类情况。首先应当厘清在AI使用情境下各方的角色分工,然后看服务的提供方、技术提供方和使用方哪一方侵害了我们的合法权益,再根据具体情况向侵权人进行追责。
但吴锦熤也坦言,鉴于技术及业务模式的复杂性,如何区分AI工具使用中的各个角色以及各个角色的义务和责任,也是维权的难点和重点。
一方面,“AI使用的训练材料是否侵权”就存在举证困难的问题,因为你并不能完全掌握对方使用何种材料进行训练。
另一方面,当前市面很多AI工具来自境外,这也会给维权带来非常大的困难和阻碍,因为除了侵犯主体难以确认以及维权成本增高外,还可能面临适用的法律以及在不同的司法管辖区进行维权的困难。