近年来,人工智能的应用在教育领域引起了广泛关注和深入研究。尤其是ChatGPT的面世,更是推动了教育和人工智能的结合进程。然而,生成式人工智能的应用也带来了一些挑战和问题,如数据隐私、算法公平性、知识产权等问题。
为应对这些挑战,国家网信办等七部门于2023年出台《生成式人工智能服务管理暂行办法》(以下简称《办法》)。《办法》明确了生成式人工智能服务提供者和使用者的权利和责任,对服务提供者应当履行的义务做出了具体规定,为生成式人工智能服务的提供和使用提供了法律依据。
一、分析《办法》构建的法律框架
《办法》构建的法律框架,旨在推动生成式人工智能的正向发展,明确提供者、用户以及相关主管部门的权利和义务,确保生成式人工智能服务在遵循法规的前提下,服务于社会的公众利益。
从结构上看,《办法》构建了一套完整的法律框架,涵盖了总则、权责规定、监管措施和法律责任等核心要素。
首先,《办法》在总则部分明确了其法律地位和法律适用的范围,这为整个法律框架提供了基本的依据。总则部分强调了法律适用的主体,包括生成式人工智能服务的提供者和使用者,进一步明确了服务提供者和使用者的定义和角色。
其次,在权责规定部分,《办法》详细列出了服务提供者和使用者的权利和义务。对于服务提供者,一方面有权自主研发和提供服务,另一方面也需要遵守法律法规,保护用户权益,公开透明地提供服务。对于使用者,既有使用服务和了解服务信息的权利,也有遵守法律法规和尊重知识产权的义务。
最后,在监管措施和法律责任部分,《办法》明确了对生成式人工智能服务的监管机制和违法行为的处罚措施。这部分规定了主管部门对生成式人工智能服务的监督和检查,强调了提供者应当配合主管部门进行检查,并按要求提供训练数据来源、算法机制等信息。同时,对于违法行为,办法规定了包括警告、罚款、停止提供服务等处罚措施。
基于《办法》呈现的内容,所构建出的法律框架,充分考虑了生成式人工智能的特性和应用,强调了法规在推动其健康发展中的重要作用。
首先,法律框架明确了生成式人工智能服务的发展方向,即在遵守法律法规、尊重用户权益的基础上,推动生成式人工智能服务的创新发展。这既保障了服务提供者的权益,也保护了用户的利益,促进了生成式人工智能服务的公正、公平、公开发展。
其次,法律框架建立了一套完善的监管机制,通过分类分级监管、安全评估、备案管理等方式,保障了生成式人工智能服务的安全和可控。这有利于预防和解决由于生成式人工智能技术的复杂性、不确定性等因素导致的潜在风险和问题。
最后,法律框架设定了严厉的法律责任,对违反法规的行为进行惩罚,包括对服务提供者和使用者的责任追究。这既维护了法律的权威,也强化了所有参与者遵守法规的意识。
二、《办法》法律框架对教育的影响
《办法》对教育机构的影响
《办法》对教育机构的影响具体可以从合规性要求、教学方式创新以及数据保护和隐私权等方面进行详细阐述。
首先,《办法》对教育机构提出了明确的合规性要求。任何利用生成式人工智能服务的教育机构,都必须遵守暂行办法规定的法律义务,包括但不限于规定的数据收集和使用原则,对个人隐私的保护要求,以及提供服务的合法性、合规性、安全性等。
这意味着,教育机构必须在使用生成式人工智能服务时,严格遵守相关法规,同时也需要建立相应的内部管理和操作流程,以确保在服务过程中符合法律法规要求。另外,教育机构还需要定期进行自我审查和自我整改,以满足不断更新的法规要求。这不仅有助于提升教育机构的法制化管理水平,也有利于构建更为安全、公平和透明的教育环境。
其次,在《办法》的法律框架下,教育机构有可能进行教学方式的创新。生成式人工智能服务以其灵活性和高效性,正在逐渐改变传统的教育方式,推动个性化教学、智能教学等新型教学模式的发展。这其中包括利用生成式人工智能服务进行个性化教学,根据每个学生的学习情况和能力进行定制化的教学方案,以提高教学效果。此外,通过生成式人工智能服务,教育机构还可以进行大规模的在线教学,打破传统的时间和地点限制,提供更加便捷和高效的教学服务。
然而,这种创新的教学方式也带来了新的挑战,如何确保服务的安全性和可靠性,如何保护学生的隐私和个人信息,以及如何避免因为过度依赖生成式人工智能服务而降低教学质量等问题。这就需要教育机构在推动教学创新的同时,也要注意权衡利弊,做好风险管理。
最后,《办法》在数据保护和隐私权方面设立了严格的规定,对于教育机构的影响也是深远的。在生成式人工智能服务的运作过程中,需要收集和处理大量的个人数据,包括学生的学习数据、个人信息等。教育机构在使用这些服务的过程中,必须严格遵守法规要求,合理收集和使用数据,尊重并保护学生的隐私权。为了满足这些要求,教育机构需要建立健全的数据管理和隐私保护机制,对于数据的收集、存储、使用和传输等环节进行严格的监管。同时,教育机构还需要加强对学生的隐私教育,提高其信息安全意识和技能。
《办法》对教育内容的影响
《办法》的实施,对教育内容的创造、传播和评估也产生了影响。
第一,在教育内容创造的过程中,生成式人工智能服务通过其独特的学习和生成能力,能够提供更丰富、更个性化的教学内容。以往,教学内容的创造多依赖于教师的专业知识和经验,而现在,生成式人工智能可以通过分析大量的教学资源和学生数据,生成适合不同学生的个性化教学内容。然而,《办法》对于生成式人工智能的使用提出了严格的规定,对于内容创造也有一定的影响。例如,教育机构在使用生成式人工智能创造教学内容时,需要遵守数据保护和隐私权的规定,不能无限制地收集和使用学生数据。此外,教育机构还需要对生成的教学内容进行审核,以确保其符合教育政策和道德规范。
第二,生成式人工智能服务的应用,也正在改变教育内容的传播方式。通过生成式人工智能,教育机构可以实现精准推送,将最适合的教学内容推送给每个学生,提高教学效果。同时,生成式人工智能也可以实现实时反馈和互动,让教学更加生动和有趣。在此过程中,《办法》为教育内容的传播设定了一定的边界。例如,对于推送内容,教育机构需要确保其适宜、安全,不能利用生成式人工智能进行不合适或者违法的内容推送。同时,教育机构在实现实时反馈和互动时,也需要保护学生的隐私和安全。
第三,生成式人工智能服务也可以用于教育内容的评估。例如,通过生成式人工智能,教育机构可以进行智能化的学生评估,如自动阅卷、学习成果预测等。这不仅可以提高评估的效率,也可以提供更公正、更客观的评估结果。然而,《办法》对于评估内容的公正性、准确性等也有严格的要求。这就需要教育机构在使用生成式人工智能进行内容评估时,确保其技术的成熟性和可靠性,同时也要注意避免因为过度依赖生成式人工智能,而忽视了人的因素和专业判断。
《办法》对教育方法和教学过程的影响
生成式人工智能在教育中的运用已经深刻改变了传统的教育方法和教学过程,然而,《办法》的出台无疑在这些改变中引入了新的考量和规范。以下将从教育方法的选择和优化以及教学过程的个性化和智能化两个方面,探讨该法规对教育领域的影响。
首先,教育方法的选择和优化是教育工作的重要组成部分。生成式人工智能通过对大量教学数据的学习和分析,能够提供对各种教学方法的效果评估和优化建议,帮助教师选择更适合学生的教学方法。然而,根据《办法》的相关规定,教育机构在利用生成式人工智能优化教育方法时,必须遵守数据保护和隐私权的法律规定,不能无限制地收集和使用学生数据。同时,尽管生成式人工智能可以提供数据驱动的优化建议,但根据《办法》,教育机构仍需考虑人的主观因素,不能完全依赖机器的判断。这就要求教师在使用生成式人工智能优化教学方法时,既要充分利用其数据分析能力,又要结合自己的教学经验和专业知识,做出符合教育目标的决策。
其次,生成式人工智能服务的应用也使教学过程得以个性化和智能化。通过实时分析学生的学习数据,生成式人工智能可以提供个性化的教学内容和学习路径,使教学过程更加精准和有效。然而,《办法》对于生成式人工智能的使用也设定了一定的规范。例如,教育机构在实现个性化教学过程时,需要遵守数据保护和隐私权的法律规定,不能无限制地收集和使用学生数据。同时,教育机构也需要确保教学内容和过程的公正性和公平性,不能因为生成式人工智能的使用,而导致教育资源的不公平分配。另外,教育机构在实现智能化教学过程时,也需要确保生成式人工智能的技术可靠性和安全性。根据《办法》,教育机构需要定期对使用的生成式人工智能进行检查和评估,确保其符合技术和教育标准。
三、《办法》对教育人工智能的法律责任与道德倡导
《办法》对人工智能法律责任的规定
当今社会,生成式人工智能已经在教育领域中得到了广泛应用,但是随之而来的是一系列的法律和道德问题。这就要求我们必须清晰地了解和掌握生成式人工智能在教育中的法律责任。
《办法》明确规定,教育机构在使用生成式人工智能时,必须遵守相关法律法规,并对其使用中可能产生的法律责任负责,这意味着:
首先,教育机构在使用生成式人工智能服务时,必须确保其服务的安全可靠。这不仅包括技术上的安全可靠,也包括教育内容的正确性和合理性。如果因为生成式人工智能服务的问题,导致学生的学习效果受到影响,或者造成学生的其他损失,教育机构需要负相应的法律责任。
其次,教育机构在使用生成式人工智能服务时,必须尊重和保护学生的个人信息和隐私权。这包括但不限于,不能无理由地收集和使用学生的个人信息,不能未经允许公开或者传播学生的个人信息,不能利用生成式人工智能侵犯学生的隐私权等。如果教育机构违反了这些规定,需要负相应的法律责任。
再次,教育机构在使用生成式人工智能服务时,必须确保教育公平。这意味着,教育机构不能因为使用了生成式人工智能服务,就歧视或者忽视那些没有能力使用这种服务的学生,不能因为生成式人工智能服务的推荐结果,就偏离教育公平的原则。
根据《办法》的规定,生成式人工智能在教育中的法律责任主要有两个方面,一是对教育机构的法律责任,二是对生成式人工智能本身的法律责任。
对于教育机构来说,其法律责任主要体现在对生成式人工智能服务的合规使用和对学生权益的保护上。教育机构必须按照法规的要求,合规使用生成式人工智能服务,保护学生的学习效果和权益,防止生成式人工智能服务对学生造成负面影响。
对于生成式人工智能本身来说,其法律责任主要体现在其服务的安全可靠和公平公正上。生成式人工智能服务提供者需要保证其服务的技术可靠,内容正确,不能因为技术问题或者内容问题,对学生的学习效果或者权益造成损害。
《办法》对教育中道德倡导的影响
除了法律责任之外,《办法》对教育中的道德倡导也产生着深远的影响。法律责任针对的是行为的合规性和规范性,而道德倡导主要关注的是行为的道德性和价值取向,涉及人工智能服务在教育中的应用方式,以及人工智能服务所能展示的教育价值。
在《办法》中,有专门的章节对生成式人工智能服务在教育中的道德倡导进行了规定。综合分析,可以得到以下几个方面。
其一,对于人工智能服务的开发者和提供者,他们在设计和提供服务时,需要遵循教育的基本原则,尊重学生的人格尊严,保护学生的学习权益,防止人工智能服务被滥用或者误用。他们还需要明确人工智能服务的功能和限制,避免对其能力进行过度宣传或者误导,确保人工智能服务的透明性和公平性。
其二,对于教育机构和教师,他们在使用人工智能服务时,需要确保教育的公平性和个性化,防止人工智能服务取代人类教师的角色,影响教育的人性化。他们还需要注意对学生人工智能素养的培养,包括对人工智能的理解,对人工智能的合理使用,以及对人工智能可能带来的风险和挑战的认识。
其三,对于学生,他们在使用人工智能服务时,需要理解和接受人工智能服务的优点和缺点,正确使用人工智能服务来辅助学习,避免过度依赖或者盲目信赖人工智能服务。
《办法》对教育中的道德倡导的规定,实质上是对教育中人工智能服务的应用方式和价值取向的要求。
对于人工智能服务的开发者和提供者来说,他们需要对教育的价值和原则有深刻的理解,将这些价值和原则融入到人工智能服务的设计和提供中,使人工智能服务成为传播教育价值,实现教育目标的有效工具。
对于教育机构和教师来说,他们需要深化对人工智能服务的认识,理解其优点和缺点,合理利用人工智能服务来改进教学,同时保护和培养学生的人工智能素养,使其能在人工智能时代获得全面发展。
对于学生来说,他们需要具备正确的人工智能素养,既能利用人工智能服务来提高学习效率和效果,又能理性地对待人工智能服务,防止过度依赖或者盲目信赖。
四、《办法》的教育启示与展望
《办法》对教育领域的启示
通过深入解析《办法》及其在教育领域的应用和影响,我们可以得出一些关于教育领域中生成式人工智能的启示。
首先,教育领域人工智能的应用必须符合法规和道德规范。《办法》强调了人工智能服务的合规性和道德性,无论是在开发、使用还是管理人工智能服务,都必须遵循相关法律法规,尊重和保护用户的权益,保证人工智能服务的公平性、公正性和透明性。这对教育领域来说,意味着教育机构和教师在采用人工智能服务时,需要注意其合规性和道德性,防止人工智能服务的滥用和误用,确保人工智能服务真正服务于教育目标和教育公平。
其次,教育领域人工智能的应用需要以人为本。《办法》提出了以人为本的原则,强调人工智能服务要尊重用户的自主性,保护用户的个性化需求,避免人工智能服务取代人类的决策和判断。这对教育领域来说,提醒我们教育机构和教师在使用人工智能服务时,不能过度依赖人工智能,忽视人的因素,需要充分发挥人的主观能动性,确保教育的人性化。
最后,教育领域人工智能的应用需要培养学生的人工智能素养。《办法》明确了学生人工智能素养培养的重要性,要求教育机构和教师在使用人工智能服务时,要注意培养学生对人工智能的理解、使用和判断能力,使其能在人工智能时代胜任生活和工作。这对教育领域来说,不仅意味着教育机构和教师需要在教学过程中融入人工智能,还需要把人工智能素养作为教育的重要目标,提升学生的未来竞争力。
总的来说,《办法》对教育领域的启示,是要求我们在开发、使用和管理人工智能服务时,要坚持法规和道德规范,坚持以人为本,坚持培养学生的人工智能素养,使人工智能真正成为推动教育改革和教育公平的有力工具。
展望《办法》的未来发展
第一,法规的持续完善。随着人工智能技术的持续发展,其在教育领域的应用也日益广泛。而《办法》的出台,为这个新兴领域的发展提供了必要的法律支持和规范。然而,正如暂行办法的名称所暗示的,该政策在制定时必然无法完全预见所有可能出现的问题和挑战。因此,我们期待《办法》能够持续完善,不断更新,以适应人工智能快速发展的步伐。这需要政策制定者、学者、教育工作者和人工智能技术开发者等各方的积极参与和合作。
第二,强化监管力度和执行能力。《办法》的实施,依赖于政府部门的监管力度和执行能力。未来,我们期待相关部门能够通过设立专门的机构,建立完备的监管制度,强化对生成式人工智能服务的监督和管理,确保《办法》的执行效果。同时,也需要教育机构和人工智能技术提供者加强自我约束,积极配合政府监管,以达到良好的治理效果。
第三,加强国际合作和交流。在经济全球化的背景下,生成式人工智能技术的发展和应用不仅仅是国内的问题,也是国际的议题。《办法》的制定和实施,不仅可以为中国的人工智能教育提供引导和保障,也可以为其他国家和地区提供借鉴和参考。未来,我们期待能够通过国际合作和交流,共享政策经验,推动全球生成式人工智能服务的健康发展。
第四,深化研究,解决具体问题。对于《办法》的实施效果,需要我们深入研究,不断总结经验,找出存在的问题,并提出具体的解决方案。这不仅需要政策研究者的参与,也需要人工智能技术开发者和教育工作者的密切配合。我们期待未来能够有更多的研究成果,帮助我们更好地理解和运用《办法》。
面向未来,生成式人工智能将在教育领域发挥越来越大的作用,服务于教育,提升教育质量,缩小教育差距。这也对教育机构与服务提供商提出了更高的要求。《办法》的出台,为探索生成式人工智能在教育领域的广泛应用,提供了重要的法律依据和操作指南。我们应在未来的探索和应用中,不断完善并遵循此法规,积极推动教育领域的创新与发展。
基金项目:全国教育科学“十三五”规划2018年度国家一般课题“乡村振兴战略下西部农村教学点学生数字化学习适应性研究”(BCA180086)
来源:《中国教育网络》2023年10月刊
作者:于浩(陕西师范大学教育学部)
责编:陈永杰