近年来,以OpenAI的ChatGPT为代表的大语言模型迅速发展,在各行各业衍生出了以大量典型的实用化应用,相比早期的自然语言处理工具,大语言模型具有更强大的自然语言处理能力,不仅能够识别语义信息,还能理解上下文关联,进行多轮对话。这使其能够以近似人类的方式进行交互,理解并回答提问者的问题。同时大语言模型具备海量知识库,其训练用的语料涵盖了维基百科、文学作品、论坛对话等各类文本数据,知识容量巨大,这为其提供了充分的知识来源,可以就多种领域的问题给出解答。目前在教育领域,大语言模型主要用于个性化的知识讲解,教学文案生成,教学评估与反馈等,在降低教师负担的同时,其新颖的人机交互形式也可以提高学生的学习兴趣和参与度。
大语言模型在思政教育方面的应用及风险
在思想政治教育方面,同样面临其带来的冲击和变革。值得注意的是,大语言模型作为一种新兴技术,其应用既存在机遇也潜藏风险。
从积极层面看,大语言模型技术具有语义分析和知识输出能力,可以实现对学生需求的精准把握和个性化回应,这为思想政治教育提供了实现“因材施教”的可能性。同时,大语言模型可以通过辅助教案准备、自动生成测试题目、批改作业等方式帮助教师减轻重复劳动,提高教学效率。但是,我们也要清醒地看到,直接应用大语言模型进行思想政治教育存在一定风险。其训练所用的海量数据中可能存在错误知识、负面内容,这些元素都可能被编码在模型参数中,其输出可能会引导学生产生价值观念的偏差。依赖大语言模型的思想政治教育也会削弱学生的独立思考能力,模型生成的内容往往更具形式化逻辑性,但缺乏真正的价值引领作用。此外,过度依赖大语言模型会侵蚀教师的主体地位,教师有可能陷入被动回复的局面。总体来说,大语言模型启发了思想政治教育变革的可能,但应用过程中需要警惕其技术局限性,不能直接等同于教师的引领作用,必须防范其负面影响,真正服务于学生全面发展的根本目的。
大语言模型的局限性根源分析
从技术上看,大语言模型在思政教育方面的局限性来自于以下几个方面:
一是大语言模型的数据来源存在问题。现有可供训练大语言模型的公开语料数据,很大一部分来自互联网等渠道,ChatGPT的训练数据绝大部分和GPT-3是相同的,而据统计GPT-3的训练数据中,英文占比超过92%,拥有绝对优势,其他语言占比极低,中文占比不到1%,因此训练数据可能包含不符合主流意识形态和价值取向的内容。此外,现有数据对主流意识形态阐释不够充分,理论联系实际的案例较少,也会弱化模型对正确价值观的判断。
二是训练方法的局限性。大语言模型本质上仍然是一个概率模型,在学习过程中并不会对数据进行价值上的筛选,一旦训练过程中权重错误知识的比例较大,就会影响模型的知识结构和价值判断。当前大语言模型训练还无法达到真正理解知识内涵的效果。
三是人为治理不足。大语言模型技术快速发展,相关的应用治理措施与法规还不够完善,模型开发企业和使用方的自律性有待加强。对一些可能引发问题的模型应用,目前还缺少相关技术限制和行为规范,使用时还需进一步完善相应监管。
从思政教育角度对大语言模型发展的建议
为了避免上述风险,需要从多个方面入手,强化大语言模型应用于思想政治教育的效果。
(1)在思政教育中,明确大语言模型是一个辅助工具,不能替代教师主体地位。教师需要保持清醒认知,了解其风险,合理应用。完善应用规范,防止过度依赖和不当使用。
(2)从基础科研、知识版权等方面支持领先的科技公司改进大语言模型的算法技术,提升其对世界知识理解的准确性,开放模型运行查询接口,使教育工作者能够查询其内部知识图谱,了解知识来源。
(3)加速相关法规制定,构建应用治理框架,积极参与国际大语言模型治理的标准制定。如建立大语言模型应用的法规条例,明确技术开发和应用的底线原则。成立约束性规章制度,要求开发商和应用方建立内容审核等制度化流程,防止内容偏差。加快人工智能伦理治理立法,为大语言模型应用划定红线。
总结
随着技术爆炸式的发展,大语言模型的广泛应用已经是必然趋势。出于对行业知识专业性的要求,已经有很多公司在构建面向不同行业的大语言模型或多模态模型,未来也有可能会出现根据实时数据即时更新的大语言模型,因此,在对大语言模型的治理上,要有超前的思考和行动。在充分利用大语言模型为思想政治教育赋能的同时,也要对其能力边界及风险有足够的认识,通过完善数据建设、设置输出审核、划清定位边界、增强透明度、建立法规治理等举措,可以在发挥其技术优势的基础上,有效规避其负面影响,促进思想政治教育的健康发展。这需要技术企业、政府管理部门、教育工作者等多方协同努力,共同推进人工智能在教育领域的深度融合应用。
作者:刘璇 北京化工大学文法学院