为生成式人工智能教育应用确立规范
随着ChatGPT的正式发布,生成式人工智能迅速受到教育领域的广泛关注。目前,国产大语言模型也纷纷亮相,颇受用户青睐。可以说,生成式人工智能已经成为一种不可逆转的技术发展潮流。一般认为,新技术对教育的影响都具有滞后性,但自生成式人工智能推出以来,对教育的影响与对生产生活的影响几乎是同步的。就此而言,生成式人工智能的教育应用问题是必须认真对待的紧迫问题。
得益于强大的文本、图像生成功能,生成式人工智能不仅能够帮助学生进行资料检索与自主学习,还能为学生提供良好的互动体验,更能协助教师提升教育教学的质量和效率。然而,生成式人工智能给教育领域带来变革机遇的同时,也给教育领域带来诚信危机、信息欺骗与隐私泄露等诸多潜在风险。今年7月,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,体现了中国政府在发展生成式人工智能方面的积极态度与责任担当。近日,联合国教科文组织发布《教育与研究领域生成式人工智能指南》,呼吁各国政府通过制定法规、培训教师等,规范生成式人工智能在教育中的应用。总体来看,该类文件不仅从技术开发者角度明确了数据处理规则与服务规范,还从技术使用者角度提供了应用措施与培训规划,更从技术监管者角度制定了分级监督和管理机制,整体上构建了生成式人工智能教育应用之路。
技术提前防范是前提。生成式人工智能对教育的根本挑战不在于前述教育诚信危机、信息欺骗风险与隐私保护问题等,而在于对学生思维培养的威胁。因此,从教育技术产品设计的角度,任何技术应用都应该进行教育化改造,并通过教育市场的准入制度进行前端防范。为此,技术研发部门有必要开发教育专用的生成式人工智能系统,改进当前的直白问答模式,根据不同学段的育人目标、认知规律,采用更加安全、科学的方式与学生进行对话交流和提问引导,降低学生的工具依赖风险。同时,这种教育专用系统可以开发多用户同步对话模式,既能促进学生的合作探究与相互引导,也能方便教师成为人机互动、人人互动的调停者与监督者。此外,技术研发部门亟须开发相应的文本、图像检测器,甄别AI生成作品和人类作品的区别,并将AI检测作为学术出版、考试评价的常规流程,抵御生成式人工智能所引发的学术伦理、作业抄袭、考试作弊等问题。
主体合理应用是关键。任何教育技术产品的应用都需要保持工具理性与价值理性的平衡和张力,既要注重教育效率和效果的提升,也要关注教育主体的内在尺度和精神存在。大多学者虽认同生成式人工智能在教育领域的合理应用而非简单屏蔽,但没有具体说明技术的应用边界。应用边界的划分是教育领域合理应用生成式人工智能的规范与保障。例如,大学生可以自主选择与决定是否使用生成式人工智能工具;在中小学领域,则需根据不同教学目标、教学任务、教学方法与学习者的具体情况,设计“建议不用”“建议合理使用”“禁止使用”等不同使用方案。尤其对于认知能力尚不成熟、无法承担法律责任的基础教育低年级学生而言,生成式人工智能的应用边界模糊且不受控制。因此,在缺乏成熟的技术防范机制或工具的情况下,禁止低年级学生使用生成式人工智能工具是必要的。当然,这并不意味着将低年级学生作为生成式人工智能的绝缘体。相反,教育者需要探索如何将生成式人工智能作为中小学信息科技教育的重要内容,让学生不仅可以体验生成式人工智能的特点、功能、优势和限制,还可以收集数据、训练人工智能模型,深度学习算法和人工智能应用,从而体悟人工智能的有限性和应用边界。同时,各地教研部门可以有针对性地加强以生成式人工智能为主题的教学教研,加强对中小学教师人工智能应用、人工智能伦理规范等主题的培训,为生成式人工智能进入课堂做好充足准备。
政府有力监管是保障。政府监管不仅能为教育主体提供生成式人工智能的应用指南与服务体系,还能为技术开发者提供生成式人工智能产品的治理规则与服务规范。高校与教育管理部门可合作研制生成式人工智能教育的应用指南,遴选优秀应用案例,鼓励创新应用,树立典型示范。还可以健全学术诚信规范、伦理规范、考试管理等教育管理制度,将人工智能技术应用纳入教育督导与教育法规体系,成为教育治理体系的一个有机组成部分,规避技术滥用带来的潜在风险。
总之,面对生成式人工智能在教育领域引起的轰动效应,我们既要客观正视其核心价值,也要审慎看待其潜在风险。未来,中小学校、高校、教育管理部门以及技术研发部门等应遵守“防范—应用—监管”三位一体原则,持续加强合作,共同致力于生成式人工智能的健康发展与规范应用。
(作者钟柏昌系华南师范大学教育信息技术学院教授)
《中国教育报》2023年09月22日第2版
本文版权归教育教学论坛杂志社及本文作者所有,未经同意,不得转载! ——《教育教学论坛》查稿电话:0311-85178286
- 上一篇:成长,在“行走的大课堂” 2023/9/25
- 下一篇:我国各学科最具影响力期刊论文数量首居世界第一 2023/9/25