您现在的位置:首页/教育动态

热门话题 || 人工智能教育应用的伦理风险和规范原则

作者:     发布时间:2024-11-25    浏览次数:76  

人工智能教育应用的伦理风险和规范原则


作者信息

杨俊锋/杭州师范大学经亨颐教育学院教育技术系教授,婴幼儿发展与托育实验室博士生导师,教育部教育信息化战略研究基地副主任,本文通讯作者;

褚娟/西北师范大学教育技术学院博士研究生。

本文摘要

随着人工智能在教育领域的应用日益深入,其对教育发展的影响也日渐深刻。然而,随之而来的伦理风险防控也日趋迫切,出现了隐私泄漏、算法偏见以及师生关系异化等问题。文章从人工智能应用的全生命周期出发,对数据、算法和应用三层面的伦理风险及其成因进行全面分析,提出了人工智能教育应用的伦理规范原则:隐私保护与安全稳健,透明可释与算法公正,公平全纳与相称无害,问责监督、可持续发展和以人为本。最后以教育人工智能伦理原则为遵循,从教育人工智能数据风险的规避、算法风险的预防、应用风险的消解,提出符合伦理的人工智能教育应用策略。

以人工智能技术赋能教育变革,促进教育优质均衡发展,培养适应未来社会的高素质人才,已经成为全球共识。但人工智能教育应用的伦理问题也日益凸显,如师生的信息安全、数据隐私、价值偏颇等问题已然出现。如何有效规避人工智能技术与教育融合创生中的伦理风险,发展可信赖与合乎伦理的人工智能教育应用成为重要的时代命题。

迄今为止,超过50个国家、国际组织及私营部门相继发布了265份人工智能伦理治理文件,对人工智能伦理问题设立了“制定伦理框架和伦理规范”“强调伦理原则”“将伦理道德融入人工智能全生命周期”和“完善人工智能伦理准则、规范及问责机制”等措施。虽然国内外发布了许多政策文件以规范人工智能使用,然而关于教育的较少;虽然人工智能教育应用伦理风险有所涉及,然而关于其背后的成因研究较少;虽然人工智能伦理原则的探讨热烈,然而教育领域的有针对性的人工智能伦理规范原则仍然缺失,如何将其转化为实践操作仍不清晰。

因此,本文从隐私泄露、数据安全、算法偏见等现实问题出发,以全球265份文件的系统性综述结果为依据,承袭趋同性教育人工智能需遵循的原则,探讨人工智能教育应用的伦理风险及其成因,分析伦理风险防范原则,提出具体的应用策略,以促进绿色健康、安全稳健的人工智能教育应用。

一、人工智能教育应用的伦理风险

自1956年约翰·麦卡锡等学者于达特茅斯会议确定“人工智能”这一术语至今,就一直存在着人们对其惊叹和担忧的双重声音。一方面,人们为人工智能所引发的变革感到惊叹;另一方面,又对其所产生的伦理风险担忧害怕。

人工智能技术正加速教育系统变革,例如精准化教育治理、教师适应性专业发展、学生个性化学习等。具体来说,人工智能技术的应用促进了教育治理的精准化,为利益相关者提供了便捷的服务;人工智能教育应用促进了教师发展,在替代教师部分“机械重复”工作的同时,使之一定程度上从重复劳动中解放了出来;此外人工智能技术的应用支持学生的个性化学习、提升学业测评的精准性、融合多学科领域以促进学生成长。但是与此同时,人工智能的教育应用冲击和改变了整个教育生态系统和教育秩序,尤其是人文价值、教育中的人伦关系、教育结构和教育价值等诸多方面,加之,人工智能本身由于缺乏有效的技术标准、合理的伦理限度及“强制性”法律手段加以规约,引发的伦理争议制约了教育的可持续发展,产生了隐私泄漏、信息茧房、价值偏颇等伦理风险,主要体现在数据、算法和应用三层面。

数据层面的伦理风险主要有用户隐私被侵犯、数据不安全、自由被抑制等;算法层面的伦理风险主要体现为因算法模型的简约化导致教育有被形式化的风险,因算法黑箱可能导致学习被算法控制的风险,因算法偏见可能加剧教育不公平等;应用层面的伦理风险主要包括技术的不恰当使用可能会使人丧失独立性与自主性、人的异化、教师同质化、学生个性化发展被抑制、拉大“数字鸿沟”、边缘化弱势学生、愈发教育不公平等风险。

当前,对伦理风险的认识不足且学界大多处于原则探讨阶段,规范性的行为准则或标准指南尚处于空白之中。智能时代,人工智能与教育融合之势不可阻挡。为更好地促进人工智能与教育的深度融合,必须对人工智能教育应用的伦理风险成因进行深度剖析,促进人工智能教育应用更好服务师生。

二、人工智能教育应用的伦理风险成因分析

从人工智能的生命周期入手,全面分解人工智能教育应用的可能风险点,并对可能产生的风险根源进行探讨,是促进可信人工智能教育应用的基础。下文从人工智能开发和应用的核心环节,即数据、算法和应用的生命周期的角度,深度剖析可能的风险及成因。

(一)从数据生命周期看伦理风险成因

数据生命周期,包括数据收集、数据处理、数据储存等阶段,针对每个阶段可能产生的伦理风险进行成因分析是解决数据层面伦理问题的基础。

在数据收集阶段,伦理风险主要来源于数据的过分收集和收集目的不透明。数据的过分收集指的是在学生生活和学习中,采用人工智能工具后,会产生大量数据,而这些数据对于许多组织和企业来说具有重要的商业价值,如果收集数据类别和数量的限度不明确、敏感数据被泄露,学生隐私权可能会受到侵犯,极易产生伦理问题。数据收集目的不透明指的是学生和教师不清楚数据收集的目的或方式,应用可能通过用户看不到的方式收集学生的学习数据、上网行为、内容偏好等,但未征得知情同意。虽然某些应用可能提供了数据使用协议,但其内容长而复杂,普通用户难以完全理解数据收集的目的和方式,容易产生略过心理而盲点“我同意”,导致师生的知情同意权难以被有效保护。

在数据处理阶段,伦理风险主要来源于数据传输的安全和数据脱敏的彻底与否。数据收集后,将会在各个系统或节点之间进行传输和处理,如果传输过程中的数据安全性得不到保障,就可能导致数据被截取或窃取,会使数据的安全性存在潜在威胁,导致学生的敏感信息遭到泄露。这种风险的存在,不仅侵犯了学生的隐私权,也可能对在线教育平台的声誉和信誉造成严重损害,削弱人对机器的信任感。另外,对数据脱敏(即去除数据中的敏感信息)标准的误解、执行和操作不当亦会造成伦理风险。在处理个人数据时,如果处理人员仅仅简单地移除直接标识信息,比如姓名和身份证号,却忽视了如住址、电话号码、邮件地址等间接标识信息,那么这可能导致处理后的数据仍然包含可以识别的个人信息,由此个人隐私存在潜在威胁。

在数据存储阶段,伦理风险主要来源于存储的安全性问题和持久性问题。一方面,数据安全性涵盖了数据加密、访问控制以及数据中心的物理安全等多个层面。教育机构和在线教育平台拥有大量的学生数据,即使在数据处理阶段已经进行了去标识化处理,但数据在存储阶段的安全性仍得不到保证。如果未对数据实施恰当的加密处理,或者未对数据访问权限设置严格的控制规则,数据的安全性就有可能受到损害。此外,对数据中心的物理安全也需要引起关注,如防火、防洪和防盗等,这些灾难性事件可能会导致数据的丢失或损坏,对数据的完整性和可用性造成破坏。另一方面,数据持久性则涉及数据的保留期限和销毁方式等问题。在教育环境下,一些教育机构可能会长期存储学生的学习记录、成绩和行为等信息。虽然这些数据已经进行了去标识化处理,但只要数据存在,就有可能发生滥用的风险。对于某些高度敏感的数据,需要考虑设置明确的保留期限,并在期限截止后对数据进行彻底销毁,以避免数据长期存在而产生滥用。数据的销毁也可能产生伦理问题,如果数据销毁不彻底,将存在被不法分子恢复的险境,威胁学生的隐私权。如果数据的销毁时间过早或者过晚,都可能会对学生的权益产生不利影响。因此,在处理学生数据的持久性问题时,教育机构应尽量确保处理过程的公平和透明。

(二)从算法生命周期看伦理风险成因

算法生命周期,包括问题理解阶段、建模阶段、算法设计等阶段。厘清每个阶段背后可能存在的伦理风险,分析其背后的成因,是算法有效服务教育的根本。

理解问题阶段,可能存在的伦理风险主要是偏见,如移植偏见、社会历史偏见、人口偏见等。移植偏见,即移植其他行业的代码,未考虑教育的特殊性而导致对学生群体的特点及规律考虑不足;社会历史偏见,如受男生擅长理科等观念影响,开发人员将自己的主观判断和价值理解赋予算法设计中;人口偏见,指样本代表性不足,导致基于预训练数据的生成算法只适用于部分学生群体。算法是设计者主观世界的映射,在某种程度上反映了设计者的教育理念。理论上来说,理解问题阶段的偏见是可以避免的,但需要算法设计者学习相关教育知识,具备基本的教育素养,与教育工作者协同合作,从理解教育问题上为算法设计开好头。

建模阶段,需要把现实问题转化为数学问题,即确定教育问题中的关键因素,并用计算表达因素之间的关系。这期间可能出现的伦理风险主要有:因素众多无法全部考虑且量化、因素间关系难以用线性简单代替、因素选取主观性较大。因素众多无法全部考虑且量化主要源于现实中教育问题背后的影响因素众多,包含家庭、学校、社会等多个方面,且多方因素存在叠加现象,很难把众多因素都考虑在内。此外,某些重要因素无法被量化,如学生的微表情等,模型无法准确提取这部分要素的特征,建模过程中只能舍弃这些要素,导致个性化信息无法被全部覆盖,因材施教、个性化学习会因要素不全而受到冲击;同时,要素缺少也会使要素之间关系遭到破坏,导致建模不准确。因素间关系难以用线性简单代替意为教育中没有数学公式,因素之间存在的不一定是函数关系,建模难度大,若一味追求线性关系,会使教育失去人文色彩,走上“唯数字化”的迷途。因素选取主观性较大指技术人员在确定教育问题中的变量时会受自身专业的限制,导致所选取的重要因素的科学性与准确性难以保证。所以建模阶段教育工作者的深度参与至关重要,只有教育工作者与技术人员共同理解教育问题,提取核心要素,并明确之间的关系,用数学符号构建出的计算模型才是真正能够解决教育问题的计算模型。

设计阶段,可能出现的伦理问题有教育流程固定僵硬、训练数据恶意破坏、评估偏见、利益冲突等。教育流程固定僵硬指算法有明确步骤、有确定分支,但教育中很多问题没有固定的解决方法,分类时也不能一刀切,纯流程化的思维会使教育问题简化,解决步骤固定化,使教育流于形式而难以触及育人教育本质。数据是算法的核心,算法以大量训练数据为基础,训练数据恶意破坏指的是若将不良数据注入训练数据集中,将导致训练出的模型边界偏移、精度降低。评估偏见,即开发者评估自己开发的算法是正确的,盲目主观自信而忽略客观合理性,这种自证的方式是缺乏公信力的,需要实施第三方评估。利益冲突亦即算法研发公司以及购买企业常常过分关注自身利益,过分注重分析算法的占用空间和执行时间,甚至部分公司会因自身利益而故意压缩算法模型,导致模型精确度可能会降低。

(三)从具体应用场景看伦理风险成因

人工智能教育应用的场景包括教、学、管、评、研等,梳理应用过程中可能的伦理风险及其成因,是推动合乎伦理的人工智能教育应用的关键。

在人工智能应用于教学的过程中,可能存在教师专业技能退化、人文关怀缺失、教育不公平和数字使用鸿沟加剧等潜在风险。首先,教师若过度依赖人工智能,依托ChatGPT等生成教学内容和教学策略,缺少对教学内容的正确性把控和艺术性设计,可能会导致教师的教学专业技能退化,同质化发展的同时,教学设计、上课风格高度相似,失去教学个性。其次,“师-机-生”三元关系中,教师若过分依赖人工智能作出决策,将学生数据化、标签化,会导致教育中人文、情感关怀缺失。教师若拒绝或逃避使用人工智能,学生将难以享受人工智能的福利,造成人工智能使用鸿沟,产生新的教育不公平。除此之外,目前主流的人工智能工具对弱势学生的关注较少,导致孤独症等特殊儿童及残疾人群被边缘化,某些农村和偏远地区的基础设施不足会使人工智能技术使用存在障碍,导致数字设备鸿沟和数字使用鸿沟的加剧。

在学习场景中,可能存在的伦理风险包括学生学习能动性下降、高阶思维受损等。学生若过分依赖拍照搜题软件或生成式人工智能生成的内容,缺少对其提供的大量知识和信息的批判性思考,有可能会降低主观能动性,削弱学习成就。学校与教师若未及时察觉、提早干预与正确引导,学生的创新性思维、批判性思维、独立解决问题的能力均可能会受到不同程度的损害,受到误导的学生可能会与其他同学拉开差距,产生“马太效应”,加剧教育不公平。

在学生管理与评价场景中,可能存在师生关系不和谐、评价不公正等风险。智能系统会根据学生学习、身体及日常表现等对学生作出分析,但由于算法不透明,教师很难知道人工智能对学生作出预测、评价的依据,同时,人工智能对学生的行为分析或趋势预测仅是对数据的可能性分析,转换为必然性只是概率问题,教师若过于相信人工智能的决策结果,而缺乏自己的判断,极易对学生作出不恰当的评价,不利于学生的全面发展,还会使师生关系陷入不和谐的僵局中。除此之外,部分学生使用以ChatGPT为代表的生成式人工智能完成作业,教师难以准确评估学生知识掌握情况,无法对学生的学习情况及时作出查漏补缺指导。

在研究场景中,学生若为追求效率、快速产出成果而使用ChatGPT等生成性人工智能文本,可能会产生剽窃、抄袭等学术不端问题。首先,这样的行为会对学生个人的科研思维能力造成损害,削弱自身的研究能力,不利于学术研究精神的培养。其次,使用生成式人工智能文本不利于学术领域的知识积累和创新,也可能对学术界的公正和公信力产生负面影响。最后,这可能会加深出版社对研究者的怀疑,甚至普通大众对学术界产生不信任。在这种不信任感的笼罩下,学者们需要付出更多的努力来证明自己研究成果的真实可靠,反而使科研压力增加笼罩于“减压”的迷雾之中。

三、人工智能教育应用伦理风险的防范原则

人工智能教育应用过程中出现的伦理问题引起了政策制定者和研究者的广泛关注。国际组织方面发布了治理政策文件及评估清单。学术界主要从人工智能教育伦理原则的“应然性”作出了探讨。然而,人工智能教育应用伦理尚未形成统一共识,具体内涵仍不明晰且缺失具有教育特点的描述性解释,并且如何转化为实践犹未可知。

笔者通过对全球265份文件的系统性综述,结合人工智能教育应用过程中数据、算法和应用三方面的伦理风险,立足风险成因分析,提出了隐私保护与安全稳健,透明可释与算法公正,公平全纳与相称无害,问责监督、可持续发展和以人为本的教育人工智能伦理原则,如图1所示。

艾肯等研究者2000年提出了人工智能教育应用需遵循消极元原则和积极元原则,即人工智能教育应用不应削弱,而是至少增强学习者的任一方面。两条元原则可以作为应对人工智能教育应用伦理原则的基础原则,检视人工智能应用于教育场景的合理性。

以消极元原则和积极元原则为基础,以隐私保护和安全稳健为抓手规范数据伦理风险,以透明可释和算法公正为限制应对算法伦理风险,以公平全纳和相称无害为制约消解应用风险,以问责监督、可持续发展和以人为本为贯穿融入教育人工智能治理全过程,有助于更好应对伦理风险,推动人工智能技术与教育的深度融合。值得指出的是,本研究提出的教育人工智能伦理原则涉及数据、算法、应用和治理,而这些不是一一对应的关系,而是相互交叉和重叠的。

(一)隐私保护与安全稳健

隐私保护原则旨在规范数据收集、处理、储存等阶段可能存在的风险,安全稳健旨在确保数据不被滥用,系统能够抵御漏洞和恶意攻击,使决策结果尽可能准确、可靠和可重复。因此,隐私保护是指在将人工智能应用于教育教学过程中,需保障各利益主体(包括教师、家长、学生等)的权利受到尊重、保护和促进,并且整个数据生命周期在尊重国家、区域和国际法律框架的前提下,教育机构能够采取措施防止利益主体的隐私数据被泄露、隐私权利被破坏。安全稳健是指需要解决技术漏洞和数据滥用风险,并抵御外部攻击,确保系统本身及决策结果的安全性,以应对有害、不准确、不可靠和不可重复的内容和资源。

(二)透明可释与算法公正

透明可释与算法公正主要用来应对算法生命周期中问题理解、建模、设计等阶段的风险。透明可释旨在确保教育工作者了解人工智能系统是如何作出决策的,以及他们何时与人工智能系统交互,并且教育机构需要对整个应用过程作出清晰的全过程记录,以确保人工智能系统在教育应用中能够发挥预期价值,加深“人-机”之间的信任度。算法公正是指在人工智能系统开发之初,供应商应向教育机构确保训练数据本身具备代表性、无偏见性和真实准确性,并提供相应证明,此外在教育应用过程中各利益主体应当正视算法歧视并采取应对措施。

(三)公平全纳与相称无害

公平全纳与相称无害主要用来消解教、学、管、评、研等人工智能教育应用场景中的伦理风险。公平全纳指人工智能产品应该满足不同学习者的多元需求,促进教育公平,并且不能歧视任何一位学习者,包括:其一,确保人工智能产品在设计时考虑到公平性和包容性,最大限度地减少教育实践中的偏见程度,同时支持更公平地分配教育资源和成果,为多元化和包容性社会的发展服务;其二,保证每个学习者都能获得优质教育,无论其社会经济地位、民族、种族、语言、性别或任何其他个人特征如何。相称无害指人工智能产品使用需契合明确且符合预期的教育目标,不同产品、同一产品的不同功能应该和教育目标是一一对应的,保障人工智能产品在教育中的有益无害,防止损害学习者身心健康。

(四)问责监督、可持续发展和以人为本

在人工智能教育应用过程中,严格遵循以上原则能够很大程度上确保数据、算法和应用层面的伦理风险得到有效规制。然而,在对人工智能教育应用伦理进行整体规范治理时,还需要考虑问责监督、可持续发展和以人为本原则。在人工智能教育应用过程中,问责监督指教育机构在应用人工智能时需具备完善的问责机制和监管制度,明确确立负责主体,并且采取措施保障问责监督。可持续发展是指人工智能在教育应用过程中应确保社会、经济等方面的可持续发展,并且教育机构也应采取相应实践行为切实保障可持续发展目标的有效实现。以人为本是指人工智能在教育应用过程中需保护人的尊严、主张人的自由、增强人的福祉,一切均以人的发展为核心。

细究之,隐私保护、安全稳健、透明可释、算法公正、公平全纳、相称无害主要是人工智能教育应用过程中数据、算法和应用三层面应遵循的伦理原则,有助于尽早防范伦理风险的发生,并对所发生的伦理风险作出及时补救。问责监督、可持续发展和以人为本为价值导向审视平衡冲突的天平应该偏向何方。总的来说,在教育中应用人工智能技术需在不削弱和至少增强学习者某一方面的基础上,严格将隐私保护、安全稳健,透明可释、算法公正,公平全纳、相称无害,问责监督、可持续发展和以人为本作为事前、事中和事后的伦理规范原则,促进人工智能教育应用的绿色、健康发展。

四、符合伦理的人工智能教育应用策略

通过正确认识和规范人工智能教育风险能够在降低风险的同时全面赋能教育教学变革。从数据、算法、应用三大维度出发审视并规约教育人工智能伦理风险,可有效促进人工智能在教育领域中合乎伦理且可信的应用。

(一)教育人工智能数据风险的规避

数据正替代土地、劳动力、资本、技术等老一代生产要素,成为数字时代的基础性战略资源和革命性关键要素,加强教育数据安全保护刻不容缓。可从数据收集、储存、处理和管理生命周期出发,将隐私保护和安全稳健两大应然性原则转化为实然性规范,以规避数据层面的教育人工智能伦理风险。

数据收集包括训练数据和用户使用数据的收集,涉及设计开发人员和使用者两大群体。一方面,设计开发人员在训练数据阶段,需保证收集的训练数据来源真实、准确、无偏见且具有代表性。另一方面,在收集使用者的数据时,收集主体应严格遵循国家和教育部颁布的相关标准,确保收集客体的知情同意,明确不必要的数据(主要指个人敏感信息)应不予收集,若必须收集此类数据,需严格按照无条件共享、有条件共享和不予共享数据三种标准对其进行存储,而且数据储存过程中,教育机构必须确保对数据加密,包括使用匿名化、去标识化、差分隐私等方式,安全存储和共享数据,保护数据免受意想不到的损害和恶意攻击。数据处理阶段的规范包括保证数据传输过程的安全和数据脱敏的彻底。为保护数据传输过程安全,需从数据传输加密、端点安全和访问控制等方面实施规范行为。为保证数据脱敏的彻底处理,数据处理人员需明确数据脱敏的需求和规则,知道哪些数据属于敏感数据,如何对其进行脱敏处理,数据的敏感程度不同可能采取的脱敏处理程度也不同。

数据管理阶段的规范指人工智能教育应用需遵循统一数据收集标准、完善处理规范和建立相关制度标准,包括以国家、省、地区为主体而作出对相关法律法规、政策和标准的顶层设计以及以数据管理相关人员为客体作出自我行为规范。一方面、国家、省、地区作为主体需要对法律法规、政策和标准作出顶层设计。国际上欧盟发布的通用数据保护条例,美国发布的《家庭教育权利和隐私权法案》,我国已发布的法律法规及各行业发布的行业标准,如《中华人民共和国数据安全法》《教育部机关及直属事业单位教育数据管理办法》等均具参考价值。教育领域需在结合相应法律法规和行业标准的基础上,考虑教育本身的特点,而制定统一的数据收集标准、完善处理数据规范和建立制度标准。另一方面,数据管理相关人员作为客体需作出自我行为规范。其一,教育部门需加强对数据管理人员的培训,渐进更新他们的数据管理能力,规范数据采集、存储和管理。其二,数据管理人员需作为“守门人”,严格遵守数据收集标准、处理规范和制度标准,守好学生、教师、家长等利益相关者的数据“球门”。

(二)教育人工智能算法风险的预防

算法作为技术人造物的“生命体”,是人工智能三大核心构成要素之一,加强对算法的规范治理责无旁贷。为防范算法层面的人工智能教育应用伦理风险,透明可释和算法公正两大应然性原则的实践转化可作为强有力保障。

可通过增强人工智能系统的可追溯性、可解释性和可沟通性而增强人工智能系统的透明可释。其一,可追溯性意味着教育主管部门需要建立统一的人工智能系统使用记录,并敦促各级下属部门,建立完备的人工智能系统使用记录登记档案,包括数据收集、增加、修改、删除、查询等全过程,并生成对全过程使用记录的资料包,以供后续督查。其二,可解释性指教育工作者知道人工智能系统背后应用的算法及其工作原理,理解人工智能系统的决策方式。为此,产品供应商需向教育工作者开展培训,包括澄明人工智能系统如何作出决策、如何结合决策结果对学习者作出合理指导,给予及时干预,开展科学评价等。其三,可沟通性意为人与机之间的可沟通,供应商应该告诉产品使用者(教师、教育管理者、学生、家长等)其人工智能系统的特性,以使他们在与AI系统交互时,避免误将机器等同于人而导致人机之间关系的异化。

为消解算法本身的歧视与偏见,可从训练数据来源、设计开发人员背景、教师参与算法设计开发三方面作出规制。其一,训练数据是算法模型构建的基石,为化解偏见进、偏见出的难题,设计开发人员需要确保收集的训练数据来源真实、准确、无偏见且具有代表性。其二,设计开发人员的多学科背景有助于设计开发出更符合教育要求的人工智能系统。其三,如果教育工作者(尤指教师)能够参与到人工智能系统设计开发过程中,敦促人工智能系统的迭代升级完善,就能够设计开发出更贴合教育要求、符合教育规律、满足学科需求、适应学生发展的系统。

(三)教育人工智能应用风险的消解

为消解人工智能教育应用伦理风险,需识别教育人工智能伦理风险、划分教育人工智能伦理风险层级、制定教育人工智能伦理标准、培养利益相关者(教师、家长、学生等)的人工智能伦理素养。识别教育人工智能伦理风险,是教育人工智能伦理风险消解的必要前提。因为不见得所有在教育中应用人工智能技术而引发的问题都是伦理问题,深刻认识教育人工智能风险有助于针对性地规范人工智能技术在教育中的应用。为识别教育人工智能伦理风险,可从规范伦理理论出发,探寻风险识别方法,构建风险识别框架。划分教育人工智能伦理风险层级,是教育人工智能伦理风险消解的基础。伦理风险是有层级之分的,正如事有轻重缓急一般,教育人工智能伦理风险消解也是有先后次序的。“硬风险”需要国家强制力支持和保证其实施,需要借助法律手段强力捍卫,相比之下,“软风险”是一种弹性风险且处于不断形成中。对于较小且可以容忍的风险,可以允许其存在并对其不予限制;对于中低级别的风险,需要进行一定程度的人为干预和限制;对于中高级别的风险,需要多方主体进行干预和控制;对于高级别的风险,即“硬风险”,需要法律的强制规约和限制。

制定教育人工智能伦理标准,是教育人工智能伦理风险消解的必要保障。需要开发人工智能技术在教育领域的应用标准,构建技术规范使用指南,开发出适用于学校和其他教育机构的自评清单,建立完善的技术评估和管理机制,以确保实施合乎伦理的教育人工智能。培养利益相关者人工智能伦理素养,是教育人工智能伦理风险消解的接续动力。教育活动开展过程中可以为教师、学生、家长等教授人工智能伦理相关知识与技能,反过来,具备人工智能伦理相关知识与技能的教师、学生或家长又能够反向赋能合乎伦理的教育人工智能。因此,社会需向所有公民普及人工智能伦理知识与技能,教育部门需要定期组织面向教育工作者的人工智能伦理素养培训项目,学校也应在人才培养计划和课程目标中融入面向学生的人工智能伦理素养教育,教师应向家长告知教育人工智能伦理危害及防范常识,全方位提升我国公民人工智能伦理素养。

五、结语与展望

人工智能教育应用越来越广泛,人机协同教学趋势越来越明显,教育的变革进程越来越加剧,然而随之而来的应用过程中的伦理问题也越来越突出。对教育人工智能伦理风险的防范有助于人工智能技术更好地服务于教育,在教学、学习、管理、考试、评价、研究等方面推动效率和效能提升,提高教育质量、促进教育公平和推动终身学习。遵循隐私保护与安全稳健,透明可释与算法公正,公平全纳与相称无害,问责监督、可持续发展和以人为本原则有助于规避教育人工智能伦理风险,确保人工智能技术在不削弱教与学任一方面的同时,并至少增强某一方面。

(本文编辑:吕允英)

本文刊登于《中国教育学刊》2024年第十一期,平台发表内容以正式出版物为准,图片来源于包图网,仅作分享交流用。著作权归原作者所有,若转载请按以下格式注明来源↓↓↓

本文转自微信公众号“中国教育学刊(ID:zgjyxk)‘’