智能教育时代下人工智能伦理的内涵与建构原则

作者简介:
杜静(1989- ),女,湖北武汉人,北京师范大学智慧学习研究院博士研究生,主要从事适应性学习支持服务研究,E-mail:dujing@mail.bnu.edu.cn;黄荣怀,北京师范大学智慧学习研究院,E-mail:huangrh@bnu.edu.cn;李政璇,周伟,田阳,北京师范大学智慧学习研究院。北京 100875

原文出处:
电化教育研究

内容提要:

在智能教育时代,人机如何共处是人工智能伦理建构的关键。文章首先从技术悖论视角,厘清当前人工智能应用于教育在技术滥用、数据泄露、智能教学机器的身份与权力边界等方面存在的伦理挑战与困境;其次,利用内容分析法,结合多国与国际组织政策文件,对人工智能伦理相关的伦理要素进行分析与抽取,发现政府、高校、国际组织文件中多次提到的价值、人类利益、安全、隐私、责任等关键要素;最后,基于人机共处的考量,结合人工智能在教育领域的应用现状和伦理关键要素,归纳分析出智能教育伦理需遵循的原则,包括问责原则、隐私原则、平等原则、透明原则、不伤害原则、身份认同原则、预警原则与稳定原则。


期刊代号:G1
分类名称:教育学
复印期号:2019 年 10 期

字号:

       [中图分类号]G434 [文献标志码]A

       科学技术的发展与伦理密不可分。人工智能技术带来便捷的同时,也衍生出了复杂的伦理、法律和安全问题,需要相关的规范制定者和执行者提前布局,审慎应对。在教育领域,一方面,人们期待人工智能进一步促进教育的发展,如支持个性化学习、提供教学适切服务等,且伴随着人工智能进入高中课本,中国的人工智能教育已经正式进入基础教育阶段。在人工智能技术领先的美国,从2018年秋季开始,匹兹堡蒙托学区也启动了全美第一个人工智能公立学校项目。另一方面,随着智能教育应用的广泛开展,教育工作者尝试通过“先进技术”解决教学难题,在这过程中隐含一系列伦理道德的问题,如知识产权保护、隐私泄露、学术不端等,这使人们开始反思不当使用“先进技术”会造成什么负面影响,进而衍生出“人工智能进入教育后,人机如何共存”的社会问题。国际上已经开始关注人工智能教育应用过程中存在的伦理问题,然而当前关于此领域的研究仍处在探索早期。为此,本文从技术悖论现象的视角,深度剖析人工智能应用于教育的伦理困境,结合国际案例剖析了人工智能教育应用面对的伦理挑战,并基于国内外人工智能领域伦理问题的国家政策,提出智能教育伦理建构原则,以期为人工智能教育应用和发展提供伦理依据和启发性思考。

       一、智能时代的伦理议题

       自1956年,在美国达特茅斯(Dartmouth)会议上确定人工智能(Artificial Intelligence,简称AI)这一术语,经过60多年的发展,该技术已在图像识别、机器视觉、自动驾驶、安防等领域的发展取得较大进展。在发展的过程中由于缺乏关乎伦理道德的考量,引发了一系列的问题,这使得越来越多的行业专家开始反思智能时代人机如何共处。

       伦理一词在中国最早出现在《礼记·乐记》:“凡音者,生于人心者也;乐者,通伦理者也”,译为一切音乐都产生于人的内心,乐与事物的伦理相同。乐与礼的关系,在《礼记》中指的也就是文艺与社会伦理道德的关系[1]。剑桥大学哲学词典(The Cambridge Dictionary of Philosophy)指出,“伦理”(Ethics)一词,广义上指“道德”,狭义上常被用来表示某一特定传统、群体或个人的道德原则[2]。伦理学试图通过定义诸如善与恶、对与错、美德与罪恶、正义与犯罪等概念来解决人类道德问题,常常与道德心理学、描述性伦理、价值理论等领域的研究有关[3]。综上所述,多数研究主要从政治、道德等方面探讨伦理的内涵,集中于人、社会、自然间伦理关系的阐述。因科技的进步与发展,智能机器与人类生活愈发密切,我们需要进一步审视人与智能机器的伦理关系。由此归纳在智能时代伦理的应有内涵,指在一定社会历史条件下,为解决人、社会、自然与智能机器的和谐共处问题,通过制定相关原则、标准和制度,促进人、社会、自然和智能机器的和谐共处,涉及道德、社会制度、法律等领域。伦理研究的本质应是一个不断完善的道德实践过程。

       二、技术悖论视角下人工智能应用于教育的伦理困境审视

       辩证唯物主义认识论是技术辩论的思想来源,辩证唯物主义告诉我们事物是普遍联系与存在矛盾的,看待事物的发展需要把握好两点论[4],即要同时关注事物发展过程中的正面与反面。早在19世纪中期,马克思就认识到技术悖论对人类社会产生的双面影响,他指出:“在我们这个时代,每一种事物都包含有自己的反面。我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳。技术的胜利,似乎是以道德的败坏为代价换来的。”[5]人工智能技术的发展亦符合技术悖论现象,我们必须正视人工智能为教育领域带来的种种福利,如支持个性化学习、提供学习过程适切服务、提升学业测评精准性、助力教师角色变化等[6],也不可否认在人工智能技术应用过程中由于伦理制度的缺失、公众道德素质与文化素养的不足以及政策法规的滞后与不完善等引发的伦理问题。

       (一)技术滥用引发的不端行为

       或许人工智能技术并不像人类想象的那样美好,在应用的过程中仍旧潜藏着一定的危险。在Nature评论上,2018年4月25日17位来自杜克大学、斯坦福大学、哈佛大学等诸多高校的教授和科学家联合发表文章,指出现在需要对培养人脑组织的行为作出伦理反思,并提出亟须建立伦理道德框架以应对这一难题[7]。剑桥大学、牛津大学与耶鲁大学的学者认为,在未来5到10年人工智能系统可能催生新型网络犯罪、实体攻击和政治颠覆,设计这项技术的人需要做更多的事情来降低技术被误用的风险,此外,政府必须考虑制定新的法律[8]。除此之外,技术滥用还有可能引发学术不端现象。Ikanth & Asmatulu指出,智能手机是如今最为普遍的作弊工具,大约70%的学生承认他们在考试、作业、团队任务、报告和论文的写作过程中使用各种高科技设备,比如iPad等进行过作弊行为[9]。从社会现象来看,由于目前社会对伦理问题的认知不足以及相应规范准则的缺失,设计者在开发人工智能教育产品时并不能准确预知可能存在的风险,人工智能与教育的深度融合趋势明显,必须考虑更深层的伦理问题,从而使人工智能教育应用产品的设计目标与更好地服务学习者的初衷相符。

       (二)数据泄露引发的隐私担忧

       如今教学系统功能愈发智能和丰富,不仅仅可以通过指纹、人脸、声音等生理特征识别用户身份,还能够搜集和记录环境信息。Inayay开发出可实时监控学生课堂活动的定位系统和学习行为可视化系统,并已将该系统应用于132名师生[10]。课堂环境中的温度、湿度和二氧化碳浓度严重影响了教师和学生的学习效率,并影响师生的身体健康,为此有研究者设计了一套基于蓝牙的课堂环境实时监测系统[11]。此外,还可以利用智能运动设备,如智能手环、智能肺活量等测评工具,深度采集学生健康数据,从而发现学生在体质、运动技能、健康程度等方面的问题[12]。智能系统掌握了大量的个人行为信息,如果缺乏隐私保护,就可能造成数据泄露。如果这些数据使用得当,可以提升学习服务的支持效果,但如果某用户出于某些目的非法使用行为信息,会造成隐私侵犯,甚至是违法事件。因此,设计智能系统时需要纳入隐私保护功能。

相关文章: