首页 > 智慧教育 > 正文

AI技术是“潘多拉盒子”?探讨AI教育的伦理问题

2017-09-08 09:52:17  来源:亿欧网

摘要:一些科学界人士担心AI是个“潘多拉盒子”,会导致危险的后果。但在我们太过担忧之前,需要说明一下人工智能当前的水平。如果实现,首先“全能AI”必须实现重大进展,即可以AI机器人可以成功胜任所有人类胜任的智能任务。
关键词: AI 教育
\
  AI会取代人类吗?
 
  一些科学界人士担心AI是个“潘多拉盒子”,会导致危险的后果。早在1993年,计算机科学家Vernon Vinge推广了技术新概念:AI驱动的计算机或机器人能重新设计并改进自身,或者能设计比自身更先进的AI。自然有人认为,这将导致AI超出人类智慧、理解和控制,从而导致人类时代的终结。近来,史蒂芬·霍金和其他权威科学家,包括Stuart Russell,Max Tegmark,和Frank Wilczek同样警告过,AI太过“聪明”的潜在后果。
 
  这个令人忧虑的想法给好莱坞电影提供了素材,从60年代的《2001太空漫游》,到80年代的《终结者》系列及近期的《超验骇客》,所有电影都选择描述各种失去控制的AI主导的反乌托邦世界。
 
  但在我们太过担忧之前,需要说明一下人工智能当前的水平。如果实现,首先“全能AI”必须实现重大进展,即可以AI机器人可以成功胜任所有人类胜任的智能任务。而现在,该AI技术根本还未实现。通用AI不同于我们大多数人熟悉的“领域特定AI”。这些领域特定AI专注于一件事情——例如,掌握国际象棋(Deep Blue或Giraffe),或者Go(谷歌的Deep Mind)、驾驶汽车(谷歌的自动驾驶)、或护照照片人脸识别。即使是知名的AI倡导者也认为,Vernon Vinge提出的新观点在未来某天终会到来,通常在他们写出程序后的三十年左右。
 
  然而,AI越来越发达,它已经对我们的经济产生了深远影响。在2013年的一项研究中,经济学家Frey和Osborne使用AI技术探索自动化对职业影响的研究。基于他们的预测,美国职场上约47%的职位面临极大的风险,可能在接下来的十年或二十年将会被机器取代。迄今为止,中等收入职位受到的影响最大,也体现了当下最易受自动化影响的工作内容。
 
  对于过去经济发展过程中出现的重大变革(例如,从农业为主的经济转变成工业经济),人们通过改变教育和学习的范围和内容逐渐适应。这种观点是,如果“工人有灵活的技能,如果教育基础设施得到充分发展,那么...技术和教育之间的竞争没有胜利者,成果将会被更多人共享”。
 
  在快速发展的AI面前,这种方法是否适用值得商榷。历史证明,技术的改变通常会带来很多无法预料的新角色。而其他人,如Martin Ford认为随着自动化承接越来越复杂的任务,工作机会会减少,无法保持当前的就业率。
 
  AIEd的伦理问题
 
  人工智能(AI)的发展正在加速,渗透到我们生活的每一方面。问题在于,我们是否已准备好可控制的情况下让此发生?正如牛津大学的哲学家Nick Bostrum所论述的,需特别谨慎地关注AI的伦理问题:“责任、透明性、可审计性、防破坏性、可预测性(...);必须在旨在取代人类社会功能判断的算法中考虑这些标准”。
 
  例如,如果AI“出错”(比如,可参见2010年金融界“闪电崩盘”事件中算法起到的作用)由谁来承担责任,是最终用户还是程序员?如果交通事故涉及自动驾驶车辆,该怎么处理?能否知晓它是如何做出决定并对其进行修正来防止问题的?如果AI使用的是神经网络,这已变得非常困难。而且,AI是否开放操控?我们都非常清楚电脑黑客行为的后果。如果出于犯罪目的开发或修改AI,会发生什么?
 
  对于AIEd,同样存在这些伦理问题。例如,我们知道共享数据对AIEd系统的集成至关重要,而且,匿名化数据的共享,通过削减浪费、重复性工作,可促成该领域的飞跃式进步。但这种共享带来了从个人隐私到专有知识产权的大量问题。的确,AIEd系统所生成的数据越来越多,同时更加多样化,这让现有的教育数据伦理问题风险加倍。AIEd系统数据生成、分析、解释和使用有什么影响意义?谁持有数据、谁可使用数据,出于何种目的使用数据、谁负最终责任?
 
  另一个需考虑的问题是,AIEd旨在影响用户的长期行为并对其进行改变。例如,系统可作出建议、进行劝说或提供反馈,使人机之间建立关系。行为改变毫无疑问是一种可能,但这仍没有经过严肃的伦理考虑。
 
  其他担忧则与学习伙伴相关,虽然它们被设计出来的原意是支持学习者学习,但恐怕“跟随”您的伙伴反而会永久性地记录下学习失败经历,不利于未来的发展。
 
  同样地,AIEd教学辅助工具的概念也引发了担忧:该技术是否会被教师用作课堂“间谍”来记录和报告学生的不良表现?
 
  因此,我们有责任确保社会能对AIEd有充足的认识,使我们以恰当、有效和符合伦理的方式使用这些新技术。
 
  AIEd与真实世界
 
  很多时候,人工智能教育(AIEd)中的“仿真人工”一词造成了该技术在某种程度上脱离我们真实生活的感觉。我们的观点是,AIEd本质上是人类的真实尝试,在其发展过程中,AIEd将愈加依赖人类和实体环境,并由此变为学习过程不可分割的组成部分。
 
  1、AIEd将增强实体环境
 
  增强现实(AR)系统能够支持学习者和教师以不同的方式体验实体世界并与之交互,从而比智能虚拟现实系统更进一步。AR技术可展示关于人环境信息的叠加层,使课堂内容叠加到学习者的真实体验中。例如,学习者在周游世界过程中,周围建筑物的年代、建筑风格等都可以随之变化。
 
  我们已经看到现有的AIEd系统如何以社交和文化智能,让它们在虚拟环境中引导和支持学习者的。在AR系统中增加AIEd将促成个人化的自适应教育体验;其中虚拟导师引导学生进行实地考察,而教师将注意力集中到需求最为强烈的学习者身上。
 
  2、AIEd将与万物网相连
 
  具备内置计算系统、传感器和网络连接的物品及支撑网络被统称为“万物网(IoT)”。IoT使任何网络支持的物体可与任何其他网络支持的物体相互连接。这为AIEd系统开拓了新的可能性,例如,支持学习者形成需要较多一致性练习的运动技能,比如跳舞、演奏乐器、甚至是学习手术技能。
 
  3、AIEd将理解我们如何感觉及运动
 
  我们如何感觉(情感)和我们如何运动对学习有显著的影响。最近的研究已支持这一观点。这些深入的见解表明,可通过将这些额外信息纳入考虑范围进而改进学习技术。现在,学习者模型已不再仅限于记录和展现学习者的学业进步情况,可佩戴在衣物中或绑在身体部位的传感器(如Fitbit)已经开发出来。
 
  通过采集学习者情绪和生理状态数据的复杂模型,未来的AIEd系统将更加支持学习者。这些得到完善的模型将进一步促进学习者的学习,且将向单个教师提供关于学习者的生理和情绪健康状态,并支持其认知发展的实时信息,使教师可以对学习者进行恰当及时的干预。
 
  教师与AIEd
 
  毫无疑问,在AIEd发展的下一个阶段,老师将成为中心点。一方面,老师会成为协调者,决定何时以及如何使用AIEd工具。同时,AIED也将提供工具和数据分析,支持老师更好地利用丰富多样的教学资源。
 
  不仅仅局限于此,老师、学生和家长应当在AIED教学工具的设计与使用方式上发挥重要作用。共同参与式的设计方式能够确保产品满足老师的需求,比如为现实中混乱的课堂提供支持,而不是技术或设计人员想象的需求。参与产品的设计与研发过程的老师也会有收获,增强其对技术,产品设计,以及AIED系统的理解。
 
  如前所述,我们认为,引入AI支持工具将促使老师进行角色转换。目前我们希望由老师承担的部分工作将由AIED系统完成,比如对学生的学习进程做标记和记录。AIED系统会把老师从日常耗费大量时间的重复性工作中解放出来,把更多精力放在创造力、人文关怀上,使学生的学习更上一层楼。伴随着这一转变,教师也需要学习新的技能(可能是由AIEd系统提供的职业发展培训)。
 
  他们将特别需要:
 
  深入理解并评估AIED系统,正确判断新的AIED产品的价值;
 
  提升研究能力,学会解读数据,从数据中发现问题,并帮助学生解决问题
 
  新的团队合作模式和管理能力,每个老师都会有虚拟的人工智能助手,“他们”负责有效管理资源。
责编:yulina
分享到: