首页 > 智慧教育 > 正文

AI技术是“潘多拉盒子”?探讨AI教育的伦理问题

2017-09-08 09:52:17  来源:亿欧网

摘要:一些科学界人士担心AI是个“潘多拉盒子”,会导致危险的后果。但在我们太过担忧之前,需要说明一下人工智能当前的水平。如果实现,首先“全能AI”必须实现重大进展,即可以AI机器人可以成功胜任所有人类胜任的智能任务。
关键词: AI 教育
\
  AI会取代人类吗?
 
  一些科学界人士担心AI是个“潘多拉盒子”,会导致危险的后果。早在1993年,计算机科学家Vernon Vinge推广了技术新概念:AI驱动的计算机或机器人能重新设计并改进自身,或者能设计比自身更先进的AI。自然有人认为,这将导致AI超出人类智慧、理解和控制,从而导致人类时代的终结。近来,史蒂芬·霍金和其他权威科学家,包括Stuart Russell,Max Tegmark,和Frank Wilczek同样警告过,AI太过“聪明”的潜在后果。
 
  这个令人忧虑的想法给好莱坞电影提供了素材,从60年代的《2001太空漫游》,到80年代的《终结者》系列及近期的《超验骇客》,所有电影都选择描述各种失去控制的AI主导的反乌托邦世界。
 
  但在我们太过担忧之前,需要说明一下人工智能当前的水平。如果实现,首先“全能AI”必须实现重大进展,即可以AI机器人可以成功胜任所有人类胜任的智能任务。而现在,该AI技术根本还未实现。通用AI不同于我们大多数人熟悉的“领域特定AI”。这些领域特定AI专注于一件事情——例如,掌握国际象棋(Deep Blue或Giraffe),或者Go(谷歌的Deep Mind)、驾驶汽车(谷歌的自动驾驶)、或护照照片人脸识别。即使是知名的AI倡导者也认为,Vernon Vinge提出的新观点在未来某天终会到来,通常在他们写出程序后的三十年左右。
 
  然而,AI越来越发达,它已经对我们的经济产生了深远影响。在2013年的一项研究中,经济学家Frey和Osborne使用AI技术探索自动化对职业影响的研究。基于他们的预测,美国职场上约47%的职位面临极大的风险,可能在接下来的十年或二十年将会被机器取代。迄今为止,中等收入职位受到的影响最大,也体现了当下最易受自动化影响的工作内容。
 
  对于过去经济发展过程中出现的重大变革(例如,从农业为主的经济转变成工业经济),人们通过改变教育和学习的范围和内容逐渐适应。这种观点是,如果“工人有灵活的技能,如果教育基础设施得到充分发展,那么...技术和教育之间的竞争没有胜利者,成果将会被更多人共享”。
 
  在快速发展的AI面前,这种方法是否适用值得商榷。历史证明,技术的改变通常会带来很多无法预料的新角色。而其他人,如Martin Ford认为随着自动化承接越来越复杂的任务,工作机会会减少,无法保持当前的就业率。
 
  AIEd的伦理问题
 
  人工智能(AI)的发展正在加速,渗透到我们生活的每一方面。问题在于,我们是否已准备好可控制的情况下让此发生?正如牛津大学的哲学家Nick Bostrum所论述的,需特别谨慎地关注AI的伦理问题:“责任、透明性、可审计性、防破坏性、可预测性(...);必须在旨在取代人类社会功能判断的算法中考虑这些标准”。
 
  例如,如果AI“出错”(比如,可参见2010年金融界“闪电崩盘”事件中算法起到的作用)由谁来承担责任,是最终用户还是程序员?如果交通事故涉及自动驾驶车辆,该怎么处理?能否知晓它是如何做出决定并对其进行修正来防止问题的?如果AI使用的是神经网络,这已变得非常困难。而且,AI是否开放操控?我们都非常清楚电脑黑客行为的后果。如果出于犯罪目的开发或修改AI,会发生什么?
 
  对于AIEd,同样存在这些伦理问题。例如,我们知道共享数据对AIEd系统的集成至关重要,而且,匿名化数据的共享,通过削减浪费、重复性工作,可促成该领域的飞跃式进步。但这种共享带来了从个人隐私到专有知识产权的大量问题。的确,AIEd系统所生成的数据越来越多,同时更加多样化,这让现有的教育数据伦理问题风险加倍。AIEd系统数据生成、分析、解释和使用有什么影响意义?谁持有数据、谁可使用数据,出于何种目的使用数据、谁负最终责任?
 
  另一个需考虑的问题是,AIEd旨在影响用户的长期行为并对其进行改变。例如,系统可作出建议、进行劝说或提供反馈,使人机之间建立关系。行为改变毫无疑问是一种可能,但这仍没有经过严肃的伦理考虑。
 
  其他担忧则与学习伙伴相关,虽然它们被设计出来的原意是支持学习者学习,但恐怕“跟随”您的伙伴反而会永久性地记录下学习失败经历,不利于未来的发展。
 
  同样地,AIEd教学辅助工具的概念也引发了担忧:该技术是否会被教师用作课堂“间谍”来记录和报告学生的不良表现?
 
  因此,我们有责任确保社会能对AIEd有充足的认识,使我们以恰当、有效和符合伦理的方式使用这些新技术。
 
  AIEd与真实世界
 
  很多时候,人工智能教育(AIEd)中的“仿真人工”一词造成了该技术在某种程度上脱离我们真实生活的感觉。我们的观点是,AIEd本质上是人类的真实尝试,在其发展过程中,AIEd将愈加依赖人类和实体环境,并由此变为学习过程不可分割的组成部分。
 
  1、AIEd将增强实体环境
 
  增强现实(AR)系统能够支持学习者和教师以不同的方式体验实体世界并与之交互,从而比智能虚拟现实系统更进一步。AR技术可展示关于人环境信息的叠加层,使课堂内容叠加到学习者的真实体验中。例如,学习者在周游世界过程中,周围建筑物的年代、建筑风格等都可以随之变化。
 
  我们已经看到现有的AIEd系统如何以社交和文化智能,让它们在虚拟环境中引导和支持学习者的。在AR系统中增加AIEd将促成个人化的自适应教育体验;其中虚拟导师引导学生进行实地考察,而教师将注意力集中到需求最为强烈的学习者身上。
 
  2、AIEd将与万物网相连
 
  具备内置计算系统、传感器和网络连接的物品及支撑网络被统称为“万物网(IoT)”。IoT使任何网络支持的物体可与任何其他网络支持的物体相互连接。这为AIEd系统开拓了新的可能性,例如,支持学习者形成需要较多一致性练习的运动技能,比如跳舞、演奏乐器、甚至是学习手术技能。
 
  3、AIEd将理解我们如何感觉及运动
 
  我们如何感觉(情感)和我们如何运动对学习有显著的影响。最近的研究已支持这一观点。这些深入的见解表明,可通过将这些额外信息纳入考虑范围进而改进学习技术。现在,学习者模型已不再仅限于记录和展现学习者的学业进步情况,可佩戴在衣物中或绑在身体部位的传感器(如Fitbit)已经开发出来。
 
  通过采集学习者情绪和生理状态数据的复杂模型,未来的AIEd系统将更加支持学习者。这些得到完善的模型将进一步促进学习者的学习,且将向单个教师提供关于学习者的生理和情绪健康状态,并支持其认知发展的实时信息,使教师可以对学习者进行恰当及时的干预。
 
  教师与AIEd
 
  毫无疑问,在AIEd发展的下一个阶段,老师将成为中心点。一方面,老师会成为协调者,决定何时以及如何使用AIEd工具。同时,AIED也将提供工具和数据分析,支持老师更好地利用丰富多样的教学资源。
 
  不仅仅局限于此,老师、学生和家长应当在AIED教学工具的设计与使用方式上发挥重要作用。共同参与式的设计方式能够确保产品满足老师的需求,比如为现实中混乱的课堂提供支持,而不是技术或设计人员想象的需求。参与产品的设计与研发过程的老师也会有收获,增强其对技术,产品设计,以及AIED系统的理解。
 
  如前所述,我们认为,引入AI支持工具将促使老师进行角色转换。目前我们希望由老师承担的部分工作将由AIED系统完成,比如对学生的学习进程做标记和记录。AIED系统会把老师从日常耗费大量时间的重复性工作中解放出来,把更多精力放在创造力、人文关怀上,使学生的学习更上一层楼。伴随着这一转变,教师也需要学习新的技能(可能是由AIEd系统提供的职业发展培训)。
 
  他们将特别需要:
 
  深入理解并评估AIED系统,正确判断新的AIED产品的价值;
 
  提升研究能力,学会解读数据,从数据中发现问题,并帮助学生解决问题
 
  新的团队合作模式和管理能力,每个老师都会有虚拟的人工智能助手,“他们”负责有效管理资源。

第三十四届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:yulina

免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。