看点:通用AI和机器人探索之路上的人类将会遭遇的重要问题,激发对人、AI与机器人未来的长远思考。
近日,腾讯AI Lab联 合 自 然 科 研 ( Nature Research)、其子刊《自然-机器智能》和《自然-生物医学工程》,于2019年9月在深圳共同举办世界首届“ Nature Conference - AI与机器人大会”。并在大会发布了 “ AI与机器人的42个大问题”报告,期望能找到通用AI和机器人探索之路上的人类将会遭遇的重要问题,激发对人、AI与机器人未来的长远思考。
本期的智能内参,我们推荐腾讯AI Lab的研究报告《AI与机器人的42个大问题》。如果想收藏本文的报告(国产CPU),可以在智东西(公众号:zhidxcom)回复关键词“nc412”获取。
这是有关AI未来最基本的问题,甚至在某些特定的程度上涵盖了其它所有问题。要回答这一问题,我们第一步需要了解人们现在正在做什么。
近年来取得成功的AI技术大都基于深度学习和神经网络,当前热门研究方向依然是基于这一些方法的改进以及与对抗学习或强化学习等其它思想的融合。在应用方面,这些技术已进入了我们的日常生活,比如智能推荐、机器翻译、聊天机器人以及各种图像美化应用。
对于近期的未来,人们普遍相信深度学习还有进一步的发展空间,甚至有望彻底改变我们的生活方式,比如很多人都相信成功的自动驾驶技术将会彻底改变我们的生活出行。同时,由于深度学习在泛化能力以及可解释性方面的困难,也有人认为深度学习将难以在一些存在严格要求的领域发挥真正重要的价值,进一步的突破还需要探索更广泛的方法。下面列出了近期未来的一些主要的研究和应用方向:
高效和低成本模型 。尽管目前相当多一些模型已经能够在较低成本的硬件上有效运行,但要训练出足够实用的模型,当前的深度学习方法往往需要大规模数据集和成本高昂的计算硬件。如何设计高效的训练方法已经成为当前的一大重要研究主题。对于已经 诞 生 的 MobileNet、 ShuffleNet 和PeleeNet等一些模型,其实用性仍被认为还有所欠缺。高效和低成本模型仍会继续是AI领域的一个重要未来方向。
模型可解释性 。深度学习的模型可解释性已经成为了制约深度学习广泛应用的一大主要障碍,其也在法律和伦理方面引发了一些讨论和争议。可以预见这方面的技术探索和社会讨论还会继续。
深度神经网络与新思想融合 。深度学习与对抗学习和强化学习等思想的结合已经为 AI领域带来了很多重大突破 , 比如从AlphaGo到 AlphaZero的一系列进展。另外,研究者也在继续从生物学、脑科学、逻辑学等领域汲取新的灵感,比如Hinton提 出 的 Capsule计划。这一趋势必然还会继续。
AI继续进入人类的日常生活。智能音箱进入家庭、人脸识别在守卫街道、机器翻译在建造巴别塔、自动驾驶汽车已经上路测试、数字助理正在学习处理越来越复杂的任务......AI应用还会继续进入更多曰常生活场景并继续改变我们的生活方式。
AI相关政策和法规会越来越多。随着AI越来越深刻地影响人类的生活,相关的法律法规和政策制度也在逐渐成形。其中既有推动AI技术发展的国家政策或规划,比如中国的《新一代人工智能发展规划》、 美国的《国家人工智能研究和发展战略规划》、 加拿大的《泛加拿大人工智能战略》;也有旨在规范智能应用和数字隐私保护的,比如欧盟的《通用数据保护条例》。 可以预见还会有更多相关政策随AI的进一步发展而诞生。
机器人有很多不同的分类方式,每种分类方式也都有不同的类型,比如依照形态可分为人形机器人、四足机器人、轮式机器人等等,依照用途可分为民用机器人、工业机器人和军用机器人等。这些不同类型的机器人的发展虽然都有各自不同的侧重点,但总体而言机器人领域的主要发展方向包括:
更高的自动化程度 。近来机器人控制方面的一个研究重点是让机器人具备更强的自主行动能力以及更强的学习能力。目前这方面最受关注的发展方向之一是强 化学习 , 即让智能体在环境中进行探索来学习最大化奖励的策略。另外,使用深度神经网络训练的视觉与听觉等模型也正被集成到机器人身上,让它们可以具备更强的感知世界的能力。
机器人应用场景增多 。工业机器人已经在组装生产线上得到了广泛的应用,现在随着机器人智能水平的提升,它们也开始在更动态多变的日常生活环境中得到应用,比如迎宾、 送餐、 做饭、 导游和教学等等。医疗机器人也是非常重要的发展方向,它们有的能够动手术、有的可被吞入腹中,还有的甚至能作为义肢直接成为残障人士身体的一部分。农业也正迎来机器人的变革, 里业无人机、 无人收割机、 除草机器人、 放牧机器人等已经出现了地球上的一些田间地头或牧场。另外,为了应对全球范围内的蜜蜂灭绝危机,也有研究在探索打造可接替蜜蜂工作的昆虫机器人。
集群式机器人进一步发展 。集群式机器人是指大量机器人通过互相协作,从而组合为同一个系统的技术,这种技术具有更高的稳健性一即使部分机器人停止工作,其余的机器人也能够继续完成任务。但这样的机器人系统也面临着通信和协调方面的问题,目前大多数集群式机器人还主要使用中心控制单元来进行调控(比如在2018年平昌冬奥会上亮相的1218架英特尔Shooting Star 无人机群) , 但也有研究者在探索无中心的分布式控制方法。
通用人工智能(AGI)是指有能力理解和学习人类所能做到的任何智力任务的机器智能。全面比肩甚至超越人类的AGI一直以来都是AI领域的一大终极目标,这一目标也被称为“ AI奇点”。未来学家雷 • 库 玆韦尔给出了他认为的AI奇点的到达时间: 2045年。
但也有很多人对此表示怀疑,甚至有相当多一些人认为根本不可能实现在所有方面都超越人类的单个 AI系统。比如2018年掀起过轩然的“ AI寒冬论” ,作者Filip Piekniewski就在文中提到:“我们让计算机做一些看似只有受过教育的成人才能做的事,但后来才意识到这些计算机甚至无法处理婴儿或动物都能解决的事情。如果我们继续陷入同样的陷阱, AI (尤其是通用人工智能)将仍然是一个白日梦。”
也有相当多一些学者认为虽然现在深度学习成果颇丰,但却不是通向通用人工智能的 途 径 一 至 少 单 靠 深 度 学 习 是 不可能实现的。比如纽约大学心理学教授Gary Marcus就对深度学习多次提出逃评意见, 其中包括深度学习的数据依赖性、适应变化的能力以及整合先验知识的能力等。因此,通用人工智能目标的实现可能还需要在神经科学、认知科学、进化方法等多个方向的努力。
通用人工智能究竟能否实现仍是一个悬而未决的问题, 我们甚至还不清楚通用人工智能究竟必需怎样的组件或结构。
意识( consciousness)到目前为止仍还是一个没有得到公认的明确定义的名词,毕竟我们对自身意识产生的原因还知之甚少,也因而就更难以回答机器能否具有意识的问题了。
C2 :这一层的意识则涉及到所谓的“元认知(metacognition)”,即认识到自我的能力。自我意识能帮助人们了解自己知道什么以及不知道什么,进而导致好奇心。
照这样的划分方式,目前的AI模型已经能在C0层面上取得比肩甚至超越人类的表现了,并且在C1层面上也进展颇丰。该论文也认为目前已有一些AI实现了 C2层面意识的_些方面,比如一些模型能够监控自己学习解决问题的过程。
但意识究竟将如何产生?我们目前还没有答案,下面简单梳理了一些理论上的看法:
意识源自特定的神经结构 。有的研究者认为大脑的特定结构是意识的来源,比如2016年的一项研究找到了两个对意识清醒非常重要的大脑区域,这两个区域都包含一种被称为“von Economo神经元”的脑细胞。如果特定的神经结构确实能够产生意识,那么具有类似结构的AI也可能具备意识。
意识源自系统与外部的交互过程 。有的研究者则认为意识涌现于复杂系统与外部的交互过程。比如物理学家Max Tegmark认 为 意 识 是 在 被 以 某 种 复 杂方式处理时信息的感觉方式。 神经科学家 Giulio Tononi推进了这一思路 : 信息处理系统若要有意识,它的信息必须被整合为一个统一的整体。该思想融入了一 个复杂的数学理论,即整合信息理论(integrated information theory) 〇如果意识确实源自系统与外部的交互过程,那么随着AI在 日 常生活中的进一步应用,我们有望看到这方面的一些进展。
意识源自复杂度 。 也有研究者认为一旦一个单一的有序动态系统达到一定的复杂度,意识就会自然而然地涌现。随着现今AI系统的复杂度提升,这一理论或将逐步得到验证。
意识的产生机制已经非常复杂,自我意识只会更加复杂,在短期内或许无法找到确定的答案 。
AI的发展从神经科学和认知科学等领域汲取了很多灵感,同时也为这些科学领域的研究贡献了很多新思路, 有的研究者甚至将AI领域视为认知科学的一部分。
机器学习方法在帮助我们理解神经活动的模式方面已经初见成效,成为计算神经科学的重要发展推动力;另外该方法也已被用于建模人类的活动、分析和理解人类的语言、预测人类的响应模式和行动决策,这些都能帮助我们分析和理解我们自己的认知方式乃至意识的本质。
目前,随着大数据神经科学的发展,已经出现了一些相关的大型国际研究项目,其中包括美国白宫于 2 0 1 3 年发起的“ 旨在革新我们对大脑的理解 ” 的BRAIN Initiative、 同样始于 2013 年的欧盟人类脑计划( Human Brain Project) 、 2014 年日本启动的 Brain/-MINDS项目、2016年开始推动的中国脑计划。其中中国脑计划既包括对认知的神经机制的基础研究,也包括脑疾病的诊断和干预以及脑启发智力技术的转化研究。
现在研究者已经在转译大脑信号方面取得了一些亮眼的进步,比如日本一组研究者使用了深度神经网络来基于人脑活动信号来重建人所感知的影像。据介绍, 该技术不仅能重建受试者正在观察的影像,而且还能重建出受试者记忆中的影像。
目 前 我 们 还 不 能 真 正 理 解 很 多 AI技 术决策和得到结果的具体过程,它们也常常表现出设计者意料之外的行为。比如OpenAI训练的一个赛船游戏智能体学会了一个“技巧” :为了得到更高的分数,智能体控制的小船没有选择尽快穿过终点线,而是不断地循环刷分,即使小船不停地与其它船只碰撞、滑向墙壁、反复着火。如果在实际应用中智能体也出现类似的状况,不仅不能很好地完成预设的任务,反而可能给周围环境和用户带来危险。
我们需要理解AI决策的过程和依据,从而信任AI,这就涉及AI领域的一大重要主题:可解释性(explainablity) 。
幸运的是,研究者和决策者正在努力推动这方面的工作。比如,2018年5月开始 生 效 的 欧 盟 “ 通用数据保护条例(GDPR) ”允许用户可以要求解释机器任何“合法或类似重要”的决策;另外在模型可解释性方面研究方面也有一些值得关注的进展,比如谷歌推出的神经网络可视化库Lucid和华盛顿大学提出的一种能解释分类器的预测结果的解释技术LIME。
当然也有很多人认为, 过于强调“可解释性”可能会阻碍AI的 发 展 , 毕竟当前在深度学习模型可解释性方面还面临着诸多困难。更有甚者认为, 可解释AI是永远不可能实现的。
有人认为,好奇心是自我意识的一种延伸,同时也是创造力的基础,但也有人并不认同。 有人认为创造能力并不需要自我意识,即使完全依照本能行事,生物体或机器也能表现出创造能力。
AI能否具有对世界的好奇心吗?强化学习方法提供了一种可能的思路。强化学习能让智能体根据在环境中的奖励调整自己的动作,从而最大化自己所获得的奖励。为了实现这样的目标,智能体需要具有探索未知环境的能力,在一定程度上而言,这种探索未知的需求可视为一种好奇心。
在创造力方面, AI系统已经有所表现,比如,谷歌的DeepDream系统能够通过对图像进行刻意的过处理而创造出“梦幻般”的图像结果;2018年,一副由生成对抗网络(GAN)生成的画作在巴黎以432500美元的价格出售。另外,AI也早已被用来生成音乐和生成场景(虚拟现实或游戏)。但这些结果基本还只是对已有数据的组合或加工,未来AI能否自发地创造前所未有的事物?这一点还有待验证。
AI在自然语言处理( NLP)领域已经取得了很好的进展来自谷歌的 BERT模型和来自OpenAI的GPT-2模型已经在文本分类、语言建模等一些任务上实现了甚至可能优于人类的表现。但是,我们仍然 可 以 肯 定 的 说 : AI尚未真正掌握人类语言。AI在处理罕见词、语境、讽刺以及其它一些更“微妙”的自然语言处理问题时,还面临着一些困难。
AI能够真正掌握语言吗?目前成功的AI语言模型大都基于数据分析和模式发现,是对已有数据的提炼。而语言本身则处在不断变化之中,新的词汇在不断产生,比如“十动然拒”;旧有的词汇的含义也会发生变迁,比如“真香”;而且同_种语言内部也会存在因为地域、使用人群和使用场景等带来的差异。此外,人类在使用语言时常常会出错。因此,基于过往数据的AI模型不一定适用于当下的情况。
AI能够真正理解语言的这种动态变化性质,进而随人类的语言环境一起演进吗?这是一个仍待解决且意义重大的问题。
当前深度学习技术发展势头的基础是数据和强大的计算能力,而基于数据来验证新理论已经成为了可能,比如2019年4 月谷歌的一个团队用 AI证明了 1 2 0 0多条数学定理。
除了验证理论, AI也已被用于发现新理论和新方法。2015年,英国剑桥大学的研究者探索了自动发现和优化化学过程的新方法。2017年,英国爱丁堡大学和格拉斯哥大学的研究者提出了自动探索数学理论的MATHsAiD项目。2018年,英国格拉斯哥大学的研究者设计了一个以AI为核心的自动化实验设备, 并希望通过这种方式加速对生命诞生过程的探索。
实际上, AI有望给所有自然科学学科带来变革,不管是用于分析亿万年前的星光还是用干解开生命的密码, AI都大有用武之地。人文科学也能从AI技术的发展中受益,我们实际上也已经通过机器翻译和金融分析见证了它们在语言学和经济学中的表现。很显然, AI确实能在我们探索新科学理论之路上为人类提供帮助,但它们能自己发现新理论吗?
自1956年的达特茅斯会议以来,我们已 经 遭 遇 过 两 次 “ 人 工 智 能 冬 天 ( AI Winter)”了。在这两个冬天里,媒体和公众对AI的关注降至低点,政府和企业对 AI研究的投入也大幅缩减甚至完全中断。这两次“人工智能冬天”都曾给AI行业的发展造成过巨大的负面影响,而引起这两次寒冬的原因都涉及到实际发展的 AI技术与人们的预期不相匹配的问题。
目前的 AI领域仍然在一定程度上面临着过度炒作的问题,我们也不时能在新闻报道中看到一些夸大其辞的断言,这似乎正是下一个寒冬的预兆 ( 实际上也有一些研究者确实这么想);但是,目前这一波基于深度学习的热潮也与之前有所不同一这一次真正有一些实用的应用落地并创造价值,比如人脸识别、语音识别和机器翻译,因此也有的研究者认为“人工智能冬天”不会再来。
尽管目前AI研究者对未来发展普遍乐观,但人工智能冬天究竟会不会再来仍尚无定论 。
AI在军事场景中被认为具有很多“用武之地”,其中包括自动化武器、战场检测与情报分析处理技术、辅助决策智能技术、自动化网络攻防技术等。实际上一些技术已经投入应用,比如旨在“加速国防部整合大数据与机器学习”的美国国防部Maven项目,在设立仅6个月后就已经在打击“国( ISIS)”的战争中得到了应用。
当然, 反对AI武器化的声音也一直存在,认为AI军备竞赛无益于人类福祉。无论如何,讨论AI军事应用的利弊与有效的约束方式,具有极其重要的价值和意义。
政治方面, AI已经开始影响全球政治格局。比如数据分析已被用于竞选广告的精准投放和舆论引导。另一方面, AI也可能被用于辅助执政,甚至被直接用于制定政治决策。
实际上,已经有一些研究者在开始尝试AI政治家的实践了。2018年4月, 一个名为 Michihito Matsuda的 AI程序参加了日本东京多摩市的市长竞选 , 以4000得票数获得了第三名的成绩。另外还有一个名叫 SAM的 AI正在准备参加2020年的新西兰全民普选。
自动化武器现在已经成为了一个非常现实的问题,反对武器自动化的呼声也一直没有中断。
2015年,生命未来研究所( FLI)在IJCAI2015会议上发布了_份公开信,呼吁禁止开发超出人类有效控制的进攻性自动武器。截至目前,该公开信已经收集到了三万多个签名,其中包括4500多位AI或机器人专家,比如Stuart Russell、Yann LeCun、 Yoshua Bengio、 Richard S. Sutton等众多著名学者;另外斯蒂 芬 • 霍 金 、 诺 姆 • 乔 姆 斯 基 和 斯 蒂 夫•沃玆尼亚克等其他很多知名人士也在该公开信后留下了自己的名字 。
联合国秘书长安东尼奥 • 古特雷斯也在今年三月的政府专家组关于致命自动化武器系统的会议上指出, 有能力和自由裁量权来夺走人类生命的机器“在政治上不可接受,在道德上令人厌恶,应该被国际法禁止。
尽管如此,禁用自动化武器的目标却并 不容易实现。为了实现军事优势,各国甚至会竞相开发自动武器,就像英国智库皇家国际事务研究所的《 AI与战争的未来》总结的那样:“在自动武器的发展是否应该被控制以及如何控制的复杂讨论中,空中和地面自动系统的商用市场的快速发展必须得到充分考虑。鉴于商用领域能够提供衍生技术或更好的技术,所以禁止自动技术的军事应用可能是不切实际的。
毫无疑问, AI必然会对全球经济带来巨大的影响,甚至导致天翻地覆的变革。
麦肯锡2018年9月的一份报告建模了AI对全球经济的影响,其给出了两个关键性结论:
普华永道2018年的报告《 AI的宏观经济影响》 则估计,按照基准增长趋势,全球 GDP将在2030年增长至114万亿美 元 , 而如果考虑到 AI的发展 , 全球GDP预 计 将 高 出 这 一 数 值 1 4 % , 即 AI有望为全球GDP带来额外1 5 . 7 万亿美元的增长。该报告还预测中国和北美的经济将从AI技术获益最多一2030年,AI的 贡 献 将 分 别 占 中 国 和 美 国 GDP的26.1%和14.5%。
另 外 , 随着AI所能完成的工作越来越多,创造的财富价值也越来越大,如何公平有效地分配这些财富也是值得政策制定者和经济学家思考的问题。在这样的可能出现的不劳而获的未来里,经济发展可能将需要一种前所未有的全新模式。
农业也被称为第一产业,是涉及到“食物”这一人类最基本需求的至关重要的行业。尽管农业生产很少出现在热点新闻中,但其重要性是不言而喻的。AI对农业的变革已经开始,比如腾讯AI Lab与 农 业 专 家 合 作 开 发 的 种 黄 瓜 AI能 显著降低黄瓜生产所需的资源和人力成本以及提高黄瓜产量。
随着农业自动化的发展, AI还将在农业发展中发挥更重要的作用。大致而言, A1在农业领域的应用场景可以涵盖从生产计划到终端销售整个流稈。在农业生产开始前,借助AI分析历史数据和当前趋势,生产者可以预测市场需求,进而规划具体的作物和种植规模,这样能避免产销脱节,造成经济损失和农产品浪费。在农业生产过程中,可根据热量、通风和二氧化碳水平等因素来优化种植策略,比如温室温度、种植密度、灌溉施肥;此外AI还能被用于操作农业自动化设备,实现无人生产。在农作物收获之后,计算机视觉技术可以高效地进行农产品售前品质检测和分类等工作;还可以用大数据分析市场行情,可帮助农产品电商运营,引导企业制定更灵活准确的销售策略。另外,通过AI遗传算法和多目标路径优化数学模型,可对物流配送路径进行智能优化,完善生鲜农产品供应链。
此外, AI也可用于改良作物品种,比如筛选和改良农作物基因,达到提升口味、增强抗虫性、增加产量的目的。
自动化技术已在工业生产中已有悠久的历史,从水车磨坊到汽车无人组装流水线。毫不夸张地说,大规模自动化工业生产正是现代文明的基础,我们的生活方式的基本保证。
AI还能将自动化生产更向前推进一步,它们可以自动检测生产环境、预测可能发生的故障、优化供应链和生产流程、通过分析市场需求动态调整产量、实现工业产品快速定制 最终实现工业生产 的 智 能 化 。这正是AI所要实现的目标。
在工业4.0时代,工业物联网将创造巨量需要分析的数据,同时生产者也需要对生产过程进行及时高效的响应。AI将在这样的流程发挥举足轻重的作用。比如在优化物流和供应链时, AI可以根据市场、路况、天气等信息进行动态调整。如果因为天气原因导致供货延迟,生产部门还可及时调整生产优先级,进而实现效率最大化。
AI在变革农业和工业的同时自然也不会错过服务业,尤其是那些处理重复任务的工作,比如会计、客服、咨询。随着智能客服越来越善解人意,未来当我们拨打客服电话时,我们可能再也不需要呼叫人工服务了。
智能客服是最受人关注也最具市场潜力的AI应用领域之一,并且已被很多企业投入了实际应用,谷歌甚至已经推出了基 于 AI的 客 服 服 务 解 决 方 案 Contact Center Al0据 Gartner 预测,到 2020年,85%的客户交互都将由机器管理。
在金融领域,人们正在探索AI在智能理财、智能风险评估、智能理赔、自动算法交易、欺诈检测等诸多应用中的实践。
医疗服务也是AI应用的最前沿一通过监控分析人们的身体状况预测健康风险、 AI可以帮助影像科医生分析医疗影像、为医疗资源缺乏的地区提供辅助诊断、针对患者个案提供个性化医疗方案建议。此外, AI也已经被用在了新药开发中。
这是现在大众和决策者最关注的AI相关问题之一,甚至可以说这个问题的最终答案将塑造人类文明未来很长一段时间的发展。
AI和机器人可能将在很多岗位上接替人类工作者, AI将在一定程度上影响各行各业,但并非每种工作面临的风险都相等。据普华永道预测,第一波自动化浪潮只会替代少量工作(约3% ),但到2030年代中叶,这一比例将增至30%。其中交通运输行业的工作岗位所面临的风险较大,而需要社交、情感和文艺能力的工作被替代的风险较小。
有些人相信AI确实会造成人类工作者的大规模失业,甚至也已经开始讨论“居民基本收入” 和“ AI价值分配制度” 等一些可能的解决方案。
当然也有人并不认为 AI会 造 成 显 著 的大规模失业,一个常见的论据是过去的技术变革在夺走了就业岗位的同时也会创造(甚至可能更多的)新岗位,比如汽 车虽然夺走了马车夫的工作,但也创造了 司 机 和 汽 车 修 理 工 的 工 作 。人 与 AI合作才更可能是未来就业所趋之大势。2018 年的报告《 Reworking the Revolution》 就估计到 2020年,结合人力的 AI新应用将为全球就业带来 1 0 %的提升。
但我们也必须承认, AI与以往的变革性技术存在根本的不同。蒸汽机、电力、计算机更多的是在体力工作和繁琐重复的文件任务上替代人类,而AI则能够在更需要认知能力的任务上接替人类的工作,比如分析、理解和决策,完成这些任务在一定程度上似乎对人类“万物之灵”的地位发起了挑战。幸好,目前来看那样的未来还比较遥远。
首先,工作对技能的需求会发生巨大的变化。未来的工作者将需要不同领域的混合知识,比如农民也将需要理解大数据、手术医生需要会控制机器人、生物学家要学习电子工程 。随着 AI的发展成熟 , 工作者也需要具备快速的适应能力一能够很快地适应新的工作流程 、系统和工具。
积极的一面, AI有助于提升生产力和效率,让人类工作者可以将更多精力投入到更具价值的非重复性任务上,同时也能让他们拥有更多个人生活的时间。
但 AI对人类工作也有消极的一面,比如前一问提到的人类大规模失业风险。另外,如果AI在太多工作岗位上都具备了相对于人类的绝对优势,很多人可能就将陷入无事可做的困境,此时的人们可能将需要新的方式来追寻自己的人生意义。
人类文明正处于一场前所未有的城市化浪潮中。据联合国统计,2008年,城市居民人数首次在历史上超过农村居民。世界城市化进程预计将在许多发展中国家继续快速进行,至2050年世界人口的70%可能是城市居民。2007年至2050年期间,城市居民人数预计将增加 31亿,从33亿增至64亿,而世界人口将增加25亿。因此, AI对城市的影响将具有改变世界上绝大多数人的生活的潜力。
交通运输 。智能分析已经在交通运输领域得到了实际应用,比如使用路径规划技术为快递员规划最高效的送货路径。 未来,随着自动驾驶技术的发展,无人驾驶载具(不仅限于汽车,还包括无人飞行器等载具)将在我们的日常出行及物品运送中扮演越来越重要的角色。
公共安全。智能图像和视频分析技术正在进入城市街道、商场和公园等公共区域,它们能以极高的效率分析各种场景,识别和预测违法犯罪。这不仅能让执法机关做到快速响应,而且还能让他们根据预测结果采取预防措施。另外,语音识别和步态分析等技术还能帮助安保人员快速识别行为可疑的人。
医疗保健。AI正在变革医疗保健领域,而且也已经在医疗数据分析、辅助诊断、 发现新药、个性化医疗等方面得到了初步的应用。另外,机器人技术也在这方面有重要的应用价值,比如可用于为残障人士和病患老人打造智能轮椅或机器外骨骼;机器人也能被医院用于陪护、搬运和清洁等任务。
教育。AI将在许多方面为教育方法带来变革。比如, AI可以通过分析历史数据来改进教育方法;同时,借助AI技术,教育还可以 根 据 学 习 者 的 个 人 偏 好 和 学 习 进 度实现个性化。另外,组合虚拟现实等技术,学习者还能在沉浸式的环境中习得新知识。
娱乐。 人类的娱乐方式一直都在随着技术而转变。AI也将为我们创造新的娱乐方式和更新奇的体验。比如智能分析技术可以通过分析你的过往数据向你推荐音乐、电影或书籍,也能根据你的偏好为你生成个性化的虚拟现实场景。
自动驾驶,又称无人驾驶,是指无需人类操作者,通过某种系统控制载具运动和航行的技术。根据自动化程度的不同,自动驾驶技术可分为不同的层级,而具体的分级方式却可能因定义它们的研究者或机构的不同而出现差异。比如美国交通运输部国家公路交通安全管理局( NHTSA) 2013年将自动驾驶系统(ADS)的自动化程度分为了 5级,而里际自动机工程师学会则在2016年给出了 一个 分 为 6 级 的 划分方式,其中Level 0〜Level 2是驾驶辅助能力 , 而 Level 3~Level 5是自动驾驶能力, 具体如下:
Level 0。无驾驶自动化。所有DDT (动态驾驶任务 , 即 用 于 在 道 路 交 通 中 操 作 _ 辆 汽 车的所有实时的操作和触动功能)的操作全由驾驶员完成。
Level 1。驾驶辅助。这种驾驶自动化系统的特点是 DDT的横向或纵向载具控制子任务 可以得到维持或特定于ODD (运行设计域)的执行。Level 1不包括同时执行这些子任务,也需要驾驶员执行DDT的其它任务。
Level 2。部分驾驶自动化。类似于Level 1,但特点是 DDT的横向和纵向载具运动控制子任务可以得到维持或特定于ODD的执行,需要驾驶员完成目标和事件检测与响应( OEDR)子任务并监督驾驶自动化系统。
Level 3。有条件驾驶自动化。所有DDT的子任务都可以得到维持或特定于ODD的执行,需 要 人 类 驾 驶 员 做 好 响 应 问 题 发 生 时ADS的干预请求的准备。
Level 4。高度驾驶自动化。所有DDT的子任务都可以得到维持或特定于ODD的执行,不预期用户响应干预请求。
Level 5。全驾驶自动化。所有DDT任务都可以得到维持和无条件的执行,不预期用户响应干预请求。注意这里的执行是无条件的,不限于ODD。
现在,自动驾驶汽车已经上路了。在美国和中国的多个城市,你都有机会看到正在公路上测试的自动驾驶汽车。但要实现真正的实际应用,自动驾驶汽车必须 具备完全可靠的能力一至少要比人类驾 驶者可靠得多 , 毕竟没人愿意把自己的人身安全交到可能出问题的机器手里。
每一项变革性技术的诞生都势必影响人与人之间的关系,比如电话诞生以后,我们就再也不用“千里寄相思”了,电波就能将我们的思恋之情瞬间传递到千里之外。社交网络的诞生为普通公众提供了快捷发表自己意见的平台,对公共事务的探讨已经不再是意见领袖们的专利。
AI又将怎么样影响人与人之间的关系?是会让人与人之间更加亲密?还是加剧现有的人与人之间日益疏离的趋势?这些问题仍没有确定的答案,但一些实验结果或许能让我们稍微窥见些未来。
耶鲁大学的研究者曾通过人与机器人共存的实验得到了一些有趣的结果:勇于承认自己错误的机器人能帮助团队取得更好的表现、具有易出错的机器人的人机协作团队的表现优于机器人不出错的团队 。但同时他们也提到了一些可能存在的负面影响,比如如果人长期以对待物的态度对待机器人,那么他可能会逐渐用对待物的态度对待其他人;人对待机器人的粗鲁态度可能被孩童学会。
政府与公民的关系是自人类建立城邦以来一直备受关注的主题,古往今来的哲学家和政治学家已经为此贡献了很多心力,而AI又将为政府与公民的关系带来新的变数。
毫无疑问, AI可以提升政府的效率。据《经济学人》 称:“AI能在5到7年内为政府节省30%的劳动力时间。就像电子表格变革了财务部门一样, AI有望让例行的办公室工作更加高效。”但需警惕的是, AI同时也可能让公权力更为强大。
人常常自诩为“万物之灵”,这大概是因为我们认为自己拥有超出万物的智力,而 AI第一次为此带来了变数, 虽然离全面超越人类水平还很遥远,但它们已经在图像、语音和游戏领域的一些特定任务上超越了人类的表现。按照现在的发展趋势, AI技术还将继续进步,继续在更多任务上达到乃至超越人类的能力。看起来,人类的“万物之灵”地位似乎正遭遇挑战,在这个过程中,人与AI的关系也必然发生改变。
在AI和机器人技术发展早期,它们还主要是作为人类的工具,目的是执行那些对人类过于繁琐的任务,比如组装汽车和主板。随着智能和自动化的提升, AI和机器人也开始在人类的日常生活中扮演更多样化的角色,比如索尼开发的机器狗AIM可以作为人类的宠 物 、 微 软开发的聊天机器人小冰能与人类打趣逗乐。进一步设想一下,如果一个机器人不管是外观还是行为都变得与人类无法区分,那人应该如何对待它?
人类是群居动物,但不是每一个灵魂都能在他人那里得到陪伴和慰藉。甚至有些人似乎注定一生孤独。现在,配备了AI大脑的机器人有望给“孤独”这一千古难 题带来一些解决方案——它们正在变成人类的伴侣。这些机器人不仅能帮助照顾孤寡老人和患有自闭症的儿童,也能慰藉每一个孤独地生活在现代社会中的人。
机器人伴侣可分为多种类型,包括宠物机器人、 治愈型机器人、 机器人、 生活辅助与陪伴机器人等。每种机器人都有各自不同的使用场景。
借助AI技术,机器人可以通过与人类用户互动来构建用户的个性化模型,从而具备用户最偏爱的性格,成为用户的最佳伴侣。
现在已经有一些公司和研究者正在向着这一目标迈进,并且也已经有一些产品问世 , 其中包括人形社交机器人 Pepper、 情感伴侣机器人Buddv、 宠物海豹治愈机器人PARO等。但总体而言,机器人伴侣还处于非常早期的发展阶段,它们往往还不能有效地处理我们日常生活所遇到的各种场景。
司法裁判的公正性始终是法律行业的一大难题,不仅因为法官的专业水平,而且因为司法腐败以及判决易受法官的个人观念、情绪、偏见等因素影响。法谚有云:“司法正义取决于法官早餐吃什么”。这表明法律之外的因素可能影响裁判的公正性。
因此,在一些简单、常规的案件中引入AI的辅助甚至由AI直接代替法官裁判,不仅能够消除法官个人主观观念等法律之外的因素对案件结果的影响,实现裁判的客观性,而且能够促进同案同判,真正实现法律面前人人平等。
当然, AI在消除法律之外因素对判决影响的同时,也可能带来新的风险,诸如算法歧视等。AI对于法律的理解、模型的设计以及所使用的数据都可能造成新的歧视。因此,未来的司法裁判不可能全然交给 AI, 即使在AI独立裁判的情况下 ,也必须存在人类监督 , 即 human- inthe-loop,来确保更加公平公正的司法裁判。
AI作为人类的造物,也将在帮助我们认识自身上发挥重要的作用,而认识自身的一个至关重要的方面是认识自身的历史。
一些考古学家和历史学家已经开始借助 AI的力量来发掘历史的真相了 。比如以色列理工学院和海法大学的一 组研究人员开发了一种可用于解决考古拼图问题的计算机视觉方法,能够帮助复原发掘出来的文物碎片。另外, AI也已被用于识别西夏文、 鉴定圣经起源、翻译失传的语言。
AI也可被用于分析历史的发展趋势 。2 0 1 7 年 , 一 组 研 究 者 使 用 AI分 析 了1800年至1950年这150年间的3500万 份 英 国 地 区 新 闻 报 道 中 的 2 8 6 亿 词汇,并在其中发现了一些之前并不显而易见的历史进程,比如技术被接纳的速度 正 在 不 算 加 快 一 “ 我 们可以看到电话和广播被公众接受的速度有多快。这个速度在不断加快。现在,人们接受Twitter或Facebook只需要一年。”AI甚至还被用于分析AI论文以预测该领域的发展趋势。
AI能 帮 助 我 们 实 现 更 健 康 的 生 活 方 式吗?这个问题的答案是肯定的,但它们将如何做到这一点?
首先在医疗领域, AI已经开始崭露头角,它们已被用于医疗影像处理和疾病筛查,也在辅助诊断、药物发现、疗法推荐等方面极具潜力。
智能分析技术也已被用于根据可穿戴设备等收集的身体指标数据预测健康风险,它们能做到一直不间断地实时监控, 同时还能为用户提供更健康的生活习惯建议。据世界卫生组织( WHO)统计,与个人健康和生活质量相关的因素中,有60%都与生活习惯有关。因此,相信这方面的研究进步和应用推广将有望极大提升人们的健康水平。
AI在基因组分析方面也极具潜力。分析结果可用于针对性地制定保健策略,也能提前预知由于遗传或突变引起的患病风险,从而让使用者能够提前做好准备以及采取预防措施。现在,在AI的帮助 下,可用于基因疾病诊断的全基因组测序不到24小时就能完成。这种快速诊断技术对于刚出生便带有奇怪病症的婴儿而言非常重要,能让他们及时尽快地得到合理的救治和干预。
另外, AI也在心理健康方面极具价值。据Our World in Data 的报告称,2017 年全球人口有13%都有心理健康方面的问题,而且这一数字还在继续增长。但是,尽管存在这么多需求,仍有超过一半的心理疾病患者没有得到治疗,其中很重要的一大原因是心理医生短缺。而据世界卫生组织的数据,全球平均每隔40秒就有一人自杀死亡,同时还有超过20人试图自杀。因此,为心理健康不佳的人提供实时有效的干预具有非常重要的意义。AI可以充当虚拟心理医生(比如南加州大学的研究者开发的EUie),能够全天候在线地提供服务,此外它还能为不同的用户训练不同的个性化模型,提供专属的心理健康服务。
人口老龄化是现在很多国家都面临着的核心社会问题, 比如日本2018年的新生儿数量创下了百年来的新低。老龄化的社会在国家财政、社会活力和国家竞争力等方面都将面临严重的问题。
AI在缓解人口老龄化的影响方面存在许多极具价值的应用场景,比如机器人可以帮助照料行动不便的老人,也能帮助疏导老人的心理,保证老人的心理健康。AI还能帮助监控老人的身体状况,在问题出现之前就发出预警。
另外,随着人口老龄化,某些岗位可能会面临劳动力短缺的问题, AI也许能够接替一部分工作,在维持社会运转的同时创造更多价值。
环境污染、气候异常、物种灭绝......地球正面临着严峻的环境问题,而AI可望为这一事关所有人类的问题带来解决方案。据英特尔和调研公司Concentrix联合发起的一项针对环境可持续发展领域决策者的调查:“74%的受访者认同AI将有助于解决长期存在的环境难题。”
环境问题通常涉及到科学家还不能完全理解的复杂过程,而且用于应对环境问题的资源也还很有限。借助于AI,我们可以基于收集到的数据来更好地建模环境中的复杂过程,同时机器学习和深度学习的预测能力也能帮助我们很好地预测未来的趋势,包括水资源变化趋势、环境适宜性和污染情况等。
事实上, AI技术已经在环境问题方面得到了初步的应用,比如WildTrack开发了一种足迹识别技术( FIT),能以非侵入的方式监控濒危物种;谷歌也已经将机器学习应用在了数据中心的冷却中,能在降低成本的同时减少能耗。
“地球是人类的摇篮,但人类不可能永远生活在摇篮中。”在迈向无垠宇宙的道路上, AI和机器人是我们的先遣队。
实际上, AI已经在太空探索中得到的重要的应用 , 比 如 Earth Observing- 1( EO- 1 )地 球 观 测 卫 星 搭 载 的 AI系统能帮助优化分析自然界中的突发事件(比如洪水或火山爆发)并作出快速响应。在某些情况下,这个AI甚至能在地面工作人员知晓的情况下自行开始拍摄影像。另外, 天空图像分类和分析工具( SKICAT)在第二次帕洛马巡天计划(Palomar Sky Survey)发挥了重要的作用一能够在低分辨率的图像中分类数以千计的目标。类似的AI系统也已经帮助天文学家分辨了 56种可能存在的引力透镜,为暗物质方面的研究做出了重要贡献。另外,来自普林斯顿大学的一组研究者使用了AI来模拟宇宙结构的形成过程,这能促进我们对自身所在的宇宙以及我们的形成过程的认识。
还不要忘记人类送往太空和其它星球的各种机器人,它们也开始具备AI大脑和越来越高的自主程度。比如好奇号( Curiosity)搭载了一个名为“为了收集更多科学知识的自动探索(AEGIS)”的软件,能 让 其 自 行 控 制 其 ChemCam( 化学相机),这个设备能够通过激光烧灼石头产生的气体来分析该石头的化学成分。每当好奇号到达一个新位 置 时 , AEGIS都可以使用机载相机自动扫描周围环境,然 后 决 定 要 使 用 ChemCam调查的石块和调查顺序。
AI和机器人概念已经成为了现代文化的重要组成部分,你能在文字或影视的故事里看到它们,也能看到它们被用于商家宣传的广告中,现在你甚至还能直接看到机器人表演的节目(比如《机器人擂台》 )以及AI生成的音乐等作品。
毫无疑问, AI和机器人已经成为了人类文化的重要组成部分,它们不仅仅是我们的娱乐方式,而且也在启迪着人类对自身的思索以及关于整个宇宙的哲学思辨。
举几个例子, 在《2001太空漫游》 中, AIHAL9 0 0 0 成 为 了一个经典的邪恶AI形象,也在很大程度上影响了人类对AI的认知。在《黑客帝国》 所描述的故事中, AI甚至将人类包裹进了一个虚拟世界之中,这也激励着观众去思考和探究现实和真实本身。而在电影《她》中,智能系统Samantha展示了超级 AI解救人于孤独之中的潜力,同时也描述了 AI最终超越并抛弃人类的可能性。
2018年 , 一副AI创作的画作拍出了432500美元的高价,成为了 AI艺术史的一个里程碑事件。但AI实际上早就已确定进入了艺术创作领域一它们已被用来渲染图像、 创作音乐、 生成游戏场景和创作诗篇,甚至还已被用来生成小说和电影剧本。
举个例子, Continuator可以在学习了音乐家的风格后表演类似风格的音乐,其表现能力让一位爵士乐音乐家也颇为吃惊:“ 我听到的一切我都能理解。那是我的音乐世界。它的演奏就像我的演奏方式,只是它演奏出了我之前的音乐声响世界中从没想到过的东西。”
毫无疑问, AI还必将在艺术创作中发挥更重要的价值。AI对艺术的影响也得到了很多人的关注和探讨一 作品的著作权属于谁?AI的设计者算是艺术家吗?如果机器没有意识,那么它的艺术是要表达什么?因此,也有一些观点质疑AI创造的东西能否被称为“艺术” 。
AI的一大好处是能让人免受繁冗的任务之苦。借助AI,创造者可以将更多精力和时间投入到策略和创造性思考上。不仅如此, AI还能为创造者提供有关市场需求的见解以及对未来前景的预测。
比如在音乐方面, AI可以成为音乐家的力助手,甚至可以直接参与音乐创作。在视觉艺术方面 , AI 有得天独厚的优势 。比 如 AI可 被 用 于 帮 助 作 者 理 解 内容,进而帮助他们获取进一步设计的素材。Adobe 开发的 Concept Canvas 就是其中一例。这个工具可以学习“看懂”图像、识别显著的元素和布局并自动标注和描述它们,然后让用户可以基于不同概念之间的空间关系搜索图像。
AI也可以帮助书写文章 , 比 如2016年《》 实验了使用自动故事生成来帮助报道里约奥运会。据介绍,机器学习可被用于收集相关的事实,并将它们融合为一份草稿。这能为写作者提供一个写作起点,并帮助他们理解他们写作的主题和重点。然后写作者可以在此基础上将其完善为能吸引读者的内容。可以说,这能消除写作者工作中的繁琐部分,并为写作者提供更多数据,帮助他们获得更大的创造力。
AI的发展与应用不仅会深刻地影响我们的生活和生产,催生出一种数据和算法驱动的全新的智能经济与社会形式,而且会带来法律的演进。
一 方 面 , 正 如 微 软 总 法 律 顾 问 BradSmith所言,未来可能出现“ AI法律”这一全新的领域,正如互联网过去20多年的发展使得隐私和个人信息保护法律成为一门显学一样。虽然AI法律尚在起步阶段,侵权、隐私等法律已经适用于AI,在无人驾驶等领域开始出现新的法律。
因此未来可能诞生AI法律职业共同体,出现专门从事AI法律的学者、律师、法官等。
另一方面, AI也会让当前和未来法律人的工作内容和方式发生极大变化。当前AI已经开始起草合同、起诉书、判决书等法律文件,可以对法律文章、判决书等进行自动摘要,被用于辅助司法审判等。可以有把握地预测,未来所有法律人都将依赖AI来辅助其从事法律职业。这要求现在和将来的法律人掌握新的技能和思维。
我们创造AI的目的是为了给人类创造更美好的生活,因此有必要让AI懂得遵守人类的道德伦理规范。那么我们究竟能否做到这一点?
人类的道德规范往往可以用自然语言描述,但却难以编写成计算机代码或其它任何能被机器理解的方式,因此,让AI具备理解人类自然语言的能力可能对这一任务具有极其重要的价值。幸运的是,近年来自然语言处理( NLP) 技术突飞猛进,取得了非常重要的进展,让我们离AI真正理解人类语言的目标又更近了一步。
但这个问题远不止涉及自然语言处理,一个更加核心的问题是我们人类自身尚且还没有在道德方面形成完全一致的看法,更何况现实生活中还往往存在着两难的道德困境。而机器往往需要清晰明确的指标以实现优化和判断。
举个例子,我们该如何让机器学会克服其训练数据中的族群和性别偏见以实现公正?如果工程师无法为“公正”这一概念提供精准的定义和评估指标,那么机器也将很难学习到它,进而可能导致AI拒绝或无法为少数群体服务的后果。
牛津大学研究员Vyacheslav Polonski在一篇文章中总结了设计更道德的机器所应遵循的几个指导方针:
目前来看这几点都还很难真正在实际生活中实现,光是第一条就很难办到,毕竟我们连怎样确定人类是否道德都还没有一致的看法,更勿论创造道德的机器了。
阿西莫夫机器人定律是一个科幻设定,具体实践起来可能非常困难甚至完全不可能。这主要涉及到一些实际操作上的难题,比如如何将这些定律转换成机器能够解读的语言、如何保证机器确实能够理解这些定律、如何确保机器理解这些定律的方式符合我们的意图。毕竟,使在阿西莫夫自己写的科幻故事里,机器人在解读这些定律上也出现了一些逻辑困难。因此,我们很可能需要开发一种可以实现的现代版本的“阿西莫夫机器人定律”。
一些研究者正在为实现阿西莫夫机器人定律的目标而努力,比如机器人安全研究 专 家 SamiHaddadin的博士论文《实现安全机器人:向阿西莫夫第一定律前进》就研究了这样一个重要问题:如何确保人类与机器人共存时的安全?具体内容涉及人与机器人交互中的伤害评估、效果评估以及影响伤害情况的因素。另一些研究者则试图更新阿西莫夫机器人定律,比如维也纳应用艺术博物馆负责人 Christoph Thun-Hohenstein 提出了三条定律:
1、 智能机器人必须为人类的共同利益服务,并帮助我们人类实现生态、社会、文化和经济上可持续的生活。
2、 智能机器人只能在与人类相容的程度上替代人类工作者,从而帮助人类创造有尊严、文化和创造性的自我实现的有意义的生活一除非该规则与规则1冲突。
3、智能机器人必须被设计为合作型的自学习机器并且始终会协同式运作一除非该规则与规则1和2冲突。
还 有 一 些 研 究 者 则 着 眼 于 设 计 安 全 的AI所可能遇到的问题,比如谷歌的一项研究就找到了五个安全应用AI所应注意的问题:
避免负面影响 : 我们如何确保 AI系 统在实现自己的目标时不会为其环境带来负面影响?
可扩展的监督:我们如何有效确保给定的AI系统做种目标的各个方面,即使当在训练期间频繁评估这些方面时具有过局的成本?
在分布变化时保持稳健:我们如何确保 AI系统在使用环境非常不同于其训练环境时也能够稳健地识别和采取行动?
在确保未来AI和机器人的行为符合人类的利益方面还有很长的路要走,这不仅需要技术上的攻坚克难,还需要我们在语言以及伦理道德方面做更多探索。
当前的 AI已经能够表现出一些设计者计划和意料之外的行为,比如利用游戏漏洞刷分、 在遇到人眼无法识别的对抗攻击时出错。所以AI的行为有可能发生偏移,尤其是当我们无法解读AI决策的原因时,也就很难预测它在不同环境下的实际表现,进而产生意料之外甚至有违设计者设计初衷的行为。
更进一步,已有研究者表达了对AI偏离人类整体利益的担忧,这种偏移可能是有意的,也可能完全是人类自身的无心之 失 或 在 设 计 逻 辑 上 的 缺 陷 。哲 学 家Nick Bostrom提出过有关于此的思想实验 : 如果将一个强大AI的任务目标设置成“最大化的生产回形针”, AI就可能会为了这个目标而偏离人类原本的目的和利益,比如为了维持生产拒绝被人类关闭、为了获取生产回形针的原料而抢夺资源甚至猎捕人类。
当前的AI就像是人类诞生的婴儿,基本上还处在人类的控制之下。但随着技术的进一步发展,系统的复杂度的进一步提升,我们可能未来将越来越需要借助AI系 统 设 计 迭 代 新 一 代 AI系 统 。 AI将可能借助自己的力量实现未来的进一步成长,到那时候,人类还能确保AI与自己的利益一致吗 ?
歧视已经是AI领域内一个老生常谈的问题了。AI的歧视主要可分为以下几类:
数据偏见 。如果训练深度学习模型的数据存在某些群体代表性不足的问题,那么训练好的模型可能难以处理来自这些群体的新数据。比如如果人脸识别训练数据集中的主要使用白人的数据进行开发,那么在黑人群体使用该模型时就可能出现显著更多的错误, 从而表现出歧视。
人本身的偏见。 在训练数据时,我们往往需要对数据进行标注,如果我们依照自己的偏见将某些数据标记为“正确”,将另一些标注为“错误”,那么模型就会从这些标注后的数据中学习到人的偏见。此外,设计者在设计新模型时,可能会刻意调整模型的参数以便拟合已知存在缺陷的数据,这样也可能为实际应用引入偏见。
刻意歧视 。“ 大数据杀熟”慢慢的变成了了一个网络热词。这是指电商企业通过分析用户的消费习惯、决策心理、个人画像,从而对用户越来越“熟悉”,从而为自己创造杀熟条件。和通常的歧视新用户的案例不同,“大数据杀熟”的歧视针对的是忠诚的老用户,也因此更难察觉。
解决AI的歧视问题既需要研究者通透完备地思考,也需要有相关的法律法规保证。
想象这样一个场景,一个是没有身体的超智能程序,一个是外观与人类别无二致的塑像,当它们遭受破坏时,我们更容易对哪一个产生同情?这个问题的答案并不显而易见。 一项研究表明,如果机器人的身体形状不一样,我们就可能对其产生不同的情绪。在面对一个具有身体的智能机器人与一个没有可以控制的身体的智能软件,我们更可能对机器人产生同理心。
这个主题也涉及到一个被称为具身认知(embodied cognition)的研究领域;该领域希望能找到智能与身体之间的联系,以期揭示出智能的形成机制和本质。根据斯坦福的定义,具身认知是将认知建模为神经和非神经过程的动态交互的产物,其中认知、智能体的身体体验和现实生活背景之间不存在割裂。具身认知的研究能为我们寻找这一问题的解提供参考。除此之外,我们也还需要在法律和伦理道德等方面探寻它的答案。
比起AI无故失控, AI被人类恶意滥用的可能性应该还会更高一些。实际上,近来的一些事件已经展现出了 AI被滥用的潜在危害:
加大社会分歧 。人们基本上总是更喜欢与自己观点一致的新闻或评论,个性化智能推荐则会让人更沉浸于与自己观念一致的氛围中,这会让人更加确信自己的 观点是正确的,尽管那可能存在漏洞或过于片面。而更让人担忧的是,恶意者可能会利用个性化推荐的这种缺陷故意传播偏颇片面的内容,进而诱导不同群体之间产生更明显的分歧甚至敌意。
侵犯用户隐私 。进入智能手机时代以后,软件过度收集用户数据早已不再是什么新鲜事了,甚至 可 能 很 多 用 户 早 就 适 应 了 这 样 的 现状。而随着AI应用的普及,这一问题可能还会进一步恶 化 , 比如语音助手或智能音箱可能被用于偷听和分析用户日常生活对话,并基于此投放广告。随着AI的到来,“没人知道你是条狗”的互联网早期故事已成往事,现在人们不仅知道你是条狗,而是还知道你的品种、爱好、毛色甚至性取向。
AI在无人驾驶、机器人等领域已经出现了一些事故,造成了人身财产的损害,使得追究AI的法律责任成为一个各界争议颇多的话题,国外开始出现一些新的立法趋势。
当然, AI还不是法律主体,不能像人或公司那样为其行为独立承担法律责任。因此,对于AI造成的事故,应当考虑追究个人、公司等相关法律主体的责任。我们的法律责任体系当前有过错责任、严格责任、产品责任等,因此必须在既有的法律框架之内考虑AI事故的责任承担。比如对于无人驾驶汽车,在不存在司机或司机无过错的情况下,就可以基于产品责任让系统设计者、研发者、硬件提供者等承担责任。
然而, AI所具有的自主性、不可预测性等特征可能给责任承担提出挑战,使得受害人的损害无法获得弥补。因此,欧盟、英国等开始考虑出台新的责任规则,如通过保险、赔偿基金等方式来分担事故的损害。未来随着AI应用的普及,我们必须能够以明确的规则和方式来追究AI事故的责任,以培养消费者和生产者的信心。
我们的经济体系基于对经济所做的贡献的补偿,而这又通常是通过工资来衡量的。目前大多数公司仍然是通过人力劳动来创造经济价值 , 但一旦进入AI时代,公司对人力的依赖将减少,这就意味着享受公司收入的人会变少。由此可能导 致 拥 有 这 些 AI驱动的公司的人将赚取大量财富,而没有所有权的人却一无所获。
事实上,技术加大贫富差距的问题已经开始显现了 , 据世界经济论坛报道 ,2014年底特律前三大公司和硅谷前三大公司所产生的收入基本相当,但后者的员工数量却不到前者的十分之一。这样显著的差距必然会给价值分配造成严重的不均衡。随着AI技术的应用,这样的差距还会进一步拉大。正如《 AI及其对收入分配和失业的影响》中写道的那样:“如果智能变成了支付的能力,那么可以想见最富有(经过增强的)人类的生产力(智能能力)将远远超过未有增强的人类,从而让绝大多数人更进一步落后。”
如何为之创造公平的分配机制将具有很重要的意义。目前人们正在探讨的政策可能性包括全民基本收入与机器人税。
全民基本收入 。全民基本收入的概念很简单,也就是无条件地向每个合法居民发放足够其正常生活的财物。据联合国教科文组织,全民基本收入有望给不平等问题带来极大影响。贫困将被消除,劳动将更尊重意愿;而且由于工作者可以选择退出,工作者与雇主之间的权力关系也将更加平等。人们将更有可能合作起来为市场之外的人提供产品和服务,因为这样的活动再也无需为参与者的生活提供基本的标准。全民基本收入自然也存在反对意见,包括降低人们工作的动力从而导致劳动力减少、支持全民基本收入需要很高的税率。
机器人税 。即向机器人产生的财富的征收更高的税,以此限制企业过快地用机器替代人力 以 及 获 取 社 会 安 全 网 (social safety net)所需的资金。
AI和机器人的发展必然将给人类社会带来天翻地覆的变化。在这场正在实现的巨大变革中,如何能够更为公平公正地分 配 AI所 创 造 的 价 值 将 是 一 个 值 得 所有人思考的问题。
智东西认为,人工智能以及机器人学属于前沿科学的范畴,相对于已经发展了几百年的成熟的基础科学和应用科学,人工智能仅有几十年历史,尚处于起步阶段,远未形成坚实的基础和完整的架构。研究人工智能,技术是个难题,但相比技术,更深层次的哲学问题尤为重要,而且在几乎任何领域,提出正确问题可能比找到最终答案更加重要。腾讯AI Lab这份AI42个问题正是AI探索道路上最基本、最重要的问题,值得所有人的思考。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。