你好,游客 登录
背景:
阅读新闻

2018年AI依然要面临解决的的5大技术难题

[日期:2018-01-09] 来源:网络大数据  作者: [字体: ]

  本文介绍了2018年摆在人工智能面前的五大难题:理解人类语言,机器人附能,防黑客,玩游戏,辨别是非。如何解决这些问题,让AI继续造福人类社会将成为所有AI从业者的首要任务。

  2017年,人工智能在深度学习的帮助下取得了显著的进步。例如,一个名为Libratus的机器人扑克玩家,连续击败了三位人类玩家,成为扑克界的“阿尔法狗”。在现实中,AI正在改善很多传统的行业,自动驾驶、农业、医疗保健等。

  尽管AI的发展速度有些让人怀疑,当然AI发展存在泡沫,各类媒体也在炒作AI。但是仍然有一些明智的声音:埃隆·马斯克担心人工智能仍然无法做到很多事情。最棘手的有以下几个问题:

  理解人类语言

  从现在来看,机器在处理文本和语言方面比以往任何时候都要好。例如:Facebook可以向视障人士进行图像描述,谷歌邮箱可以对邮件自动做出简单的回答(基于邮件内容进行回复)。然而,AI系统仍然不能真正理解我们的意思和我们真正的想法。波特兰州立大学教授梅兰妮·米切尔(Melanie Mitchell)说:“我们能够把我们学到的概念以不同的方式结合起来,并在新的情况下应用。但,AI并不能做到这一点。”

  Mitchell将今天AI的缺陷定义为数学家Gian Carlo-Rota所说的“意义障碍”,一些领先的AI研究团队正在试图找出如何攀登它。

  这项工作的一部分是在为机器提供一种常识的基础,以及支撑我们自己思维的物质世界。例如,Facebook研究人员正试图通过观看视频来教AI来理解现实。另外一些人,正在模仿我们可以用关于世界的知识做什么。米切尔已经尝试过使用类比和关于世界的概念来解释照片中发生的事情的系统。

  让机器人更像人

  机器人硬件已经做的相当不错了,你可以花500美元购买到高清摄像机手掌大小的无人机,另外搬运箱子和两条腿走路的机器也有所改进。但这并不意味着它可以广泛使用,因为今天的机器人缺乏匹配他们先进的肌肉的大脑。

  让机器人做任何事情都需要针对特定的任务进行特定的编程,他可以从中学习操作。但是这个过程相对较慢。一个捷径是让机器人在模拟的世界中训练,然后把那些来之不易的知识下载到物理的机器人体内。然而,这种方法受到了现实差距的困扰,虚拟的机器人在模拟中学到的技能在转移到物理世界中的机器时并不总是有效。

  但,幸运的是现实差距正在缩小。十月份,谷歌模拟的机器人武器学会拾取包括胶带分配器、玩具和梳子在内的各种物体,从实验报告中我们看到了希望的结果。

  另外,自动驾驶汽车公司在机动化驾驶竞赛中在虚拟街道上部署虚拟车辆,以减少在实际交通和道路条件下测试所花费的时间和金钱。自主驾驶创业公司Aurora的首席执行官Chris Urmson说,使虚拟测试更适用于真实的车辆是他的团队的重点之一。

  防范黑客攻击AI

  互联网诞生之时,就伴随着安全问题。我们也不应该期望自动驾驶汽车和家用机器人会有所不同。而且事实上可能更糟:因为机器学习软件的复杂性,所以存在多种攻击途径。

  今年, 研究表明, 你可以在机器学习系统内隐藏一个秘密触发器, 可以导致系统在看到特定信号时转变为邪恶模式。纽约大学的研究小组设计了一个正常运作的街道标志识别系统除非它看到一个黄色的Post-It。在布鲁克林的一个停车标志上贴上一个便利贴, 系统就会报告这是一个限速标志。这种做法可能会给自动驾驶汽车带来问题。

  这个威胁被认为是很严重的, 世界上最著名的机器学习会议的研究人员在本月早些时候召开了为期一天的关于机器欺骗威胁的研讨会。研究人员讨论了诸如“如何生成让人们看起来很正常但是机器开起来比较特殊的手写数字”等等这样的问题。研究人员还讨论了防止这种攻击的可能性, 并担心人工智能被用来欺骗人类。

  组织研讨会的 Tim Hwang 预测,随着机器学习变得更容易部署和更强大, 使用这项技术来操纵人是不可避免的。他说,机器学习并不再是博士学位的专属。Tim Hwang指出, 俄罗斯在2016年总统选举期间发起的假情报运动可能是AI增强信息战争的先驱。他说:为什么不在这些活动中看到机器学习领域的技术?Hwang 预测的一个特别有效的方法是利用机器学习来生成虚假的视频和音频。

  AI游戏真正的未来在哪?

  AlphaGo在2017年也迅速发展,今年五月,一个更强大的版本击败了中国的围棋冠军。它的创造者DeepMind研究院, 随后又升级了一个版本:AlphaGo Zero,这个版本不用研究人类的棋谱,也能有非凡的下棋技巧,基于此它也学会了下国际象棋和日本象棋。

  人类与AI游戏的结果是令人印象深刻,但也提醒我们人工智能软件的局限性。国际象棋、日本象棋和围棋都很复杂,但是其规则和玩法却比较简单。它们很好的利用了计算机的能力,可以快速枚举许多未来可能的位置。但是,生活中的大多数情况和问题并不是那么有“结构性”。

  这就是为什么 DeepMind 和 Facebook 都在2017年开始研发玩星际争霸( StarCraft)的AI。

  但是目前都还没有获得很好的成果。目前,即使是表现最好的AI机器人的游戏水平也无法和一般水平的人类玩家所匹敌。DeepMind研究员 Oriol Vinyals 告诉《连线》杂志,他的软件现在缺乏组织和指挥军队所需的计划和记忆能力,同时对敌方行动进行预测和反应的能力也不够强。这些技能还可以使AI在现实任务协作方面做得更好, 例如办公室工作或真正的军事行动。如果2018年AI版的“星际争霸”取得重大的进展,那么将预示着人工智能将产生一些更强大的应用。

  让AI辨别是非

  AI即使在上述领域没有取得新的进展,如果现有的AI技术被广泛使用,社会和经济的许多方面也会发生很大的变化。这个时候就会有人担心人工智能和机器学习造成的意外和故意伤害。

  在本月的NIPS机器学习大会上,如何让技术保持在安全和道德的范围内是一个重要的讨论话题。研究人员发现,机器学习系统可以从我们非完美的世界获得数据的训练,进而训练出来的系统是具有偏见性的,如延续性别歧视印象。现在有些人正在研究可用于审核人工智能系统内部运作的技术,并确保他们在投入金融或医疗保健等行业工作时做出公平的决定。

  未来我们应该会看到科技公司提出如何让人工智能拥有人性的想法。谷歌、Facebook、微软和阿里已经开始讨论这个问题,一个名为“人工智能基金伦理与治理”的慈善项目正在支持麻省理工学院,哈佛大学等研究人工智能,纽约大学的一个新研究机构AI Now也有类似的任务。在最近的一份报告中呼吁各国政府不要在刑事司法或社会福利等领域使用“黑匣子”算法。





收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款