你好,游客 登录
背景:
阅读新闻

人工智能必须培养良知:限制可能潜入数据驱动决策的无意识偏见

[日期:2019-09-24] 来源:企业网D1Net   作者: [字体: ]

  在好莱坞的电影中,有很多关于人工智能(AI)在未来世界发生的故事。可以肯定地说,这个未来不会很快到来——虽然人工智能具有很多功能和能力,但人类的创造力和知识能力还有待匹配。这意味着做出的重大决策仍然掌握在人类的手中。

  在当今世界,人工智能可以选择求职面试的应聘者,并决定谁有资格获得工作职位,并且可以为患者进行诊断。而在这些情况下采用人工智能取代人类,在速度和效率方面取得了长足的进步。

  甚至有人认为,人工智能可以在未来几年内取代30%的劳动力。但是,拥有强大的力量也会有很大的责任。为了保障获得结果,需要开发可以更公平分享这些好处的人工智能。

  事实上,人类可以与新兴技术实现共生发展,虽然这意味着人工智能可以从人类身上得到好的结果,但它也可能导致坏的结果,因为人工智能也纳入了一些人们糟糕的恶习。如果现在不采取措施,无意识的偏见已经是社会很大的挑战之一,这可能会一直持续,甚至成为根深蒂固的结构性偏见。

  数据可以告诉人们很多信息,但不会告诉一切。人们不想看到的是可以评判自己的世界,不是关注的能力或潜力,而是留下的数据线索。很明显,要想让人工智能成为一支良好的力量,它需要针对其设定任务和公平性进行优化。

  无意识的偏见是一个数据问题

  “垃圾输入,垃圾输出”这个短语在软件开发行业中是一个众所周知的格言,并且有着充分的理由。尽管人工智能已经变得如此复杂和强大,但它仍然是为执行特定任务而设计和训练的一系列算法。人工智能依赖于为其发展提供的数据。

  它只能分析所拥有的数据,并试图从中获得好的结果。在行业人士看来,糟糕的决定实际上是从一组糟糕的数据中做出的决策。不过,这并没有降低问题的严重性。

  像微软公司的Tay chatter bot或Yandex公司的Alice虚拟助理这样的案例实验很好地展示了当自学习解决方案输入错误数据时会发生什么。在这两种情况下,人们都期望公开、持续的人际互动将有助于解决方案发展出令人信服的个性。不幸的是,与一连串进攻性的接触创造了一种系统,这种人工智能系统学会习惯性地攻击。

  然而,当人工智能做出的决定开始影响人们的生活时,其后果可能会严重得多。在未来决策由数据驱动的情况下,人们须保障数据集中的少数群体不会被剥夺应该获得的权利。

  例如一种面部识别算法,该算法只使用浅肤色模型的图像进行训练。当人工智能算法遇到肤色较深的用户时,它可能会错误识别,甚至根本无法识别他们。

  如果这项人工智能面部识别技术成为招聘或薪酬体系的基础,想象一下会产生什么样的影响。通过这种方式,某些群体可能处于不利地位,会有更糟糕的用户体验,甚至根本无法获得服务。这种歧视可能不是故意的,但其影响同样具有破坏性。

  无意识的人工智能偏见从根本上来说是一个数据问题。如果没有一个包含多样、数据的大型数据库,未来的人工智能就有可能在没有完整背景的情况下自动创造出社会的赢家和输家。因此,组织采购大和广泛的数据集很重要。

  当然,他们还需要保障他们的人工智能解决方案能够有效地使用所有这些数据。这意味着强大的数据管理工具和政策,保障数据被分类、整合、简化,以供人工智能使用。如果企业缺乏完善的基础设施和治理,那么收集和存储这些数据是没有意义的。

  数据多样性

  解决方案并不像越来越多地收集数据那么简单。仅仅因为企业要从比其他公司拥有更多的数据中提取数据,并不意味着数据集的质量更高,也不会产生更公平的结果。

  例如,工程部门的人力资源部门可能有大量的历史数据可供参考,但如果该部门历史上一直由男性员工主导,那么女性应聘者可能很难被人工智能算法视为理想候选人。

  要解决人工智能中的无意识偏见,好的办法就是意识到这些。很多公司将人工智能视为输入和输出的黑盒解决方案,但要保障算法的公平性,就需要深入了解解决方案的工作原理及其与数据的交互方式。

  在设计阶段,企业需要清楚地了解想要避免的结果以及想要实现的结果。然后将该理由应用于人工智能将训练的数据集,保障所有性别、社会和种族群体的公平代表性。

  企业如何决定什么是“公平”这是一个更大、更微妙的话题,甚至可能解决人工智能中的偏见。道德标准因企业而异,因此企业领导及其员工应制定一个他们能达成一致,并进而影响其解决方案的道德框架。然而,透明度是关键——任何组织都不应害怕向公众或其员工解释这些决定是如何达成的,或是如何实施的。

  自上而下的方法并不是一个很好的方法。对一个人来说公平的东西对另一个人来说可能是有问题的,或者看起来是错误的。创建共识的一个好方法是建立一个多元化委员会,由来自企业的利益相关者组成。而多元化委员会的决定可以转化为人工智能解决方案和支持它的数据集。

  限制偏见影响

  每个人都会被无意识的偏见所困扰,人们可能很难承认这一点,甚至也没有意识到这些偏见。要保障未来发展的人工智能中没有这种偏见,好的方法是首先承认这种偏见的存在。

 

  然后,人们可以制定减少和限制偏见影响的策略,并保障不将其传递给人工智能技术。同样,对于如何培养和发展人工智能,人们也应该进行培训和发展。





收藏 推荐 打印 | 录入:Cstor | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款