导读 | 在未来十年,人工智能有一个领域需要改进:透明度。但人工智能将如何应对“信任危机”呢? |
人工智能更像一个黑匣子。只有开发者知道里面的算法是如何运作的,但对于其他人来说,AI的机制仍然很模糊。企业希望用户相信人工智能的运行和判断是完整且准确的。但如果不了解这些运作的来源——哪些数据和逻辑构成了它们的基础——就很难让我们相信人工智能。
随着人工智能进入日常生活,这种透明度的缺乏越来越不可接受。从招聘决定到警察行动,一切都由人工智能决定时,怎么保障其准确和公平。随着这些趋势的继续,人工智能提出了关于偏见、公平和对机器的信任的难题。例如,亚马逊开发的人工智能招聘工具被发现对女性有偏见。这一发现表明,这项技术远没有预期的那么客观。
经济合作与发展组织(OECD)等机构组织已经开始要求提高人工智能的透明度。欧盟通过的具有里程碑意义的《通用数据保护条例》(GDPR)允许个人了解算法如何利用其数据。这些都是朝着正确方向迈出的步骤,也清楚地表明了人工智能的发展方向。但让人工智能过于透明也存在风险。
当人工智能变得更透明时,它也更容易被操纵。把它想象成一个保险箱——一旦你揭示了锁机制的工作原理,保险箱就会变得更容易被破解。
对于不透明的AI所造成的所有问题,我们很容易想象,当AI的内部工作方式暴露出来时,也会出现同样多的问题。一旦糟糕的参与者理解了算法的工作方式,他们就有可能通过输入人工智能篡改的数据集或调整潜在逻辑来实现自己想要的结果。想象一下,如果一位教授公布了给学生作业打分的算法的得分代码。学生们就可以利用评分系统。
还有一些关于知识产权的问题需要考虑。大多数算法都是由企业开发的,它们的工作方式被认为是公司的秘密——就像可口可乐的配方一样。这是一个敏感的问题,呼吁人工智能开发者将他们的源代码发布给专门的监管机构,他们可以提供监督。
无论最终实现何种解决方案,有一件事是清楚的:完全透明的人工智能可能会带来麻烦。要让这项技术发挥作用,有些东西必须是未知的。
未来的人工智能将在透明和保密之间取得谨慎的平衡。在公共部门、私人部门和消费部门之间不可避免的一轮交锋之后,这种情况将以何种形式出现还有待观察。不过我们还是可以看到一些端倪。
提高AI的透明度不仅仅是打开大门那么简单。理解算法实际上在做什么需要严格的审查。可解释的人工智能(XAI)利用可解释的机器学习算法,使人工智能操作员和用户能够理解人工智能系统为什么会做出这样的决定。许多公司已经在宣传他们的机器学习解决方案的可解释性。美国国防高级研究计划局(DARPA)已经投资了多个研究项目,重点是技术的环境适应性。这项多年投资是该机构“AI Next”活动的一部分。总体目标是开发可以自动运行的人工智能,同时不会让人担心幕后的机器如何做出决定。
随着这些工具的激增,用户将期望他们的数据旅程的所有方面都是可解释的。他们不会要求知道到底发生了什么,但他们也不会满足于昨天的黑盒方法。
未来十年,人工智能将在各个方面得到改善,因为它将越来越多地融入日常生活的方方面面。
但最大的变化将涉及我们自己的态度。随着人工智能获得了做更多事情的能力——并告诉我们它是如何做到这一点的——我们将很高兴地赋予它新的职责,而不必担心失去控制权的风险。
原文来自:
本文地址://gulass.cn/intelligence-faces-trust-crisis.html编辑:J+1,审核员:清蒸github
Linux大全:
Linux系统大全: