AI几乎渗透到我们的生活的方方面面。我们依靠它获得准确的搜索结果,实现对话营销、广告个性化,甚至建议医疗。

尽管在 AI 中取得了一些发展,而且用途广泛,但其中仍有相当的不信任。这种不信任和不安产生于大众媒体在电影中对AI的表述,机器人威胁要推翻人类。

缺乏信心也源于一种对智能机器失去工作的真正威胁。了解导致 AI 问题的原因可能是解决其问题的第一步。让我们来看看对 AI 的信任尚未完全发展起来的一些原因。

您可能还有兴趣:我们是否通过将 AI 塑造为人类思维而使 AI 效率低下?

AI 是一个黑匣子

我们可以跟踪输入进入算法及其给出的结果,但了解它背后的推理或过程仍然是一个谜。目前,AI可以简单地提出相关性,而不是因果关系。

AI 处理大量人类头脑中无法完成的数据的能力意味着,在了解其工作方式和获得准确结果之间存在权衡。

例如,IBM 的超级计算机 Watson最终在医疗诊断的相关性方面失败了。医生不知道其建议背后的原因,也不相信其判断。

AI 的黑盒元素可能存在问题,尤其是在出现问题时。如果自动驾驶车辆做出了导致事故的决定,则说我们不知道为什么发生这样的事件是不可接受的。无法理解为什么 AI 模型会像它那样工作,这可能是不信任它的强烈理由。

AI 未进入上下文

一般来说,理想的工具是一个完全按照它被告知。但在现实中,上下文在决策中起着重要的作用。在交付输出之前,AI 不够聪明,无法了解上下文或信息更改。

例如,Facebook的记忆功能迫使父母通过”记忆”功能重温孩子的悲惨损失。AI 无法理解在特殊情况下所需的额外投入,这使得它在危机期间无法替代。

它可以反映人类的偏见

许多 AI 模型都是使用从人们行为中提取的输入和数据开发的AI引起巨大争议的方式之一是歧视少数群体和妇女。

另一个重要的AI失败围绕着微软的聊天机器人”Tay”,这是通过社交媒体发布的。AI模型是从人们的真实行为和数据不足中发展起来的。区分人类偏见和不道德行为不够聪明,导致重大争议和破坏。

AI 的这些问题表明,为什么它还不是完全可靠的,为什么公众不信任它。建立信任的关键是解释为什么 AI 能够正常工作。为此,可解释的 AI 已成为一种提高透明度的技术。

关于可解释的 AI

可解释的 AI 或 XAI 已作为一类系统而兴起,有助于减少 AI 的黑匣子。它旨在解释 AI 工具的决策过程,并说明系统将来如何工作。可解释的 AI 侧重于创建问责制和可解释性。

请务必注意,XAI 与制定设计决策有关,因此提供明确解释是设计本身的一部分。XAI 不是可以自动提供解释的 AI 产品。

XAI 与了解用于培训 AI 的训练数据、选择适当的决策引擎以及选择算法有关,这些算法可以在决策完成后解释这些算法。

您可以使用工具和框架来帮助设置可解释且包含的机器学习模型。可解释的 AI 的关键是从开始。您需要能够检测模型中的漂移、偏差和其他重要间隙。使用正确的工具还将帮助您找到输入数据中的这些差距。持续测试和评估模型以提高其性能并捕获任何不良偏差的迹象也很重要。

结论

使用 XAI 方法构建模型可创建透明度和透明度、信任性。然而,重要的是要记住,AI越”可解释”,其功能就越不令人印象深刻。在从大量数据获取准确的数据和了解 AI 模型的决策之间,有必要做出权衡。

在许多方面,创建可解释的 AI 并不总是可取的。我们接受很多事情,却没有充分理解原因。长期以来,没有人理解阿司匹林是如何工作的。安慰剂效应也是我们不接受的另一个众所周知的现象,我们不理解它。

在不限制 AI 预测结果和做出决策的潜力的情况下,努力实现可解释性非常重要GDPR的实施表明,人们越来越重视公平和人民的权利。它还推动 AI 决策透明化。很明显,XAI 正在增长,剩下的就是确保 AI 的发展造福于人们,而不是损害他们的利益。

进一步阅读

你会相信一个自动医生吗?

研究:我们最信任的AI建议

Comments are closed.