跳转到主要内容

随着所有行业对人工智能的呼声越来越高,IT 领导者必须掌握使用人工智能收集业务洞察力的黑暗秘密。

人类一直梦想着某种无所不知、无所不能的精灵能够承担其工作量。现在,多亏了实验室计算机科学家的辛勤工作,我们在人工智能方面有了答案,如果你相信这种炒作,它几乎可以做你公司需要做的任何事情——至少是其中的一部分,在某些时候。

是的,人工智能的创新是惊人的。对于 10 到 15 年前的时间旅行者来说,像 Siri、Alexa 或 Google Assistant 这样的虚拟助手似乎很神奇。你的话就是他们的命令,与 1990 年代的语音识别工具不同,他们通常会给出正确的答案——如果你避免像问有多少天使可以在针头上跳舞这样的曲线球问题。

 

但是,尽管 AI 具有魔力,但它们仍然依赖于计算机编程,这意味着它们会受到阻碍电子表格或文字处理器等更多行人代码的所有限制。它们在处理世界上各种变幻莫测的统计数据方面做得更好,但归根结底,它们仍然只是通过计算函数并确定某个数字是大于还是小于阈值来做出决策的计算机。在所有巧妙的奥秘和复杂算法的背后,是一组实现 IF-THEN 决策的晶体管。

我们能忍受这个吗?我们有什么选择吗?随着所有行业的人工智能鼓声越来越响亮,我们必须开始学会接受人工智能的以下黑暗秘密。

您在 AI 中发现的大部分内容都是显而易见的


对于人工智能科学家来说,最艰难的工作就是告诉老板人工智能已经发现了每个人都已经知道的东西。也许它检查了 100 亿张照片,发现天空是蓝色的。但是如果你忘记把夜间照片放在训练集中,它就不会意识到晚上天黑了。

但是人工智能如何避免显而易见的结论呢?数据中最强的信号对于任何在战壕中工作的人来说都是显而易见的,对于挖掘数字的计算机算法来说也是显而易见的。它们将是猎犬带回并落在您脚下的第一个答案。至少算法不会期望得到款待。

利用细微的人工智能洞察力可能不值得


当然,当数据准确时,优秀的 AI 也会锁定细微的差异。但是使用这些小见解可能需要对公司的工作流程进行深刻的战略转变。一些微妙的区别太微妙了,不值得追求。计算机仍然会为它们着迷。问题是大信号很明显,小信号可能会产生很小甚至不存在的增益。

神秘电脑更具威胁性


虽然早期的研究人员希望计算机算法的数学方法能够为最终决定带来可敬的气氛,但世界上许多人并不愿意向逻辑之神投降。如果有的话,人工智能的复杂性和神秘性使任何对答案不满意的人更容易攻击这个过程。算法有偏见吗?引擎盖下的神秘和复杂性越多,世界怀疑和愤怒的理由就越多。

AI主要是曲线拟合


数百年来,科学家们一直在绘制一些嘈杂的数据并在这些点上画线。机器学习算法核心的许多 AI 算法就是这样做的。他们获取一些数据并在其中划出一条线。大部分进步来自于找到将问题分解为数千、数百万甚至数十亿个小问题的方法,然后在所有这些小问题上画线。这不是魔术。它只是我们几个世纪以来从事科学工作的装配线。不喜欢人工智能并且发现在其决策中很容易戳破洞的人会关注这样一个事实,即通常没有深刻的理论或哲学支架可以为答案提供可信度。这只是对某条线的斜率的猜测。

收集数据才是真正的工作


每个开始学习数据科学的人都开始意识到,科学没有太多时间了,因为找到数据才是真正的工作。人工智能是数据科学的近亲,它也面临着同样的挑战。这是 0.01% 的灵感和 99.99% 的文件格式、丢失的数据字段和字符代码。

您需要大量数据才能得出更深入的结论


有些答案很容易找到,但更深入、更复杂的答案通常需要越来越多的数据。有时数据量会呈指数级增长。人工智能可以让你对越来越多的比特充满贪得无厌的胃口。

你被数据的偏见所困扰


就像柏拉图洞穴的居民一样,我们都受到我们所见所闻的限制。人工智能也不例外。他们受到训练集的明确限制。如果数据中存在偏差——而且会有一些偏差——人工智能将继承它们。如果数据有漏洞,那么人工智能对世界的理解就会有漏洞。

人工智能是电力的黑洞


大多数优秀的游戏都有最终关卡或最终目标。然而,人工智能可能会变得越来越复杂。只要你愿意支付电费,他们就会不断推出更复杂的模型,包括更多的节点、更多的关卡和更多的内部状态。也许这种额外的复杂性足以使模型真正有用。也许一些紧急的感知行为会在下一次运行中出现。但也许我们需要更大的 GPU 集合在夜间运行才能真正捕捉到效果。

可解释的人工智能只是另一只乌龟


人工智能研究人员最近一直在投入更多时间试图解释人工智能在做什么。我们可以深入研究数据,发现经过训练的模型在很大程度上依赖于来自数据集特定角落的这些参数。但是,通常情况下,这些解释就像魔术师提供的解释,他们通过表演另一种技巧来解释一种技巧。回答为什么这个问题出奇地难。您可以查看最简单的线性模型并盯着参数,但通常您会摸不着头脑。如果模型说将每年行驶的里程数乘以 0.043255,您可能想知道为什么不是 0.043256 或 0.7,或者可能是 411 或 100 亿之类的惊人差异。一旦你使用了一个连续体,沿轴的所有数字可能都是正确的。

这就像地球只是坐在一只巨大的海龟上的旧模型。这只乌龟站在哪里?在另一只海龟的背上。下一个站在哪里?一路下来都是乌龟。

努力做到公平是一个挑战


您可以将身高排除在训练集之外,但您的 AI 程序很有可能会找到其他代理来标记较高的人并为您的篮球队选择他们。也许这将是鞋码。或者也许到达。人们一直梦想着让中立的人工智能做出公正的决定会让世界变得更公平,但有时这些问题深深植根于现实,算法无法做得更好。

有时修复甚至更糟


强迫人工智能公平有什么真正的解决方案吗?一些人试图坚持 AI 以一定的预定百分比产生结果。他们将拇指放在秤上并重写算法以更改输出。但随后人们开始怀疑,如果你已经决定了你想要的答案,为什么我们还要费心进行任何培训或数据分析。

人类才是真正的问题


当风险较低时,我们通常对 AI 感到满意。如果你有 1000 万张图片要排序,如果某些 AI 在大多数情况下都能产生相当准确的结果,你会很高兴的。当然,可能存在问题和错误。一些故障甚至可能反映了人工智能偏见的深层问题,这些问题可能值得写一篇 200 页的细碎论文。

但人工智能不是问题。他们会做他们被告知的事情。如果他们变得挑剔并开始生成错误消息,我们可以隐藏这些消息。如果训练集没有产生完美的结果,我们可以把抱怨的结果放在一边,要求更多的数据。如果准确度不够高,我们可以将结果归档。人工智能将重返工作岗位并尽其所能。

然而,人类是一种完全不同的动物。人工智能是他们的工具,而人类将是那些想要利用它们来寻找优势并从中获利的人。其中一些计划将是相对无辜的,但有些计划会受到预先考虑的秘密恶意的驱使。很多时候,当我们遇到一个糟糕的 AI 时,是因为它是某些人的绳子上的傀儡,它从不良行为中获利。

本文:https://cioctocdo.com/12-dark-secrets-ai