多少人对人工智能有误解?AI中的基本事实是什么?

2020-04-01 09:15:27
读芯术
人工智能
随着机器学习和人工智能领域的无限拟人化,很多商人都错误地把人工智能当做一个目标,一个知道所有正确答案的公正的同事。这里有一个快速演示,展示了为什么这是一个可怕的误解。

来源:power-bd

提示:以下所有的链接会引到同一作者的其他文章。

随着机器学习和人工智能领域的无限拟人化,很多商人都错误地把人工智能当做一个目标,一个知道所有正确答案的公正的同事。这里有一个快速演示,展示了为什么这是一个可怕的误解。

几乎每位人工智能学生都不得不经历的任务是建立一个系统,这个系统可以将图像分类为“猫”(包含一只猫的照片)或“不是猫”(没有可以看见的猫)。其原因是识别对象是一个对人类来说相当容易的任务,但是真的很难去说明人类是如何完成的(所以将明确的描述“猫”的规则编成代码是非常困难的)。这些种类的任务对于人工智能来说是完美的。

样例

叹息声来自已经在人工智能周围一段时间的人们—他们烦恼于是/否是猫的任务。很公平,但就这一次使笔者感到幽默。对于这个练习,人们将会是笔者的人工智能系统。笔者的工作是将下面的六幅图片归类。只可以从两个标签/输出中选择:

Cat

Not cat

来吧。为6个图像中的每一个指定一个允许的标签,就像人工智能系统会做的那样:

花费一点时间去给每一个图片写上标签(猫/不是猫)

啊哈!1-5的图片是简单的,但是第六张图片令人犯嘀咕?“体型大的猫”?“有一点像猫”?“也许是猫”?这些都是不允许的选择!这是一个只输出“cat”或“not cat”的系统。那是哪一个?

请转到本视频中的4:16,向现场观众演示本文的演示。

因此,人们开始看到项目决策者的重要性。正确的答案不是柏拉图式的,当然也不是来自人工智能系统……事实上,没有“正确”的答案。“正确”的答案取决于系统所有者希望系统做什么。

AI不能设定目标-那是人类的工作

如果试图建立一个宠物推荐系统,只推荐那些成年后可以安全拥抱的动物,那么答案就很清楚了。对该系统的预期用途是指正确的操作是将图像6标记为“不是猫”。如果现在还在给它贴“猫”的标签,那么……笔者建议多买点人寿保险。

机器学习的“正确”答案通常在旁观者的眼中,因此一个为一个目的设计的系统可能不会为另一个目的工作。

如果打算为其他目的对猫进行分类,那么“正确”的答案可能会有所不同。目的或目标来自于人类的决策者!不谈柏拉图,不同的答案将适合不同的项目。在人工智能中,目标总是主观的。这取决于项目业主的主观判断。(这取决于其他人的理解,人工智能系统有很多主观性融入其中。)

在人工智能中,目标总是主观的!人工智能系统有很多主观性。

决策者必须作为负责任的父母,选择他们希望系统复制的行为……而且几乎从来没有一种“正确”的方式来定义类别和设定每个决策者都会同意的目标。这些事情由个人决定。不同的人会发现适合复制的不同行为集。

如果继承了笔者的系统,而意图与笔者的不同,或者打算将它用于不同的目的,而不是笔者为之设计的目的——例如,如果对什么叫猫有不同的看法,可能会发现笔者的系统不适合。它甚至可能造成伤害,尽管它让笔者非常高兴。

如果那样的话,那是你的错,而不是笔者的错;太蠢了,以为只有一种方法可以定义事物。认为一个有数学成分的系统不可能有歧义和人为缺陷,所以最终得到了一个错误问题的伟大解决方案,因为这是笔者的问题。

应该经常测试别人开发的人工智能系统,尤其是如果不知道他们是如何定义自己的目标的。

笔者是说不能使用其他人工智能工程团队开发的系统,每次都必须从头开始构建自己的系统吗?一点也不。然而,确实需要对正确执行任务的意义形成清晰的概念(例如,如果有老虎该怎么做),并且需要在自己的一组示例(例如亲手标记的照片)上仔细测试正在考虑继承的系统。

什么是基本真理?

来源:Pexels

你可能听说过“基本事实”这个词在ML/AI空间中流传,但它是什么意思?新闻快报:基本事实并不真实。这是一个理想的预期结果(据负责人说)。换句话说,这是一种通过创建一组具有输出标签的示例来总结项目所有者意见的方法,这些所有者认为输出标签是可以接受的。它可能涉及手工标记示例数据点或将传感器“放在地面”(在一个精确的真实位置)以收集所需的答案数据,用于培训系统。

新闻快报:基本事实并不真实。

例如,根据项目负责人的意见,一组图像可能被精心手工标记为cat或not cat,这些cat/not cat标签将被称为项目的“基本事实”。

这到底是什么?!猫还是不猫?看电影《猫》的预告片时,笔者忍不住要擦亮眼睛。

当这样一个数据集被用来训练ML/AI系统时,基于它的系统将继承和放大决定理想系统行为的人的隐含值。

基于数据创建机器系统时,给系统注入价值观。

当讨论这个话题的时候,请注意,通过让受信任的人执行任务来创造“基本事实”是会受到各种错误的影响的,包括人为错误。通过基于共识的数据收集工作流程、反应时间监控和聪明的用户体验(UX)技巧(减少数据输入错误的可能性)等方法,尝试将此错误的可能性降至最低是一个好主意。(更多内容将在以后的文章中介绍。)

让项目的决策者随机检查一个样本,以检查质量是否足够高,这总是一个好主意。

如果在互联网上找到一个数据集并使用它而不是自己收集呢?然后,你的项目继承了创建数据集的人的隐式值和偏见。一路上总有一些主观的要求,不管是谁提出的,都会为项目确定“对”和“错”。小心信任的人!决策者有很多话要说,他们要花时间自己完成任务,以便更好地理解他们试图解决的问题,以及数据、目标和边缘案例。

警告(如何做一个好公民)

来源:Pexels

笔者写了很多文章来赞扬对ML/AI系统的仔细测试,但是要小心!由于整个过程从根本上导致了定义和目标的主观性,所有测试都将根据团队决策者喜欢的答案进行。不幸的是,这些主观方面的愚蠢首先是没有测试的。对决策者没有任何制衡,除非其他决策者审查了他们在项目第一阶段所作选择的理由。

没有一个测试可以检验主观定义和目标的愚蠢,所以请明智地选择项目负责人。

现在知道了所有ML/AI项目的第一部分是多么主观,可以在一个日益被人工智能淹没的社会中成为一个更好的公民。与其表面上接受人工智能解决方案,还不如问问自己:

· 谁建立了这个系统?

· 他们的(主观)目标是什么?

· 他们如何定义正确答案?

· 大多数人会提出类似的定义吗?

· 如何创建基本事实数据集?

· 这个系统打算惠及哪些人?

· 错误会有多痛苦?

· 是否内置了适当的安全网?(系统创造者是否谦卑地预见到他们的选择可能是不明智的,并据此制定计划?)

在很多情况下,对这些问题的回答不会显示出任何可怕的东西。人工智能已经在周围了,在很大程度上它是精心设计和营养丰富的。

唉,偶尔会发现自己陷入了困境。

来源:Pexels

例如,不想成为短视的欺诈检测系统的牺牲品,该系统对金融欺诈的定义过于草率,特别是如果允许这样的系统在不给人们提供证明自己清白的简单方法的情况下诬告他们。那是一个乞讨麻烦的火药桶。作为一个负责任的公民,应该注意到易燃的情况并把它们叫出去。

一旦开始看到人工智能游戏中固有的主观性,就会有更好的武器去召唤出丑陋的人类元素,如果没有人监管,这些元素可能会被放大。

收藏
免责声明:凡注明为其它来源的信息均转自其它平台,由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本站联系,我们将及时更正、删除,谢谢。联系邮箱:xiali@infoobs.com