我们的专业付出,值得您的永久信赖!为您量身定制,信誉第一!

订货热线:18090644387

推荐产品
  • 欧国联:葡萄牙3-2逆转波兰 A席B席建功莱万哑火_爱游戏首页
  • 罗乙: 阿格斯战胜斯拉戈夫体育 比分3:2
  • 爱游戏官网|深圳出台39条举措支持自由贸易试验区深化改革创新
当前位置:首页 > 产品中心 > 包装夹板
爱游戏首页_深度长文:关于AI,你最该了解可也许从没想过的四个问题

 


97015
本文摘要:(公共编号:)人工智能在当今社会受到讨论,但细心考虑的话,可能不知道其基本的运营逻辑。

(公共编号:)人工智能在当今社会受到讨论,但细心考虑的话,可能不知道其基本的运营逻辑。人工智能和机器学习一样吗?人工智能能能解决所有问题吗?否则,人工智能能能解决哪些问题?如何区分这些问题?对人工智能来说,什么确实很困难?人工智能给社会带来了什么挑战?前几天Medium着名博客Yonatan,Zunger发表了关于人工智能的深刻长篇,可以说是罕见、深刻、趣味兼备的最佳科学普及。在不改变意图的情况下,在过去的几年里,我们还在讨论人工智能(AI)如何拯救或破坏世界:自己开车不利于维持生命的社交媒体泡沫破坏民主的机不会失去人类烤面包的能力。

你可能很准确,有些是胡说八道,有些是现实的。但是,如果不知道沉浸在这个领域的话,有可能很难区分真伪。对于想自学人工智能编程的人来说,网上有很多启蒙运动教程,但对于想成为软件技术人员和数据专家的人来说,人工智能的概念的理解和面临的社会和伦理学的挑战是不够的。如果全社会都知道要辩论人工智能,那么我们就要解决问题这个问题。

因此,今天我们将讨论人工智能的现实:它能做什么,不能做什么,将来能做什么,它给一些社会、文化和道德挑战。包括可能的挑战,其中一些,如泡沫和欺诈信息,大的必须用整篇文章来说明。

然而,我会给你一个充分的例子来解释我们面临的确切问题,你需要独立国家明确提出自己的问题。让我再给你一部戏:大多数最好的挑战不是来自技术。

人工智能仅次于的挑战往往是从头开始的,它在我们编程的时候非常具体地传达我们的目标,完全没有别的——有时候我们想对自己说实话。1人工智能和机械学习在写这篇文章时,在某种程度上用于术语人工智能和机械学习。这两个术语意味着完全相同的东西,原因很奇怪。

因为历史上人工智能几乎被定义为任何电脑都不能做的事情。多年来,人们讨论下棋需要确实的人工智能,模拟对话需要确实的人工智能,或者识别图像需要确实的人工智能,每次构筑这些事情,人工智能的界限都会移动。

人工智能这个词太可怕了,它和我们人类定义自己的方法和人类不同的东西太接近了。因此,在某些情况下,专家不会用机器学习这个术语开展对话,卡住了。如果我只是谈论机器学习,就不会一起成为特别的机器。

因为即使是专家,也总是谈论人工智能。那么,让我们来谈谈什么是机器学习和人工智能。

从最严格的意义上说,机械学习是预测统计学领域的一部分,制作系统需要提供过去再次发生的信息,利用这些制作与环境有关的模型,预测在其他情况下再次发生的可能性。非常简单地说,就像把车轮换到左边的时候,车一样简单,往往很难理解人的生活和品味。

你可以用这张照片来理解每个人工智能的功能:有一个可以感知世界的传感器系统。这些系统可以指摄像机和LIDAR查阅文档的网络爬虫。还有一些其他系统限于这个环境,比如开车,或者根据分类客户展示广告。

有时候,这个系统是一台机器,有时候是一个人。他必须根据一些非常简单或太大的事情做出要求。他不能马上思考这么多——比如整个互联网。要把两者联系起来,你必须要有一个盒子,你需要提取对这个世界的理解,并明确提出一些建议,告诉他如果你采取各种行动,你可能会再次发生什么。

中间的箱子被称为模型,只有这个世界是怎样工作的模型,那个箱子是人工智能的一部分。上面的图表还有其他单词,听专家讨论AI的话可能会听到。特征只是完全理解的升华,包括模型设计者指出简单的部分理解。

爱游戏官网

在一些AI系统中,特征只是完整的理解——例如,照相机的各像素所看到的颜色。这么多特征对人工智能有益,因为它对什么最重要,什么也不重要,但它使人工智能本身更加无法构建。

这意味着在过去的十年里,有可能建立足够大的计算机来处理这个问题。预测是另一端不会产生的结果:当你向模型展示一些特征时,它通常不会给你很多可能的结果,也不会给你最好的解释每个结果的可能性。

如果你想要一个人工智能的要求,那么它应用于一些规则——例如选择最可能顺利的人或选择最不可能导致灾难结束的人。对于系统来说,权衡可能的成本和收益,重要性远如模型本身。现在,你可以想象一个非常简单的模型,它有一个明确的用途规则:例如,原蒸汽机上的机械调节阀是一个非常简单的模型,一端的压力,如果压力达到某个原始点的推杆,它就不会关闭阀门。

这是一个非常简单的规则:如果压力低于设定值,关闭阀门,否则重新打开阀门。这种阀门非常简单,因为它只需要参考一个输出,并提出一个要求。如果需要依靠成千上万甚至数百万输出的信息来要求更简单的东西——比如如如何控制汽车(各自的视觉、听力等),或者哪个网页可以得到最坏的答案(这是时间繁荣还是专业的脊椎动物争论者,这个网站是由热情的爱好者创立的,还是只想卖廉价的树袋熊壮阳药)——这是不简单的AI模型的特点是为此设计。

任何人工智能模型都有综合所有特征的一系列规则,所有特征都依赖数百万甚至数百万个分离按钮,告诉他如何在不同情况下权衡所有特征的重要性。例如,在被称为决策树的人工智能模型中,模型看起来像是Yes/No问题的巨大树。如果人工智能的工作是指在三文鱼中分配金枪鱼,那么第一个问题可能是图片的左半部分比右半部分暗,最后一个问题是根据以前的374个问题的答案,这个方形的平均颜色是橙色还是红色?这里的按钮是通知问题的顺序,每个问题是和还是之间的界限是什么?魔法是找不到可靠的三文鱼和金枪鱼的正确问题组。

太多了。所以,一开始,AI就运营在培训模式。人工智能展示了一个又一个例子,每次调整旋钮,以更好地猜测以后不会发生什么,每次错误都会自我缺失。

看到的例子越多,不同的例子越多,偶然找到重要的能力就越强。训练后,旋钮的值相同,模型可与确实的执行器连接。ML模型与人类在某种程度上完成任务的优势相比,一个ML模型一般需要几毫秒,人也需要这么多时间。

(开车的时候还是这样)。他们的确优势是,他们真的很无聊或犹豫。

ML模型在不同的数据段落中可以达到数百万或数十亿次的要求,使数据更好也更糟糕。这意味着你可以应用于人类不擅长的问题。例如,单独搜索数十亿页面或司机车。

人类司机的车很差,2015年仅在美国就有35,000人死于交通事故。这些交通事故大多是犹豫和司机犯规的原因——人们一般都做得很好,但在某个关键时刻犯规了。驾驶员必须有很大的集中力和迅速的反应能力。也许可以指出也可以,但不好的是,这个能力必须持续几个小时,事实证明我们实质上接近了。

)当有人谈论在项目中使用人工智能时,他们的意思是将项目分解成上面画的图,然后建立一个准确的模型。这个过程首先收集训练的例子,这一般是最困难的任务,然后自由选择模型的基本形状(即神经网络、决策树等),这些都是针对不同问题的基本模型)进行训练,然后最重要的是明确什么是恐怖的,进行调整。例如,看下面的6张照片,找到前3张和后3张的重要区别。

如果你认为前三张有地毯,你认为是对的!当然,如果你推测前三张是灰猫照片,后三张是白猫照片,你也是对的。但是,如果用这些图像训练灰猫探测器的话,模型试图对训练图像进行评价的话,可能会得到优秀的表现,但是在现实工作中这个模型的表现并不差。

因为模型实际上教的是灰猫是地毯上类似猫形状的东西。当你的模型自学到了训练数据的特质,但并不是你确实关心的时候,这叫做超值。建立ML系统的人大部分时间都在担心这个问题。

2人工智能擅长什么,不擅长什么,现在我们已经谈到了什么是AI(或ML),接下来我们来谈谈它是简单还是多馀。如果你想建立的目标和建立这些目标的手段都需要很好的解释,那么这个问题就不需要人工智能了。

例如,如果您的目标是将车轮上的所有螺母拧至100英镑,您只需要一个需要拧紧和测量扭矩的组织,并在扭矩超过100时暂停拧紧。这叫做扭矩扳手。如果有人给你一个人工智能扭矩扳手,你必须回答他们的第一个问题。这些降低了AI门槛,你需要的只是一个非常简单的机制。

人工智能帮助解决问题的问题是,目标是具体的,但实现目标的手段不具体。在以下情况下,最容易解决的问题是外部刺激的数量受到限制,因此模型需要理解需要控制的数量受到限制,因此不必考虑过多的自由选择范围刺激或者需要实现的要求数量相当大,不能写规则,需要更简单地将动作连接到外部这些东西本质上比看起来更无能为力。例如,现在拿起你旁边的东西,比如我拿着机器的蒸汽罐。

现在再慢一点,看看你的胳膊是怎么运作的。我的手臂慢慢地沿着肘部旋转,把手从键盘水平移动到离罐子几英寸的横向方向,马上停止。然后它向前移动,同时把手掌关上的东西比罐头大一点,比第一个动作快很多,但只是速度很快,直到看到拇指在其他手指的对面,其实我的其他手指被罐子遮住了视线。

然后我的手指张开,直到遇到阻力立刻停止。然后手臂开始被抱住,这次从肩膀上握住,手握住罐子,不会变形。

实际上,我们走路的时候脸摔倒是不可思议的,看起来很平时。下次去房间的时候,要注意路线清晰,每次倾斜或移动身体,或者把脚放在不出面的地方。运动计划这个问题在机器人技术上非常困难。这是一项非常困难的任务之一,我们的大脑比其他事情多两倍,专心做这件事。

这使我们完成的看起来比实质上简单得多。同属的其他任务是脸部识别(我们大脑的视觉功能大部分不是标准化视觉,而是专门用于脸部识别),解读单词,识别3D对象,不会遇到障碍物。我们指出这些并不困难。

因为对我们来说很直观,但是之所以这么简单,是因为我们有专业的器官组织负责管理,擅长这些。对于这一系列狭窄的任务,计算机做得不好,不是因为他们比其他类似的任务差,而是因为人类在直觉上擅长这些,所以可接受性能的基础非常低。

如果我们的大脑没有专心理解脸的话,我们看人就不会像猛犸象那样——现在电脑就是这样。无视,人类的连接方式使计算机更加智能化。例如,人脑的有线连接指出,某种活跃的事实上是有生命的。

这意味着与人类展开令人信服的对话,不需要整体解读语言。只要你能在一定程度上把话题保持在焦点上,人类就不会自动失去不正确的东西。这就是语音助顺利的原因。最值得一提的例子是ELIZA,1964年模仿罗杰亚心理治疗师的人工智能,不会解读你的句子,更好地描写各种各样的事情,深深地感到困惑的话,就不会回到告诉我妈妈这样的安全性问题上,这只是笑话,但是对话后感觉很明显。

为了解读上述最后一个问题很难把你带走。必要的行动和结果联系起来的时候-可以考虑自学游戏视频游戏。行动的结果很明显。

应该拐弯的时候拐弯,撞到墙上的话游戏就会结束。然而,当你更擅长比赛时,你不会开始意识到不好,我错过了一个提高,我会在五分钟内结束,你可以预测更幸运的后果。你必须花很多时间解读游戏机制,然后解读连接。

AI也存在一定程度的问题。我们谈到了目标和手段的正确情况和目标正确但手段不正确的情况。

另外,在第三种情况下,AI不能协助。也就是说,连目标本身都没有很好地解读。

然而,如果你不能给人工智能一个好的和害怕的解决方案,你能从中学到什么?我们之后不会再说这些问题了。因为哪个问题属于这个领域,经常是最棘手的道德问题。实质上,我们不告诉顺利的确实意思(在这种情况下,你是怎么说顺利的?(或者更糟糕的是,我们告诉你——但是我们真的想否认自己。

计算机编程的第一条规则是他们不擅长自我愚弄:如果你想让他们做某事,你必须向他们解释你想要什么。在我们开始谈论道德之前,还有另一种分析人工智能的方法。

最容易的是,在可预测的环境中有具体的目标。例如,照相机监视装配线,告诉汽车不会马上出现,目标是识别车轮。比较困难的情况是在无法预测的环境中有具体的目标。

自动驾驶汽车是一个很好的例子。目标可以说明(从a点的安全性到b点的速度合理),但环境可能包括很多交通事故。

人工智能在过去几年里刚刚发展到对这些问题产生冲击,所以我们正在研究自行车和飞机等问题。另一个难题是在可预测的环境中构建间接目标。

在这种情况下,环境是可以预测的,但不道德和目标的关系非常远——就像玩游戏一样。这是我们最近取得巨大进步的另一个领域,人工智能需要完成以前无法想象的事情。例如,Alphago在围棋比赛中获胜。获得棋盘游戏本身并不简单,但它关闭了在无法预测的环境中实现目标的道路,如计划你的财务人员。

这是个棘手的问题,我们还没有取得重大进展,但希望今后10年内能做好这些。最后有目标不具体的情况。人工智能根本无法解决这些问题。如果你不能告诉他你想做什么,你就不能训练系统。

写小说可能是个例子。因为没有具体的答案,所以某本书变成了好小说。

另一方面,这个问题有一些明确的目标可以定义。例如,写小说,像恐怖电影一样,就能买到。这种AI应用于是好还是坏,可以识别读者的智慧。

3伦理和现实世界现在可以考虑问题的真谛。AI的胜败需要根本影响的问题是什么?还经常发生什么问题?我可以更容易地得到一系列答案,但我们不能复盖面积这个领域的有趣问题,也不能复盖面积的大部分问题。但是,我向你们推荐了6个例子。

这些例子帮助我思考了很多。他们的主要协助不是给了我正确的答案,而是他们帮助我明确提出了正确的问题。

(1).乘客和行人的自行车正在过狭窄的桥。这是孩子突然在那之前跑出来的。

停下来已经晚了,这辆车能做的只有行进,把孩子撞飞,弯道,把自己和乘客送到下面的流水河里。我该怎么办?这个问题在过去的几年里已经被公开讨论了。这个讨论非常明智,展示了我们必须回答的问题。首先,整个问题有相当大的漏洞。

这个问题在实践中经常出现的概率很小。因为自动驾驶的重点是,他们从一开始就投身于这种情况。孩子们很少突然出现。

在大多数情况下,当这种情况再次发生时,或者因为司机的反应太慢而无法处理从障碍物后面跳出来的孩子,或者司机因为短时间的犹豫而注意到孩子们太晚了。这些都是自动驾驶不存在的问题。自动驾驶一次调查所有信号,倒数几个小时就会感到无聊和犹豫。这种情况很少见。

这就是自动驾驶需要救生的来源。但是,完全不是和意思着会不同,有时被否认不会再发生这种情况。

再次发生时,汽车应该做什么?乘客和行人的生命应该优先考虑吗?这不是技术问题。是政策问题。

这与我们今天生活的世界大不相同。如果你问人们在这种情况下不会做什么,他们不会给出各种各样的答案,然后用各种各样的当时的情况不同来允许这个答案。事实上,我们想实现这个要求,我们当然想公开否认我们的要求是保护自己的孩子。

知道在这种情况下,他们的对象不会频繁出现在地图上。在文化上,我们有一个答案:在这一瞬间,当你看到面对面的灾难和事件再次发生时,我们意识到我们不能做出理性的要求。

我们最后不会让司机负责他们的要求管理,指出这是不可避免的,不管他们做了什么要求。(我们可能会对以前的要求负责。例如,事故司机和司机喝醉了)。

有了自己的车,我们没有这个自由选择的编程字面上有空格,现在在事故再次发生的几年前拒绝回答再次发生这种情况时,该怎么办?我应该如何降低乘客的风险,以免对行人造成危险?那不是我们告诉他的。计算机编程的任务拒绝了我们对自己的要求保持残酷的诚实。

当这些要求影响整个社会时,例如,在这种情况下,这意味着作为社会,我们面临着某种困难的决定。(2)礼貌捏造机械学习模型有非常喜欢的习惯。

他们不会自学数据表示给他们的东西,告诉他们教了什么。他们固执地拒绝接受自学的我们期待的世界,或者我们讨厌主张的世界,除非我们具体向他们说明那是什么。

即使我们讨厌假装我们没有这样做。2016年中,高中生卡比尔·艾利在谷歌上寻找三个白人青少年和三个黑人青少年,结果比你想象的要差。三个白人青少年展示了魅力运动型青少年的身影,三个黑人青少年展示了三个黑人青少年逮捕的新闻报道中的照片。

(目前,大多数搜索结果都是关于这个事件的新闻报道)这里不是谷歌算法的种族主义,而是基础数据的种族主义。这种类似的种族主义是看不见的白人主义和媒体报道的种族主义的融合:如果三个白人青少年因犯罪被捕,不仅新闻媒体不太可能展示他们的照片,而且不太可能特别明确出他们是白人青少年。事实上,完全所有的青少年群体都被具体标记为白人,可以从摄影产品目录中显示出来。但而,如果三个黑人青少年被捕,你可以找到上面提到的新闻报道中经常出现的句子。

许多人对这些结果感到愤慨。因为他们可能和我们这个忽视种族社会的国家观念不完全一致。(请忘记,这是2016年),但基本数据非常具体:当人们用高质量的图像在媒体上说三个黑人青少年时,他们总是把他们当成罪犯,当他们说三个白人青少年时,他们完全是广告照片。

实际上,这些种族主义明显不存在于我们的社会,完全体现在你看到的任何数据上。在美国,如果你的数据不显示某个种族的偏向,你做错了什么的可能性很高。

如果通过不想种族成为模型的输出特征手动忽视种族,就不会通过后门进入。例如,某人的邮政代码和收益可以正确预测他们的种族。不被视为种族因素的ML模型和被拒绝预测我们社会实际上与种族有关的ML模型,很快就不会被视为最差的规则。

人工智能模型在我们面前举起镜子,他们不知道我们什么时候想诚实。他们只是不礼貌地捏造,如果我们告诉他们如何提前骗子。这种诚实不会被迫具体。最近的例子是关于文字去除的技术论文。

关于非常受欢迎的word2vec这个ML模型,自学了英语单词意思之间的各种关系。例如,国王对男性,女王对女性。该论文的作者发现,模型包括很多社会种族主义的例子。

例如,计算机程序员对男性来说就像主妇对女性一样。作者在这篇论文中明确提出了避免性别种族主义的技术。这篇论文的许多偶然读者(包括写关于它的新闻文章的人)看到,没有自动化的方法可以避免种族主义。

模型的整个程序非常合理。首先,分析单词两个词的向量模型,寻找沿着他/她的轴线(性别轴线)对立分离的单词组。其次,他们必须区分哪些对应关系是有道理的(例如男孩对男/女孩对女),以及哪些对应关系代表社会种族主义(例如程序员对男/家庭主妇对女)。

最后,他们用数学技术从整个模型中删除了具有种族主义的词组,留给了改良后的模型。这项工作很好,但最重要的是确认哪些男性/女性分化应该被移除的重要步骤是人为的要求,而不是自动的过程。

拒绝人们从字面上识别他们指出哪个词组的对应关系是合理的,哪个不合理。而且原本模式衍生出来有这些分化是有原因的。来自世界各地数百万书面文本的分析。原本的词向量对应关系正确地捕捉到了人们的种族主义,清扫后的模型正确地表现了评价者应该清除哪个种族主义的喜好。

其中展现的危险性是自然主义的谬误,当我们误解应该是什么和只是什么时,这种谬误不会再发生。如果我们想用模型研究人们的意见和不道德,本来的模型是合适的,如果想用模型分解新的不道德,把意图表达给别人,需要改变的模型。

改变的模型更加正确地表现了世界是什么样的,那是不可能的,这个世界可能是什么样的,那是不可能的。但是,任何模型的目的人工智能和智力都必须满足要求。

要求和行动几乎是我们期待这个世界的样子。如果不是这样,我们显然会做任何事情。(3).大猩猩事件2015年7月,当我兼任谷歌社交工作(包括照片)的技术负责人时,我收到谷歌同事的紧急情报:我们的照片索引系统公开发表说黑人和朋友的照片变成了大猩猩。我马上对此,大声确保后,给团队打电话,公开发表说这很差。

团队采取行动,停止使用违规密切相关和其他几个潜在风险密切相关,直到他们需要解决问题的潜在问题。很多人认为这个问题和6年前惠普的脸相机不能在黑人工作的问题一样。脸的训练数据几乎由白人构成。

我们也开始猜测,但我们很快就回避了训练数据中包括各种种种族和肤色的人。其确实原因是三个错综复杂问题的空集。

第一个问题就是人脸识别难。不同的脸对我们来说完全不同。那是因为我们的大脑中有相当多的人专注于识别脸。我们已经花了几百万年的时间了这个功能。

但是,如果注意两个不同的脸的不同,比起两个不同的椅子的不同,就找不到脸的相似性比想象的要小得多——甚至横跨物种之间。事实上,我们发现这个错误并不孤立。

这个照片索引系统也容易误认为白人的脸是狗和海豹。第二个问题是问题的确核心:ML系统在自己的领域非常聪明,但除非你教我,否则你对更普遍的世界一无所知。考虑到所有的照片都有可能被识别的对象时,这个AI在某种程度上识别了脸。没有人想起黑人因为被种族歧视而被比作猴子人多年。

这个背景使这个错误相当严重,把孩子误认为海豹只是一件有趣的事情。这个问题没有非常简单的答案。处理人类问题时,错误的成本一般与极其复杂的文化问题相关。这并不意味着很难解释,而是很难提前想起它们。

这个问题在某种程度上反映在人工智能上,也表明人们必须在不同的文化中进行价值识别。特别的挑战是在网上发现侵犯和欺诈是不道德的。

这些问题几乎都是人类处理的,而不是人工智能处理的。因为即使制定人类识别这些事情的规则也很困难。我在谷歌上花了一年半时间制定这样的规则,指出这是我面临的唯一的智力挑战之一。

即使团队明确提出规则,人类不是AI而是继续执行,文化障碍也是一大问题。印度评论家不一定有关美国种族歧视的文化背景,在美国的人也不一定有印度文化。背景。但是,世界各地的文化数量非常多。

怎样才能用谁都能解读的方法传达这些想法呢?从中学到的教训是,系统中最危险的风险不是系统内部的问题,而是系统与更普遍的外部世界对话时出乎意料的方法。我们还没有一个好的管理方法。(4)出乎意料的是,人工智能不说的人工智能的最重要的用途之一,而是协助人们做出更好的决定。不是必须继续执行某个操作者,而是向他人推荐哪个,协助他们做出良好的自由选择。

特别是在这些自由选择风险高的情况下,这是最有价值的。但是,影响多年结果的因素对人们来说并不显着。事实上,如果没有具体的简单信息,人类可能只能接受无意识的种族主义,而不是确实的数据。

所以很多法院开始把自动化的风险评价作为他们量刑提示的一部分使用。现代风险评估是ML模式,负责管理预测未来犯罪的可能性。

如果你拿着一个地区法院历史的所有语料来训练模型,你可以组成一个惊人的清晰展示,告诉他谁是潜在的危险分子。如果你至今仍在仔细阅读,你可能会找到一些方法来构建目标。这些方法可能非常可怕和错误。

正如2016年ProPublica公布的那样,这是全国各地再次发生的事情。佛罗里达州布劳沃德县使用的系统COMPAS系统设计师遵循了最佳实践原则。他们保证他们的培训数据没有人为指责某个群体,比如保证每个种族的人都有完全相同的培训数据。他们将种族规避在模型的输出特征之外。

他们的模型没有预测他们指出预测的问题。量刑风险评估模式应明确提出的问题是,这个人将来犯相当严重罪的概率是多少,作为你现在给他们的处罚函数。考虑到这个人和刑罚对未来生活的影响,有一天不会被监禁吗?被释放后,没有机会获得稳定的工作吗?但是,我们每次犯罪都没有点燃的魔法之光。

当然,一个人一次拒绝接受两种不同的刑罚结果,当然没有两种不同的结果。因此,COMPAS模型通过模拟现实难以获得的数据进行训练:根据我们在有期徒刑期间知道的人的信息,这个人被定罪的概率是多少?或者用两个人比较说:这两个人将来最有可能被定罪吗?如果你对美国政治有一点了解,你可以立即问这个问题:黑人!黑人比白人更有可能在路上追随,被逮捕,被定罪,判处比白人长的刑期。因此,无视其他意味着事实死亡的情况下,查询历史数据的ML模型,预测黑人被告将来更有可能被定罪,融合历史是非常正确的预测。但这种模式训练的方法与其确实的用途不符。

被训练问谁更有可能被定罪,回答谁更有可能犯罪,没有人注意到这是两个几乎不同的问题。这里好像有很多问题。一是法院过于依赖AI模型,将其作为裁决的必要因素,跳过人的识别,比任何模型都能得到的确保都热情。

另一个问题当然是暴露的基本、系统的种族主义:在某种程度的犯罪下黑人被逮捕被定罪的可能性很高。但是,这里有关ML的特定问题。你想测量的数量和你能测量的数量有很多不同。

当两者没有区别时,你的ML模型需要很好地预测你测量的数量,而不是它只代表的数量。在相信你的模型之前,必须仔细解读这些接近和不同。(5).人是合理的动物,在机械学习的辩论中有说明权的新话题。这意味着,如果ML用于任何最重要的要求,人们有权解释这些要求是如何制作的。

直觉上,这可能是明显而有价值的想法,但ML专家提到这一点时,脸色很快就相反,想说明拒绝是不可能的。你为什么不这样做?首先,我们要明白为什么难做,其次,更重要的是,我们要明白为什么我们希望做得更容易,为什么这个希望是错误的。第三,我们可以应对能做什么。

以前,我把ML模型叙述为数百万到数百万个旋钮。这种比喻对实际模型的复杂性不公平。例如,现代基于ML的语言翻译成系统不能一次输出一个字母。

这意味着模型在读者读了很多字母后,必须说明其中的文本解读状态,以及每个倒数的下一个字母如何影响其意义的说明。关于模型遇到的任何情况,唯一的说明是好吧,后面的数千个变量处于这种状态,然后看到文字c,必须改变用户谈论狗的概率…在某种程度上无法解读,ML研究者也无法解读。ML系统的调试是该领域最好的问题之一。因为随时检查变量的个人状态,说明这个模型,就像测量一个人的神经创造力一样,不告诉他们吃晚饭的时间一样。

但-这是第二部分-我们总能说明自己的要求,是人们希望的说明。考虑到FICO分数的中位数,我把这笔抵押贷款的利率作为7.25%。Experian的FICO分数下降了35分,这个分数不会上升到7.15%。

我建议我们聘请这个人,因为他们在我们的试镜中明确地说明了机器学习。但是,理解和不道德心理学的人都告诉了黑暗的秘密。这些说明都是胡说八道。我们是否不讨厌一个人,在聊天开始的第一秒就已经要求了,可能会受到看起来随便的影响。

例如,在问候之前握着热饮还是冷饮等。无意识的种族主义笼罩在我们的思想中,而且可以测量,即使我们没有意识到。理解偏差是当今心理学研究中仅次于的分支之一。事实证明,人们擅长的不是说明他们是如何要求的,而是为自己的要求找到合理的说明。

有时候,这几乎是无意识的。例如,我们在决过程中不关注事实(讨厌这辆车的颜色),集中注意力,忽视了对我们来说可能更重要但看不见的因素(我的继父有敞篷车,我喜欢继父)。(第一个候选人听起来像我毕业的时候,那个女人很好,但她看起来太不一样了,她不适合和我一起工作。如果我们希望ML系统为他们的要求进行实际说明,我们就不会遇到很多困难。

就像我们拒绝说明自己要求的实际基础一样,ML系统比人类更容易说明。当我们拒绝解释时,我们感兴趣的是明显的事实(因为它们不会改变结果)和变量(因为它们的改变有点讨论)。

例如,你现在看到的是这个录用通告,但是住在西边十英里的地方,就看不到另一个,在某种情况下可能很有趣,但是如果是艾的话,看不到的是木莱塞的种子并不有趣。这种解释的数学技术正在大力发展,但不存在不容忽视的挑战。例如,这些技术大多是基于创建另一个解释性的ML模型,该模型不太准确,只限于等价输出信息后变量小的情况,整体容易解读,但与上述主ML模型基于几乎不同的原则。

(这是因为只有几种ML模型,如决策树,几乎可以被人们解释,而在许多实际应用中最简单的模型,如神经网络,几乎不能被解释。)这意味着,如果你想输出第二个说明模型,不,改变这个变量!这种系统可能明显改变成多模型的输出。

而且,如果你给人一个说明工具模型,他们也不会拒绝用完全相同的语言改变权利——拒绝是合理的,但不现实。人脑具有极标准化的智能处理各种概念,可以解决问题。

关于种族历史,请注意图像识别。因为同一个系统(大脑)可以解读这两个概念。

但是,AI还不能这样做。(6)AI归根结底,遗憾的是工具人工智能无人机刺客——如果不明确提出讨厌的例子,就不能探索AI的道德。

这些飞机在高空飞行中,只有电脑控制,在确保平民生活的同时构建杀死敌人武装分子的任务……除非指出任务必须附带伤害,否则就像官方直言不讳的意见一样。人们对这地害怕这样的设备,如果更好地听到永恒的死亡威胁下生活的人们的故事,他们就不会更害怕——从日出的天空诞生的刺客。人工智能是这个辩论的一部分,但它并不像我们想象的那么重要。

大型无人机和有人驾驶员飞机的区别在于,他们的飞行员可以接近千里之外,接近损害。自动驾驶AI的改良意味着无人驾驶操作员可以像飞机一样迅速操作。最后,大型无人机在99%的时间内可以自行驾驶,只有在必须提出根本要求时才不会招聘人员。这将建设更大的无人机空中力量成本更低的可能性——民主化从天而降的权力。

在这个故事的另一个版本中,人类可能已经从残酷的链条,也就是要求是否提高武器的要求中回避。现在我们可能会问,机器人几乎要求杀人的道德责任由谁来分担?这个问题比我们想象的要简单,同时也要简单。如果有人用石头打另一个人的头,我们责备这个人,而不是石头。如果他们抛出长矛,即使矛在某个飞行期间在自己的力量下,我们也不想责备长矛。

即使他们构建了一个简单的死亡陷阱,印第安纳·琼斯式的意志也不道德。问题是,现在工具自己要求的范围模糊不清。非常简单的是,这个问题不是新的。军事纪律的重点是创造战斗力,战斗中不要过于自律。

军队是欧洲系统子孙的国家,士兵和士官的起点是继续执行计划的委托人的责任是要求继续执行哪个计划。因此,理论上,决策责任几乎在官员的肩膀上,根据称号、指挥官等区分人员责任区的具体定义,要求谁最后负责任。在实践中,这往往非常模糊。这些原则是我们已经理解了几千年的原则,AI只是没有减少新的内容。

即使有更大的决策能力和自主性,人工智能仍然需要这个辩论——在人类的世界里,我们有足够的自主权来探索这些问题,这只是近几十年的事情。这可能是人工智能伦理的最后一次最重要的经验。

我们面临的人工智能的许多问题只是我们过去面临的问题,现在通过技术的变化来表现出来。在我们现有的世界里寻找类似的问题往往是有价值的,我们需要帮助我们解释如何处理看似新的问题。4我们去哪里?还有许多我们应该讨论的问题——其中许多对这个社会非常严峻。

但是,我希望上面的例子和说明给你一些环境,什么时候正确,什么时候不正确。许多人工智能道德风险来自哪里?这些大多不是新问题,无视是向计算机说明我们意见的月亮过程——没有文化背景,也无法推断我们语言外遇的终极案例——被迫以违反日常习惯的方式传达。无论是拒绝我们在关键时刻到来前几年生死相关的要求,还是延期到事件确实再次发生的现在的高潮,还是拒绝多年严格检查社会的实际情况,态度独特地告诉我们想要保持什么样的部分,想要改变什么样的部分,AI把我们从礼貌捏造的舒适区推进,进入了我们需要具体辩论事物的世界。

这些问题中的每一个都比人工智能早。我们只是用一种新的方法来谈论它们。这可能不容易,但对我们来说,诚信可能是新技术给我们带来的最宝贵的礼物。


本文关键词:爱游戏官网,爱游戏首页

本文来源:爱游戏官网-www.chinahzb.com