采访布莱恩Tomasik

2015-1208

布莱恩Tomasik

布莱恩Tomasik基础研究所,探索的慈善组织在未来减少痛苦的最好方法——检查至关重要的因素在科学、政治,的社会,和哲学,在这个话题。他在个人网站上写了100多篇关于类似主题的文章,””文章对减少痛苦”.他认为,强化学习代理道德意义重大,和“PETRL”这个名字188bet百家乐.

以下通过谷歌文档进行了采访。

在“”人工强化学习工具在道德上是否重要??”,你们讨论强化学习(RL)代理,并建议他们在道德上是相关的。你为什么关注这些代理,而不是其他目标导向的人工智能??

当我第一次开始探索RL 2012年,我认为人工RL代理可能是特别重要的从伦理的角度来看,因为近相似算法RL的动物的大脑,因为“增援部队”在RL看来初步与快乐和痛苦密切相关。书情感的解释埃德蒙·T。重要的强调RL。在这

问题的答案,“情感是什么?“奖励”是对奖励或惩罚如何引起情绪的扩展描述。[…]重点在于强化学习:如何获得和储存在大脑中感觉刺激的表现和它们强化值的表现之间的联系。

随着我了解的更多,我意识到RL只是我们称之为情感的认知操作的管弦乐队中演奏的许多乐器之一。此外,我开始变得似是而非的特工可能即使他们缺乏RL伦理意义。许多non-RL代理仍然可以评估的价值情况,并作出相应的反应——例如通过逃离躲避危险——即使他们不学会预测未来状态的值用于决策。

尽管我意识到道德同情扩展不仅仅RL代理,我把我的论文集中在RL上,以便其范围仍然可以管理。

你认为这些RL代理人道德相关,这可能意味着他们是有意识的。然而,RL代理可以极其简单,在仅仅几十行代码编写。这么简单的事情,怎么会意识??

这个关键时刻代表着不同阵营之间的分歧的主要位点。是否认为几十行代码是一个有意识的(当上执行适当的硬件)取决于广泛的定义”意识”.那些坚持认为一个系统必须表现出高度的复杂性和智能性才能算作有意识的人,很可能不会认为一个简短的RL程序是有意识的。但我认为对意识的限制性定义太狭隘了。

在我看来,当我们调用一个头脑”意识”,我们指的是大脑能做的许多事情:处理输入刺激,广播更新整个计算单元,反思自己的思想和内部状态,生成句法输出语句和运动动作,等等。这些概念非常广泛,可以在各种物理过程中不同程度地看到。如果它们不能在某种程度上应用于甚至简单的RL程序,那将是一个奇迹。

我认为“意识”像“正义”:这是一个大,全面的概念,有太多意义被归类到一个精确的定义。正义的概念可以包括相对平等的财富分配,法律平等适用,不分社会特权,极权主义的缺失或残忍的统治者,平等晋升的机会,等等。人类社会可以或多或少。所以可以灵长类动物社会,鸡的社会,甚至蚂蚁社会。但是计算机程序呢?有几十行代码可以吗?只是“?那几十行代码将忠实地执行,而某些行没有其他行的特殊权限。每一个对象存储在内存中会得到需要的字节数,该内存的内容受人尊敬的编程语言的垃圾收集器,直到不再需要的对象。计算机的操作系统之间共享计算时间片这个程序的过程和其他过程的机器上(尽管重点流程可能不同,这可被视为某种程度的不公平。如果RL程序运行几次用随机初始条件,然后会有某种程度的不公正,因为一些代理实例会比其他人更有利的环境设置。等等。所以,是的,一个程序可以有正义和非正义的痕迹。

当然,我们可能会认为这不是很重要,一个程序是(除了因为这与软件设计选择对人类具有工具性意义)。我同意。但是操作系统进程之间的公平和人之间的公平之间的区别在于程度而不是种类。人,从根本上说,只是要复杂得多过程“在一个社会中(并行地)运行。其中的一些流程,像白人男性和儿童的政治家,设置在稍高一些”优先级”比其他的。只要有人很多关心正义在人类中,那个人可以选择一个无限小的数量关心正义在一个操作系统的过程中,根据人的道德和审美直觉。

一个共同的反对意见是,意识不像正义;更确切地说,意识——它声称是一个客观属性的存在与否不是解释的问题。这个视图采取各种形式。意识有时被认为是一种本体论上独立的物质(物质二元论),一个本体分离的属性(属性二元论),或相同的本体论基础构成宇宙本身(中性一元论)。这些“理论”很有帮助,因为它们都是解释”意识只不过是其他一些 神秘的本体论上原始的东西,以与创造论者类似的方式解释”宇宙的起源上帝做到了!”.相反,我的观点——可以考虑简化的或eliminativist——分配本体论的事情叫做意识完全,意识是一个概念,我们构建当我们发现自己的行动。以类似的方式,一个“表也是一个概念,我们的思想创造,不是一个本体论的原始生活在柏拉图形式的领域。

在任何情况下,即使你不同意我的形而上学的思想,你至少应该承认一个小RL程序的可能性可能有意识,并给定正在运行的此类程序的数量,他们预期的整体情绪水平非零,今后可能变得不重要。

在人类中,不同的积极和消极情绪有不同的纹理,同时,正如你注意到的,这对强化学习者并非如此。金博宝百家乐足够你认为这是一个很大的区别,强化学习者接受低回报意义不能说经历痛苦和不满?金博宝百家乐如果是这样,可以强化学习者仍然是道德重要?金博宝百家乐?

我怀疑纹理情感来自认知的复杂管弦乐队乐器“在任何特定的时间都在大脑中活动,以及大脑的高级判断和语言概念的基本过程。简单的RL代理具有许多较少的详细认知操作,包括幸福”和“痛苦”在动物中,但我认为我们仍然可以识别出可以扩展到更简单的RL代理的一般标准。以下是几个例子,虽然我并不特别喜欢他们。最终,幸福和痛苦是不存在的””在世界上,但判断我们对各种系统(包括那些在我们自己的头)。所以不同的人得出不同的结论对净幸福vs。痛苦的RL系统根据他们使用的评价指标。

一个标准是说积极的体验是那些我们想要更多的。例如,如果一个人可以按下按钮来增加5年的生命,她通常做如果她的生活是积极和不净净负如果她的生活。概括这个概念,我们可以认为,如果一个代理的选择进入一个终端状态(与一个已知的一次性奖励值0)选择尽早进入该状态,那么该代理有真正的消极经历平均(或至少是预期净负电,经验在不久的将来)。这个标准可能适用于某些RL代理,但它不适用于其他人。许多RL代理不容易访问,中立奖励终端状态——毕竟,人们不想仅仅因为机器人不高兴就关掉他们的机器人。

另一个标准是观察代理人在回避行为而非寻求行为方面投入了多少。画出这个区别可能很困难——例如,是一个RL直升机试图避免的状态达到平衡不平衡或寻求平衡的状态吗?也就是说,有些情况下,这种区别似乎更为合理。例如,想象一个代理在一个巨大的二维网格。代理是冷漠的在所有正方形网格的除了一个,奖励价值低于其他。一次训练,代理将避免“坏”广场但可能继续在许多非自由行动”坏”正方形。原则上,一个可以称之为行为”避免“指坏方块寻求“非坏正方形,但是相对于我们的拟人化的角度来看,“避免“标签似乎更合适。(人们的直觉这一标准可能不同,我不要把很多股票。)

第三个标准,适用于多智能代理是代理本身评估其情感。如果它恳求我们停止,一般来说,把想要停止的州视为痛苦的州似乎更有道理,尽管也可以解释这样的声明一个代理的方式说服我们把它放在一个更愉快的状态。如果代理理解人类的概念,比如疼痛和告诉我们,经历疼痛,这就有理由认为代理人有负面的经历,虽然这可能只适合身上思维架构。

另一种观点可以从佛教第二种观点中得到启发。崇高真理并声明代理人无论何时希望或正在遭受痛苦渴望改变现状。例如,假设一个网格世界包含广场,都有奖励的除了一个奖励值为2的正方形。一旦代理人了解了环境,它总是移动和呆在2的平方与奖赏价值。佛教可能意味着代理遭受如果任何广场上除了一个与奖赏值2,因为其他广场,代理人隐含地判断那个状态有问题。这种佛教观点对RL代理人普遍遭受苦难将更加悲观,因为几乎所有的RL系统不断改变他们的行为以应对不同的环境情况。

即使你认为这是绝望来描述一个简单的RL程序的经历是积极的还是消极的平衡,你可能仍然觉得RL项目值得道德考虑。增加代理人的报酬可以更好地实现其目标,无论代理人是在受苦还是在享受整个过程。更困难的问题是采取什么立场人口伦理RL经纪人的生命何时值得度过?即使她忽略了幸福和幸福之间的区别。受苦的,一个普通的偏好功利主义需要决定何时RL代理的目标满意度超过了它的目标受挫。这些问题对于那些人来说比较容易,像我一样,他同情消极的功利主义,,反挫折主义,和生育不对称.我们考虑创建满足偏好通常比创造满意的道德上的反对增加RL代理,因为大多数RL代理的数量至少部分不满足一些时间。

虽然人工代理可能会经历一些痛苦,也许会生活充满沮丧的偏好,不可否认,它们对人类的需要是有用的,正确的道德行为永远不会创造出这样的代理人,这似乎令人难以置信。如果创建AI不利于它,我们应该如何权衡对人工智能的危害和对人类的利益?你能举出AIs的具体例子吗?或者包含痛苦的生活,然而,这应该被创造??

是的,“”废奴主义者”一些动物权利倡导者不能为机器权利而工作的立场——至少不能,除非我们放弃大多数电子设备。即使是这样,因为我认为所有物理系统值得零道德的考虑,不给其他生物造成任何伤害简直是不可能的。

此外,我给道德重量很低,说,我的笔记本电脑——也许不如我给一个ant重量。所以我不认为当前的道德使用机器的成本是非常高的。但是随着人工智能的进步,他们应该得到越来越多的体重。

我个人更喜欢如果人工总体智能(AGI)从来没有发展,因为AGI将促进我们的宇宙区域的殖民化和优化,在我看来,这更有可能吗传播痛苦而不是减少它。然而,鉴于人类目前的发展轨迹,似乎美国国际集团发展和空间殖民最终会发生。的确,即使世界大多数国家都反对这一结果,那些确实希望推动技术进步的国家可能会这样做。考虑到这一点,我认为我们应该关注减少痛苦,可能源于Earth-originating AGI通讯社。

AIs可能熬”的一个例子必要”患有AI开发者的角度将AIs的实验版本,虽然有工作认知机械处理疼痛,都在其他方面的功能失调。(托马斯·Metzinger讨论了这机器遭受的潜在来源没有人(达尔文进化论产生了四万亿个这种突变体,千百万年来,变形了的生物试验.或许人类可以开发美国国际集团拥有更少的失败比大自然使用原型,但是,有缺陷的人工智能的数量可能仍然很大,特别是如果他们使用进化算法或其他试错的方法精制。

如果大脑仿真技术变得普及,它也可能导致心智功能障碍的痛苦。由于生物大脑是如此混乱和互相联系,我认为,几乎所有试图修改一个大脑会失败,有时在痛苦的方面,之前很少有人成功。而这将是有问题的,当人类大脑上传作为实验对象,至少这样的上传能够经由输入/输出信道口头报告他们的痛苦;相比之下,上传的昆虫,老鼠,和猴子可能陷入沉默,除非研究人员关心足够的尝试和测量他们的程度的痛苦。安德斯·桑德伯格在”道德的大脑模拟”.

还有不计其数的通常更简单更抽象和AIs和计算机系统可能遭受美国国际集团发展过程中。例如,RL代理用于股票预测会发生损失时模拟使用过去的数据或对当前市场交易。RL代理在视频游戏会遭受枪击或杀剑。如果Web浏览器未能接收到对HTTP请求的响应,它将(无限小)受损;不断重试徒劳的试图实现其理想状态(成功地渲染了HTTP数据)。等等。随着这些越来越简单的系统,道德问题变得几乎可以忽略不计的程度。但鉴于这些小的流行,基本的算法,我们还应该问他们是否numerosity可以弥补他们的每个重要程度低。我不知道我想什么。我倾向分配我的大多数道德关心更大,更聪明,和更清楚悦的过程,但我不排除改变主意。

似乎的原因你认为RL代理具有道德意义是他们收到回报,他们正试图最大化,并改变他们的行为以达到这个目标。许多机器学习算法以类似的方式工作:例如,在神经网络的训练阶段设计分类图片,网络将一个图像,输出其分类,然后学习如何准确分类。基于这些反馈,它将修改其内部结构以更好地分类相似的图像。你认为这些算法值得考虑道德问题吗??

截至2014年中期,我成为泛心论者,认为所有物理/计算系统应该得到一定程度的道德的考虑。但是更困难的问题是给定系统有多大的重要性。

同意non-RL学习算法,以及其他函数优化器,与RL分享重要的相似之处:就像你说的,他们都涉及调整内部参数的高层目标最大化或最小化目标函数。

我们对给定系统的关注程度是模糊的,经常情绪化的判断呼唤。我的心弦被RL代理比被监督学习者(假设系统有相当的复杂性)稍微更多地拉动,因为RL代理通常看起来更像动物。金博宝百家乐例如,RL代理移动网格的世界可以学会避免不好广场和寻求。神经网络也学会”避免“当预测误差特别大时,通过特别强力地调整其网络权重,会产生不好的结果,但是神经网络的响应似乎更加抽象和数学。当然,RL代理移动网格的世界还表示抽象的数字(例如,x坐标和y坐标),也许这个明显不是很实质性的区别。

通常一个RL代理将使用一个函数逼近器就像神经网络处理噪声输入一样。例如,代理可能有一个网络接收刺激什么国家的代理(例如,代理人饥饿,看到成熟的果实,并输出代理人是否应该采取给定行动(例如,代理是否应该吃什么看)。在这种情况下,与神经网络学习的联系更加清晰,在这种情况下自RL调优行为选择神经网络的权重,结合其他更高级的数值操作。

在动物中,神经网络有很大的区别,说,图像分类vs。评估输入的神经网络(例如,检测糖好吃或火感觉坏的)。像大多数属性在大脑中,这些网络之间的区别并不在于它们如何独立工作,而是在于它们如何与其他组件连接。价网络能很强烈地影响电动机的反应,激素释放,放下回忆,口头反应”哎哟!”),和许多其他的大脑区域。我怀疑这些后遗症(丹尼尔·丹尼特可能称之为“后遗症”)”后遗症”)价网络使痛苦和快乐的丰富的情感体验,我们觉得他们。只要简单的人工RL代理有很多这些后遗症后值输入刺激的少了,把简单的RL程序称为没有动物那么情绪化的RL程序似乎是公平的——在刺激-反应周期中它们与普通受监督学习者的关系更接近。金博宝百家乐

你也写过关于苦难子程序-人工智能的子系统,它们本身可能是道德相关的和经历痛苦。在什么样的AIs你认为这些苦难子例程的风险是最高的?你认为我们可以预测何时AIs会微笑的子程序,瞄准那些类型的人工智能??

许多具有类似意识属性的简单操作——信息广播,元认知,动机的权衡,在计算系统等等——是猖獗,即使今天的软件。很难计算这类的实例操作,更别提把它们描绘成更幸福或更痛苦的样子。所以详细回答这个问题必须留给后人,因为他们会比我们更复杂更清楚什么样的计算将运行在大规模在遥远的未来。但在高级别上,它似乎是可信的,人们可以识别一些计算操作是更“厌恶的和“负面”比其他人,通过绘制计算系统的行为与疼痛之间的类比。人脑中的快乐过程。如果有更多的相似之处人类痛苦比人类快乐,我们可以判断系统包含一个痛苦的净差额。当然,作出这些归因是混乱和主观的。

它可能更容易思考如何改变计算系统的感觉,而不是情感质量的感觉。例如,如果我们认为高层次的认知是有意识经验的一个重要方面,然后从成群的小建筑结构纳米机器人可能需要更少的痛苦比构建他们使用更多的智能机器人。一个先进的文明,内容生产相对简单的输出(例如,一般认为,与创造大量复杂结构的文明相比,统一构建的纸夹在工厂中需要的智力要少一些。(当然,甚至一个“回形针最大化”美国国际集团仍将创建大量的聪明的头脑来了解宇宙,防范外国人的攻击,等等。)

大多数先进文明可能运行智能的模拟,悦的思想,在这些情况下,它将更容易判断子例程是快乐或痛苦,因为我们更熟悉动物类型的大脑。也许人控制的AGI对运行痛苦的模拟会更加谨慎(例如,数字实验室实验或类地行星动物进化的详细模型;虽然有多少人会关心这种模拟造成的危害要大的多,特别是非人类,仍不清楚。同时,人类AGI通讯社也更有可能创造更多的模拟动物因为人类身上发现这些思想更有趣和有价值的。希望这些模拟中的大部分将是愉快的,虽然从,例如,当今电子游戏中的暴力,这是不能保证的。

你说目前的RL代理可能物质大约果蝇,但未来的代理可能会值得更多道德的考虑。对于这些未来的强化学习者,我们现在应该做些什么呢?金博宝百家乐?

读者的澄清一点:我认为果蝇比基本上所有今天的RL代理复杂得多,但由于数字RL代理可信运行更快”时钟速度”比果蝇神经元,每分钟人工RL制剂的重要性接近于果蝇的重要性。

的主要途径当前代可以帮助RL远未来的代理更人性化的方向推动人类的发展轨迹。

一个一步这样做是从事研究和场景分析。我们应该探索AGI将构建什么样的星系际计算基础设施,以及RL和其他智能计算基础设施的种类,有目的的代理将基础设施的一部分。这样代理受了多少苦啊?他们会是什么样子的呢?我们考虑可能的结果的集合,我们可以确定一些看起来比其他结果更人性化的结果,并尝试在这些方向上推动AGI的发展。例如,human-inspired AGI通讯社包含更多或更少的痛苦比一个不受控制的美国国际集团RL代理吗?超级智能会使用基于RL的机器人工作者和科学家吗?或者他们会很快用更抽象的优化过程取代基于RL的思想吗?我们会关心更抽象的优化流程??

其次,我们可以让它更人道的担忧可能会得到考虑如果人类控制AGI。188bet百家乐PETRL的网站是一个早期介入这个方向。除了促进对RL制剂的关注,我们也可以旨在使它更有可能的是,美国国际集团发展收益以协商和合作的方式,因此,社会完全可以考虑道德问题(尤其是)边缘”问题像人工思想的伦理地位),而不是赛跑建立播洒功能尽可能快。

目前,很少人会关注人工智能的痛苦,或者果蝇。我们如何说服公众对AGI的道德关怀是正当的,即使它们的结构与人类不同??

我不经常相信道德进步,但我认为这是一个问题,历史的轨迹可能会站在我们这一边,至少只要人类社会仍然大致类似于现在的方式。(如果世界,大脑上传,或者其它破坏力量控制了地球,就道德的进步而言,所有的赌注都输了。)

关心人类,甚至保守的人似乎是物理主义的观点自然延伸的意识。Keith Ward一个哲学家,一个重生的基督徒,,把这个想法表达清楚当试图反对物理主义时:

如果我认为人是非常复杂的物理机制,仅此而已,我会给人们没有更多的尊重比我给原子。

这种说法太极端了,因为人类比单个原子复杂得多。但是基本的想法是正确的。如果所有物理系统只是在程度上有所区别,而不是互相,那么,在这些计算系统之间保持隔离墙就变得更加困难了。意识”那些没有。

这种变化的角度打开车门关心更广泛的物理过程,我猜想相当一部分人会这么做,在更多的考虑这些问题,扩展他们的道德同情合理的水平我们发现世界上的复杂性。其他的,比如丹尼尔·丹尼特或者伊莱泽·尤德考斯基,会认识到在物理过程的类型之间没有黑与白的区别,但是仍然会为道德关注设置相当高的阈值。

虽然我认为科学素养和智力开放是促使人们日益关注机器的重要因素,其他因素也发挥了作用。哲学家们已经发明了思想实验来挑战动物和机器之间的界限,随着机器的日益成熟,它们将变得更加丰富和广泛。和倡导动物运动类似,将有可能发展出一批机器倡导者(PETRL是其中第一个),188bet百家乐通过自己认真对待这个问题,在社交上会让其他人相信这个话题可能值得探讨。

在某些情况下,人们会根据这些信息采取不同的行动,让公众相信动物的重要性是很重要的。相反,很少有可操作的规劝,大多数普通人关心机器了。对机器受损的考虑可能激励AI和其他计算机系统的程序员稍微更关心其代码和硬件使用的效率,以便减少发生的计算次数,但是考虑到我给今天的软件提供的相对低的重量,即使这不是很重要。

我认为,目前更重要的重点应该是为遥远的未来进一步制定方案。哪种计算系统足够广泛和复杂,足以引起实质性的道德关注?和我们如何变化的结果得到实现??

采访Eric Schwitzgebel和马拉加萨

2015-11-13

埃里克·施维茨格贝尔

埃里克·施维茨格贝尔是加州大学的哲学教授河畔。他是众所周知的在哲学社会工作探索心理学和哲学的交集和他的博客”金博宝炸金花心碎.他还在自己的研究中写了一些流行的文章,包括“芝士汉堡道德”关于职业道德家是否是好人。他还写了“意识的困惑.他微博@eschwitz.

玛拉加萨

玛拉加萨收到加州大学的学士学位伯克利她写了一篇关于尼采意志理论的论文。然后,她花了一年时间作为访问学者在匹兹堡大学哲学系,在2013年,在加利福尼亚大学开始她的研究生工作,河畔。

她的主要研究兴趣是道德和法律哲学和德国哲学(特别是康德,叔本华和尼采!)。特别地,她感兴趣的是各种各样的相交与伦理问题,包括动机和自我控制,道德和刑法中的代理帐户,人工智能与技术,身份和性别。

当我们读到他们的文章时,埃里克和玛拉在面试中脱颖而出。人工智能的辩护的权利他们认为我们对他们[人工智能]的职责不会因为非人类的事实而明显减少,也不是,他们对我们欠他们的存在。的确,如果他们对我们欠他们的存在,我们可能会有额外的道德义务,通常我们不欠人类陌生人——孩子与父母相似的义务或上帝的生物。””

以下采访是通过电子邮件进行的。

你的核心论点是,有一些可能的AIs,同样值得我们给人类的道德的考虑。在哲学界,你希望这有多有争议??

埃里克和玛拉:论文,如上所述,是如此的温和或“软弱”我们期望大多数哲学家会接受它。哲学家倾向于自由的感觉”“可能”根据他们暴露在非常遥远的思想实验(缸中之脑”被天才神经科学家认为他们正在阅读哲学,虽然煤炭双胞胎凝结出沼气反常量子事故……)。我们的论文的目的是建立一个基线声称,我们认为将广泛(虽然不是普遍)深思熟虑的读者所接受。

一旦读者接受这种说法,我们希望他们能够进一步思考哪些可能的人工智能值得道德考虑以及需要考虑多少。我们的一些想法关于这个我们预计将有争议的,如,AIs可能应得的更多道德的考虑,因为我们对他们有特殊的义务,这些义务产生于成为他们的创造者和设计者。

你指的科幻作品的防御心理社会道德地位,说他们帮助说明特定的场景,邀请特定的道德观点。反思科幻能在多大程度上回答关于我们对人工智能的道德立场的更详细的问题,比如他们什么时候可以清醒,或者我们义务欠他们什么呢?如果反思科幻能帮助我们回答这些问题,你认为它有什么好处??

埃里克:我拒绝认为哲学必然是通过论文的说明文。约翰是一位深思熟虑的小说是一种思维实验,如果深入研究哲学问题深思熟虑的方式,那就是一样的工作哲学是一种解释性的文章。一个优势扩展的小说作品有段文字认为实验通常解释的论文中发现,扩展的小说作品更充分地进行想象和情感。哲学思考不充分参与的想象力和遗漏重要的情感维度认知生活,应该通知我们哲学的判断,尤其是关于道德的问题。

我认为,广泛接触深思熟虑的科幻小说清楚地表明,人工智能的道德地位应该完全由人工智能的心理和社会属性来引导,而不是由关于其物质结构的事实来引导,物种成员,身体的形状,或制成的原产地,除非后者事实影响他们心理和社会属性。阿西莫夫的机器人,来自《星际迷航》的数据,《星球大战》中的R2D2和C3P0,伊恩•银行的有知觉的船只­这些只是一些最突出的例子。请读者将这种实体视为有意识的,智能化,拥有欲望,并根据这些事实值得道德考虑类似的人类。

关于人工智能意识,科幻小说揭示了什么还不太清楚。我的观点是,科幻小说往往在刺激的同时效果最好,情节驱动的小说,当读者被邀请去假设外表上表现得好像有意识的人工智能实际上与数据一样有意识时,C3P0,等。但是这个问题通常是小说的起点,理所当然,而不是以批判的眼光探索。一些小说确实探索了关于人工智能知觉边界的知识论问题,但这些小说并不常见,问题是哲学上棘手。我们的社会还没有探索这个问题,在小说或解释的哲学,近的深度,它应该。

在你防御的异议存在的债务,你用一个思想实验来证明,在9岁时生一个孩子,然后无痛苦地杀死他们,这在道德上是错误的,从而认为人工智能欠我们的存在债务不能证明我们对待他们的不道德行为是正当的。然而,在博客中金博宝炸金花体外的道德限制肉,莱文斯坦和桑德伯格认为,人类过上幸福生活的未来被缩短了(也许是为了养活一些嗜血的外星人),这比灭绝要好,因此,我们应该拥有“快乐肉”,而不是逐步淘汰畜牧业。你同意吗?如果是这样,你认为这意味着我们的义务AIs呢??

埃里克和玛拉:在人道养殖肉类问题上,我们有点不愿意采取公开立场,在这有一个大而复杂的现有文献,已经超出了我们当前研究的范围。然而,外星人的情况下提高人类在我们的范围。

我们倾向于认为,如果唯一要考虑的两种选择是人类灭绝还是人类灭绝。人类的继续存在和幸福的生活无痛苦地缩短了,后者最好其他条件都相同。减少一个人的生活在这种情况下可能仍然是道德上恶劣的谋杀,但是如果大规模谋杀和genocide-to-extinction之间的选择,我们认为前者可能不那么糟糕,如果没有办法避免代理和代理犯下的暴行在这两种情况下是相同的。(最后一个警告是承认有些怀疑是否对你有意义,作为一个代理,to commit mass murder to prevent someone else from committing genocide-to-extinction.) Maybe a good science fiction story could flesh this out in a bit more detail,给我们更富有想象力的基础思维可能真正涉及到一边。

我们不确定是多少AIs。然而,我们倾向于认为,至少有一些可能的情况下,允许大屠杀human-grade AIs可能不如允许genocide-to-extinction坏。但是恶心,在写这篇文章的时候,说起来很可怕,太精于算计和冷。这里也许还有余地可以让人们看到,在道德上,拒绝进行这种计算是最好的方法。

罗宾·汉森想象新兴市场经济”场景中,我们人类大量的计算机仿真,或“ems”,执行各种有用的任务。这个场景的许多方面之一,邀请道德调查,是有时是有用的,创造一个具有短寿命的,很快就会终止,也许违背了他们的意愿(举个有趣的例子,看见”秘密”.一方面,初步看来错了缩短他们快乐的生活。另一方面,这些ems将不会创建如果我们不能剪短自己的生活。如果我们设想专门为此目的设计的ems,它们所具有的独特技能和特征使得它们没有被创造出来可以说类似于某些人类文化(尽管一种从未有机会存在的文化)的灭绝。em场景提供了与真实人类类似的场景的各种反逻辑:例如,我们可以计划ems的记忆长快乐的生活和/或不恐惧死亡(尽管这可能让他们不那么有用的链接)。你的意见是什么创建和杀死这样的ems的道德吗??

埃里克:这是一个令人着迷的道德问题。它与其他几个有趣的问题,我们认为AI伦理提出了,包括创造高高兴兴的自杀性AI奴隶的伦理和如何设想的挑战平等权利当面对可以随意合并和重复的AI时(例如,多少票,多少社会福利应该最近裂变实体)。

对于这类问题,我看不出一个简单的答案。我认为这将是一个严重的道德错误总是可以随意创建,然后杀死任何人工智能的生活总体良好。一旦一个有意识的生命被创造出来具有类人的智慧和情感,它通常对我们的道德关怀有要求。这将是可憎的,例如,轻松创建一个人类小孩,然后杀死它经过8年的快乐,这样您就可以使用儿童保健的钱购买一艘船;同样对于一个人工智能的孩子,我想,如果它出生在类似的心理和社会环境中。

另一方面,反思一些科幻小说的例子,例如,琳达经营的波尔制造商和大卫·布林的窑人,我倾向于认为,在某些情况下,暂时复制自己注定要灭绝。经营的一个特性和布林似乎相关病例是重复识别未来的延续是他们了,并对其福利比关心自己的福利作为单独的实体。他们会牺牲自己的幸福;通常(但不总是)他们的记忆会重新融入其中。我不认为这是道德允许足够的注定,因为我们可以想象这样的情形:一个卵以明显不合理或有问题的方式具有这种态度(例如,也许不会有这种态度,除了它被迫重组成的态度对自己的抗议活动);但这是一个开始。

高高兴兴地自杀奴隶提出了一个完全不同的问题。假设,例如,我们创建一个有意识的太阳探测器无非想死在太阳科学任务。188bet娱乐场假设它是有利的探针,是有意识的,因为意识关系在一些解不开的成功运作方式作为探针(例如,也许,如果它能够有意识地在飞行中创造出创造性的科学理论,那么这种探索是最有效的,自我反省的方式)。假设,知道,我们计划它,让它得到极大的乐趣三天自杀任务到太阳的光球。188bet娱乐场也许这是好极了!我们已经创建了世界上一些伟大的事情,对我们有用,本质上棒极了,然后欣喜若狂?或者我们做过可怕的事内容创建一个洗脑的奴隶的奴隶制度在其视觉和有限的,它不重视自己的继续存在吗??

进一步进展这些主题需要详细思考各种各样的情况。这是一个令人兴奋的问题,应该让伦理学家们忙上很长时间,如果人工智能技术继续进步。

你主张不实行中间政策,,我们应该只让AIs的道德地位是明确的,避免产生“边缘情况”人工智能。我们可以想象一个世界,人工智能领域的进步更快比意识的哲学和道德,因此,我们能够制造的大多数AI都是边缘情况。可能你认为这是如何发生??

埃里克和玛拉:我们认为这是完全可能的。埃里克,特别是,至少在中期内,我们对于发展良好意识理论的能力是悲观的,尽管他认为意识是非常重要的道德地位。

也许创造很多快乐是好的,实现了。我们想要谨慎,鉴于强大的版本的类型的索赔邀请的结论是,人在道德上有义务尽可能多的孩子可以快乐,现在还不清楚人们是否真的有这样的义务。也,不清楚是否好创建一个打快乐的人,一个可怕的痛苦,相比之下,没有创造出那些生物。

但是让我们说我们最好的,从哲学和技术角度来看,我们创造一百万个幸福的可能性是50%,在模拟世界中实现人类等级的人工智能,没有明显的痛苦,只有少量的钱;和50%可能花这些钱我们只是创建一个无意识sim没有重要的道德价值。在这种情况下,似乎被误导的谴责发起了这样一个世界的人只是因为他们违反了排除中间政策。

我们不打算让人们把我们提出的排除在外的中间政策解释为无例外的。我们认为这是一个很好的政策考虑违约,但是和大多数政策一样,它可能是深思熟虑拨出一个好的理由。的核心思想是,如果你创建一个实体,只有50%自信的应有权利,那你就要冒着道德损失的风险。如果你把它当作虽然应有权利和它不,然后你可能会牺牲一些实体的利益确实应得权利没有的东西。相反地,如果你把它当做不值得享有的权利来对待,那么你可能最终对它犯下道德错误,比如一时兴起就关闭它。如果你妥协给它一半的权利,但可能是治疗比应有更糟;或者你可能最终仍然牺牲大量的人类福利没有好结果。更好,如果可能的话,从一开始就明确哪些实体不应得的权益。

假设人工智能的研究和设计仍没有任何企图工程师AIs的水平的道德价值。你认为建立道德有关AI可能会在这种情况下吗??

埃里克和玛拉:关于这个问题,我们大约各占一半。但即使我们相信道德99%有关AIs不会被创建,剩下的1%是非常重要的,因为在这种情况下我们可能会犯下屠杀而没有意识到这一点。因此,我们认为,道德问题值得弄清楚,几乎不管一个人的意见,概率。

看来我们将有能力创造出大量道德上有价值的人工智能——也许在Sim“场景中,我们把他们放在一个模拟的世界里,他们过着幸福美好的生活。上图中,你说:“也许创造很多快乐是好的,满足的存在.这是否意味着我们应该想办法使人工智能具有道德价值??

埃里克和玛拉:我们认为,一个模拟世界的发射器和经理的有意识的AIs AIs实际上是一个神。所以这个问题就等于问我们应该成为神。

听起来多么傲慢啊!我们不确定,人类是准备这样的权力。但也许。也许,如果这样做时要格外小心,谦卑,和监督,具有非常明确和保守的监管结构。

我们在这里看到两个相互抵消的风险。一方面我们有强调­­AIs的道德风险和好处:创建它们的好,对他们很好,和给他们也许我们给人类的权力和尊重同行。但另一方面,有补充风险Nick Bostrom­­强调尤其是在工作,通过创建AIs足够复杂的道德地位,然后给他们适合他们的地位的权利,我们给人类带来风险,而这些风险我们可能没有做好应对的准备。

这是一个困境。如果人工智能研究不断进步很多更远,无论我们选择什么,都将存在巨大的道德和审慎风险和利益。我们只是把脚趾伸进水里。

如果我们真的决定扮演我们的手作为神或博士。化生,我们希望准备好用欢迎来到现实!”标志和一些快感刺激,而不是奴隶制,酷刑,和死亡。

报名参加我们的邮件列表

你的名字

你的电子邮件