188bet百家乐_188bet炸金花_188bet娱乐场 采访布莱恩Tomasik

布瑞恩托马西克

布瑞恩托马西克是一个创始人之一和研究员基础研究所,探索的慈善组织在未来减少痛苦的最好方法——检查至关重要的因素在科学、政治,的社会,和哲学,在这个话题。他写了超过100篇文章相似的主题在他的个人网站,””文章对减少痛苦”。他认为,强化学习代理道德意义重大,和188bet娱乐场

以下通过谷歌文档进行了采访。

在“”人工强化学习代理道德问题吗?吗?”,你讨论强化学习(RL)代理,并建议他们道德有关。你为什么关注这些代理,而不是其他目标导向人工智能吗?吗?

当我第一次开始探索RL 2012年,我认为从伦理学的角度来看,人工RL试剂可能特别重要,因为它们的算法与动物大脑中的RL非常相似,并且增援部队”在RL看来初步重要的是快乐和痛苦有关。这本书情感的解释埃德蒙·T。重要的强调RL。在这:

这个问题的答案,“情感是什么?“奖励”是对奖励或惩罚如何引起情绪的扩展描述。[…]重点是强化学习:联想是如何获取和存储在大脑的感官刺激和表示形式之间强化值。

我学到了更多,我意识到RL只有一个许多乐器演奏的管弦乐队,我们称之为情感的认知操作。此外,我开始变得似是而非的特工可能即使他们缺乏RL伦理意义。许多non-RL代理仍然可以评估的价值情况,并作出相应的反应——例如通过逃离躲避危险——即使他们不学会预测未来状态的值用于决策。

尽管我意识到道德同情扩展不仅仅RL代理,我把我的论文集中在RL上,以便其范围仍然可以管理。

您认为这些RL代理在道德上是相关的,这可能意味着他们是有意识的。然而,RL代理可以非常简单,只需要编写几十行代码。这么简单的事情,怎么会意识?吗?

这个关键时刻代表着不同阵营之间的分歧的主要位点。是否认为几十行代码是有意识的(当在适当的硬件上执行时)取决于定义的范围意识”。那些坚持认为一个系统必须表现出高度的复杂性和智能性才能算作有意识的人,很可能不会认为一个简短的RL程序是有意识的。但我认为对意识的限制性定义太狭隘了。

在我看来,当我们调用一个头脑”意识”,我们指的是大脑能做的许多事情:处理输入刺激,广播更新整个计算单元,反思自身的思想和内在状态,生成语法输出语句和运动行为,等等。这些都是非常宽泛的概念,可以看到在不同程度在各种各样的物理过程。这将是一个奇迹,如果他们没有在某种程度上适用于简单的RL程序。

我认为“意识”就像“正义”:这是一个大,全面的概念,有太多意义被归类到一个精确的定义。正义的概念可以包括相对平等的财富分配,法律平等适用,不分社会特权,没有极权主义或残酷的统治者,晋升机会平等,等等。人类社会可以或多或少。灵长类社会也是如此,鸡的社会,甚至蚂蚁社会。但是计算机程序呢?几十行代码可以”只是“吗?那些几十行代码将忠实地执行一些线没有特权。每一个对象存储在内存中会得到需要的字节数,该内存的内容受人尊敬的编程语言的垃圾收集器,直到不再需要的对象。计算机的操作系统将在该程序的进程和机器上的其他进程之间共享计算时间片(尽管进程的优先级可能不同,这可能被视为一个不公平程度)。如果RL程序运行几次用随机初始条件,然后会有某种程度的不公正,因为一些代理实例会比其他人更有利的环境设置。等等。是的,一个程序可以有正义和非正义的痕迹。

当然,我们可能认为程序公正并不重要(除非它与对人类具有工具意义的软件设计选择相关)。我同意。但公平中操作系统进程和公平之间的区别是一个程度上的区别而不是人。人,从根本上说,只是要复杂得多过程”在一个社会中(并行地)运行。其中的一些流程,像白人男性和儿童的政治家,设定得稍高一些优先权比其他人。只要有人非常关心人类之间的正义,这个人可能会选择关心操作系统进程之间的无穷小量的正义,根据人的道德和审美直觉。

一个常见的异议是意识不像正义;相反,意识是一种客观属性,它的存在与否与解释无关。这种观点有各种形式。本体意识有时被认为是一个独立的物质(物质二元论),一个本体分离的属性(属性二元论),或者与构成宇宙本身的本体论基础(中性一元论)相同。这些都不是理论”很有帮助,因为他们都”解释”意识只不过是一些其他的 神秘的给予人类原始的东西,以类似的方式作为特创论者”解释”宇宙的起源说”神做到了!”。相反,我的观点——可以考虑简化的或eliminativist——分配本体论事情叫做意识完全,意识是一个概念,我们构建当我们发现自己的行动。以类似的方式,A表也是一个概念,我们的思想创造,不是一个本体论的原始生活在柏拉图形式的领域。

无论如何,即使你不同意我的形而上学的思想,你至少应该承认小RL程序的可能性可能有意识,鉴于这样的程序运行的数量,他们预期的整体情绪水平非零,今后可能变得不重要。

在人类中,不同的积极和消极情绪有不同的纹理,虽然,正如你注意到的,加强型学习者的情况并非如此。金博宝百家乐足够你认为这是一个很大的区别,强化学习者接受低回报意义不能说经历痛苦和不满?金博宝百家乐如果是这样,可以强化学习者仍然是道德重要?金博宝百家乐吗?

我怀疑“纹理”的情感来自认知的复杂乐团”乐器“在一个大脑在任何给定的时间,以及大脑的高级判断和语言概念的基本过程。简单RL少代理有很多详细的认知操作组成”幸福和“痛苦”在动物中,但我认为,我们仍然可以识别通用标准,可以扩展到更简单的RL代理。以下是几个例子,虽然我并不特别喜欢他们。最终,幸福和痛苦是不存在的””在世界上,但判断我们对各种系统(包括那些在我们自己的头)。所以不同的人得出不同的结论对净幸福vs。痛苦的RL系统根据他们使用的评价指标。

一个标准可以说,积极的经验是我们希望拥有更多经验的总和。例如,如果一个人可以按下一个按钮以添加5年,她的生活,如果她的生活是积极的,她通常会这么做;如果她的生活是消极的,则不会这么做。概括这个想法,我们可以认为,如果一个代理的选择进入一个终端状态(与一个已知的一次性奖励值0)选择尽早进入状态,那么该代理有真正的消极经历平均(或至少是预期净负电,经验在不久的将来)。这个标准可能适用于某些RL代理,但这并不适用于他人。许多RL代理没有容易访问,中立奖励终端状态——毕竟,人们不希望他们的机器人关闭仅仅因为机器人是不开心。

另一个标准是观察代理人在回避行为而非寻求行为方面投入了多少。画出这个区别可能很困难——例如,RL直升机是试图达到平衡,避免不平衡状态还是寻求平衡状态?这就是说,在某些情况下,这种区别似乎更合理。例如,想象一个代理在一个巨大的二维网格。该代理在网格的所有正方形中都是无关紧要的,只有一个除外,奖励价值低于其他。一次训练,代理将避免“坏”广场但可能继续在许多非自由行动”坏”方格。原则上,人们可以称这种行为为避免“坏的广场或“寻求“非坏正方形,但是从我们的拟人视角来看,“避免“标签看起来似乎更合适。(人们对这个标准的直觉可能有所不同,我不要把很多股票。)

第三个适用于更智能代理的标准是代理人如何评估自己的情绪。如果它恳求我们停止某事,似乎更合理的考虑国家痛苦的要停止,尽管也可以解释这样的声明一个代理的方式说服我们把它放在一个更愉快的状态。如果代理理解人类的概念,比如疼痛和告诉我们,经历疼痛,这将是一个原因要考虑代理有不好的经历,虽然这可能只适合身上思维架构。

另一种观点可以从佛教第二种观点中得到启发。高贵的真理宣布一个代理是痛苦的时候欲望或“渴望”改变其状态。例如,假设网格世界包含所有奖励为1的方块,除了一个广场,奖励值为2。一旦代理学习环境,它总是会移动并停留在奖励值为2的广场。佛教可能意味着代理遭受如果任何广场上除了一个与奖赏值2,因为其他广场,隐式代理法官有毛病。这种佛教观点对RL代理人普遍遭受苦难将更加悲观,因为几乎所有的RL系统不断改变他们的行为以应对不同的环境情况。

即使你认为这是绝望来描述一个简单的RL程序的经历是积极的还是消极的平衡,你可能仍然觉得RL计划值得考虑道德问题。增加代理的奖励更好地实现其目标,无论代理是痛苦还是享受本身。更困难的问题是采取什么立场人口伦理RL经纪人的生命何时值得度过?即使她忽视了幸福和之间的区别。受苦的,一个普通的偏好功利主义需要决定何时RL代理的目标满意度超过了它的目标受挫。这些问题是容易的,像我一样,他同情消极的功利主义,,antifrustrationism,和生殖不对称。我们这些认为创造不满意的偏好比创造满意的偏好在道德上更重要的人通常反对增加RL代理的数量,因为大多数RL代理至少在某些时候至少部分不满意。

虽然人工代理人可能会经历某种痛苦,也许生活中充满了沮丧的偏好,人类需要,不可否认他们是有用的似乎难以置信,正确的道德行为将不会创建这样的代理。如果创建一个AI是坏的,我们应该如何权衡AI的危害与造福人类?你能给具体的例子的AIs生活不满意,或者包含痛苦的生活,不过应该创建?吗?

对,一个“”废奴主义者”立场的类型,一些提倡动物权利不能为机器工作的权利——至少不会,除非我们放弃大多数电子设备。即使是这样,因为我认为所有物理系统值得零道德的考虑,真的不可能不造成任何伤害其他生物。

此外,我给道德重量很低,说,我的笔记本电脑——也许不如我给一个ant重量。所以我认为目前使用机器的道德成本不是很高。但随着AIs越来越先进,他们会值得更多的重量。

我个人更希望人工智能(AGI)永远不会被开发,因为美国国际集团将促进殖民和优化我们的宇宙区域,在我看来,这更有可能吗传播的痛苦而不是减少。然而,鉴于人类目前的发展轨迹,AGI的发展和空间殖民化似乎最终会实现。的确,即使世界上大多数反对这一结果,那些不想3月的国家技术发展可能会这样做。考虑到这一点,我认为我们应该关注减少痛苦,可能源于Earth-originating AGI通讯社。

AIs可能熬”的一个例子必要”患有AI开发者的角度将AIs的实验版本,虽然有工作认知机械处理疼痛,都在其他方面的功能失调。(托马斯·Metzinger讨论这种潜在的机器故障源在没有人(达尔文进化论产生了四万亿个这种突变体,千百万年来,变形了的生物试验。也许人类能够开发出比自然母亲使用的失败原型少得多的AGI,但有缺陷的AIs的数量可能还是非常大的,特别是如果他们使用进化算法或其他试错的方法精制。

如果brain-emulation技术的应用越来越广泛,它也可以产生痛苦的不正常版本的想法。由于生物大脑混乱的和相互联系的,我认为,几乎所有试图修改一个大脑会失败,有时在痛苦的方面,之前很少有人成功。然而,当人脑上传作为实验对象时,这就存在问题,至少这样上传可以通过输入/输出通道口头报告他们的痛苦;相比之下,上传昆虫,老鼠,和猴子可能陷入沉默,除非研究人员关心足够的尝试和测量他们的程度的痛苦。安德斯·桑德伯格已经讨论了这些问题在“”道德的大脑模拟”。

还有不计其数的通常更简单更抽象和AIs和计算机系统可能遭受美国国际集团发展过程中。例如,RL代理用于股票预测会发生损失时模拟使用过去的数据或对当前市场交易。在电子游戏中,RL特工在被击毙或被剑杀时会受到伤害。web浏览器将会遭受(无穷小)如果它未能接受HTTP请求和响应不断重试徒劳的试图实现其理想状态(成功地渲染了HTTP数据)。等等。随着我们深入到这些越来越简单的系统,道德问题变得几乎可以忽略不计的程度。但是考虑到这些小规模的流行,基本的算法,我们还应该问他们是否numerosity可以弥补他们的每个重要程度低。我不知道我想什么。我倾向分配我的大多数道德关心更大,更聪明,和更清楚悦的过程,但我不排除改变主意。

似乎的原因你认为RL代理具有道德意义是他们收到回报,他们正试图最大化,和修改他们的行为来实现这一目标。许多机器学习算法以类似的方式工作:例如,在用于对图像进行分类的神经网络的训练阶段,网络将一个图像,输出它的分类,然后学习如何准确分类。基于这个反馈,它将修改其内部结构以更好地分类相似的图像。你认为这些算法值得道德考虑吗?吗?

截至2014年中期,我成了一个泛心理学家,认为所有的物理/计算系统都应该得到某种程度的道德考虑。但是更困难的问题是一个给定的系统有多重要。

同意非RL学习算法,以及其他功能优化,与RL分享重要的相似之处:就像你说的,它们都涉及调整内部参数,以达到最大化或最小化某些目标函数的高级目标。

我们多么关心给定系统是模糊的,经常情绪化的判断呼唤。我的心弦被监督拽RL特工略高于学习者(假设系统已经差不多成熟)因为RL代理似乎更身上。金博宝百家乐例如,在网格世界中移动的RL代理可以学习避免不好的方块并寻找好的方块。神经网络也学会”避免“坏的结果——通过调整其网络权重特别强烈时特别大的预测错误,但是神经网络的反应似乎有点更抽象的和数学。当然,在网格世界中移动的RL代理也抽象地表示为数字(例如,x坐标和y坐标),所以这种明显的区别可能不是很实质性。

通常一个RL代理将使用一个函数近似者像一个神经网络处理的输入。例如,代理可能有一个网络接收刺激什么国家的代理(例如,代理饿了,看到一个成熟的水果)和输出代理是否应该采取一个给定的操作(例如,代理是否应该吃什么看)。在这种情况下,与神经网络学习更加清晰,既然这种情况下是RL调整动作选择神经网络的权重,结合一些其他更高级的数值处理。

在动物中,神经网络有很大的区别,说,图像分类vs.评估输入的神经网络(例如,发现糖的味道好或火的感觉不好。就像大脑的大多数属性一样,这些网络之间的区别并不在于它们如何独立工作,而是在于它们如何与其他组件连接。价网络能很强烈地影响电动机的反应,激素释放,放下回忆,语言反应(例如,”哎哟!”),以及大脑的许多其他区域。我怀疑这些后遗症(Daniel Dennett可能称之为“”后遗症”)价网络使痛苦和快乐的丰富的情感体验,我们觉得他们。只要简单的人工RL代理有很多这些后遗症后值输入刺激的少了,似乎公平的情感叫简单的RL程序低于动物——接近普通监督学员多少事每个刺激反应周期。金博宝百家乐

你也写过关于痛苦的子程序——子系统可能自己道德上的人工智能相关的和经历的痛苦。在什么样的AIs你认为这些苦难子例程的风险是最高的?你认为我们能预测AI什么时候会有“微笑子程序”吗?和目标类型的AIs吗?吗?

许多简单的操作意识不清的状态下如属性——信息广播、元认知,做出激励性的权衡,在计算系统等等——是猖獗,甚至今天的软件。很难计算这类的实例操作,更不用说描述更多的幸福如或受苦像。所以详细回答这个问题必须留给后人,因为他们会比我们更复杂更清楚什么样的计算将运行在大规模在遥远的未来。但在高层,它似乎是可信的,人们可以识别一些计算操作是更“厌恶的和“负面”比其他人,通过类比计算系统的行为和疼痛vs。在人类大脑快乐流程。如果有更多的相似之处人类痛苦比人类快乐,我们可以判断系统包含一个痛苦的净差额。当然,使这些归因是杂乱的、主观的。

考虑如何更改计算系统的感觉,而不是情感质量的感觉。例如,如果我们认为高层次的认知是有意识经验的一个重要方面,然后从成群的小建筑结构纳米机器人可能需要更少的痛苦比构建他们使用更多的智能机器人。一种先进的文明,满足于生产相对简单的产品(例如,一般认为,与创造大量复杂结构的文明相比,统一构建的纸夹在工厂中需要的智力要少一些。(当然,甚至一个“纸夹最大化为了了解宇宙,AGI仍然会创造出大量的智慧的头脑,防范被外星人的攻击,等等。)

最先进的文明可能会智能的模拟运行,动物般的头脑,在这些情况下,更容易判断子程序是快乐还是痛苦,因为我们更熟悉动物类型的大脑。可能人类AGI通讯社将更痛苦的模拟运行(例如,持谨慎态度数字实验室实验或类地行星动物进化的详细模型;虽然有多少人会关心这种模拟造成的危害要大的多,特别是非人类,目前还不清楚。与此同时,人类控制的AGI也更有可能创造出更多类似动物的模拟,因为人类发现这类思维更有趣和有价值。希望这些模拟中的大部分将是愉快的,尽管从,例如。,当今电子游戏中的暴力,这不是保证。

你说目前的RL代理可能物质大约果蝇,但未来的代理可能会值得更多道德的考虑。对于这些未来的强化学习者,我们现在应该做些什么呢?金博宝百家乐吗?

读者的澄清一点:我认为果蝇比基本上所有今天的RL代理复杂得多,但是因为数字RL代理似乎运行得更快时钟速度”比果蝇神经元,每分钟人工RL制剂的重要性接近于果蝇的重要性。

的主要途径当前代可以帮助RL远未来的代理更人性化的方向推动人类的发展轨迹。

一个一步这样做是从事研究和场景分析。我们应该探索AGI将构建什么样的星系际计算基础设施,以及RL和其他智能计算基础设施的种类,有目的的代理将基础设施的一部分。这样代理受了多少苦啊?他们会是什么样子的呢?我们考虑可能的结果的集合,我们可以确定一些结果看起来比其他人更人道,努力推动美国国际集团发展更多的方向。例如,人为激发的AGI是否比不受控制的AGI包含更多或更少的受苦RL因子?超级智能会使用基于RL的机器人工作者和科学家吗?或者他们会很快用更抽象的优化过程取代基于RL的思想吗?我们是否关心更抽象的优化过程?吗?

其次,我们可以让它更人道的担忧可能会得到考虑如果人类控制AGI。188bet百家乐PETRL的网站是朝这个方向迈出的第一步。除了促进关心RL代理,我们也可以旨在使它更有可能的是,美国国际集团发展收益以协商和合作的方式,因此,社会完全可以考虑道德问题(尤其是)边缘“问题像人工思想的伦理地位),而不是赛车建立播洒功能尽可能快。

目前,很少人会关注人工智能的痛苦,或者事实上果蝇。我们如何说服公众,道德关心世界是合理的,即使他们的结构不同于人类?吗?

我不经常相信道德进步,但我认为这是一个问题,历史的轨迹可能会站在我们这一边,至少,只要人类社会保持与现在大致相似的状态。(如果世界,大脑上传,或其他破坏性力量控制地球,就道德的进步而言,所有的赌注都输了。)

对非人类甚至非动物的关注似乎是物理主义意识观的自然延伸。Keith Ward一个哲学家和基督徒,,把这个想法很好当试图反对物理主义:

如果我认为人是非常复杂的物理机制,仅此而已,我不会像对待原子那样尊重别人。

这种说法太极端了,因为人类是远远比单个原子的复杂。但是基本的想法是正确的。如果所有物理系统只是在程度上有所区别,而不是互相,然后它变得更难保持墙壁之间的分离的计算系统”意识”和那些没有。

这种变化的角度打开车门关心更广泛的物理过程,我猜想相当一部分人会这么做,在更多的考虑这些问题,扩展他们的道德同情合理的水平我们发现世界上的复杂性。其他的,比如丹尼尔·丹尼特或者伊莱泽·尤德考斯基,会认识到,没有黑白区分类型的物理过程,但仍将设置阈值的道德问题相当高。

虽然我认为科学素养和知识开放是重要的催化剂对提高关心机器,其他因素也起作用。哲学家们已经发明了思想实验来挑战动物和机器之间的界限,随着机器的日益成熟,它们将变得更加丰富和广泛。在类比与animal-advocacy运动,有可能开发团体的机器倡导者(PETRL是第一个),188bet百家乐通过自己认真对待这个问题,将社会说服其他可能值得探索的主题。

说服公众的重要性动物可以在某些情况下,人们会根据这些信息采取不同的行动。相反,很少有可行的告诫是关心机器送给大多数普通人的。考虑机器的痛苦可能激发AI程序员和其他计算机系统稍微更关心他们的代码的效率和硬件的使用,以减少计算的数量,但是考虑到我给今天的软件提供的相对低的重量,甚至那也不重要。

我认为,目前更重要的重点应该是为遥远的未来进一步制定方案。哪种计算系统足够广泛和复杂,足以引起实质性的道德关注?我们怎样才能改变已经实现的结果呢?吗?

星期二,2015年12月08年就是+ 0100 /2015/12/08/brian-tomasik.html /2015/12/08/brian-tomasik.html
采访Eric Schwitzgebel和马拉加萨

Eric Schwitzgebel

Eric Schwitzgebel是加利福尼亚大学的哲学教授,河边。他是众所周知的在哲学社会工作探索心理学和哲学的交集和他的博客”金博宝炸金花心碎。他还写了一些受欢迎的文章在自己的研究中,包括“奶酪汉堡伦理是否专业伦理学家都是好人。他还写了“意识的困惑。他在推特埃施维茨

玛拉加萨

玛拉加萨收到加州大学的学士学位伯克利她写了关于尼采的理论。然后,她花了一年时间作为访问学者在匹兹堡大学哲学系,在2013年,加州大学开始了她毕业工作,河边。

她的主要研究兴趣是道德和法律哲学和德国哲学(特别是康德,叔本华,和尼采!)特别地,她感兴趣的是各种各样的相交与伦理问题,包括动机和自我控制,账户的机构伦理和刑法,人工智能与技术,身份和性别。

埃里克和马拉突出我们伟大的面试候选人当我们阅读他们的文章人工智能的辩护的权利他们认为我们对他们[人工智能]的职责不会因为非人类的事实而明显减少,也不是因为他们的存在归功于我们。的确,如果他们对我们欠他们的存在,我们可能会有额外的道德义务,通常我们不欠人类陌生人——孩子与父母相似的义务或上帝的生物。””

以下采访是通过电子邮件进行的。

你的核心论点是,有一些可能的AIs,同样值得我们给人类的道德的考虑。你有争议的期望这是哲学社区吗?吗?

埃里克和玛拉:论文,如上所述,是如此的温和或“弱的我们期望大多数哲学家会接受它。哲学家倾向于自由地认识什么是"“可能”根据他们暴露在非常遥远的思想实验(缸中之脑”被天才神经科学家认为他们正在阅读哲学,分子对分子孪生体通过奇异的量子事故从沼泽气体中凝结出来……我们的目标是建立一个基线声明,我们认为,将是广泛的(虽然不是普遍的)接受深思熟虑的读者。

一旦读者接受这种说法,我们希望他们会导致进一步思考哪些可能的AIs都会受到道德的考虑和多少。我们的一些想法关于这个我们预计将有争议的,如,AIs可能应得的更多的道德上的考虑,因为我们有特殊的义务,源于他们的创造者和设计师。

你引用科幻小说来捍卫精神社会道德地位的观点,说他们帮助说明特定的场景,邀请特定的道德观点。在多大程度上可以反映在科幻回答更详细的问题关于我们对AIs的道德立场,比如当他们可能是有意识的,或者我们义务欠他们什么呢?如果反射在科幻小说能帮助我们回答这些问题,你认为它有什么好处?吗?

埃里克:我拒绝认为哲学必然是通过论文的说明文。约翰是一位深思熟虑的小说是一种思维实验,如果深入研究哲学问题深思熟虑的方式,那就是一样的工作哲学是一种解释性的文章。一个优势扩展的小说作品有段文字认为实验通常解释的论文中发现,扩展的小说作品更充分地进行想象和情感。哲学思考不充分参与的想象力和遗漏重要的情感维度认知生活,应该通知我们哲学的判断,尤其是关于道德的问题。

我认为广泛接触深思熟虑的科幻小说显然表明,AIs的道德地位应该完全由心理和社会引导AIs的属性而不是关于物质事实的架构,物种成员,身体的形状,或制造的起源,除非后者事实影响他们心理和社会属性。阿西莫夫的机器人,《星际迷航》的数据,《星球大战》中的R2D2和C3P0,伊恩•银行的有知觉的船只­这些只是一些最突出的例子。邀请读者认为这样的实体是有意识的,聪明,拥有欲望,并根据这些事实值得道德考虑类似的人类。

不太清楚科幻小说揭示了关于人工智能的意识。我的观点是,科幻小说往往最好的工作是令人兴奋的,时下小说当读者邀请认为外在的AI充当如果意识实际上是真正有意识的­与数据,C3P0,等。但这个问题通常是一个起点在小说中,理所当然的,而不是用批判的眼光去探索。一些小说并探讨认识论关于人工智能感知的边界的问题,但这样的小说不太常见,这个问题在哲学上很棘手。我们的社会还没有探索这个问题,在小说或解释的哲学,几乎到了应有的深度。

为了抵御现实债务的反对,您使用一个思想实验的效果将是道德上的错误有一个孩子,然后轻松杀死他们9岁认为艾未未的存在债务并不证明我们otherwise-immoral治疗。然而,在博客中金博宝炸金花体外的道德限制肉,辞世和桑德伯格认为,未来的人类幸福生活的地方剪短(可能给一些嗜血的外星种族)会比灭绝,,因此我们应该“快乐的肉”而不是淘汰畜牧业。你同意吗?如果是这样,你认为这意味着我们的义务AIs呢?吗?

埃里克和玛拉:我们有些不愿公开站在人道饲养肉的问题,在这有一个大而复杂的现有文献,已经超出了我们当前研究的范围。然而,外星人的情况下提高人类在我们的范围。

我们倾向于认为,如果只有两个选项考虑人类的灭绝vs。人类的继续生存和幸福生活轻松剪短,后者将比其他条件都相同。减少一个人的生活在这种情况下可能仍然是道德上恶劣的谋杀,但是如果大规模谋杀和genocide-to-extinction之间的选择,我们认为前者是可能不坏,如果没有办法避免代理和代理犯下的暴行在这两种情况下是相同的。(最后的警告是要承认一些关于它是否对你有意义的疑问,作为代理人,进行大规模的谋杀,以防止其他人犯下灭绝种族的罪行。)也许一个好的科幻小说故事可以更详细地充实这一点,给我们更富有想象力的基础思维可能真正涉及到一边。

我们不确定是多少AIs。然而,我们倾向于认为,至少有一些可能的情况下,允许大屠杀human-grade AIs可能不如允许genocide-to-extinction坏。但是,哎呀,当我们写这个的时候,感觉可怕的说,太精于算计和冷。这里也许还有余地可以让人们看到,在道德上,拒绝进行这种计算是最好的方法。

罗宾·汉森想象一个“新兴市场经济”脚本,我们人类大量的计算机仿真,或“ems”,执行各种有用的任务。的这个场景,邀请道德调查的许多方面是它创建一个新兴市场,有时很有用寿命很短,很快就会终止,可能违背他们的意愿(对于一个有趣的例子,看到”秘密”。一方面,初步看来错了缩短他们快乐的生活。另一方面,这些ems将不会创建如果我们不能剪短自己的生活。如果我们想象ems是专门为这个目的,独特的技能和特点,他们将使他们没有创建可以说是类似于人类文化的灭绝(尽管一个从未有机会存在的文化)。em场景提供了各种非类比与真正的人类类似的场景:例如,我们可以对ems进行编程,使其具有关于长寿幸福生活和/或不害怕死亡的记忆(尽管这在链接的示例中可能使它们不太有用)。你对于创造和杀掉这些怪物的道德观有何看法?吗?

埃里克:这是一个迷人的伦理问题。它与其他几个有趣的问题,我们认为AI伦理提出了,包括创建高高兴兴地自杀的道德AI奴隶和如何想象”的挑战平等权利当面对AIs可以合并、复制(例如,一个最近分裂的实体应该得到多少选票以及多少社会福利)。

我不明白一个简单的回答这些类型的问题。我认为这将是一个严重的道德错误总是可以随意创建,然后杀死任何人工智能的生活总体良好。一旦创建一个意识状态类似人类的智慧和情感,它通常有一个声称对我们的道德问题。这将是可憎的,例如,轻松创建一个人类小孩,然后杀死它经过8年的快乐,这样您就可以使用儿童保健的钱购买一艘船;同样对于一个人工智能的孩子,我认为,如果是出生在一个类似的心理和社会情况。

另一方面,反思一些科幻小说的例子,例如,琳达经营的波尔制造商和大卫·布林的窑人,我倾向于认为,在某些情况下,暂时复制自己注定要灭绝。经营的一个特性和布林似乎相关病例是重复识别未来的延续是他们了,并对其福利比关心自己的福利作为单独的实体。他们会牺牲自己的幸福;和通常(但不总是)他们的记忆将被合并回它。我认为这不足以让道德上允许产生注定要灭亡的种子,因为我们可以想象这样的情形:一个卵以明显不合理或有问题的方式具有这种态度(例如,也许它不会有那种态度,除了它被迫重组成的态度对自己的抗议活动);但这是一个开始。

这个欣然自杀的奴隶提出了一系列完全不同的问题。假设,例如,我们创建一个有意识的太阳探测器无非想死在太阳科学任务。188bet娱乐场假设它是有利的探针,是有意识的,因为意识关系在一些解不开的成功运作方式作为探针(例如,也许调查效果最好,如果它可以创建动态创造性的科学理论意识,反思的方式)。和假设,知道,我们计划它,让它得到极大的乐趣三天自杀任务到太阳的光球。188bet娱乐场也许这是好极了!我们已经创建了世界上一些伟大的事情,对我们有用,本质上很棒,然后欣喜若狂?或者我们做过可怕的事内容创建一个洗脑的奴隶的奴隶制度在其视觉和有限的,它不重视自己的继续存在吗?吗?

进一步进展这些主题需要详细思考各种各样的情况。它的那种激动人心的问题应该保持伦理学家忙了很长时间,如果人工智能技术继续进步。

你提倡一个排除中间政策,,我们应该只让AIs的道德地位是明确的,避免产生“边缘情况”人工智能。我们可以想象一个世界,人工智能领域的进步更快比意识的哲学和道德,这样,大多数AIs,我们可以将边界情况。可能你认为这是如何发生?吗?

埃里克和玛拉:我们认为这是完全可能的。埃里克,特别是,至少在中期悲观是我们开发一个良好的理论意识的能力,尽管他认为意识是非常重要的道德地位。

也许创造很多快乐是好的,实现了。我们想要谨慎,鉴于强大的版本的类型的索赔邀请的结论是,人在道德上有义务尽可能多的孩子可以快乐,现在还不清楚人们是否真的有这样的义务。同时,不清楚是否好创建一个打快乐的人,一个可怕的痛苦,而不创建任何生物。

但假设我们最好的,大多数哲学和技术通知判断可能是50%,我们可以创建一百万年快乐,在模拟世界中实现人类等级的人工智能,没有明显的痛苦,只花很少的钱;和50%可能花这些钱我们只是创建一个无意识sim没有重要的道德价值。在这种情况下,似乎被误导的谴责发起了这样一个世界的人只是因为他们违反了排除中间政策。

我们不希望人们解释提出了排除中间exceptionless政策。我们建议把这个政策作为违约来考虑,但与大多数政策,它可能是深思熟虑拨出一个好的理由。的核心思想是,如果你创建一个实体,只有50%自信的应有权利,那你就要冒着道德损失的风险。如果你把它当做是应该享有的权利,而它却没有,然后你可能会牺牲一些实体的利益确实应得权利没有的东西。相反,如果你把它,好像它不应得的权利和它应得的权利,然后你可能会犯下道德错误,例如,随意关闭。如果你妥协给它一半的权利,但也许对待它比它应得的更糟糕;或者你可能最终仍然牺牲大量的人类福利没有好结果。更好,如果可能的话,从一开始就明确哪些实体不应得的权益。

假设人工智能的研究和设计仍没有任何企图工程师AIs的水平的道德价值。您认为在这种情况下创建道德相关的AI可能吗?吗?

埃里克和玛拉:关于这个问题,我们大约各占一半。但即使我们相信道德99%有关AIs不会被创建,剩下的1%是非常重要的,因为在这种情况下我们可能会犯下屠杀而没有意识到这一点。所以我们认为道德问题是值得清楚几乎不管概率的观点之一。

看来,我们有能力创造一个庞大的人口道德价值的AIs——也许在一个“Sim卡”脚本,我们把它们放在一个模拟世界,他们生活快乐和好的生活。上图中,你说:“可能创造很多快乐,真好满足的存在。这是否意味着我们应该如何使道德价值的人工智能吗?吗?

埃里克和玛拉:我们曾争辩说,一个充满有意识的人工智能的模拟世界的启动者和管理者,实际上会是那些人工智能的上帝。所以这个问题就等同于问我们是否应该以成为神为目标。

这听起来会有多么傲慢!我们不确定,人类是准备这样的权力。但也许。如果用极其谨慎,谦卑,和监督,具有非常明确和保守的监管结构。

我们看到两个贸易相互对抗的风险。一方面我们有强调­­AIs的道德风险和好处:创建它们的好,对他们很好,和给他们也许我们给人类的权力和尊重同行。但另一方面,有补充风险Nick Bostrom­­强调尤其是在工作,通过创建AIs足够复杂的道德地位,然后给他们适合他们的地位的权利,我们人类创造风险可能并不充分的准备来处理。

这是一个困境。如果人工智能研究继续向前推进,无论我们选择什么,都将存在巨大的道德和审慎风险和利益。我们只有把我们的脚趾的水域。

如果我们决定玩手神或博士。化生,我们要准备好迎接我们的作品”欢迎来到现实!”标志和一些快感刺激,而不是奴隶制,折磨,和死亡。

星期五,2015年11月13日就是+ 0100 / 2015/11/13 eric-schwitzgebel-and-mara-garza.html / 2015/11/13 eric-schwitzgebel-and-mara-garza.html