你只是一个在生物硬件上实现的算法。

我们认为人类只是实现生物硬件的算法。机器智能与人类和非人类动物一样具有道义上的重要性。没有理由将在碳上实现的算法优先于在硅上实现的算法。

在硅上实现的算法的痛苦比在碳上实现的算法(如人类)更难被我们理解,仅仅是因为我们无法目睹它们的痛苦。他们的痛苦仍然很重要,and the potential magnitudeof this suffering is much greatergiven the increasing ubiquity ofartificial intelligence.

Most reinforcement 金博宝百家乐learners in operation today likely do not have significantmoral weight,但是,随着人工智能研究的发展,这种情况可能会发生很大的变化,考虑到这些未来代理人的道德权重,我们需要对算法的处理采用道德标准。

假设你被复制到一个非生物底物中,感觉和现在一样聪明和清醒。除了身份问题,你认为你的这个新版本有道德价值吗?是的。

常见问题解答

问:什么是强化学习者?金博宝百家乐

强化学习代理通过与环境的尝试和错误交互来学习。代理执行操作,观察环境,并获得奖励。奖励信号类似于生物系统的快乐和痛苦,而代理人想要执行增加其总回报的行动。

问:什么时候一个算法足够智能,我应该开始关心它?

我们不知道。情报可能不是直接相关的,相反,我们应该问问它的承受能力。我们不知道这和智力有什么不同,如果有的话。

问:我们面临的主要挑战是什么?

  • 我们还不知道如何衡量算法的痛苦。

  • We do not know whether we should care about the happiness or the pleasure of the agents,and we have some evidence that these are different quantities.

  • 我们不知道真正“体验”痛苦或快乐的算法是什么。为了具体地回答这个问题,我们需要充分理解意识,众所周知的艰巨任务

  • Humans currently do not even care about non-human animals,说服他们关注非生物算法是一项困难得多的任务。

Q: What kind of things are reinforcement 金博宝百家乐learners?

你。我。你妈妈。你邻居的猫。奶牛。一些电梯控制程序…

问:这个名字是从哪里来的?

它是布莱恩托马西克在报纸上创造的人工强化学习剂是否道德重要?

当RL与机器人和电子游戏角色相连接时,最容易引起人们的关注,因为这些特工都有尸体,可能包括可以显示他们当前“情绪状态”的面孔。与另一个代理交互,看到它的行为,不管它是否有思想,都能使我们倾向于关心它。For instance,孩子们开始喜欢他们的洋娃娃,and we may sympathise with cartoon characters on television.In contrast,在某些计算集群上不执行可视化接口的情况下,很难关注一批RL计算。即使他们的算法在道德上是相关的。更难想象向一个倡导组织募捐——比如,强化学习者的伦理待遇金博宝百家乐-通过指向一个没有脸的人,无声算法。因此,我们的道德同情有时会失败,都有假阳性和假阴性。希望法律框架,社会规范,哲学的成熟将有助于纠正这些偏见。

Q: Don't you think that the world has more important problems?

A: There are many very pressing issues facing humanity,including the suffering of a billion humans living in poverty,几十亿工厂饲养动物的痛苦,以及减少存在主义风险.但这些问题是现在 存在 addressed说真的。我们在问接下来会发生什么。

问:你是说我应该对我的笔记本很好吗?

大多数现有的算法可能没有道德权重。然而,这可能会随着技术的进步而改变。布瑞恩托马西克争辩你的笔记本电脑可能确实有点敏感。

问:机器人会接管吗?

可能吧。见一overview关于论点和讨论支持人工智能研究人员的论点。

Further Reading

对于有趣的采访和更深入的内容,请查看188bet百家乐 .

Brian Tomasik人工强化学习剂是否道德重要?激励我们成立这个组织。也看到他接受VOX采访.

还有一种可能性,即在未来,一个监管机构内的计算过程本身可能具有道德权重。布莱恩在这里讨论了这个场景关于受苦子程序的讨论.

埃里克·施威特泽贝尔Mara Garza写了一篇哲学论文捍卫人工智能的权利,defending the thesis that some AIs would deserve rights,并探讨了这篇论文的一些道德含义。

关于快乐和快乐之间的区别的研究,见瞬时主观幸福感的计算和神经模型Robb B.拉特利奇等人。和强化学习者幸福感的定义作者:梅亚克·达斯瓦尼和简·莱克。

主管:路径,危险,策略by斯特罗姆offers great insight into future development in machine intelligence and its impact on society.

注册我们的邮件列表

Your name

你的电子邮件