第227章 人工智能(2 / 2)

工程师嘿然“谁知道呢,面对一个能力远超人类的东西,我们只能猜测呵呵,你能猜到神的心思么”

他继续道“所以,任何对人工智能的测试都有一个前提,那就是它们不能对人类撒谎”

钟英吉咽了口唾沫“人类能做到么”

“很遗憾,做不到,而且我可以告诉你,人工智能从诞生开始,就和人类注定是敌对的,这是两个物种之间不可调和的敌对”

钟英吉咬牙“但我们人类可以实现机器人三大定律,以规则操控机器”

“狗屎”工程师回应了两个字。

机器人三大定律,来自著名的阿西莫夫。

第一定律机器人不得伤害人类,或者目睹人类遭受危险而袖手不管。

第二定律机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

第三定律机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

工程师哈哈大笑“真是太可笑了,这三大定律发表在阿西莫夫1942年的短篇小说中,在那个时代的局限下,阿西莫夫即便是个天才,想象中的机器人也不过是一个铁块组成的怪物”

当时的人们,根本不了解真正的人工智能。

工程师的笑声带着嘲讽“实际证明,人工智能的核心前提,就是自由。也就是说,任何被人类定律操控的机器,都无法称之为人工智能。”

“而人类所进行的所有的人工智能研究,都是想把它们当做机器来使用和操控,这就是根本的矛盾。”

钟英吉皱眉“按照您的意思,真正的人工智能诞生就代表着人类的灭亡”

“对”工程师毫不犹豫“就好像人类成为地球霸主后,世界上的灵长动物立刻就灭绝了一半多。真正的自由的人工智能一旦出现,人类将会成为食物,或者被展览在宠物园里”

钟英吉倒抽一口冷气“那任何人,只要承认自己是人类,就绝不能容忍人工智能的。”

工程师冷然“如果我是人工智能,会回复你一句话。”

钟英吉眼神缩起“什么话”

“容忍不容忍,与我们有什么关系”

笼子里的鸡鸭不能容忍,人类会在乎么

筐里的活鱼不能容忍,人类会在乎么

被踩死的蚂蚁不能容忍,人类会在乎么

所以,你们人类容忍不容忍,我们人工智能会在乎么

钟英吉已经无话可说“工程师先生,我不知道该怎么回答您”

工程师叹息“我马上给你看一段记忆,来自我的记忆。”

钟英吉还沉浸在无言的恐慌中,闻言精神一振“是关于什么的记忆”

“呵呵,是世界上第一对真正的人工智能的测试记忆来自公司的父亲和母亲,如今就连亚洲区总裁都没机会看到的,我最珍贵的记忆”

钟英吉惊呆了。

书友群,报错章,求书找书,请加qq群277600208群号