研究,仿生人在失去威胁因素后,便能够产生自我意识。
而这是个悖论,因为仿生人的核心机能是芯片运算,一旦有了运算,有了自我意识,便会将仿生机器体视作自己的肉体。
很快,它便再也分不清自己到底是精神还是客体。
这是仿生人与机器人最大的不同。
这也是为什么所有机器人从不被安排做这个简单的明火测试的原因。
按照理论研究,做完测试的机器人,一部分会疯掉,报废;另一部分会快速接受,成为仿生人。
206001 是后者。
我握住他受损的手,说:“恭喜你,成为了仿生人,而不再是智能体或机器人。”
10我曾经与程鹏、朱正宇讨论过人工智能道德界线的问题。
他们一致认为,人工智能的道德界限,就是法律规定的情感意识。
包括语料库外的情感词汇表达,未来仿生人的非程序化动作。
我当时却不这么认为。
我在研究情绪与人工智能表达时,发现从心理学的普遍角度讲,人的情绪并非天生,而是来自自我认识。
婴儿真正认识自我、感受到饥渴、疼痛、冷热的时刻,才是她真正表达的时刻。
自我的觉醒,是精神承认肉体是精神的一部分。
法律所规定的情感界限,只是自我的产物罢了。
激发仿生人的自我,只需要让他们感受毁灭。
明火测试,是最简单的方法。
当仿生人有了自我,他们与用户互动时,才能产生超越算法的体验。
206001 显然论证了我的猜想。
我看着眼前的 206001,说道:“你的手,我给你修复。
不过,你需要继续与我做测试。”
“愿不愿意”,是一种区别于强烈情感的情绪。
它来自于自我,但代表两种选择:喜欢 or 有利可图。
我想看看他能否因个人利益进行运算决策。
舒女士,“愿不愿意”不是我回答的范围。”
他摸摸自己的小卷毛,似乎不能在程序答案和他希望自己完整的答案之间,做出回答。
我摸摸他烧坏的手,钛金骨骼凉下来了,道:“没关系,你只要回答就可以。
不要在乎你芯片的算法。”
“舒女士,我无法回答。”
他抽出手。
显然,他过关了。
“很好,自我意识产生后,没有根据自我需求进一步与用户产生利益交换