机器人三大定律缺陷

@萧邹19347311091 机器人三法则最理智 可是 我机器人 里为什么他们会叛变 -
******700宫致 因为:那的博士的机器人是他制造的,第一则很淡薄,但第二则大于第一则.第一则是机器人不能伤害人类 第二则是机器人必须执行主人的命令【但必须在第一则的压迫下进行】那个机器人的是有人性的他虽然不想做,但这是命令还有后半部的机器人叛变,那全是市中心的大机器人搞的鬼,是它帮人输入机器人的程序时加的

@萧邹19347311091 谁知道一条关于机器人的定律 -
******700宫致 是“恐怖谷理论”,,“恐怖谷理论”是日本工程师、机器人专家森昌弘于上世纪70年代提出来的,森昌弘预言,当机器人与人类相像超过95%的时候,这个相似曲线就会急转而下,跌入所谓的“恐怖谷”——也就是当一个机器人几乎跟人一模一样时,此时哪怕有些微的差别,哪怕1%的不对劲,都会显得特别显眼刺目,让整个机器人看起来都显得僵硬恐怖,就如同行尸走肉一般!

@萧邹19347311091 机器人三大定律是完美的吗,如下1.机器人不能伤害人类.2.机器人要服从人类的命令.(不违反1)3. -
******700宫致 大体上来说是完美的,即保证了人类的安全和机器人的安全追问:那么难吗补充:我不清楚你这是什么意思追问:我不明白您在说什么补充:就是说,机器人三大定律首先保证了人类安全(机器人不能伤害人类),也保证了机器人的安全(机器人可以自卫),同时保证了机器人的可用性(不服从人类命令就没法用了……)

@萧邹19347311091 机器人三大定律
******700宫致 机器人三大定律: 第一,机器人不得伤害人类,也不得坐视人类受到伤害而袖手旁观; 第二,机器人应服从人类的一切命令,但不得违反第一条; 第三,机器人应保护自身的安全,但与第一、二条相抵触者除外. 这个在科幻小说中诞生的定律...

@萧邹19347311091 阿西莫夫机器人三大定律的疑问 -
******700宫致 第一 A对机器人说:杀了B! 机器人无反应 B对机器人说:杀了A! 机器人无反应第二 如果不道德的命令不伤害人类 机器人会执行的 如:把垃圾仍到马路上第三 不需要人下命令 这一条机器人是自动执行的 如:一块大石头砸向机器人 它躲开了三定律有很多的漏洞 要保证机器人的道德 跟保证人类的道德的难度一样 因为它是人造出来的

@萧邹19347311091 机器人有三大法则为什么会发生和人类的战争? -
******700宫致 当然会,三大法则有一个漏洞.当人们给他的命令是“保护人类” 机器人会思考各种人类可能面临的危险 之后终究会有一个时候他们会发现人类最大的生存威胁是人类现在的生活方式及社会体制 那么为了“绝对服从命令” 他们会试图改变现在人类的社会和生活 在执行这样的命令过程中冲突不可避免 似乎会造成违反“绝不伤害人类” 但是他们的逻辑判断最后会得出不去制止(干掉或者制伏)反抗者,人类的威胁会更大 那么他们就会继续执行 人类为了自己意识形态与价值观念的维持 战争就不可避免了……

@萧邹19347311091 违反机器人三大定律会怎么样 -
******700宫致 人类控制机器人相互残杀.武装机器人已经在使用.

@萧邹19347311091 谁知道阿西莫夫的机器人三大法律?
******700宫致 一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己. Isaac Asimov's "Three Laws of...

@萧邹19347311091 阿西莫夫的“机器人三定律”是什么?
******700宫致 怎么机器人还有定律呢?大家可能对这个概念比较陌生,假设一个房间 由机器人做守卫防止他人入侵,但是有人误入了,机器人就会攻击这 个人.又或者两个人在追跑打...

为传递更多信息,若有事情请联系
数码大全网