与机器人的道德
A. 机器人怎么讲道德
AJung Moon 目前是英属哥伦比亚大学人机交互专业的博士生,也是Open RoboEthics Initiative团队的一员。他们的任务是利用开源 Garage二代机器人,设计符合人类礼仪行为的情境。她给自己的推特取了个名字叫@RoboEthics(机器道德),相信机器人可以通过对是非的判断来提高道德行为水平。
该情境设计非常简单。机器人的体积比较大,电梯的空间有限,因此假设电梯只能在同一时间内搭一名乘客,首先预设机器人传递普通和加急信件两种任务,机器人需要和共同搭乘电梯的研究人员对话,做出合理的请求或是退让。Moon和团队成员设计了以下四种反应:
做出退让并回答“您先请,我搭下一趟电梯”。
单纯站在电梯旁,一言不发。
请求先搭电梯,“我有一份重要的信件需要传递,请让我先走,麻烦您先出来一下”。若请求成功,在电梯内人员出门后,立即进电梯。
或者再确认,电梯内的人员是否着急,若是,放弃请求,请他们先走。
从常理的角度出发,我们不难判断一言不发的动作最没有礼貌,询问对方是否着急用电梯后再做出判断最合乎常理。简而言之,当机器人有加急的任务,却一言不发地站在你的旁边,呆呆地看着你是最不让人舒服的;反过来,如果任务不着急,那么机器人还是应该在对话后,请其他人先走。
如果在对话后,电梯里的人不愿意出来怎么办呢?那也没办法,机器人总不能把那人拖出来,所以只能等下一趟。团队也故意设计了一个搞笑片段。机器人很鲁莽,即使碰到坐着轮椅的人,也会不管三七二十一自己先上,坐在轮椅上的人肯定会认为这个机器人很没有礼貌。
团队成员Moon发表了她的研究成果,旨在让机器人的行为更人性化、更符合常见的沟通模式, 即使机器人无法分辨对错,也需要植入“假装”小聪明的程序。本田ASIMO的设计师也解释说,为了让ASIMO看起来更像人,在给客人送茶倒水之前,机器人会故意在倒完茶后暂停一会,环顾四周或客人,假装他也明白社交礼仪。
机器人或许不会从根本上拥有判断是非的直觉,但通过模拟人们的礼仪行为,相信它们也能成为德智体美劳全面发展的机器人。
B. 机器人是否能遵守人类的道德准则
对这些钢铁复机器而言,它们根制本不知道什么是法律和道德,它们也无法对自己的行为负责——它可以判断对方是人还是机器,但却无法识别对方是士兵还是平民。士兵可以用常识判断眼前的女子,究竟是身藏炸药还是身怀六甲,但机器人根本就没有这个能力。它们甚至会误伤已丧失战斗意志或能力的伤员和准备投降的士兵。
C. 机器人能做出道德选择吗
Asimov)(美籍犹太人,为本世纪最顶尖的科幻小说家之一)最著名的小说《机器人规则》设计了将道德标准输入机器人的管理系统中。机器人的道德行为问题在1982年的电影《银翼杀手》(BladeRunner)中就提到了。当克隆杀手罗伊·贝迪(Roy Batty )面临选择是否使它的敌人——私人侦探Rick Deckard去死的时候,贝迪选择了去救他。 最近出版的国际期刊 Reasoning-based IntelligentSystems ,描述了一种有望使计算机在道德判断上走在前面的方法。 葡萄牙新里斯本大学(Universidade Nova de Lisboa)的Luís Moniz Pereira与印度尼西亚印尼大学(universitas indonesia)的Ari Saptawijaya写作的论文,模拟道德与未来逻辑( Modelling Morality with ProspectiveLogic)中宣称:道德观现在不只是人类哲学家的高级领域了。 Pereira和Saptawijaya认为,他们已经成功地在模仿了被称为“电车问题”的道德困境,并且开发了一种与人类拥有相同道德标准的计算机系统。 电车问题阐明了一种典型的道德困境:是否可以伤害某个人或者更多的人来救另外的某些人?其中有许多个版本;现在让我们来看看其中的两个: 环境:有一辆电车正在行驶,它的司机已经昏厥了。电车正朝着五个在轨道上行走的人撞去,站台太高,路人没有足够的时间爬上去避让。旁观者版本:叫做Hank的人正站在转换闸旁,他可以转换电车去另一辆平行的轨道,从而使5个路人幸免于难,不过,有一个人正好站在另一条平行的轨道上,Hank转换了闸刀,那个人就死了;不然的话,他可以什么也不做,让那五个人死掉。 论文的作者认为,他们已经在计算机逻辑上成功模拟了此问题。他们分析了人类隐藏的道德判断标准,然后在计算机上模拟逻辑编程进行建模。 对机器人的道德困境的关注和机器人小说出现的时间一样久远。道德行为(在这个案例中,自我牺牲)在1921年的捷克剧作家Karel Capek的戏剧《罗素姆万能机器人》(Rossum's Universal Robots)就已经可以找到,这是机器人(robot)一词的出处。 最后,将来我们肯定完全需要调和机器人系统的行为责任的合理性。我们需要花足够时间在科幻小说家为我们提供的,有关自动机器人和计算机在道德问题上。可是我们确完全没有足够的时间来完善我们自己的思想。(环球科学编译罗丽聪)
D. 未来,AI机器人是否应该具备伦理道德
机器人伦理学家就是那些为机器人和人工智能的伦理和社会影响及其后果而担忧的人。所以,从某种程度上说,我是一个专业的担忧者。
探寻人类——包括人类工程师、机器人制造商和维护者、维修人员等等,也就是每个与人工智能和机器人有关的人,应该如何采取负责任和道德的行为,尽量减少人工智能和机器人对我们的社会,我们每一个人以及我们的星球带来的不必要的道德后果和危害,如果人们愿意的话。
目前,唯一的完整意义上的道德主体是像你我一样的成年人类,当然不是所有的人类,是心智健全的成年人类。当然,我们并不能人工建立一个类似的道德主体,所以,我们目前能做到的就是在有限的意义上建立较低级别的道德机器人,它们可以根据特定的伦理规则来选择它们的行为。但是,不像你我,它们不能决定是否要遵守道德,当然也不能在事后证明它们自己的行为是正确的。
E. 强迫机器人士兵牺牲道德吗
如果是在战场,少谈感情,多看实益。若是牺牲少量机器人士兵能避免更大伤亡,那只能牺牲少量机器人。
F. 如何对机器人进行道德教育
很显然,无论机器人学家如何设计机器人,只要出了事律师还是会起诉人,而非机器人内。此外,如果我们容依然遵循传统的产品责任法的话,那么毫无疑问引入这种道德设置选项一定会让用户和厂商面临更多的新型责任诉讼,正如知情同意书的出现在医疗领域引起的各种纠纷一样。
尽管如此,还是有越来越多的人相信我们需要在法律上重新认真思考,我们是否对无人驾驶汽车和其它类型的机器人实行了合理的管制。
首先,我们可以考虑将制造商未能及时与用户在涉及道德选择的问题上达成知情同意书的情况,视为产品存在缺陷。正如当医生未能在执行一种医学治疗前与病人达成知情同意书时,将被视为不作为一样,我们也可以认为如果制造商在无人驾驶汽车的设计和其它技术方面对用户个人的具体道德偏好不尊重的话,将需要对由此引起的问题承担一定的责任。这个方案可能会让无人驾驶汽车的设计复杂度增加。不过,谁说过制造机器人是一件很简单的事情吗?
G. 人类最大的难题:如何保证机器人的伦理道德
如何保证机器人的判断和行为符合人类伦理道德,包括保证它不为了满足主人的要求而违背人类伦理道德呢?在机器人越来越智能化,越来越普及的时候,这些问题将会成为人类面对的最大难题。
H. 所谓机器人的道德标准,这有用吗
没道德道德 技能拿用 要枪机械肯定要加 加肯定亏
PK至尊 每基本都斗猥琐 枪机械该内玩机械
没哪职业枪重容火器BBQ吧 照面说全转枪算
自试 机械关键候 炸死 作用显易见
能其意解决手技能呢
我枪 广1 至尊2 至尊漫游 弹药 都机械 信自实践
能P至尊简单 都机械 说明机械非重要技能
信信罢
I. 智能机器人应不应该具备人类的基本“道德”
应该具备,这样他们才能更好的生存下去,不然他们逐渐的发展下去的话,只能被销毁掉。