超越“机器人三定律”人工智能期待新伦理

来源:互联网    2019/7/17 2:58:47
责任编辑:李平
字体:

“人工智能在乘数效应的推动下会变得越来越强大,留给人类试错的空间将越来越小。” ——泰格马克

人工智能的伦理原则近来备受关注。联合国教科文组织总干事阿祖莱在3月初举行的“推动人性化人工智能全球会议”上就表示,目前还没有适用于所有人工智能开发和应用的国际伦理规范框架。

对于科幻作家阿西莫夫上世纪设计、防止机器人失控的著名“机器人三定律”,业界早已认识到其局限性。“机器人三定律,历史上看贡献很大,但现在停留在三定律上,已远远不够。”专家近日接受记者采访时这样说。

新局面 呼吁伦理新原则

科学家先前一直希望以最简单的办法,确保以机器人为代表的人工智能不给人类带来任何威胁。“机器人三定律”规定:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。

“机器人不能伤害人,但机器人会以什么方式伤害到人?这种伤害有多大?伤害可能以什么形式出现?什么时候可能发生?怎样避免?这些问题在今天要么需要细化,要么需要有更具体的原则来防范,而不能停留在七八十年前的认识水平。”中国人工智能学会AI伦理专业委员会负责人、中国科学技术大学机器人实验室主任陈小平教授说。

全球知名的艾伦人工智能研究所首席执行官埃齐奥尼两年前就在一次演讲中呼吁更新“机器人三定律”。他还提出,人工智能系统必须遵守适用于其操作人员的所有法律条文;人工智能系统必须明确表示它不是人类;未经信息来源明确许可,人工智能系统不能保留或披露机密信息等。在当时,这些颇有新意的意见引发业界热议。

“人工智能在乘数效应的推动下会变得越来越强大,留给人类试错的空间将越来越小。”美国人工智能伦理领域知名学者、麻省理工学院教授泰格马克说。

人为本 全球探路新伦理

“必须确保人工智能以人为本的发展方向。”阿祖莱呼吁。

美国机器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。

新伦理原则不断提出,但突出以人为本的理念始终不变。百度公司创始人李彦宏在2018年中国国际大数据产业博览会上提出了“人工智能伦理四原则”,首要原则就是安全可控。

新的伦理原则制定也正提上各国政府的议事日程。

中国政府2017年7月发布《新一代人工智能发展规划》时就指出,建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2018年4月,欧盟委员会发布的文件《欧盟人工智能》提出,需要考虑建立适当的伦理和法律框架,以便为技术创新提供法律保障;今年2月11日,美国总统特朗普签署行政令,启动“美国人工智能倡议”,该倡议的五大重点之一便是制定与伦理有关联的人工智能治理标准。

存忧虑 跨界共商新问题

陈小平呼吁,为规避人工智能发展过程中的伦理道德风险,人工智能学术界和产业界,以及伦理、哲学、法律等社会学科各界应参与原则制定并紧密合作。

他认为,虽然从短期看还没有证据指向人工智能有重大风险,但依然存在隐私泄露、技术滥用等问题。而无人驾驶、服务类机器人的伦理原则也须尽快探讨制定。

美国电气和电子工程师协会还规定,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可追责性,证明其为什么以特定方式运作。

“就长期来看,不能等到出现了严重的问题,再制定措施去防止。”陈小平认为,人工智能和其他技术的特点不一样,很多人工智能技术具有自主性。例如自主机器人在现实社会中具有物理行动能力,如果没有适当的防范措施,一旦出现严重问题,可能危害较大。

陈小平希望更多人参与人工智能伦理研究,尤其是科学家和工程师,因为恰恰他们最了解问题的根源、危险可能发生的方式、细节和相关技术进展,“他们不说,外界只能去猜,难以得出正确的判断和适当的应对措施。”

他还提醒,在防范风险的同时应该注意平衡,避免因为过度限制或使用不合适的降低风险方式造成遏制产业发展的副作用。文图均据新华社

请注意:本文为编辑制作专题提供的资讯,页面显示的时间仅为生成静态页面时间而非具体内容事件发生的时间,由此给您带来的不便敬请谅解!

相关攻略及问答:

机器人三定律破绽

问:机器人三定律破绽是什么??

答:哎,正好知道这个! 先说所谓的“机器人三定律”: 一.机器人不得伤害人,也不得见人受到伤害而袖手旁观 二.机器人应服从人的一切命令,但不得违反第一定律 三.机器人应保护自身的安全,但不得违反第一、第二定律 后来又补充了机器人零定律: 为什...

机器人三定律是什么?_?

答:第一法则:机器人不得伤害人类,或坐视人类受到伤害; 第二法则:除非违背第一法则,机器人必须服从人类的命令; 第三法则在不违背第一及第二法则下,机器人必须保护自己。

阿西莫夫机器人三定律

问:最好加上适当补充`以及英文原文

答:LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM. 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。 LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEING...

机器人三定律的英文版

问:第一定律 机器人不得伤害人,或任人受到伤害而无所作为; 第二定律 机器...

答:Isaac Asimov's "Three Laws of Robotics" 著名科普作家阿西莫夫的机器人三定律 1.A robot may not injure a human being or, through inaction, allow a human being to come to harm. 2.A robot must obey orders given it by human beings ex...

机器人学三定律的法则提出

答:阿西莫夫的《我,机器人》,在一九五〇年末由格诺姆出版社出版。虽说这本书是“旧稿子”,但是这些短篇是在十年间零零散散发表的,这次集中出版,使读者第一次领略阿西莫夫机器人科幻小说的魅力。阿西莫夫为这本书新写了《引言》,而《引言》的小...

有个电影,忘了叫什么了,好像是什么日,里面好像...

答:一部由艾萨克 ·阿西莫夫的短篇小说《我,机器人》改编,耗资超过一亿美金的现代科幻电影。该故事背景设定在 2035 年,一个地球上每十五人就拥有一台人工智能机器人的时代。机器工人、机器助理无处不在,它们甚至渗入家庭生活,担当起保姆,护理...

机器人三大定律

答:1. cannot under any circumstance harm another human being. must provide help for humans in dire needs 2. cannot disobey a direct human order as long as it is not in violation of law 1. 3. protect its own existance as long as it...

有关阿西莫夫机器人三大定律的翻译

问:三大定律: 一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;二...

答:Isaac Asimov's "Three Laws of Robotics" 阿西莫夫机器人三大定律 A robot may not injure a human being or, through inaction, allow a human being to come to harm. 机器人不得伤害人类,或看到人类受到伤害而袖手旁观 A robot must obey o...

<机械公敌>里的机器人三大定律及其之间的矛盾是什么?

问:三大定律及其之间的矛盾是什么?

答:机器人三大定律:1、机器人不得伤害人类,或对人类受伤害坐视不理 2、机器人必须服从人类一切命令,除非违背第一定律 3、机器人必须保证自身存在,除非违背第一与第二定律 没有矛盾,只是呢,如果机器人按照这个行事的话,最终的结果就是维奇那...

有个 科幻片我给忘了,里边说的机器人三大定律是什...

答:我,机器人 I, Robot (2004) 导演: 亚历克斯·普罗亚斯 编剧: Jeff Vintar / 阿齐瓦·高斯曼 / 艾萨克·阿西莫夫 主演: 威尔·史密斯 / 布丽姬·穆娜 / 艾伦·图代克 /布鲁斯·格林伍德 类型: 动作 / 科幻 / 悬疑 / 惊悚 制片国家/地区: 美国 / 德国 语...

www.haoxyx.com true http://getqq.haoxyx.com/g/2436/24364408.html report 4678 “人工智能在乘数效应的推动下会变得越来越强大,留给人类试错的空间将越来越小。”——泰格马克人工智能的伦理原则近来备受关注。联合国教科文组织总干事阿祖莱在3月初举行的“推动人性化人工智能全球会议”上就表示,目前还没有适用于所有人工智能开发和应用的国际伦理规范框架。对于科幻作家阿西莫夫上世纪设计、防止机器人失控的著名“机器人三定律”,业界早已认识到其局限性。“机器人三定律,历史上看贡献很大,但现在停留在三定律上,已远远不够。”专家近日接受记者采访时这样说。
最近关注
首页推荐
热门图片
最新添加资讯
24小时热门资讯
精彩资讯
精彩推荐
热点推荐
真视界
精彩图片
社区精粹
关于本站 | 广告服务 | 手机版 | 商务合作 | 免责申明 | 招聘信息 | 联系我们
Copyright © 2004-2017 haoxyx.com All Rights Reserved. 好心游戏网 版权所有
京ICP备10044368号-1 京公网安备11010802011102号