2022世界机器人大会 |
“技术+约束”突破机器人发展伦理瓶颈 |
在机器人产业大踏步发展的同时,机器人伦理是一道无法回避的问题。特别是在当前人工智能迅猛发展的大背景下,曾经的“远虑”似乎日益成为“近忧”。机器人发展前景是什么?它与人类的关系会朝着哪个方向发展?如何应对智能机器人带来的潜在伦理风险?
在近日举行的2022年世界机器人大会领航峰会上,这一话题受到多位与会院士专家热议。
人机融合“宛如同类”
“机器人必须不危害人类,也不允许它眼看人将受害而袖手旁观;机器人必须绝对服从于人类,除非这种服从有害于人类;机器人必须保护自身不受伤害,除非为了保护人类或者是人类命令它作出牺牲。”
早在上世纪50年代,美国科幻小说家阿西莫夫就在小说《我是机器人》中对相关机器人研究“约法三章”。如今,距离阿西莫夫提出的“机器人三守则”已经过了70余年,人们对机器人与人的关系问题仍有困惑。
“最初,机器人的定义是服务于人,是人的奴隶。当前的理念是人机融合,做一些从简单到复杂的替代工作。”中国科学院院士、中科院自动化研究所研究员乔红说,“因为人们对机器人有很多期望,使得机器人技术不断往前走,使它们的一些能力超过了人,让人产生了危机感。”
这种危机感蕴含着对人和机器关系的潜在担忧:它是否会反过来控制或者奴役人类?
在中国工程院院士、中科院沈阳自动化研究所机器人技术国家工程研究中心主任王天然看来,机器人统治人类,这种说法过于科幻。而且科学家制造机器人的目的也不是为了取代人类、和人类竞争工作岗位,而是代替人做一些艰苦的劳动。从过去的人背肩扛到人力车、汽车,人类制造机器的目的都是为自己服务。
王天然认为,人机共融是将来机器人技术发展的重要方面。未来,人与机器将“宛如同类”,是最好的伙伴关系。机器可以让人感觉更亲切,有比较精准的判断、情感认知、正确决策等。
但如何按照伦理原则设计和使用机器人,并非一个简单问题。
中国科学院院士、清华大学人工智能研究院名誉院长张钹表示,首先在标准和法规方面,关于什么是道德,本身有很多争议和困惑。其次,对机器而言,即便给定德道规范,能否遵守还取决于其行为是否可控。再者,这还与设计、使用机器人的人是否遵守伦理原则相关,即便人类遵守相关原则,技术的鲁棒性有时也很难预测。
“一个最常见的例子是,一辆车刹车失灵,继续往前行驶可能撞上五个人,如果打舵会撞上另外一个人,究竟打不打舵呢?”张钹说,类似的道德困境等因素给机器人伦理问题带来诸多挑战。
以当前研究最广泛的深度学习为例,张钹还表示,作为一种模式识别方式,它让机器人的识别率大幅提高,但这种纯粹靠数据驱动的方法鲁棒性并不稳定,会引起人类未曾预料到的安全问题。
智能“发育” 赋能安全
实际上,自从上世纪50年代人工智能的概念被提出后,“弗兰肯斯坦”式的担忧就一直存在:机器发展出意识,在智能上超过人类,让人们失去对它的控制。
但20世纪人工智能的发展表明,现实并非如此。
“当机器人的智能还很低时,人们更可能处于危险状态。”王天然举例说,以前很多工业机器人需要装在笼子里,与人分开,这样做就是为了防止它们伤人。而目前已经推出一类可统计、协作的工业机器人,发展出定位、识别等能力,可以“防碰”,使安全问题基本得到解决。
他表示,未来的发展目标是让工业机器人、协作机器人等不仅能够解决人的问题,而且能够与人相互信任。
然而,要实现真正的智能“发育”或“进阶”,仍有相当多难题横亘在前。
就像人类在成长过程中通过学习、实践、试错,逐渐建立思考能力一样,机器人实现这个目标仍要不断学习、摸索。
“‘发育’这个词就是期望,人和机器的关系能够更近一点。”乔红说,机器人的智能“发育”隐含着三层含义:自主学习,能否从功能倒推出机理;分析问题,能否判断一个机理是否可以复制;学无止境,能否做到永远学习。
“这三个要求实际上都很难做到。目前我们的‘发育’主要还是谈肌肉发育,硬件和智能行为有一定发育。”她说。
科学家期待,通过第三代人工智能有助解决诸如深度学习等带来的问题。
“第一代人工智能的主要方法是知识驱动,第二代人工智能主要是数据驱动,这两个办法都有片面性。必须把这两个方法加起来,知识和数据共同驱动,结合起来形成第三代人工智能技术,才有可能发展出可靠、安全、具有可信性的人工智能。”张钹说,这是目前的整体趋势,将有助于发展出更可信的智能机器人。
对此,中国工程院院士、华中科技大学教授李培根也表示,与第一代和第二代的智能机器人不同,第三代机器人将以智能协作为特点,可通过数据分析、认知学习、人机交互、自然语音处理等与人实现情感互动。而第四代机器人将更进一步,通过持续学习、协同学习、场景自适应等,实现“自主服务”。
机制约束 增强治理
“目前,人们对智能的概念以及如何实现智能仍然存在很多含糊不清的理解。”图灵奖得主、法国科学院院士Joseph Sifakis说。
他表示,近些年人工智能飞速发展,伴随着其迅速崛起的则是各路媒体和大型科技公司推动的“乐观狂热”。它们通过各种大型项目努力宣传这一新事物,给人们造成一种感觉,似乎人工智能在几年后就能达到人类的智能水平。
不仅于此,围绕着机器的“超智能”问题,还出现了一种错误观点,认为机器智能最终将超越人类智能,最终人类可能变为机器的“宠物”。而实际上,他表示,未来即便机器人系统有一定的通用性,但也不可能完成人类可以做的任何工作。
“实际上,机器人不是人,它必须完成一定任务;人工智能则是用机器模拟人类的智能行为,而非模拟智能。”张钹说。
他强调,现实中人工智能和机器人两个领域经常会被大家误解,比如机器人的名字往往使人产生它必须像人的误解;而人工智能也常被认为是做智能的,实际上目前人们对智能的了解非常少,只能模仿智能行为、智能外部表现。
尽管如此,多位科学家表示,仍需建立相关约束机制。
在乔红看来,这种约束应该是来自两方面的,包括无形的道德约束和有形的法律约束。“通过外部约束加上内部研发升级,在发展过程中解决信任问题。”她说。
张钹也表示,对机器人伦理问题的关心,本质上是对设计和使用机器人的人自身伦理问题的关心:一方面,设计过程中对机器人可能产生的正面和负面影响是否能够进行充分的客观评估;另一方面,是否会滥用和误用机器人。
对此,他对从事从设计到管理智能机器人的年轻人提出几个期望。例如,研究可进行逻辑、因果、伦理分析的新工具,更好地预测伦理结果;利用深度学习对道德、不道德行为给出样本,对无法定义的道德问题,可进行数据标注学习;通过实验和模拟(如无人车)发现、逐步解决问题。从技术层面,解决安全性、伦理等问题。
“上个世纪末,机器人研究的重点在精度、可靠性、用得好等方面。现在已经到了机器人发展的‘黄金时代’,新的需求领域不断涌现,相关技术不断发展,学科融合在机器人领域充分体现,机器人研究前途非常灿烂。中国青年科学家要抓住这样的机会,发现、解决新问题,创造出新成果。”王天然说。
在机器人产业大踏步发展的同时,机器人伦理是一道无法回避的问题。特别是在当前人工智能迅猛发展的大背景下,曾经的“远虑”似乎日益成为“近忧”。机器人发展前景是什么?它与人类的关系会朝着哪个方向发展?如何应对智能机器人带来的潜在伦理风险?
(资料图片)
在近日举行的2022年世界机器人大会领航峰会上,这一话题受到多位与会院士专家热议。
人机融合“宛如同类”
“机器人必须不危害人类,也不允许它眼看人将受害而袖手旁观;机器人必须绝对服从于人类,除非这种服从有害于人类;机器人必须保护自身不受伤害,除非为了保护人类或者是人类命令它作出牺牲。”
早在上世纪50年代,美国科幻小说家阿西莫夫就在小说《我是机器人》中对相关机器人研究“约法三章”。如今,距离阿西莫夫提出的“机器人三守则”已经过了70余年,人们对机器人与人的关系问题仍有困惑。
“最初,机器人的定义是服务于人,是人的奴隶。当前的理念是人机融合,做一些从简单到复杂的替代工作。”中国科学院院士、中科院自动化研究所研究员乔红说,“因为人们对机器人有很多期望,使得机器人技术不断往前走,使它们的一些能力超过了人,让人产生了危机感。”
这种危机感蕴含着对人和机器关系的潜在担忧:它是否会反过来控制或者奴役人类?
在中国工程院院士、中科院沈阳自动化研究所机器人技术国家工程研究中心主任王天然看来,机器人统治人类,这种说法过于科幻。而且科学家制造机器人的目的也不是为了取代人类、和人类竞争工作岗位,而是代替人做一些艰苦的劳动。从过去的人背肩扛到人力车、汽车,人类制造机器的目的都是为自己服务。
王天然认为,人机共融是将来机器人技术发展的重要方面。未来,人与机器将“宛如同类”,是最好的伙伴关系。机器可以让人感觉更亲切,有比较精准的判断、情感认知、正确决策等。
但如何按照伦理原则设计和使用机器人,并非一个简单问题。
中国科学院院士、清华大学人工智能研究院名誉院长张钹表示,首先在标准和法规方面,关于什么是道德,本身有很多争议和困惑。其次,对机器而言,即便给定德道规范,能否遵守还取决于其行为是否可控。再者,这还与设计、使用机器人的人是否遵守伦理原则相关,即便人类遵守相关原则,技术的鲁棒性有时也很难预测。
“一个最常见的例子是,一辆车刹车失灵,继续往前行驶可能撞上五个人,如果打舵会撞上另外一个人,究竟打不打舵呢?”张钹说,类似的道德困境等因素给机器人伦理问题带来诸多挑战。
以当前研究最广泛的深度学习为例,张钹还表示,作为一种模式识别方式,它让机器人的识别率大幅提高,但这种纯粹靠数据驱动的方法鲁棒性并不稳定,会引起人类未曾预料到的安全问题。
智能“发育” 赋能安全
实际上,自从上世纪50年代人工智能的概念被提出后,“弗兰肯斯坦”式的担忧就一直存在:机器发展出意识,在智能上超过人类,让人们失去对它的控制。
但20世纪人工智能的发展表明,现实并非如此。
“当机器人的智能还很低时,人们更可能处于危险状态。”王天然举例说,以前很多工业机器人需要装在笼子里,与人分开,这样做就是为了防止它们伤人。而目前已经推出一类可统计、协作的工业机器人,发展出定位、识别等能力,可以“防碰”,使安全问题基本得到解决。
他表示,未来的发展目标是让工业机器人、协作机器人等不仅能够解决人的问题,而且能够与人相互信任。
然而,要实现真正的智能“发育”或“进阶”,仍有相当多难题横亘在前。
就像人类在成长过程中通过学习、实践、试错,逐渐建立思考能力一样,机器人实现这个目标仍要不断学习、摸索。
“‘发育’这个词就是期望,人和机器的关系能够更近一点。”乔红说,机器人的智能“发育”隐含着三层含义:自主学习,能否从功能倒推出机理;分析问题,能否判断一个机理是否可以复制;学无止境,能否做到永远学习。
“这三个要求实际上都很难做到。目前我们的‘发育’主要还是谈肌肉发育,硬件和智能行为有一定发育。”她说。
科学家期待,通过第三代人工智能有助解决诸如深度学习等带来的问题。
“第一代人工智能的主要方法是知识驱动,第二代人工智能主要是数据驱动,这两个办法都有片面性。必须把这两个方法加起来,知识和数据共同驱动,结合起来形成第三代人工智能技术,才有可能发展出可靠、安全、具有可信性的人工智能。”张钹说,这是目前的整体趋势,将有助于发展出更可信的智能机器人。
对此,中国工程院院士、华中科技大学教授李培根也表示,与第一代和第二代的智能机器人不同,第三代机器人将以智能协作为特点,可通过数据分析、认知学习、人机交互、自然语音处理等与人实现情感互动。而第四代机器人将更进一步,通过持续学习、协同学习、场景自适应等,实现“自主服务”。
机制约束 增强治理
“目前,人们对智能的概念以及如何实现智能仍然存在很多含糊不清的理解。”图灵奖得主、法国科学院院士Joseph Sifakis说。
他表示,近些年人工智能飞速发展,伴随着其迅速崛起的则是各路媒体和大型科技公司推动的“乐观狂热”。它们通过各种大型项目努力宣传这一新事物,给人们造成一种感觉,似乎人工智能在几年后就能达到人类的智能水平。
不仅于此,围绕着机器的“超智能”问题,还出现了一种错误观点,认为机器智能最终将超越人类智能,最终人类可能变为机器的“宠物”。而实际上,他表示,未来即便机器人系统有一定的通用性,但也不可能完成人类可以做的任何工作。
“实际上,机器人不是人,它必须完成一定任务;人工智能则是用机器模拟人类的智能行为,而非模拟智能。”张钹说。
他强调,现实中人工智能和机器人两个领域经常会被大家误解,比如机器人的名字往往使人产生它必须像人的误解;而人工智能也常被认为是做智能的,实际上目前人们对智能的了解非常少,只能模仿智能行为、智能外部表现。
尽管如此,多位科学家表示,仍需建立相关约束机制。
在乔红看来,这种约束应该是来自两方面的,包括无形的道德约束和有形的法律约束。“通过外部约束加上内部研发升级,在发展过程中解决信任问题。”她说。
张钹也表示,对机器人伦理问题的关心,本质上是对设计和使用机器人的人自身伦理问题的关心:一方面,设计过程中对机器人可能产生的正面和负面影响是否能够进行充分的客观评估;另一方面,是否会滥用和误用机器人。
对此,他对从事从设计到管理智能机器人的年轻人提出几个期望。例如,研究可进行逻辑、因果、伦理分析的新工具,更好地预测伦理结果;利用深度学习对道德、不道德行为给出样本,对无法定义的道德问题,可进行数据标注学习;通过实验和模拟(如无人车)发现、逐步解决问题。从技术层面,解决安全性、伦理等问题。
“上个世纪末,机器人研究的重点在精度、可靠性、用得好等方面。现在已经到了机器人发展的‘黄金时代’,新的需求领域不断涌现,相关技术不断发展,学科融合在机器人领域充分体现,机器人研究前途非常灿烂。中国青年科学家要抓住这样的机会,发现、解决新问题,创造出新成果。”王天然说。
热门