中科院院士张钹:我们正处在ai算法不可控的危险状态-k8凯发

中科院院士张钹:我们正处在ai算法不可控的危险状态-k8凯发

来源:东方财富
发布时间:2022-08-21 18:55
字体:

日前,2022世界机器人大会主论坛正式开幕期间有三位院士到场,以未来机器人:目标,路径,挑战为主题进行了深刻的交谈

三位院士分别是中国科学院院士,清华大学计算机系教授,现任清华大学人工智能研究院院长,微软亚洲研究院技术顾问张工中国工程院院士,机器人国家工程研究中心主任,辽宁省科学技术协会主席,王天然,北京邮电大学自动化学院,中国科学院院士,中国科学院自动化研究所研究员,机器人理论与应用专家乔虹

在短短一个小时的时间里,三位机器人领域的顶级专家就人工智能与机器人的区别,智能机器人的未来,为什么人机融合是必要的,机器人目前面临的伦理思考等诸多话题展开了讨论。

会上,张伟提到,第二代人工智能的算法是利用深度神经网络和数据训练形成人工智能,而纯粹由数据驱动的方法必然是无法解释和不可靠的所以,即使机器人的智能还很低,人工智能不可控的算法仍然可能让人类陷入危险

机器人不是人,人工智能不够聪明

在很多人心目中,机器人和人工智能似乎是两个互不关联的概念甚至到了现在,一提到机器人,就有了智能的先天属性但在张伟看来,机器人和人工智能是两个完全独立的领域

最明显的一点是,他们的目标完全不同人工智能是用机器模仿人类的智能行为,追求机器行为和人类行为的相似性,甚至越相似越好,而机器人则是为了帮助人类完成一些原本由人类完成的任务,追求的是完成任务或者人类的信任张伟说

在这次以机器人为中心的世界机器人大会上,张伟还详细普及了机器人的三大主要研究内容:

1.执行结构,机器人的目的是完成任务,所以需要有执行机构,可以是模拟动物,也可以是基于电机和齿轮的传动而这个内容不一定是人工智能领域做的

2.能量,尤其对于移动机器人,高效节能是关键问题。

3.智能控制,这部分是一个大口袋,包括控制,人工智能,传感器和环境感知。

张伟说,在机器人的三个主要研究内容中,只有智能控制部分与人工智能重叠,这也是为什么他认为说人工智能包括机器人,或者说机器人包括人工智能,这本身就是两个追求不同目标的学科,都是错误的。

所以我觉得这两个字段的名字也不好取‘机器人’这个名字让人误以为是人或者一定长得像人,人工智能让人以为人工智能是智能的,但实际上人工智能只能模仿智能的行为,也就是智能的外在表现,而不是模仿智能张伟补充道

他还谈到了机器人的未来和最近几年来人工智能领域热议的通用人工智能一样,机器人领域也有类似的争论:系统是否需要具备一定的通用性才能完成很多任务

在张伟看来,有必要在人工智能领域讨论这个问题但是在机器人领域,并不需要一个通用的机器人来代替人,因为机器人本身就是为了完成某些任务而制造的,比如专门的手术,专门的举重等等基础性能专用,不需要手术机器人负重

因此,他预言,在未来,将会出现各种各样的智能机器人,每个机器人将完成某一项或某一类工作。

机器人的未来:奴隶,朋友,还是同类。

基于张忠对机器人未来的想象,另外两位院士也提出了自己的看法。

乔虹认为,未来机器人主要有三个要求:

智力开发,就像人类有意识,有情感,有自己的目标,但机器人没有自我生成的目标,所以发展就是自我学习,自由运动。

无法复制机制,指的是人在情感上无法被复制,是独一无二的。

永恒的学习。

王天然进一步认为,不管未来的机器人会是什么样子,一定有一个共同的问题:机器人应该与人类保持什么样的关系换句话说,就是人机一体化的问题,这是一个人与机器人关系的抽象概念具体来说,就是人和机器人能够互相理解,互相感知,互相帮助,实现人和机器的共同进化

现在,王天然也表达了他对两种流行观点的看法一种是未来机器人将统治人类他认为人造机器实现这个目标太科幻了,而‘机器人是用来代替人的’,王天然也认为它们是在故意挑起人和机器之间的矛盾在他看来,机器人的目的不是与人竞争现在总的目标是用机器代替人

那么机器人和人类最好的关系是什么呢王天然用了四个字:就像同类一样

他解释说:如果机器人想为人类服务,最好是伙伴关系虽然你是机器,我是人类,但我们俩感觉都是同类,而不是单独和机器在一起这将使机器人更好地为人类服务,而不是统治人类

人工智能算法不可控的问题,没有深谋远虑。

当我们谈到机器人与人类的关系时,必然会面临另一个问题:伦理问题。

阿西莫夫认为,关于机器的伦理问题有两个方面需要考虑:如果机器人比人类聪明或者有意识,我们应该如何让机器人按照伦理规范行事,如何根据伦理原则设计和使用机器人。

张伟认为,以上两个方面表面看起来很简单,但实际上关系到三大问题:

首先是标准和规定的问题:什么是道德什么时候是不道德的这本身就很有争议

对于人类来说,有些人在设计和使用机器人时会遵守伦理原则,但有些人不会。

如果有道德准则,也涉及到机器人行为是否可以控制。

张伟开始解释第三个问题他说,如果机器人完全遵守规则,那它就不是智能机器人只有当人类制造商赋予它一定的自主权,机器才能有创造力,才能逐渐学会独立解决问题,而这必然要付出代价——机器人可能会失控

张伟说:经过20世纪人工智能的发展,虽然机器人还处于非常低的智能水平,但我们已经处于危险的状态为什么因为我们处于不可控的状态,比如深度学习开发的人工智能算法就没有可靠性保证

最后,张伟提到了人工智能的三次浪潮:第一次是1956年到1974年的人工智能1.0科学家将符号方法引入统计方法进行语义处理,出现了基于知识的方法,80年代初到20世纪末,是人工智能2.0在与人工智能相关的数学模型上做出了一系列重要发明,进一步催生了可以与人类下棋的高智能机器进入21世纪以来,人工智能3.0浪潮正在兴起

如果要提出第三代人工智能,就必须解决第二代人工智能的算法的不安全,不可靠,不可信,不可控的状态或问题,而这种担心现在看来是近忧,而不是远忧。

13.7k
ad555
- 广告服务 - 加入k8凯发 - 不良信息举报-
市场情报网 k8凯发的版权所有
备案号:
网站地图