今日消息 谷歌前CEO认为人工智能与核弹一样强大
谷歌前首席执行官埃里克-施密特将人工智能与核武器相提并论,并呼吁建立类似于使世界上最强大的国家不互相摧毁的威慑制度。
访问:
阿里云服务器精选特惠:1核1G云服务器低至0.9元/月
7月22日,施密特在阿斯彭安全论坛关于国家安全和人工智能的小组讨论中谈到了人工智能的危险。在回答有关科技界道德价值的问题时,施密特解释说,他自己在Google公司的早期也曾对信息的力量感到天真。然后,他呼吁科技更好地与它所服务的人的伦理和道德保持一致,并在人工智能和核武器之间做了一个怪异的比较。
人工智能和机器学习是一项令人印象深刻且经常被误解的技术。在很大程度上,它并不像人们认为的那样聪明。它可以制作出杰作级的艺术品,在《星际争霸II》中击败人类,并为用户打出基本的电话。然而,试图让它完成更复杂的任务,如驾驶汽车穿越大城市,并没有那么顺利。
施密特谈到了20世纪50年代和60年代,当时各国外交部门围绕地球上最致命的武器精心制定了一系列控制措施。但是,为了让世界达到制定《禁止核试验条约》、《第二阶段谈判协议》和其他具有里程碑意义的立法的地步,花了几十年的时间进行核爆炸,关键是广岛和长崎的毁灭。美国在二战结束时摧毁的这两个日本城市杀死了数以万计的人,并向世界证明了核武器的永恒恐怖。
我们与这些武器被使用的可能性共处的方式是通过一种叫做"相互确保毁灭"(MAD)的东西,这是一种威慑理论,确保如果一个国家发射核弹,其他国家也有可能发射。我们不使用地球上最具破坏性的武器,因为这样做有可能至少会摧毁全球的文明。
尽管施密特的评论丰富多彩,但我们并不希望或需要人工智能的MAD。首先,人工智能还没有证明自己接近核武器的破坏力。但身居要职的人害怕这项新技术,而且,通常是出于错误的原因。人们甚至建议将核武器的控制权交给人工智能,理论上他们会比人类更好地决定武器的使用。
人工智能的问题不在于它有潜在的摧毁世界核武器的力量。问题在于,人工智能的好坏取决于设计它的人,他们反映了创造者的价值观。人工智能存在着典型的"垃圾进,垃圾出"的问题。种族主义的算法造就了种族主义的机器人,所有的人工智能都带有其创造者的偏见。
免责声明:本文由用户上传,如有侵权请联系删除!
猜你喜欢
最新文章
- 个性标签写什么好8个字(个性标签8个字简介介绍)
- 贴吧和i吧有什么区别(贴吧和i吧有什么区别)
- 东北话得细小是什么意思(东北话小得得是啥意思)
- 太姥山旅游最新攻略一日游(太姥山旅游线路)
- 12月有什么好电影上映(12月上映好看的电影)
- 妒海主题曲百度云(泰剧妒海的主题曲和片尾mp3格式的谁有谢谢)
- 元奎在好莱坞拍过多少电影(指导过多少电影 都叫什么)
- 怎么关闭wps删除提示(wps屏幕提醒怎么关闭简介介绍)
- 4399弹弹堂vip折扣券(4399弹弹堂怎么刷点券啊)
- 企业天猫入驻条件及费用(天猫入驻条件及费用简介介绍)
- 尹相杰母亲是马玉涛吗(尹相杰母亲是马玉涛吗)
- 冬至应该吃什么食物(冬至应该吃什么食物)
- nokia6600复刻版本(NOKIA6630~~~)
- 新年快乐日语怎么说(新年快乐日语怎么说)
- 工作交接清单怎样写,格式是怎样的(工作交接清单怎样写格式是怎样的简介介绍)
- 为什么我的梦幻诛仙人物快捷键用不出来(求高手解答 我换了很多台机子了)
- 三星note3开不了机(三星note1手机为什么开不了机)
- 迅雷种子怎么提取(前缀是什么)
- poison(ivy 什么意思)
- 魔法卡片掉卡规则(魔法卡片中怎么没有变闪卡的卡友)
- 眼部结构简图(眼部结构简介介绍)
- 武汉外高国际部学费(武汉外高出国)
- 湖南台为什么叫马桶(湖南台为什么叫芒果台)
- 公元前10000年是什么年(公元前10000年)