AI威胁等同核战恐令人类灭绝
来源:峰值财经 发布时间:2023-06-02 浏览量:次
左图:阿尔特曼俨然成为AI代言人。图为他5月26日在巴黎演讲。法新社;右图:“AI教父”辛顿签署联名信,警告AI给人类带来灭绝风险。路透社 综合BBC、路透社报道:5月30日,包括OpenAI行政总裁阿尔特曼、有“AI教父”之称的辛顿等350多名人工智能(AI)领域的行业高管、专家和教授共同签署了一封公开信,他们在信中警告称,AI可能给人类带来灭绝风险,其严重程度可以与核战争、流行病相提并论。 这封信只有一句话:“减轻AI带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球优先事项。”该封联署信发表在总部位于美国的非营利组织人工智能安全中心(CAIS)的网站上,签署者除了阿尔特曼和辛顿外,还包括DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei以及微软和谷歌的高管等。 CAIS的网站上列出AI可能造成的几种灾难场景,如AI被用来制造生化武器;AI生成的错误信息破坏社会稳定及集体决策;AI的力量会越来越集中在少数人手中;人类过度依赖AI,失去独立生存能力等。 部分专家认为夸大问题 Meta首席AI科学家杨立昆(Yann LeCun)表示,CAIS发表的公开信对于人工智能威胁的描述过于夸大。还有专家认为,与其担心AI是否会消灭人类这样不现实的问题,不如关注AI造成的系统性偏见等已经出现的问题。普林斯顿大学的计算机科学家纳拉亚南表示:“AI目前还远没有足够的能力让这些风险(消灭人类)成为现实。这封信分散了人们对AI现实危害的注意力。” 牛津大学AI伦理研究所高级研究员雷尼尔里斯说:“AI的进步将导致带有偏见、歧视性、排他性或其他不公平的自动化决策范围扩大。”她表示,AI将“推动错误信息的数量和传播速度呈指数增长,破坏现实世界,削弱公众信任并加剧不平等,特别是对于那些仍处于数字鸿沟弱势一方的人”。雷尼尔里斯认为,许多AI工具本质上是“搭便车”,是接受了人类创造的内容、文本、艺术和音乐的培训后,生成的模仿性内容,而这一过程“将巨量财富和权力从公共领域转移向少数私人实体”。 被指阻碍后来者竞争 5月22日发表的一篇博客文章中,OpenAI强调世界需要“AI版国际原子能机构”,用以监管AI。5月16日,阿尔特曼首次出席美国国会听证会。他在会上发出警告,AI将以不可预测的方式改变社会,甚至给世界带来“严重危害”,因此监管至关重要。阿尔特曼建议美国政府成立监管机构,向人工智能公司发放牌照,建立一套安全准则规范AI模型,以及设立国际组织为AI制定标准。 在聊天机器人ChatGPT风靡全球后,阿尔特曼俨然成为AI代言人。阿尔特曼6月1日将与欧盟执委会主席冯德莱恩会面,下月将与欧盟工业主管布雷顿会面。有网友认为,OpenAI积极呼吁制定规则,是为了控制竞争,让监管机构捕获并锁定后来者,OpenAI便可以成为市场上最大玩家。 3月28日,美国非牟利组织“未来生命研究所”牵头发表公开信,呼吁停止快速开发先进AI系统,至少要暂停半年,Tesla行政总裁马斯克等逾千名科技界人士联署。公开信中写道,广泛研究表明AI系统可能对人类构成深远风险,只有当确保强大的AI系统的效果是积极的、风险是可控的才能继续开发。有网友质疑,签署公开信的专家是为了阻碍OpenAI研发更先进的GPT-5,以免自己落后太多。 事实上,马斯克签署公开信后不久,就被曝光耗资数千万美元购买约1万个GPU(图形处理器),用于推特的两个数据中心之一。3月,马斯克还招揽了来自Alphabet旗下公司DeepMind的两名AI工程师加入推特。