返回上一页  首页 | cnbeta报时: 11:35:32
100多位全球知名人士共同呼吁全球采取行动应对AI和其他生存威胁
发布日期:2024-02-16 00:04:31  稿源:cnBeta.COM

来自商界、政界和其他领域的100多位全球知名人士签署了一封公开信,敦促全球领导人应对当前和未来的生存威胁,包括人工智能、气候变化、大流行病和核战争。周四发表的这封信来自南非前总统纳尔逊-曼德拉成立的非政府组织"长老会"(The Elders)和非营利组织"生命未来研究所"(Future of Life Institute),后者旨在引导变革性技术造福生命,避免大规模风险。

2023-02-14-image-3-j_1100.webp

这封信的签名者包括亿万富翁维珍集团创始人理查德-布兰森、前联合国秘书长潘基文和查尔斯-奥本海默(罗伯特-奥本海默的孙子)。此外,多位前总统和总理、活动家、首席执行官、创始人和教授也在信上签名。

"我们的世界正处于严重危险之中,"信的开头这样写道。"我们面临着一系列危及全人类的威胁。我们的领导人没有以必要的智慧和紧迫感做出反应"。

信中举例说明了当前的威胁包括气候的变化、大流行病以及使用核武器的战争。信中指出,更糟糕的情况可能会出现,尤其是我们还不知道与无人管理的人工智能相关的新威胁会有多大。

"长远型领导力意味着要表现出解决棘手问题的决心,而不仅仅是管理这些问题;要表现出基于科学证据和理性做出决策的智慧;要表现出倾听所有受影响者声音的谦逊"。

信中呼吁各国政府就某些项目达成一致,如商定如何为从化石燃料向清洁能源过渡提供资金,重启军备控制谈判以降低核战争风险,以及制定一项公平的大流行病条约。在人工智能方面,我们的建议是建立必要的治理机制,使这项技术成为一种有益的力量,而不是失控的风险。

麻省理工学院宇宙学家马克斯-泰格马克(Max Tegmark)与 Skype 联合创始人雅安-塔林(Jaan Tallinn)共同成立了"未来生命研究所"(Future of Life Institute),他告诉CNBC,"长老会"及其组织并不认为人工智能是"邪恶的",但担心如果它在错误的人手中迅速发展,可能会被用作破坏性工具。

未来生活研究所去年也发表了一封公开信,呼吁暂停先进人工智能开发六个月。这封信有 1100 人签名,其中包括苹果公司联合创始人史蒂夫-沃兹尼亚克(Steve Wozniak)、埃隆-马斯克(Elon Musk)和 Pinterest 联合创始人埃文-夏普(Evan Sharp)。这封信并没有达到预期效果;人工智能公司不仅没有放慢开发速度,许多公司实际上还加快了开发高级人工智能的步伐。

将人工智能与核战争相提并论并不新鲜。去年 5 月,专家和首席执行官们就曾警告过这项技术带来的灭绝风险。甚至连 ChatGPT 的创造者 OpenAI 也说,比人类更聪明的人工智能可能会导致人类灭绝。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 11:35:32

文字版  标准版  电脑端

© 2003-2024