返回上一页  首页 | cnbeta报时: 19:34:08
几百名大佬联名给ChatGPT们踩刹车:AI到了失控边缘?
发布日期:2023-03-31 16:06:07  稿源:差评

眼看 AI 起高楼、眼看它楼塌了?就在昨天早上,一封公开信刷屏了朋友圈,著名安全机构生命未来研究所( Future of Life Institute , FLI )呼吁全球所有研究机构暂停训练比 GPT-4 更强的 AI。至少六个月。并且要在这六个月中来制订和 AI 相关的安全协议,其中就包括如何监管 AI 输出的内容,还有如何把 AI 创造出的内容和真实的内容区分开来。

咱别看这个研究所名字中二感满满,但在上面留下名字的,个个都是行业里的顶尖大牛。

图灵奖得主约书亚 · 本吉奥、苹果联合创始人史蒂夫 · 沃兹尼亚克、《 人类简史 》的作者尤瓦尔 · 赫拉利、以及什么地方都会刷一脚存在感的埃隆马斯克。

可以说是 “ 满级人类闪耀时 ” 了。

虽然,关于这次签名事件的准确性没有那么高,也有些人在自己不之情的情况下 ”被签名“ 了,比如一开始 OpenAI CEO 奥特曼的签名也在上面( 我杀我自己? )

再比上面还有急速追杀的主角 John Wick

但不管怎么说,可以感到大家都紧张起来了。

在信中,生命未来研究所提了四个问题:

我们一定要让机器用宣传和谎言充斥我们的信息渠道吗?

我们一定要把所有工作都自动化吗?包括哪些人工完全可以做得令人满意的工作吗?

我们一定要发展最终可能超过我们、超越我们、并取代我们的非人类思维吗?

我们一定要冒险失去对我们文明的控制吗?

讲道理,这些问题在过去几十年里一直是科幻小说中流行的题材。

但是可能谁也想不到,随着去年年底 OpenAI 一声枪响。这些难题真真切切的被搬到了我们面前,变成了我们可能需要立刻面对的元素。

>/ 眼见为真?耳听为实?

前几天,有人在网上发布了一组图片,记录了 2001 年发生在美国西部小镇卡斯卡迪亚上的了一场 9.1 级的地震之后的景象。

略带模糊的镜头记录下了当时哭喊的民众

被摧毁的建筑和房屋

甚至还有当时的美国总统小布什访问灾区的合影

无论是破损的城市,街道上大家的穿着,都在告诉观众这是一组来自 2001 年的照片。

不那么清晰的画质反而给大家一种 “ 路人随手拍 ” 的感觉,让照片的真实性再上了一个台阶。

但唯一的问题是,根本没有这场大地震,卡斯卡迪亚上一次有记录的灾难,是在 1700 年。

没错,这组照片就是用 Midjounrney 来生成的。

比起前段时间流行的 “ 赛博 COS” ,明暗对比更强烈,更擅长描述场景关系的 Midjourney 用来制作 “ 虚假历史 ” 明显更加得心应手了。

也更容易骗到大家的眼睛。前几天流行的 “ 川普被捕 ” 或者是 “ 教皇穿羽绒服 ” ,都是出于 Midjourney 的手笔。

图片来源 @ 谷大白话

说实话,看到这个照片的第一瞬间,还真觉得有点懵,毕竟做为解放神学出身的教皇,方济各穿个羽绒服也很正常对吧。

但是,这些图片用来图一乐倒是还好,一旦用来深究,那事情可能就大条了。

万一下回,这项技术被用来诈骗呢?

和前些年流行过的 DeepFake 换脸不同,如今的 AI 作图不需要特别好的显卡,更不需要很长的时间去调试,对 Midjourney 来说,只要坐在浏览器前敲敲键盘就行。

当 AI 让图像造假的成本足够低廉之后,咱又要花多少时间去分辨一张图是不是 AI 画的?

比如川普返乡:

可能生成一张假的图片需要 10 秒,但咱们想要看出来是这张图是不是 AI 画的,可能少说得要花个半分钟。

不是每个人都有那么多精力能分辨 AI 的,只要有 1% 的人认不出来上当受骗,就可以说是一本万利的生意了好吧。

以往我们说耳听为虚,眼见为实,然而现在,眼见也不再为真。

过去几十年来人类习以为常的秘密,已经悄悄被 AI 解构成了一堆的线性矩阵,在排列组合中,对人类瞒天过海。

而图片生成还只是 AIGC ( 人工智能技术来生成内容 )中的一部分。

这次被大佬们试图联名叫停的 “ 巨型 AI” 更是重量级,对标的产品自然是出尽风头的 ChatGPT 。

这玩意有多离谱,咱们也写文章聊过很多,今天就不再做赘述。

前段时间还生成了一段杭州取消限行的文案,骗过了不少人。

实际上,这类大语言模型并不是没有监管,从它们出生的那刻开始,监管就如影随形了。

上个月 OpenAI 在发布 GPT-4 的时候就提到,他们早在 22 年 8 月就完成了 GPT-4 的开发,但是之后花了六个月来搞安全问题,为的就是不让AI  “ 乱说话 ” 。

GPT-4 经过拷打之后胡言乱语的水平大幅度下降:

但问题是,现在的 AI 和过去那些一步步执行编译的程序不一样,这 AI 有一个算一个,全是黑箱。 

不像过去那些程序,要是出了问题,程序员还可以进去打断点,一个环节一个环节的调试 Bug 来把问题给搞清楚,哪一个环节有问题,针对性的改一下就好了。

但现在以 Chatgpt 为首的大模型 AI 就好像一个黑色的纸箱子,你只知道给它喂苹果,它能还你一个橘子,而中间发生了什么事情一概不知。

那万一这箱子要是出了问题,那咋办嘛?只能重新买一个黑箱子了。

ChatGPT 就像一盒巧克力,在它输出完成之前,没有人知道它嘴巴里会蹦出什么字来。

李彦宏也提到: “ 生成式 AI 每次给出的答案不一定一样,会带来不确定性。 ”

这个生成到底有多不靠谱呢?

讲个刚刚遇到的事儿:前几天不是索尼微软任天堂、育碧和 D 社都说要退出 E3 展会么,我就有点好奇 E3 展会租金到底要多少钱?

先是在知乎上找到了一个回答,答主表示自己查到在 06 年时 E3 的租金就要 500万美元以上。

额……06 年,500万?这个数据好像有一些不靠谱,于是我又去用 NewBing 问了一下:也给出了类似的回答。

有数据有链接,看起来是有理有据。

但问题是当我点开这个链接的时候发现……IGN 的文章里面根本没有提到租金 500 万这个数字。

合着你是直接把之前的知乎文章翻译了一遍,然后又给我编了一篇英文文章来讹我啊。

它顺应了我们的猜测给了一个谣言,要不是我多心看了一眼,可能真的给他糊弄过去了。

真就是睁眼说瞎话大师。

除了这个 title 以外, AI 还是桀骜不羁的漏洞寻找大师,往往能在我们训练它的过程中表演一手出乎意料。

在人工智能领域,有个非常经典的理论叫做 “ 对齐问题 ” ,意思是 AI 在做的事情和我们想要的结果之间没有对齐,命令的传递出现了偏差。

就比如前两年那只宁愿一头撞死的赛博狼,发现抓半天羊还会不断扣分,那还不如一头撞死自己分还比较高。

狼抓羊这么简单的程序都会出现没法对齐的问题,那更大模型的人工智能就更难说了。

实际上,缺乏 “ 对齐 ” 的 AI,还可能会形成社会中一些错误印象的 “ 放大器 ” 。

就拿性别歧视举个例子,早些年亚马逊引入了一个人工智能,来给求职者的简历打分。

结果过了几年回头一看,在程序制定者啥也没做的情况下,性别歧视就很顺滑的出现了,男性简历的通过率比女性高了不少。

甚至就算简历上面没有明确写出性别,程序还会通过一些细枝末节的地方来确定:比如是否毕业于女子大学,是否是 “ 女子 XX 社 ” 社团社长。

这自然不是亚马逊在招聘时希望看到的,也绝对不是它们在设计 AI 时给它下的命令。

但是 AI 在训练的结果中很自然的 “ 没有对齐 ” 。

不光早些年的人工智能,最新的 ChatGPT 也依旧会有这些问题,比如宁可让百万人失去生命也不愿意说一句种族歧视的话语。

再比如不愿意写一首诗歌歌颂川普,但是可以赞扬拜登。

这些都是很明显的政治倾向,我愿意相信 OpenAI 在研发 ChatGPT 的时候并不希望它学会这些,不然他们也没有必要在 GPT-4 上花那么多时间用于自我审查。

但我们一不留神, AI 可能就偷偷的跑偏。

去学习偏见、歧视这些我们不希望存在,但是又客观隐藏在社会关系里的性别歧视和政治倾向。

我也和清华大学交叉信息研究院的于洋教授聊过这个问题,探究到底是 AI 的哪里出了问题。

于教授的回答是: “ 这既是训练数据集的问题,也是模型架构的问题,也是训练方式的问题,还涉及到使用的问题——比如诱导 AI 犯错的攻击式使用。 ” 

——对,就是全有问题。

现在的 AI 能做的还有限,就算没对齐,捅出了篓子,可能还在我们能控制的范围里。

但如果在这样狂飙下去,那可就说不定了,就像那个知名的 “ 曲别针假说 ” 。

说不定未来哪一天, AI 会认为人类都是阻挠它生产曲别针的阻碍,把大家都给噶了?

人类有和自然相处成百上千年下来的道德约束,我们知道什么能做,什么不能做。而目前,人工智能学不会这些。

或许,这才是这次数千 AI 大佬发出联名信的原因。

监管必须要有,但是监管、法规不是一日而成。

AI算法突破起来毫无阻碍,连我们这种外行人都知道,AI带来的技术爆发已经箭在弦上。

去年啥情况,今年啥情况,称之为突飞猛进不为过。

随着AI算法的日益完善,下一步没准就要自我进化了,它能成长到什么地步我们很难说。

我们有可能只能跟着 AI 在屁股后面追,但是现在不知道还有没有我们一直在后面追的空间。

也许下一步只能用 AI 来监管 AI。

今天的联名信或许是给人类敲响了一记警钟。

但可惜的是,这样一纸的 “ 联名信 ” 绝对停不下 AI 领域研发的脚步。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 19:34:08

文字版  标准版  电脑端

© 2003-2024