“ AI 教父”警告人类风险迫近,大模型真正的威胁在哪里? 天天速讯

来源:文汇时间:2023-05-12 08:22:53

站在 " 人类文明的十字路口 ",AI 何去何从?这是摆在人类面前的一道必答题。自去年底 ChatGPT 横空出世、5 天突破百万用户以来,有关 AI 与人类未来的讨论愈演愈烈,从产业界到学界,至今尚无定论。


(资料图片仅供参考)

回望历史,科学技术的发展总是在反对和质疑声中一路前行,新技术总会伴随新风险,这一次为何更棘手?作为地球文明的主导者,我们似乎遇到了一个前所未有的挑战:以目前 AI 的发展速度,人类会否沦为硅基智慧演化的一个过渡阶段?这一次人人都是参与者,无人可以置身事外。

——编者

继全球千余名业界大佬公开签名呼吁暂停研发比 GPT-4 更强大的人工智能(AI)系统后,在业内有 "AI 教父 " 之称的计算机科学家杰弗里 · 辛顿(Geoffrey Hinton)本月初宣布离职谷歌,进一步加深了人们对 AI 是否已经失控的担忧。

杰弗里 · 辛顿推特截图

现年 75 岁的辛顿在神经网络领域长期从事开创性工作,为 AI 技术的发展奠定了基础。在 3 月下旬那封聚集了 1000 多个签名的公开信发布时," 深度学习三巨头 "、三位 2018 年图灵奖得主表现各不相同。其中,蒙特利尔大学教授约书亚 · 本吉奥(Yoshua Bengio)高调签名,脸书首席人工智能科学家、纽约大学教授杨立昆(Yann LeCun)旗帜鲜明地反对,身为谷歌副总裁的辛顿一言未发。

宣布离职谷歌后,辛顿公开表达了自己的观点。他在接受《纽约时报》采访时表示,相较于气候变化,AI 可能对人类的威胁 " 更紧迫 "。他甚至表示,之所以离开谷歌,就是为了完全自由地说出 AI 潜在的风险,向世人提出警示。在 5 月 3 日麻省理工技术评论举行的一场半公开分享会上,辛顿坦言,过去他认为 AI 风险是遥不可及的," 但现在我认为这是严重的,而且相当近,但停止发展 AI 的想法太天真了。"

人类又一次陷入 " 科林格里奇困境 "

人类历史上,曾无数次因新技术的诞生而产生担忧。比如,1863 年瑞典化学家诺贝尔发明硝化甘油炸药,1885 年德国人卡尔 · 本茨和戴姆勒发明内燃机汽车,20 世纪 40 年代人类发明了原子弹……

辛顿如今对 AI 的情绪,与晚年时期的诺贝尔和爱因斯坦如出一辙。诺贝尔发明炸药原本是为了提高开矿、修路等工程的效率,当他发现自己的发明被投入到战场上后,其自责达到了顶点,这也促使他后来创立了诺贝尔奖。

清华大学人工智能国际治理研究院副院长梁正认为,在新技术兴起时,人类通常会面临所谓的 " 科林格里奇困境 " ——技术尚未出现,监管者无法提前预测其影响并采取行动;而当它已经出现时,采取行动往往为时已晚或成本过高。

幸运的是,迄今为止,人类通过不断适应新技术的发展而调整治理手段,一次次走出了 " 科林格里奇困境 "。" 比如在汽车大规模上市前,人们就为其安装上了刹车,之后也一直在完善汽车的安全性,为其提供各类检测和认证,甚至在汽车发明 100 多年后,人们还在为其安全‘打补丁’——装上安全气囊。" 梁正说。

不过,他也承认,这一次 AI 的来势汹汹似乎与以往有些不同," 速度太快了。" 比如,训练了几个月的 ChatGPT 的性能提升比过去几年迭代都要快,这意味着生成式 AI 大模型可以在几周内将潜在风险转变为实存风险,进而对人类社会造成不可估量的影响。

另一个不同是,这一次我们似乎无从下手。辛顿坦言,对于气候变化的风险,人类可以提出一些有效的应对策略,比如减少碳排放," 你相信这样做,最终一切都会好起来的。但对于 AI 的风险,你根本不知道如何下手。"

另外,商业竞争也会促使大模型一路 " 狂飙 "。OpenAI 深知 GPT 所蕴含的潜在风险,尽管他们对外表示将审慎推进 AI 系统的研发,但并不愿意就此暂停或彻底放慢脚步,而是期望社会为此做好准备。今年 2 月,这家公司刚刚公布了其发展通用 AI 的雄心与策略。而其首席执行官山姆 · 阿尔特曼表示,通用 AI 在 AI 技术上只能算是一个小节点,他们的远景目标是创造出远超人类智能的超级 AI。

AI 真的拥有人类智能了吗?

AI 失控的故事,一直出现在科幻小说中。在大模型出现前,人们也对 AI 保持了相当警惕,但从未像今天一样如临大敌。那么,能识别出照片中的种种不合理、在各项考试中拿到高分、与人如沐春风般对话的大模型,真的已经拥有人类智能了吗?

联合国教科文组织 AI 伦理特设专家组专家、中国科学院自动化研究所 AI 伦理与治理中心主任曾毅认为,以 ChatGPT 为代表的大模型是 " 看似智能的信息处理 ",与智能的本质没有关系。

" 人们之所以觉得它很厉害,因为它的回答满足了人们的需求,如果这些回答来自于一个人,你会觉得他太聪明了。但如果你跟它说‘我很不高兴’,它说‘那我怎么能让你高兴一些’,这让人觉得它似乎理解了情感,而实际上它只是建立了文本之间的关联。" 曾毅认为,目前的 AI 系统与人类智能的区别在于,大模型没有 " 我 " 的概念,没有自我就无法区分自我和他人,就无法换位思考,无法产生共情,也就无法真正理解情感。

清华瑞莱智慧科技有限公司 AI 治理研究院院长张伟强表示,当前的大模型仍属于第二代 AI,其主要特征为以深度学习为技术、以数据驱动为模式。这使得它在决策链路和逻辑上具有天然的不确定性,即便是模型开发者,也无法准确预知模型的输出结果。当语言大模型 " 信口开河 " 时,不能认为是出现了所谓的 " 自我意识 ",而仅仅是技术缺陷使然。

" 计算能力当然是智能的一种,但智能的范围比这大得多,除了计算还有算计。" 梁正说,如果把智能看作一个球体,阿尔法狗表现出的智力如同一个针尖般大小,大模型则是球体表面那一层,离真正的智慧内核还差得远。因此,许多技术派将 ChatGPT 视作某种 " 高科技鹦鹉 " 或人类知识库的映射。他们并不认为情况已经十分危急,因为与人类智能相比,大模型并没有触及认知的底层逻辑。

大模型真正的威胁在哪里?

我们应该允许机器充斥信息渠道传播谎言吗?应该将所有工作(包括那些让人有成就感的工作)都自动化吗?应该去开发可能最终超越甚至取代我们的非人类智慧吗?应该冒文明失控的风险吗?细读那封千人签名支持的公开信不难发现,业界大佬们并非为 AI 的智能即将超过人类而忧心忡忡,而是担心 AI 将消解人类存在的意义,解构人类社会的关系。

2017 年,AI 领域的重磅论文《一种采用自注意力机制的深度学习模型 Transformer》发表,这个不到 200 行代码的模型开启了 AI 发展的新阶段。原本分属不同领域的计算机视觉、语音识别、图像生成、自然语言处理等技术开始融合。在 Transformer 的模型下,工程师利用互联网上的文本进行 AI 训练,训练方法是在一句话里删除一些单词,让模型试着预测缺失的单词或接下来的单词。除了文本,此模型也可应用于声音和图像。和单词一样,工程师可以将声音和图像分解成细小的模块,并利用修补模型进行预测和填补。

" 所谓生成式 AI,通俗来说就是让 AI 能够像人类一样说话、写字、画画,甚至分析和理解问题。" 张伟强说,基于这种 " 创作 " 能力," 人工 " 与 " 非人工 " 的边界正在消弭,数字世界的信息真伪也越来越难以辨识。目前,已有聊天机器人被用来生成针对性的网络钓鱼邮件。不久的将来,当人们听到或看到家人的声音或图像时,或许首先要问自己一个问题:这是真的吗?毕竟,最新的 AI 技术只需 3 秒就能拷贝一个人的特征。

此外,生成式 AI 还带来了其他新风险的挑战。张伟强举例说,第一个风险就是加深 " 信息茧房 "。过去,当我们搜索信息时,还能得到多种答案以供选择。语言大模型则更像一个 " 茧房 ",你将如同《楚门的世界》中的男主角,被动接受模型世界给你的信息。

大模型带来的第二个新风险是对创新动能的干扰。人类总是会在思考的过程中迸发灵感,在动手的过程中有所收获,在不断试错的过程中走向成功,不少伟大的发明都是研究的 " 副产品 "。而大模型提供了前往正确答案的直通车,人们将由此减少很多试错机会。正如刘慈欣在科幻作品《镜子》中描写的一种人类 " 结局 ",人类因为从不犯错而走向灭亡。

我们为 AI" 套笼头 " 的速度并不慢

生成式 AI 的飞速发展,让人类社会面临着一场信任危机。当网络上充斥着越来越多不知真假的图片和视频,AI 助手几秒钟就 " 洗 " 出了一篇像模像样的稿件,大批学生开始用 ChatGPT 写作业、写论文,我们是否有信心用好生成式 AI 这个工具?

对此,梁正比较乐观。他认为,新技术总是伴随着风险,而人类曾无数次处理过这种情况,因此不必太过担心。在他看来,人类应对这一波生成式 AI 的速度算得上及时。

去年 11 月 30 日,OpenAI 推出 ChatGPT。今年 3 月,英国政府发布了第一份 AI 白皮书,概述了 AI 治理的五项原则。3 月底,意大利个人数据保护局(DPA)宣布从即日起禁止使用 ChatGPT,限制 OpenAI 处理意大利用户信息数据,同时对其隐私安全问题立案调查。随后,德国、法国、爱尔兰等国家也开始准备效仿意大利的做法,加强对 ChatGPT 的监管。

在生成式 AI 的立法方面,中国与欧盟基本同步。4 月 11 日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》。梁正认为,《管理办法》从三方面给生成式 AI 的发展戴上了 " 笼头 ":一是大模型的数据来源要可靠;二是对 AI 生成的内容应履行告知义务;三是一旦造成损害,相关责任方需要承担责任。他建议,对生成式 AI 实行分级分类管理。比如,对某些高风险领域应该谨慎或严格控制使用生成式 AI,而对一般的办公娱乐场合,只要标注出 AI 生成内容即可。

与其焦虑,不如用技术规制技术

如果把生成式 AI 比作 " 矛 ",那么检测其安全性的公司就是 " 盾 "。目前,在全球范围内," 盾 " 公司的数量并不多。由清华大学人工智能研究院孵化的瑞莱智慧(Real AI)就是一家 " 盾 " 公司,他们负责检测内容是否由 AI 生成,以及给大模型的安全系统 " 挑刺 "。

" 人类需要保持辨识信息真伪的能力,只要能识别出哪些内容是 AI 生成的,并精准告知公众,这项技术也没有那么可怕。" 张伟强说,目前他们研发了一套 AI 内容识别系统,在识别能力上处于国际领先。

比识别 AI 内容更重要的,是弥补第二代 AI 本身的安全缺陷。张伟强解释说,AI 的 " 智力 " 提高后,需要视其为社会生活中的一位新参与者。但第二代 AI 本身的运算过程是个 " 黑箱 ",相当于你无法看透这位新伙伴的所思所想(可解释性差),且他还极易被欺骗犯错(鲁棒性差)。至今在大模型中无法彻底解决的 " 幻觉 " 问题就是由此产生,即使数据来源准确可靠,但大模型仍可能会 " 一本正经地胡说八道 "。

不可否认,ChatGPT 开启了一场全球范围的大模型 " 军备竞赛 ",大厂纷纷发布各自的大模型系统,不少小公司也推出了基于自身领域的 " 小模型 "。张伟强表示,市场的充分竞争固然有利于行业快速发展,但其先天的安全不足同样需要引起重视。比如,上个月,瑞莱智慧仅通过添加少量对抗样本,就让 Meta 发布的史上首个图像分割模型 SAM 失灵,显示出大模型在安全性方面仍然任重道远。

梁正认为,未来,当人们回望现在所经历的这个阶段,会清晰认识到 AI 的工具属性。为了保证它永远只是工具,我们必须及时跟进它的动向,敏捷治理,就像历史上人类曾经一贯为之的那样。

作者:沈湫莎

图片:pixabay.com

* 文汇独家稿件,转载请注明出处。

关键词:

相关阅读

推荐阅读

银鹏控股公司:业务交流促提升互学互鉴共进步|世

3月2日,银鹏控股公司董事长刘懿婷带队前往中粮集团期货公司进行业务学习和交流。中粮期货公司从业多年、具有丰富实战经验的风险管理专家现场更多

2023-03-07 17:52:41

我国首个万吨级钠离子电池材料项目在山西综改区开

山西晚报讯(记者温丽芳通讯员张晓茹)日前,总投资约11亿元的山西华钠铜能(碳能)科技有限责任公司万吨级钠离子电池正(负)极材料项目在山更多

2023-03-07 11:51:14

建行阳江市分行:践行金融惠民理念-全球关注

2月24日,随着客户办妥抵押登记手续并成功放款,标志着阳江市建行“带押过户”业务取得历史性突破。根据中国人民银行发布《关于鼓励推广二手房更多

2023-03-07 11:53:21

焦点简讯:证监会同意三超新材向特定对象发行股票

中证网讯(记者昝秀丽)证监会网站3月6日消息,证监会发布关于同意南京三超新材料股份有限公司向特定对象发行股票注册的批复。【来源:中国证更多

2023-03-07 09:57:39

美股航空股6日全线走低

中证网讯(记者赵中昊)当地时间周一(3月6日),美股航空股全线走低。据wind数据,截至收盘,波音跌1 49%,美国航空跌1 47%,达美航空跌1%,更多

2023-03-07 09:43:44

世界热资讯!晋钢控股集团荣登2022山西省品牌十强

近日,“品牌强国(龙城)论坛”在太原举行,发布“2022中国上市公司品牌500强”以及“2022山西省品牌100强”。晋钢控股集团以218 9亿元的品牌更多

2023-03-06 17:38:52

手绘报告:2023预期目标

【来源:中国政府网】声明:转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请作者持权属证明发至邮箱newmedia@xx更多

2023-03-06 16:46:31

惠州首笔数字人民币缴纳税费业务成功落地

3月1日,TCL科技集团财务有限公司拿到了全市第一张使用数字人民币账户缴纳税款和非税收入的完税凭证,标志着惠州市首笔数字人民币缴纳税费业务更多

2023-03-06 11:50:50
    2022年三季报披露后,北京商报记者根据企业公告选取了30家上市房...
    首套房公积金利率下调原来贷款也下调吗首套房公积金利率下调原来...
    政府回购商品房意味着什么政府收购商品房的首要目的是稳定市场。...
    把自己房子卖了再买算首套房吗买过一套房卖了再买算首套房。简单...
    买房交首付注意事项有哪些1、核实开发商五证。在交首付时,需要先...
    房屋契税征收比例契税税率的缴纳一般分为以下几种情况:1、面积小...

关于我们 Copyright   2015-2022 当代财经网  www.ddcjw.cn 版权所有  备案号:京ICP备2021034106号-19  联系邮箱:55 16 53 8 @qq.com