本文来自微信公众号:新智元 (ID:AI_era),作者:新智元,题图来自:视觉中国
(资料图)
Sam Altman辟谣了,根本就没有GPT-5。
之前一直有大瓜称,GPT-5正在秘密训练中,预计年底上线。群众们奔走相告,可以说万分期待。
结果,就在刚刚,Sam Altman亲口辟谣了这个大瓜。
他言之凿凿地说:“我们现在并没有训练GPT-5,目前只是在GPT-4的基础上进行更多的工作而已。”
Sam Altman的原话是:
An earlier version of the letter claimed OpenAI is training GPT-5 right now. We are not and won't for some time. We are doing other things on top of GPT-4 that I think have all sorts of safety issues that are important to address and were totally left out.
所以,从头到尾,根本就没有GPT-5这回事??
第二个大瓜是,Altman对于AI大佬暂停超强AI训练的联名信,也作了首次回应。
让我们看看,目前网上流出的3分钟视频里,Altman究竟说了什么。
对联名信首次表态
此前,图灵奖得主Yoshua Bengio、苹果创始人、马斯克等全球大佬联合起来签署了公开信,对GPT-5发出围剿。现在,签名人数已经突破了2.5万。
图/Future of Life Institute
随后,另一位图灵奖得主Yann LeCun、吴恩达等大佬也纷纷表明自己没有署名的原因。
虽然公开措辞是“针对所有AI机构”,但大家都明白,这封信就差没点OpenAI的名了。
然而,万千目光集于一身的Sam Altman却始终对此保持沉默,从未公开表露自己对于这封信的态度。
现在,Sam Altman终于在Lex Fridman的第2轮访谈中公开表态:我赞同这个倡议的一部分,但它也遗漏了很关键的一点。
Sam Altman与Lex Fridman的第2轮访谈视频,图/YouTube
他的原话是:“这个倡议的其中一部分,我是十分赞同的。就像我们训练完GPT-4以后,也是等了六个月才发布。”
Altman强调,OpenAI花了很长时间研究GPT-4的安全性,接受了外部审核,也进行了内部的红队演示。
总之,OpenAI已经尽最大努力去了解,这个模型究竟发生了什么,而且让整个过程谨慎再谨慎。
他自豪地表示:自从我们发布GPT-4以后,一切都很不错。
的确,GPT-4的安全能力确实无可指摘,用Altman的话说,它也许不是功能最强大的模型,但肯定是目前未知最安全、最对齐的模型。
因此,对于公开信的这一部分,Altman是百分百赞同的,他还表示,随着模型的能力越来越强,与之对应的安全措施确实需要增加。
否认:根本就没有GPT-5
不过,Altman随即石破天惊地指出了这封信的“华点”。
他指出,这封公开信遗漏了最含技术性的一个细微之处——我们该在哪里停止。
接着,他说出了让在场所有人都惊掉下巴的一句话——“我们根本就没在训练GPT-5”。
“这封信一开始的版本,说OpenAI正在训练GPT-5。但实际上我们并没有,而且在相当一段时间内,都不会这样做。所以这么来看,这封信就有些愚蠢了。”
不过,他承认,在GPT-4发布后,OpenAI确实做了很多别的事情,并且也在忙着处理各种亟待解决的安全性问题。
而在他眼里,签署一封公开信,并不是提出这个问题最好的方式。
“我们的唯一区别,就是更坦诚”
Lex还在访谈中提问道:“我发现,你从不避讳到处谈话,OpenAI的其他人也是如此。其它公司都会在发布AI产品时,都会更保密一些,但你们却为何如此坦诚呢?你们未来还会继续保持这种坦诚吗?”
Altman回答说:“我们当然会一直保持坦诚。”
因为OpenAI坚信,ChatGPT技术会影响所有人,所以他们大胆地选择把一个还不完美的AI系统公之于众,让所有人都囊括在这个讨论体系中。
Sam Altman与Lex Fridman的第2轮访谈视频,图/YouTube
尽管这让OpenAI背负上了种种“声誉风险”,种种骂名,会需要在公众面前改口,让自己难堪。
但是至少,所有人都能体验和思考这项新技术,了解AI好的一面,和不好的一面。
Altman认为,这样做值得。
很多公司不愿意多说一句话,除非他们确定这句话一定是对的。
而OpenAI认为,保持坦诚比别的选择都要好。
OpenAI的一大目标就是,让全世界都参与进来,一起思考新技术,建立新机构,弄清人类想要的未来究竟是什么样子。
OpenAI另一创始人:未来属于我们所有人
就在活动的同一天,OpenAI的总裁兼联合创始人Greg Brockman,也发了一段长文强调公司对模型的安全问题是非常重视的:
图/Twitter
有关AI发展速度的讨论中,有一个底层的核心理念,那就是我们需要非常重视安全性问题,谨慎前行。这对于我们的目标来说十分重要。
我们花了6个月的时间测试GPT-4,力图让这个AI更加安全。这一成就建立在我们多年来步调一致的研究之上。
我们计划继续加强我们就安全问题采取的措施,更积极地面对安全性问题——要比很多用户想得更积极。
大体上我们的目标是,每一个我们推出的模型,都是最一致的。而我们也做到了,从GPT-3、GPT-3.5,到现在的GPT-4.
我们相信(我们也是这么做的),功能强大的AI训练应该向政府进行汇报,同时要越来越认真地对这些AI的能力和影响进行预测。进行AI训练要求我们进行最高规格的测试,比如说危险能力测试。
我们认为使用大规模运算的管控,安全标准和部署AI后的监管以及经验分享是非常好的主意。
但是,细节问题也很重要,并且应该随着技术的进步时时刻刻进行调整。
同时,解决现实问题,比如防止滥用和自我伤害,减轻训练中的偏见,以及应对长期存在的问题等等,同样至关重要。
从AI的长期发展历史来看,专家们自信满满的预测往往并不准确。为了避免出现未注意到的预判错误,我们就应该让新技术以其当下的面貌时刻和现实世界碰撞,并在不断碰撞的过程中发展、测试、投入使用,当然能力提升也是一定的。
同时还有一些人们不常聊到的创造性想法,可以以意想不到的方式提升AI的安全性。
比如说,开发一系列性能越来越强的AI十分简单,这就提供了一种新的解决安全问题的机会,和过去不常出现重大模型升级时的方法完全不同。
未来的AI变革性技术变化让我们更加乐观的同时,也带来了诸多担忧。
各种不同的看法都是合理的,OpenAI的内部人员也都有不同的看法。
我们可以一同构建未来——这是一个独一无二的机会,同时对我们来说也是一种义务。
网友:改名GPT-4.5,搞定
那对于这个惊爆的大瓜,网友们信不信呢?
有人认为,这一串发言,完全就是欲盖弥彰,把GPT-5这个名字改成GPT-4.5不就完事了么。
图/Twitter
这一网友也很损地翻译了一下Altman的话,“这个发言总结起来就是,我们没搞GPT-5,搞的是GPT-4.99999。”
图/Twitter
这位网友脑洞更大:“我们没有在训练GPT-5,这是虚假消息。我们训练的AI叫GPT-10,然后我们会让GPT-10去开发一个既安全又合理的GPT-5,再弄9个版本之后,我们就可以公之于众啦。”
图/Twitter
而另一边,Sam Altman曾经的好兄弟、OpenAI曾经的联合创始人之一马斯克,最近也被爆出花大价钱买了10000块GPU(每块约1万美元),还从谷歌那里高价挖人,要在推特内部启动一个AI项目。
因为经营理念不和、愤而退出OpenAI创始人席位的马院士,究竟在憋什么大招呢?让我们继续围观吃瓜。
参考资料:https://www.youtube.com/watch?v=4ykiaR2hMqA
本文来自微信公众号:新智元 (ID:AI_era),作者:新智元
关键词: