互联网资讯-LELEWEN.CHEYISHU.COM域名出售

ChatGPT爆火,谷歌Meta等压力大,被迫加快AI开

2023-01-29 20:48:27

1月29日,谷歌、脸书和微软帮助建立了人工智能,的框架,但较小的初创公司正在将其推向公众,这迫使科技巨头加快人工智能的开发。消息人士称,由于ChatGPT周围的关注度激增,Meta和Google的内部压力也在增加,一些潜在的安全问题甚至可能被搁置,以便更快地采取行动。

早在人工智能研究公司OpenAI于2011年11月首次推出人工智能聊天机器人ChatGPT的三个月前,脸书母公司Meta就发布了一款类似的聊天机器人。然而,Meta的首席人工智能科学家Yann LeCun表示,与ChatGPT立即爆炸并在5天内拥有超过100万用户不同,Meta的Blenderbot让人感到无聊。

上周,乐昆在AI咨询公司Collective[i]主办的一个论坛上说:“Blenderbot很无聊,因为它的设计非常安全。”他将Blenderbot不温不火的行为归咎于Meta过于谨慎的内容审查。例如,如果用户提出宗教问题,公司会指示聊天机器人改变话题。而ChatGPT说的是宗教著作中的谬误概念。

ChatGPT正在迅速成为主流,因为微软正试图将其整合到其流行的办公软件中,并将该工具的使用权出售给其他企业。微软最近向ChatGPT开发公司OpenAI投资了数十亿美元。根据对谷歌和Meta的六名前任和现任员工的采访,对ChatGPT的关注激增正促使包括这两家公司在内的科技巨头的内部压力激增,迫使他们更快地采取行动,这可能会搁置一些对潜在安全问题的担忧。

科技巨头AI工具发布慢受到质疑

其中一人表示,在Meta,员工最近分享了一份内部备忘录,敦促该公司加快人工智能项目的审批流程,以便利用最新的技术。Google自己帮助创建了一些支持ChatGPT的技术。该公司最近围绕AI产品的推出发布了“红队”,并提出了所谓的“绿色车道”,以缩短评估和减轻AI潜在危害的过程。

ChatGPT、Dall-E 2、稳定扩散等文本转图像工具都属于所谓的生成性人工智能(AIGC)。他们借鉴已有的和人类创造的内容,确定一定的模式,从而创作出自己的作品。这项技术是由谷歌等大型科技公司开创的,但他们近年来变得更加保守,只发布新型号或演示版本,同时对整个产品保密。与此同时,像OpenAI这样的研究实验室迅速发布了他们的最新版本,引发了人们对谷歌语言模型Lamda等企业级产品的质疑。

自从微软AI聊天机器人Tay失败后,科技巨头们总是感到非常紧张。2016年发布不到一天,Tay就发布了种族歧视等不当言论,导致微软立即将其关闭。Meta为Blenderbot辩护,发表种族主义言论后放弃。去年11月,另一个名为Galactica的AI工具被批评不准确,有时会出现偏差,它也在短短三天内下线。

谷歌AI部门的一名员工表示:“人们认为OpenAI的技术比这些老牌公司更新更令人兴奋,他们犯的错误也更少。现在他们可以逃避很多指控了。”他指的是公众愿意在不太严格的条件下接受ChatGPT。一些AI领域的顶尖人才转投了机制更灵活的创业公司,比如OpenAI和稳定扩散。

一些人工智能伦理学家担心,在信任和安全专家能够研究这些风险之前,涌入市场的大型技术公司可能会让数十亿人面临潜在的危险,例如分享不准确的信息,生成虚假图像或使学生能够在学校考试中作弊。该领域的其他人也同意OpenAI的想法,即向公众发布工具是评估现实世界危险的唯一方法。在减轻一些可预见的风险后,向公众发布的工具通常名义上处于“测试期”。

创企抢先发布AI工具获巨大优势

Meta基础人工智能研究部门的董事总经理乔尔皮诺说:“人工智能正在以令人难以置信的速度发展。我们一直在关注这个领域,并确保我们有一个高效的审查流程,但当务之急是做出正确的决定,发布最适合我们社区的AI模型和产品。”

谷歌发言人Lily Lin表示:“我们认为人工智能是一项基础性和变革性的技术,对个人、企业和社区都非常有用。我们需要考虑这些创新可能带来的更广泛的社会影响。我们继续在内部测试我们的人工智能技术,以确保它能够提供帮助并被安全使用。”

微软通信主管弗兰克肖(Frank Shaw)表示,当微软在其产品中使用DALE-2等AI工具,并将与OpenAI合作时,该公司将建立额外的安全措施。他说:“微软多年来一直致力于推动AI领域的发展,并公开指示如何以负责任和符合道德的方式在我们的平台上创造和使用这些技术。”

美国佐治亚理工学院计算机教授和机器学习专家马克里德尔(Mark Riedl)表示,ChatGPT背后的技术并不一定比谷歌和Meta开发的技术更好,但其发布语言模型供公众使用的做法使其具有很大的优势。里德尔说:“在过去的两年里,他们一直在利用一群人类向GPT提供反馈,比如对不恰当或不令人满意的答案说‘不’。这个过程被称为“来自人类反馈的强化学习”。

科技巨头愿意冒险加速部署AI工具

随着科技股暴跌,硅谷突然愿意考虑承担更多声誉损失的风险。当谷歌上周裁员1.2万人时,其首席执行官桑德尔皮帅写道,该公司进行了严格的审查,专注于其首要任务,并两次提到了对人工智能的早期投资。

十年前,谷歌成为AI领域无可争议的领导者。2014年,谷歌收购了尖端人工智能实验室DeepMind,并于2015年开放了其机器学习软件TensorFlow。到2016年,皮查伊承诺将谷歌打造成一家“ai优先”的公司。次年,谷歌发布了转换器,这是其软件架构的关键部分,并掀起了当前的生成式人工智能浪潮。

谷歌不断推出更先进的技术,推动整个领域向前发展,在语言理解方面取得了许多突破,并帮助改善了谷歌搜索。在大型科技公司内部,审查前沿人工智能道德影响力的制衡体系还没有确保隐私或数据安全那么成熟。通常情况下,由AI研究人员和工程师组成的团队会发表他们的研究成果的论文,将他们的技术整合到公司现有的基础设施中,或者开发新产品。这个过程有时可能会与负责AI开发的其他团队发生,因为他们面临着更快地将创新带给公众的压力。

谷歌在2018年发布了其著名的AI原理,此前员工Project Maven(一项为美国国防部无人机提供计算机视觉的合同),消费者也对Duplex(一种可以呼叫餐厅和点餐的AI系统)的演示表示强烈反对。去年8月,谷歌开始通过其应用程序AI Test Kitchen向消费者提供限量版LaMDA。前谷歌软件工程师布雷克莱莫因(Blake Schmidt)声称,他认为LaMDA拥有感知能力,但这一功能尚未完全向公众发布,谷歌计划在2022年底前发布。

但这些技术进步背后的顶级人工智能人才正变得焦躁不安。在过去一年左右的时间里,谷歌的许多顶级人工智能研究人员已经离开了他们的工作,并围绕大型语言模型(包括字符)成立了初创公司。艾,连贯,娴熟,变调。AI和Inworld AI。此外,还有一些搜索初创公司使用类似的模式来开发聊天界面,比如由谷歌前高管斯里达尔拉马斯瓦米运营的Neeva。

诺姆沙泽尔,《人物》的创始人。AI,帮助发明了转换器和其他核心机器学习架构。他说,用户数据的飞轮效应是无价的。当他第一次将用户反馈应用于角色时。AI,他的参与度提高了30%以上。性格。人工智能允许任何人根据对真实人物或虚构人物的简短描述来生成聊天机器人。

在谷歌大脑工作了三年的尼克尼克弗罗斯特(Nick Nick Frosst)表示,谷歌和微软这样的大公司通常专注于利用人工智能来改善其庞大的现有商业模式。弗罗斯特在多伦多共同创立了Cohere,这是一家创建大型语言模型的初创公司,可以定制这些模型来帮助企业。他的创业伙伴Aidan Gomez在谷歌工作时也帮助开发了转换器。弗罗斯特说:“这个领域发展如此之快,以至于所有领先的公司都是小公司,这对我来说并不奇怪。”

过去十年,AI领域经历了几次炒作周期,但对Dall-E和ChatGPT的热情达到了新的高度。OpenAI发布ChatGPT后不久,Twitter上的科技网红就开始预测AIGC将预示着谷歌搜索的衰落。ChatGPT以可访问的方式提供简单的答案,不需要用户在蓝色链接中搜索。此外,在发布25年后,谷歌的搜索界面变得臃肿,充满了试图使用该系统的广告商和营销人员。

技术专家残杜鲁克在他的时事通讯《Margins》中写道:“由于他们的垄断,谷歌已经将他们曾经不可思议的搜索体验退化为一个垃圾邮件充斥、搜索引擎驱动的地狱。”

AI消费产品蕴藏巨大盈利潜力?

在匿名应用程序Blind上,科学家们发布了几十个关于谷歌能否与ChatGPT竞争的问题。著名研究科学家大卫哈(David Ha)在推特上写道:“如果谷歌不采取行动,开始发布类似的应用,它们将被载入史册:它培养了整整一代机器学习研究人员和工程师,这些研究人员和工程师后来在其他公司部署了这项技术。”最近,大卫哈(David Ha)离开了谷歌大脑,加入了开源的文本到图像初创公司Stable Diffusion。

谷歌员工表示,留在公司的人工智能工程师和他一样沮丧。多年来,员工一直在发送备忘录,表示要在搜索中加入AI聊天功能。但他们也明白,谷歌有合理的理由不急于改变其搜索产品。如果聊天机器人直接通过谷歌搜索回答问题,如果发现答案有危害或抄袭,可能会加重责任。

像OpenAI这样的聊天机器人经常犯事实错误,并且经常根据他们提问的方式改变他们的答案。一位前谷歌AI研究人员表示,从提供与原始材料直接相关的一系列问题的答案,到使用聊天机器人给出单一而权威的答案,这将是一个重大转变,这让谷歌内部的许多人感到紧张。这位知情人士说,谷歌不想承担提供单一答案的角色或责任。之前的搜索更新,比如添加即时回答,都非常缓慢和谨慎。

然而,在谷歌内部,对AI安全过程的失望部分来自于一种感觉,即由于担心负面宣传,前沿技术从未作为产品发布。比如有些AI模型是有偏差的。

据一位熟悉该公司内部讨论的人士透露,Meta的员工还必须处理公司对糟糕的公共关系的担忧。在推出新产品或发表研究成果之前,Meta的员工必须回答有关公开他们的工作的潜在风险的问题,包括他们的研究可能如何被误解。一些项目由公关人员和内部合规专家进行审查,他们确保公司的产品符合2011年关于如何处理用户数据的美国联邦贸易委员会协议。

对于非营利组织分布式人工智能研究所(Distributed AI Research Institute)的执行董事蒂姆尼特格布鲁(Timnit Gebru)来说,谷歌边缘化其负责任的人工智能团队的前景并不一定意味着权力或安全担忧的转移,因为那些警告潜在危险的人从一开始就没有得到授权。

从格布鲁的角度来看,谷歌发布AI工具的速度非常缓慢,因为该公司缺乏足够强大的商业动机,不愿意拿自己的声誉冒险。然而,在ChatGPT发布后,谷歌可能会看到其从这些消费产品中赚钱的能力发生变化,而不仅仅是为搜索或在线广告提供动力。“现在他们可能认为这对他们的核心业务构成了威胁,所以也许他们应该冒险一试,”Gebulu说。

Rumman Chowdhury曾领导Twitter的机器学习道德团队,直到去年11月Elon Musk将其解散。她说,她预计谷歌等公司在争先恐后追赶OpenAI的过程中,会越来越多地排挤内部的批评者和伦理学家。她说:“我们原以为在推动美国的人工智能技术进步,但现在看来,初创企业落后了。”(小)