首页 > 资讯 > 科技 > 正文
2023-05-05 07:58

谷歌与世界分享人工智能知识——直到ChatGPT赶上来

今年2月,长期担任b谷歌人工智能主管的杰夫·迪恩(Jeff Dean)向员工宣布了一项惊人的政策转变:他们必须推迟与外界分享自己的工作成果。

多年来,迪安把他的部门当作一所大学来管理,鼓励研究人员大量发表学术论文;根据谷歌Research网站的数据,自2019年以来,他们推出了近500项研究。

但OpenAI在三个月前推出的突破性ChatGPT改变了一切。迪恩在公司研究部门的季度会议上说,这家旧金山初创公司通过阅读团队的科学论文来跟上b谷歌的步伐。事实上,变形金刚——最新人工智能技术和聊天技术的基础部分——起源于谷歌的一项研究。

事情必须改变。据两位知情人士透露,b谷歌将利用自己的人工智能发现,只有在实验室工作转化为产品后才分享论文,迪恩说。这两位知情人士要求匿名,以分享私人信息。

这一政策变化是bb0内部更大转变的一部分。长期以来被认为是人工智能领域的领导者,这家科技巨头已经陷入了防御模式——首先是为了抵御一群灵活的人工智能竞争对手,现在是为了保护其核心的搜索业务、股价,以及潜在的未来,高管们表示,这与人工智能交织在一起。

在专栏、播客和电视节目中,b谷歌首席执行官桑达尔·皮查伊敦促人们对人工智能保持谨慎。“从社会层面来看,它可能会造成很大的伤害,”他在今年4月的《60分钟》(60 Minutes)节目中警告说,他描述了这项技术可能会加速虚假图像和视频的产生。

但根据对11名谷歌现任和前任员工的采访,谷歌最近几个月对其人工智能业务进行了全面改革,目标是迅速推出产品。为了分享私人信息,这些员工大多要求匿名。

它降低了向较小群体推出实验性人工智能工具的门槛,在公平等领域开发了一套新的评估指标和优先事项。皮查伊在一份声明中写道,为了“加速我们在人工智能方面的进展”,谷歌还合并了谷歌Brain和DeepMind。谷歌Brain是一个由迪恩运营、由研究人员的兴趣组成的组织,DeepMind是一个专注于单一、自上而下的人工智能部门。这个新部门的负责人将不是迪恩,而是DeepMind的首席执行官戴米斯•哈萨比斯(Demis Hassabis)。一些人认为,DeepMind拥有一个更新鲜、更强势的品牌。

在本周早些时候的一次会议上,哈萨比斯表示,人工智能可能比大多数其他人工智能专家预测的更接近人类的智能水平。“我们可能只需要几年,也许……十年,”他说。

b谷歌加速发展之际,包括知名公司校友和业内资深人士在内的各种声音呼吁人工智能开发者放慢脚步,并警告称,这项技术的发展速度甚至超过了其发明者的预期。杰弗里·辛顿(Geoffrey Hinton)是人工智能技术的先驱之一,他于2013年加入b谷歌,最近离开了该公司。自那以后,他就在媒体上发出警告,称超级智能人工智能可能会逃离人类的控制。皮查伊以及OpenAI和微软的首席执行官将于周四与白宫官员会面,这是美国政府在公众担忧中表明进展的持续努力的一部分,因为世界各地的监管机构正在讨论围绕该技术的新规则。

与此同时,人工智能军备竞赛在没有监管的情况下仍在继续,面对竞争,企业对自己显得鲁莽的担忧可能会减弱。

DeepMind的联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman)表示:“这并不是说他们谨慎,他们不愿意破坏现有的收入来源和商业模式。”苏莱曼于2022年离开谷歌,并于本周推出了个性化人工智能Pi,这是他的新创业公司Inflection AI的一款产品。“只有当存在真正的外部威胁时,它们才会开始觉醒。”

皮查伊强调,bbo加快速度的努力并不意味着偷工减料。“现在的进展速度比以往任何时候都要快,”他在合并公告中写道。“为了确保通用人工智能的大胆和负责任的发展,我们正在创建一个部门,帮助我们更安全、更负责地构建更强大的系统。”

一位前谷歌人工智能研究员将这种转变描述为谷歌从“和平时期”到“战时”。b谷歌Brain研究员布莱恩·基胡恩·李(Brian Kihoon Lee)在今年4月的一篇博客文章中写道,广泛发布研究成果有助于整个领域的发展。但一旦竞争变得更加激烈,微积分就会改变。

“在战时模式下,你的竞争对手分得的蛋糕有多大也很重要,”Lee说。他拒绝就本文进一步置评。

谷歌发言人布莱恩·加布里埃尔说:“2018年,我们建立了一个内部治理结构和一个全面的审查流程——到目前为止,我们在产品领域进行了数百次审查——我们继续将这一流程应用于我们对外推出的基于人工智能的技术。”“负责任的人工智能仍然是公司的首要任务。”

皮查伊和其他高管越来越多地开始谈论人工智能技术达到或超过人类智能的前景,这一概念被称为人工通用智能(AGI)。这个曾经的边缘术语,与人工智能对人类构成生存风险的观点有关,是OpenAI使命的核心,已经被DeepMind所接受,但却被b谷歌的高层所回避。

对于b谷歌的员工来说,这种加速的方法好坏参半。在发表相关人工智能研究成果之前,需要获得额外的批准,这可能意味着研究人员将在闪电般的生成人工智能世界中“抢先”获得他们的发现。一些人担心它可能被用来悄悄压制有争议的论文,比如2020年一项关于大型语言模型危害的研究,该研究由b谷歌伦理人工智能团队的负责人蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)共同撰写。

但其他人承认,去年b谷歌的许多顶尖人工智能研究人员跳槽到了被视为尖端的初创企业。一些人的出走源于b谷歌没有采取看似明显的举措,比如将聊天机器人纳入搜索,这让他们感到沮丧,因为他们担心会造成法律和声誉上的损害。

在季度会议的直播中,迪恩的声明得到了很好的回应,员工们分享了乐观的表情符号,希望这一转变能帮助谷歌赢回上风。“OpenAI在我们自己的游戏中打败了我们,”一名参加会议的员工表示。

对于一些研究人员来说,迪恩在季度会议上的声明是他们第一次听说对发表研究的限制。但对于那些从事大型语言模型(聊天机器人的技术核心)工作的人来说,自从去年12月聊天技术迅速走红后,谷歌高管首次发布了专注于人工智能的“红色代码”以来,事情变得更加严格了。

据一位前研究人员说,要获得论文的批准,可能需要与高级职员反复进行严格的审查。许多科学家在b谷歌工作时,都被承诺能够继续参与他们所在领域更广泛的讨论。又一轮研究人员因为出版限制而离开。

确定人工智能产品何时准备推出的标准不断变化,引发了不安。据彭博社报道,b谷歌决定发布其人工智能聊天机器人巴德,并对实验性人工智能产品的一些测试分数实施较低的标准,这一决定引发了内部反弹。

但其他员工认为b谷歌在试图围绕这一新兴领域建立标准方面做得很周到。2023年初,谷歌分享了一份由两个人工智能团队(负责任的创新团队和负责任的人工智能)围绕巴德制定的约20项政策优先事项清单。一名员工称这些规定“相当清晰,也相对稳健”。

另一些人一开始对分数不太有信心,认为这个练习主要是表演。他们认为,外部透明度会更好地服务于公众,比如记录培训数据内部的内容,或者向外部专家开放模型。

消费者才刚刚开始了解大型语言模型的风险和局限性,比如人工智能倾向于编造事实。但谷歌Research的高级科学家埃尔·马赫迪·埃尔·马哈姆迪(El Mahdi El Mhamdi)表示,科技公司可能一直在利用这项技术来训练其他系统,其方式甚至连员工都难以追踪。今年2月,他因该公司在人工智能道德方面缺乏透明度而辞职。

El Mhamdi说,当他使用谷歌Translate和YouTube时,“我已经看到了只能通过使用这些模型和数据集来解释的波动性和不稳定性”。

许多公司已经证明了快速行动和向大量用户发布未完成的工具的问题。

斯坦福大学教授Percy Liang说:“说‘嘿,这是一个神奇的系统,你可以做任何你想做的事情’,然后用户开始以他们意想不到的方式使用它,我认为这非常糟糕。”他补充说,ChatGPT上的小字体免责声明并没有明确说明它的局限性。

他补充说,严格评估这项技术的能力非常重要。梁最近与人合作撰写了一篇论文,研究像新Bing这样的人工智能搜索工具。它发现只有大约70%的引用是正确的。

百度多年来一直在投入资金开发人工智能技术。2010年代初,该公司开始收购人工智能初创企业,将它们的技术整合到自己不断增长的产品系列中。2013年,该公司引进了人工智能软件先驱辛顿,他的科学工作为当前占主导地位的技术奠定了基础。一年后,它以6.25亿美元收购了另一位领先的人工智能研究人员哈萨比斯(Hassabis)创立的DeepMind。

在被任命为谷歌首席执行官后不久,皮查伊宣布谷歌将成为一家“人工智能优先”的公司,将人工智能技术整合到其所有产品中。多年来,b谷歌的人工智能研究团队开发的突破和工具将使整个行业受益。他们发明了“变形金刚”——一种可以消化更大数据集的新型人工智能模型。这项技术成为了“大型语言模型”的基础,这些模型现在主导着围绕人工智能的讨论——包括OpenAI的GPT3和GPT4。

尽管取得了这些稳步的进步,但正是由规模较小的新贵OpenAI开发的ChatGPT引发了人们对人工智能更广泛的迷恋和兴奋。OpenAI的成立是为了制衡大型科技公司对该领域的收购,与规模更大的竞争对手相比,OpenAI面临的审查更少,而且更愿意将其最强大的人工智能模型交到普通人手中。

与此同时,谷歌一直小心翼翼地将其聊天机器人巴德和其他新的人工智能产品标记为“实验”。但对于一家拥有数十亿用户的公司来说,即使是小规模的实验也会影响数百万人,世界上很多人很可能会通过谷歌工具接触到生成式人工智能。该公司的庞大规模意味着,它转向更快地推出新的人工智能产品,这引发了广泛的监管机构、人工智能研究人员和商业领袖的担忧。

周四白宫会议的邀请提醒首席执行官们,拜登总统已经“明确表达了我们的期望,即像你们这样的公司必须确保他们的产品在向公众提供之前是安全的”。