欢迎来到丰采网

AI领域竞争更激烈

来源:丰采网  作者:丰采网   2023-02-01 阅读:1070

2月1日消息,虽然AI研究公司OpenAI通过AI聊天机器人ChatGPT激发了公众的想象力,但归根结底,这项技术可能不会改变科技巨头之间的力量平衡。

谷歌等科技巨头将从所谓的生成式AI(AIGC)中获益更多,而不是OpenAI这样的创企。

以下是翻译内容:

在斥资数十亿美元进行AI研发和收购之后,谷歌将风头拱手让给了OpenAI。这家AI领域的后起之秀发布了令人惊讶的AI聊天机器人ChatGPT,其公开测

试激发了公众无穷的想象力。谷歌现在担心ChatGPT AI可能会重塑被其视为基石的搜索业务。

但早在2017年,谷歌就宣称自己是一家“AI优先”公司,可能继续在AI领域占据重要地位。谷歌对AI的投资可以追溯到21世纪初,此举可能会为其带来

丰厚回报,甚至可能推动该公司下一个25年高速增长。谷歌今年已经成立25年。

OpenAI通过让自然语言处理(NLP)模型变得更强大,并向它们提供大量的训练数据,从而增强了自然语言处理模型的能力。这些数据是从互联网上的

免费电子书、维基页面、讨论板和同人小说中挑选出来的。不过, OpenAI并没有发明支持ChatGPT的NLP模型。GPT是“生成性预先训练转换器”(g

enerative pretrained transformer)的缩写,谷歌在2018年以BERT(双向编码器)为基础开发了转换器语言模型,现在使用它来增强其搜索和翻译能力。

但在BERT之后,谷歌并没有停止对NLP的研究。事实上,谷歌声称其已经开发出名为LaMDA的NLP聊天机器人,它比ChatGPT更强大,谷歌工程师甚至称

其拥有感知能力。谷歌姊妹公司DeepMind也在考虑在今年晚些时候发布名为Sparrow的AI聊天机器人,谷歌的AI图像生成器Imagen据说将与OpenAI的

Dall-E 2竞争。

到目前为止,谷歌在向公众提供这些AI工具方面始终较为谨慎。这并不令人感到特别惊讶。毕竟,谷歌的规模比OpenAI大得多,任何AI失误都会给谷歌带

来更大的损失。谷歌认为,生成式AI依然是一项不成熟的技术,其风险仍有待评估。该公司担心,如果其AI工具侵犯某人的隐私或版权,抑或是造成某种形

式的垄断,可能会引发反垄断诉讼,并需要承担法律责任。

但谷歌也从AI研究中获益良多,并已着手提供新的、基于AI技术支持的功能。该公司的做法始终是使用其基础型AI模型在后台运行,以更好地支持其应用程

序和服务。

重塑搜索功能

搜索就是个很好的例子。谷歌已经在使用BERT语言模型来解释用户在搜索栏中键入关键字和短语背后的意图。BERT被设计从文本中推断含义,但更高级的

语言模型(如生成式AI模型)可以用ChatGPT生成用户问题文本答案的方式构建搜索结果。谷歌搜索可能不再仅仅提供一长串相关性较低的链接(伴随着广

告),而是生成一段完整的叙述直接回答搜索者的问题,辅之以图片、视频、统计数据和链接等。

事实上,谷歌很久之前就致力于研究这种生成式搜索方法了,其多任务统一模型(MUM)旨在帮助用户处理复杂或多方面的搜索请求。例如,用户可能会说

或输入“去西藏旅行需要做哪些准备?”MUM将推断查询中包含的所有问题,然后生成多媒体信息包,里面包括解决所有问题和更多问题的方案。

谷歌还有一个优势,它拥有对网络及其海量内容进行长期抓取和编目的经验。该公司或许能够让其模型访问更多、更高质量的培训数据,这可能有助于开发令

人印象深刻的AI应用程序和服务,而不会产生错误或有毒的内容。

Google Brain团队前负责人、AI创企Landing AI创始人兼首席执行官吴恩达说:“我确实认为像ChatGPT这样的大型语言模型可能会颠覆网络搜索业务。”

但他随后立即补充说,让搜索变成与AI模型自由对话模式并非易事:如何利用网上海量的内容培训真正有用的NLP模型?如何开发用于培训模型的数据?还有

如何货币化的问题。

吴恩达继续称:“谷歌商业模式的核心动力是提供链接,并在结果旁边安置广告链接。那么,如果谷歌现在只是直接通过AI模型提供答案,这对广告商业模式会

有什么影响?我认为这些都是非常复杂的问题。”

对于谷歌来说,将生成式AI模型整合到其生产力应用中可能更为简单。例如,这项技术可以用来帮助Gmail用户起草消息,或帮助Docs用户撰写文档或演示文

稿,抑或为Meet用户提供视频聊天摘要。

OpenAI与微软合作

直到最近,OpenAI和谷歌之间的竞争看起来还像是大卫与巨人歌利亚的战斗:一个灵活的小公司用新颖的颠覆性技术威胁着长期存在的科技巨头。OpenAI可

能已经决定向公众开放ChatGPT,希望保持这种印象,并提高公众形象,或许还能吸引更多的投资资金。

这一策略似乎奏效了。OpenAI已经与微软建立了分销合作伙伴关系,后者最近宣布扩大合作关系,额外追加100亿美元投资。微软现在拥有OpenAI的大量股份

,并打算将这项技术内置到其必应搜索引擎以及生产力应用程序中。

正因为如此,Index Ventures合伙人迈克·沃尔皮(Mike Volpi)指出,我们现在讨论的不再是大卫和歌利亚的战斗。他说:“OpenAI不再是个小公司,它基本

上成为了微软的子公司,大部分资金来自微软,因此我认为将其视为微软的延伸更合适。在这种背景下,许多其他事情变得非常清楚。必应在搜索广告市场的份

额与谷歌相比很小,因此微软肯定想要颠覆这一市场。”

云计算至关重要

微软将OpenAI视为通过其Azure云平台提供高级生成性AI服务的一种方式,Azure的规模在云计算市场上仅次于亚马逊AWS。微软还可能利用其与OpenAI的合

作来增强其说法的可信度,即在托管高级AI模型方面,Azure比其他云服务更合适。

Azure AI平台副总裁埃里克·博伊德(Eric Boyd)本月在一篇博客文章中写道:“Azure为计算密集型AI培训和推理工作负载提供了一流的性能和扩展性。这就是

世界领先的AI公司(包括OpenAI、meta、Hugging Face等)继续选择Azure来推进他们AI创新的原因。”

谷歌正在努力推广自己的云计算服务,而且该项业务正在走向盈利,但其仍远远落后于Azure和亚马逊AWS。增加了OpenAI服务,Azure可能会让谷歌追赶的努

力变得更加困难。

AI领域竞争更激烈

要了解谷歌管理层对OpenAI的看法可能很困难。去年12月中旬,谷歌AI业务首席执行官杰夫·迪恩(Jeff Dean)表示,如果仓促之间推出一款容易犯错或发布有

毒内容的生产式AI工具,谷歌将蒙受更大损失。但该公司正在认真对待OpenAI在该领域有关主导地位的竞标。据报道,谷歌甚至请来了已经退休的创始人拉里·佩

奇(Larry Page)和谢尔盖·布林(Sergey Brin),讨论如何对抗OpenAI。

在去年12月份的一次战略会议上,谷歌曾表示,在发布新的面向公众的创新型AI工具时,将“重新调整”其愿意承担的风险水平。

换句话说,ChatGPT可能已经掀起了新的AI竞赛。现在看来,谷歌今年很可能会推出多款新的AI功能和产品。其中有些工具将面向开发者:谷歌可能会开发像GitH

ub Copilot这样的工具,它针对数百万或数十亿行代码进行培训,可以直观地判断开发者的需求,并就新的代码提供建议。

Index Ventures的沃尔皮认为,谷歌很可能会发布看起来和行为都很像ChatGPT的自然语言聊天机器人,DeepMind也可能发布其Sparrow聊天机器人,谷歌搜索

可能会为某些类型的搜索提供聊天式体验。

明年,OpenAI可能看起来更像是生成式AI领域的先行者,但其模型可能不像现在看起来那么新奇。归根结底,OpenAI可能不会显著改变大型科技公司之间的力量

平衡。沃尔皮说:“我不确定它是否会改变现有格局。谷歌将推出自己的NLP聊天产品,亚马逊也将推出类似工具。我敢肯定,苹果会继续改进Siri以做同样的事情。

最终,我的猜测是,你会看到这个领域的竞争更加激烈。”

普通人可以安静地坐在旁边,看着这些公司一决雌雄,并享受它们的研究成果。但这里也存在风险因素。在ChatGPT之后,AI的发展步伐可能会加快。随着竞争的加

剧,保密性也可能会增强。而随着大型科技公司在AI研发上投入更多资金,它们可能不太愿意在发表的研究论文中透露其模型的细节以及它们的工作原理。

斯坦福大学以人为本AI基础模型研究中心主任珀西·梁(Percy Liang)表示,过去一年,AI研究领域的正常合作和科学开放性已经有所下降。重要的是,科技公司公开

他们的模型、培训方法和政策细节,这样其他研究人员就可以重新创建模型和他们的输出,从而验证这项研究。OpenAI确实发表了关于其开发新模型的论文,但梁教

授称,该公司并不总是提供足够的细节来说明其方法。

梁教授解释称:“对于最新的OpenAI模型,我们完全不知道它们背后是什么。直到最近,我们甚至不知道它们的大小,它们接受过哪些数据培训,是否与我们使用AP

I访问和测试的模型相同。自那以后,他们只发布了简短博客文章对此进行了解释,虽然这是朝着正确方向迈出的一小步,但仍然缺乏透明度。”

在梁教授看来,AI模型的最终输出很大程度上受到人类施加的下游微调和过滤的影响。开发者必须这样做,以防止模型输出不正确、有毒或偏向某些用户的文本或图像。

例如,如果你让OpenAI的GPT-3模型的早期版本写一篇关于医生的简短故事,会发现医生的角色永远是男性。到ChatGPT发布时,这种偏见已经消失,可能通过额外

培训进行了修复。但这只是一个例子,很可能还有数百个这样的问题需要解决。

梁教授表示:“OpenAI喜欢谈论价值匹配,所以这些模型将与人类的价值观保持一致,因此它们也不会做坏事。但我们谈论的是谁的价值观?这些价值观到底是什么

?OpenAI没有公布有关这些价值观的细节,这也是某种决策过程不透明的体现。”

在ChatGPT测试版向公众开放的同时,OpenAI自愿修复了许多漏洞。该公司甚至推出了“偏见奖励”计划,用户可以报告不正确或有偏见的输出,以换取赢得价值50

0美元API积分的奖励。与之相比,谷歌始终不愿曝光存在此类漏洞的AI产品和功能。但AI发展步伐的加快可能会给谷歌和所有大型科技公司带来压力,要求他们在所

有问题解决之前推出新模型。

而在这方面,普通公众可能成为输家,人们可能会看到生成式AI工具在我们的网络生活中添加更多虚假、有毒和有偏见的内容。(小小)

免责声明:
本站部份内容系网友自发上传与转载,不代表本网赞同其观点;
如涉及内容、版权等问题,请在30日内联系,我们将在第一时间删除内容!