近日,据外媒报道,谷歌在提升其聊天机器人产品Gemini的性能上遭遇了严峻挑战。尽管公司倾注了大量算力和训练数据,但Gemini的性能提升并未如预期般迅速,这一困境与OpenAI近期所经历的颇为相似,引发了业内广泛关注。
作为AI领域的巨头,谷歌一直野心勃勃,特别是在算力资源方面拥有显著优势。然而,这种优势并未能转化为Gemini模型性能的显著提升。据报道,研究人员在投入更多数据和算力后,发现旧版本的Gemini大模型改进速度反而更快,这一现象对scaling law(缩放定律)的有效性提出了质疑。
scaling law曾被视为AI模型性能提升的“万能钥匙”,许多研究人员认为,只要使用更专业的AI芯片处理更多数据,模型就能不断改进。然而,谷歌和OpenAI的遭遇却表明,这两个因素似乎并不足以解决所有问题。谷歌内部人士透露,公司在开发Gemini的过程中发现,用于训练的数据中存在大量重复信息,这可能损害了模型的性能。
为了应对这一挑战,谷歌正在重新审视其数据处理策略,并在数据上加大投资。同时,公司还在努力加快模型的响应速度,这对于谷歌这样规模的AI服务提供商至关重要。此外,谷歌还效仿OpenAI,在Gemini部门内组建了一个团队,致力于开发类似OpenAI推理模型的能力。
这个新团队由DeepMind的首席研究科学家Jack Rae和前Character.AI联合创始人Noam Shazeer领导,他们正在探索新的技术路径,以弥补传统scaling law在模型训练阶段导致的性能提升放缓问题。与此同时,开发Gemini的研究人员也在对模型进行手动改进,包括调整超参数,即决定模型如何处理信息的变量。
然而,谷歌在尝试使用AI生成的数据(合成数据)以及音视频作为Gemini的训练数据时,并未取得显著效果。这一结果再次凸显了当前AI技术发展的瓶颈和挑战。
随着OpenAI和谷歌这两大AI巨头相继遇到模型性能提升缓慢的问题,业内对AI技术未来发展的悲观情绪开始蔓延。一些人担忧,如果技术瓶颈长期无法突破,可能会引发所谓的“AI泡沫”,即市场对AI技术的过度乐观预期与实际技术进展之间的巨大差距。
以上就是谷歌Gemini性能提升陷困境,AI巨头能否跨越技术障碍,避免泡沫危机?的全部内容了,在这个信息爆炸的时代,嗨牛网致力于成为您可信赖的知识伙伴,我们不断追求卓越,努力创新,只为确保每一位用户都能在这里找到价值,获得成长。选择嗨牛网,让我们一同开启知识的大门,探索无限可能!