近日,外媒曝出猛料,谷歌在提升其聊天机器人产品Gemini性能方面正面临严峻挑战。据内部知情人士透露,尽管公司倾注了大量算力和训练数据,但Gemini的性能提升却远未达到预期,这一困境与OpenAI近期所经历的颇为相似,引发了业界的广泛关注。
谷歌作为AI领域的巨头,一直拥有显著的算力资源优势。然而,这种优势并未能如愿转化为Gemini模型性能的显著提升。据报道,研究人员在加大数据和算力投入后,发现旧版Gemini大模型的改进速度反而更快,这一反常现象引发了业内对scaling law(缩放定律)有效性的深刻反思。
scaling law曾被视为AI模型性能提升的“万能钥匙”,许多研究人员坚信,只要使用更专业的AI芯片处理更多数据,模型就能持续不断地改进。然而,谷歌和OpenAI的遭遇却表明,这两个关键因素似乎并不足以解决所有问题。谷歌内部人士透露,在开发Gemini的过程中,研究人员发现训练数据中存在大量重复信息,这可能严重损害了模型的性能。
为了应对这一挑战,谷歌正在积极调整其数据处理策略,并加大在数据方面的投资。同时,公司还在努力提升模型的响应速度,这对于谷歌这样规模的AI服务提供商来说至关重要。此外,谷歌还效仿OpenAI,在Gemini部门内组建了一个专业团队,致力于开发类似OpenAI推理模型的能力。
这个新团队由DeepMind的首席研究科学家Jack Rae和前Character.AI联合创始人Noam Shazeer领衔,他们正在探索新的技术路径,以期解决传统scaling law在模型训练阶段导致的性能提升放缓问题。与此同时,Gemini的研发团队也在对模型进行手动优化,包括调整超参数等,以改善模型处理信息的能力。
然而,谷歌在尝试使用AI生成的数据(合成数据)以及音视频数据作为Gemini的训练素材时,并未取得明显成效。这一结果再次凸显了当前AI技术发展的瓶颈和挑战,也引发了业界对AI技术未来发展的担忧。
以上就是谷歌Gemini遭遇性能瓶颈,AI巨头面临技术挑战的全部内容了,极8网精心打造,旨在为您呈现一个满载精彩纷呈资讯的宝库,全球前沿资讯、深度剖析行业动态、汇聚热门话题与独特视角,力求为您带来一场场知识与娱乐并重的盛宴。