谷歌,是真的破釜沉舟了。

传说中合并了 AlphaGo 和类 GPT-4 大模型的 Gemini,终于要来了吗?


(资料图)

一个是用强化学习击败人类围棋冠军、创造历史的 AI 系统,一个是目前霸榜几乎所有大模型榜单、一骑绝尘的最强多模态大模型,两个 AI 一合体,简直要无敌了!

谷歌 DeepMind CEO Hassabis 近日对外媒 Wired 表示,Gemini 还在开发中,还需要几个月,而谷歌 DeepMind 已经准备砸进数千万美元,甚至数亿。

此前,Sam Altman 曾透露,创建 GPT-4 的成本超过了 1 亿美元。谷歌 DeepMind,当然也不能输。

Gemini 会将 AlphaGo 与 GPT-4 等大模型的语言功能合并,系统解决问题和规划的能力将大大增强。

Gemini 是一个大语言模型,类似于 GPT-4

预计花费数千万到数亿美元,与开发 GPT-4 的成本相当

除了 AlphaGo,还会有别的创新

Gemini 会整合使用了强化学习和树搜索的 AlphaGO。

强化学习允许 AI 通过从反复尝试和反馈中学习,解决挑战性难题

树搜索方法有助于探索和记住场景中可能的移动,比如在游戏场景中

DeepMind 在强化学习方面的丰富经验,会为 Gemini 带来崭新功能。

其他领域技术(如机器人和神经科学)也会整合到 Gemini 中

下一个算法,要超越 ChatGPT

根据 OpenAI CEO Sam Altman 的说法,GPT-5 距离发布尚有时日,至少 6 个月内不会开始训练。而 Gemini 的发布时间尚未确定,可能在几个月之内。

尚在开发中的 Gemini,也是一个处理文本的大语言模型,性质上和 GPT-4 类似。

但谷歌 DeepMind CEO Demis Hassabis 表示,Gemini 会结合进 AlphaGo 中使用的技术,这将赋予系统全新的规划、解决问题的能力。

2016 年,AlphaGo 击败围棋世界冠军李世石的那一幕,如今依然历历在目。

Hassabis 表示,「可以这么说,Gemini 把 AlphaGo 系统的一些优势,和大语言模型惊人的语言能力结合在一起了。并且,我们还有一些其他有趣的创新。」

据说,Gemini 具有以前模型中没有的多模态功能,在集成工具和 API 方面非常高效。而且,Gemini 将提供多种规模,旨在支持未来内存和规划上的创新。

在三月份,曾经有这样一个说法:Gemini 会像 GPT-4 一样,具有一万亿个参数。而且,据说 Gemini 将使用数以万计的谷歌 TPU AI 芯片进行训练。

在上个月的谷歌开发者 I / O 大会上,谷歌就曾提到,从一开始,Gemini 的目标就是多模态、高效集成工具、API。

而当时谷歌的预告是:「虽然还在早期,但我们已经在 Gemini 中,看到了在之前的模型中从未见过的多模态能力,这让人印象太深刻了。」

AlphaGo 背后的技术,就是强化学习,这是 DeepMind 首创的技术。

RL 代理随着时间的推移与环境交互,通过反复试验来学习策略,从而最大限度地提高长期累积奖励

通过强化学习,AI 能够通过反复尝试和接受反馈来调整自己的表现,因而学会处理很棘手的问题,比如在围棋或电子游戏中选择如何采取下一步行动。

另外,AlphaGo 还使用了蒙特卡洛树搜索(MCTS)方法,来探索和记住棋盘上所有可能的动作。

这已经不是 Hassabis 第一次搅动起科技巨头的大规模人工智能淘金热了。

2014 年,DeepMind 使用强化学习,让 AI 学会了玩简单的视频游戏,这一成果惊为天人,直接让 DeepMind 被谷歌收购。

谷歌的注果然押对了。

接下来几年,DeepMind 隔一段时间就产出一个惊艳全世界的成果。

深度学习和强化学习正在解决许多经典的人工智能问题,例如逻辑、推理和知识表示

2016 年,石破天惊的 AlphaGo,直接点燃了深度学习和第一轮 AI 产业的热潮。

2017 年,AlphaGo Zero 没有使用人类数据,就迅速超越了 AlphaGo。

AlphaGo Zero

2020 年,AlphaFold 对于蛋白质结构的预测与实验室技术相当,基本解决了蛋白质的折叠问题。

今年 6 月,AlphaDev 创造全新的排序算法,或将彻底改变计算机科学的效率和成果。

相比 OpenAI 更通用的路线,DeepMind 多年来深耕垂直领域。

语言模型的下一个重大飞跃在哪里?Gemini 或许指引了下一代语言模型的方向。

背水一战

很明显,Gemini 是谷歌的背水一战。

谷歌开创的许多技术,比如 Transformer 架构,让最近的 AI 洪流成为可能。

因为对于技术的开发和部署太过谨慎,在 ChatGPT 和其他生成式 AI 构成的竞争面前,它反而显得暂时落后。

为了对打 ChatGPT,谷歌连续抛出多个动作,比如推出 Bard,并且将生成式 AI 集成到搜索引擎和其他产品中。

为了集中力量办大事,在 4 月,谷歌干脆把 Hassabis 的 DeepMind 和谷歌的主要人工智能实验室谷歌大脑合并,合体为谷歌 DeepMind。

对于合体后的全新团队,Haasabis 显然非常自信。他表示,全新的团队汇集了两股对最近的人工智能进步至关重要的力量。

「如果你看看我们在人工领域的位置,你会相信,未来 80% 或 90% 的创新,就会来自其中一个团队。在过去十年里,两个团队都做出了极其出色的成果。」

新的想法

训练像 OpenAI 的 GPT-4 这样的大型语言模型,需要将来自书籍、网页和其他来源的大量精选数据集的输入「Transformer」中。

Transformer 使用训练数据中的模式来熟练预测后续文本中应该出现的每一个字母和单词。

这种看似简单的机制,却在回答问题和生成文本或代码方面非常强大。

但这个看似简单的技术原理也被很多行业大佬或者人工智能专家们诟病。

马斯克:目前 AI 技术的本质就是统计学

LeCun:现在的 AI 的智能水平还不如狗

OpenAI 在 GPT 系列模型上的突破,就是在 Transformer 的核心技术之上,很激进地采用了 RLHF 来强化模型的能力。

而 DeepMind 在强化学习方面同样有非常丰富的经验。

这就让人有非常充足的理由期待 Gemini 在未来可能会展现出来的创新能力。

更加关键的是,Hassabis 和他的团队也会试图用人工智能其他领域的核心技术来增强大型语言模型的能力。

DeepMind 的技术积累非常广泛。

从机器人技术到到神经科学,他们武器库里有各种各样的装备可供他们挑选。

比如像 LeCun 这样的 AI 大佬就表示,Transformer 将语言模型的能力过度限制在了文本的范围之内。

像人类和动物⼀样,从世界的物理经验中学习可能才是发展人工智能的最优解。

也许在 Gemini 身上,人工智能将展示出其他方向的潜力。

不确定的未来

Hassabis 的任务是加速谷歌的人工智能技术的发展,同时管理未知和潜在的严重的风险险。

大语言模型的飞速进步让许多人工智能专家开始担心这项技术是否会打开潘多拉的魔盒,让人类社会付出无法接受的代价。

Hassabis 表示,人工智能可能给人类社会带来的收益不可估量。

人类必须要持续发展这项技术。

强制暂停发展 AI 技术完全没有可操作性。

但是这并不意味着 Hassabis 和他领导的 DeepMind 会不计后果地推进技术的发展。

毕竟,谷歌和 DeepMind 之所以把 AI 技术的领袖位置拱手让给 OpenAI。

很大一部分原因就是对待 AI 发展采用了「过于负责任」的态度。

推荐内容