但资本需求将一直存在 谷歌前CEO施密特 AI代理未来会变得非常复杂和昂贵

出品 | 搜狐科技

作者 | 李阳

昨日(11月21日),埃里克·施密特接受了普林斯顿大学专访并回答现场学生提问。回顾本次访谈,埃里克·施密特围绕人工智能的机遇、挑战以及未来发展趋势等话题表达了其观点。

在施密特看来,当下人工智能发展速度惊人,基础模型的能力正在迅速提升,很快将达到甚至会超越人类学家的水平。

“未来每个人都将拥有一个AI助手,这将极大改变人们的生活方式。同时,这种发展势必会带来巨大的伦理挑战和社会风险。”施密特解释了他在《创世纪》中关于通才(polymaths)的讨论,以及人工智能如同掌中通才的概念。

在他看来,未来六年会发生翻天覆地的变化。 “目前的基底模型在各个领域的知识测试中已经达到研究生水平的80%或90%。现在,没有谁能够同时在所有领域做到这一点。当这些基底模型将被连接起来,你就会得到一个由人类驱动的通才。”

而AI代理,本质上就是开发者使用模型来解决问题的代理。最终都会从笨变聪明。

他强调了AI在发展进程中所要面对的挑战和风险。比如社会、政府和大部分普通人对AI的到来准备不足,会导致不适应;AI可能被用于传播虚假信息,以及权利滥用、技术扩散等等难以预料的风险。

他很难想象,如果自己有一个儿子或女儿,他们最好的朋友不是人类,而是像扎克伯克一样的数字代理来决定孩子可以做什么,不做什么。“事实上,这很令人担忧。”

人工智能对思维方式的影响令人担忧,“如果人工智能是由一个国家构建的,其他所有文化会发生什么?只是一味被碾压吗?他们已经在指责我们霸权主义,因为像谷歌这样的公司破坏了他们的文化,而谷歌相对来说是无害的,因为你必须向谷歌提问。”施密特表示。

当强大的AI系统被滥用,对个人隐私和文化造成威胁,甚至可能被用于操控舆论,后果不堪设想。

对此,施密特建议学术界应该积极参与AI的研究和发展,特别是关注目前尚未解决的关键问题。例如,AI的可解释性、AI代理的协调和控制、超越Transforme架构的新模型。

他一方面强调政府要关注人工智能在教育、医疗、气候变化等领域的应用,呼吁更多低资源语言的AI技术发展,避免技术霸权。另一方面,他又觉得过欧盟AI安全法的过度监管限制了技术的创新。

在被问到人工智能是否需要有创造力或同理心,施密特认为模型最初生成时不具备任何信念系统,“ 我认为这很大程度上取决于这些特质的训练方式。

在他看来,山姆·奥特曼的万亿美元的数据中心,全世界能够负担得起的寥寥无几。但如果能够换来一个可以解决所有经济、物理、科学问题的“世界通才”,就可以说得通了。

身为谷歌公司十年的掌舵者,施密特鼓励学生们投入AI研究,在技术浪潮之初抓住机遇。

“非计算机科学的答案是学习Python,并学习使用这些基础模型中的Python借口来做有趣的事情。”

以下是整场访谈的内容精编:

主持人: 我很高兴欢迎施密特回归,他是一位成就卓著的技术专家、企业家和慈善家。作为2001年到2011年谷歌的首席执行官和董事长,他与联合创始人谢尔盖·布林和拉里·佩奇一起,将这家公司从硅谷的一家小型创业公司转变为今天的全球科技巨头。我很荣幸请你与我一起,热烈欢迎埃里克。

施密特: 我在这里上学的时候,还没有计算机科学专业。现在,计算机科学专业已经成为最大的专业。

主持人: 是什么促使您选择学习电子工程?

施密特: 年轻时我不知道自己在做什么。学校安排招聘人员跟我们面谈,感觉不错就被录取了。以我当时的成绩,这在今天是不可能发生的。一开始我想学习建筑,后来我才意识到,我其实是一个计算机方面的人才。 大学让我意识到快乐的好处,他们把我培养成了计算机科学家。

主持人: 《创世纪》中关于通才(polymaths)的讨论,尤其是他们对取得重大突破的重要性,以及人工智能如同掌中通才的概念。您能否就此谈谈,并解释其重要性?

施密特: “旧金山学派”观点认为,这将在三年内发生。我认为他们的估计至少偏低了一倍,换句话说,我认为需要六年时间。让我来告诉你六年后会发生什么。目前的基底模型在各个领域的知识测试中已经达到研究生水平的80%或90%。现在,没有谁能够同时在所有领域做到这一点。当这些基底模型将被连接起来,你就会得到一个由人类驱动的通才。

接下来发生的是代理革命,这本质上是开发使用这些模型来解决问题的代理。可以把它们想象成一个大型语言模型(LLM),它尝试各种方案,然后评估它们,再从有效和无效的方案中学习。这就像一个非常笨拙的旅行代理,但最终它会学会成为一个优秀的旅行代理,这是适用的。然后下一步是训练该系统具备好奇心和力量,学习新知识并积累力量。

主持人: 您认为人工智能在哪些方面可以发挥作用?

施密特: 虽然负面总是更有趣,但我们先来谈谈积极的方面。

数字系统能够进行非常复杂的树状修剪,可以帮助你进行药物研发;针对精准医疗,人工智能可以提供决策的基础,分析所有信息,试图找到有效的方案;在气候问题方面,可以说没有新的能源系统,你无法解决气候问题。具体来说,他们需要新材料,新的传输系统等等,这些都将由人工智能开发;还有教育,无须解释这个有多重要。为什么我们没有一个能够以每个人自己的语言、以他们自己的学习方式教育每个人的AI系统?在我看来,这是一个可以学习的命题。

让我们谈谈化学、物理学。在我看来,科学中的大多数问题都是多尺度预测问题。我们正在构建的系统非常擅长解决多尺度预测问题。因为大型语言模型大致上是预测下一个单词。预测下一个单词与预测蛋白质序列的下一部分非常相似。刚刚获得诺贝尔奖的Demis通过他们的AlphaFold蛋白质建模证明了这一点,这是对生物学的巨大贡献,实至名归。医疗保健、教育、安全和生活质量,我们真的可以从根本上改善全球的情况。

主持人: 那坏处呢?

施密特: 很多事情让我担忧。最简单的说法是,当我身处硅谷时,感觉就像“万物皆有灵”一样。我们这一代有那么多人在尝试新方法来解决问题。但普通人还没准备好,他们的政府、政府流程、相关理论都没有准备好迎接这一切。

我可以举出很多没有准备好的例子。举个例子,你有一个儿子或女儿,他们最好的朋友不是人类。他们最好的朋友是一个数字事物。如果那个孩子相当于马克·扎克伯格,那个可以决定你的孩子学什么和不学什么的代理家长,这可以吗?事实上,这很令人担忧。

人工智能正在影响人们的思维方式,这是非常强大的。如果人工智能是由一个国家构建的,那么其他所有文化会发生什么?我们只是碾压它们吗?他们已经在指责我们霸权主义,因为像谷歌这样的公司破坏了他们的文化,而谷歌相对来说是无害的,因为你必须向谷歌提问。想象一下,如果谷歌不是在回答你的问题,而是在告诉你一些事情。想想这会赋予谷歌这样的公司多大的权力。

主持人: 那么,如果您考虑诸如创造力、同理心等人类特质,您如何看待人工智能补充甚至采用这些特质?

施密特: 我认为这很大程度上取决于这些特质的训练方式。

模型在最初生成时并不具备任何信念系统。所以,技术上来说,会先进行预训练,然后进行一系列微调,最终得到一种叫做RLHF的技术,即利用人类反馈来帮助模型改进。因此,许多决策都是在这一过程中做出的。所以你可以得到一个礼貌的LLM,也可以得到一个粗鲁的LLM。重要的是,我们并不了解这种发展模式的结构。

像山姆·奥特曼这样的人会谈到万亿美元的数据中心。顺便说一句,几乎所有这笔钱都花在了电费上。所以,如果是一个万亿美元的数据中心,会有多少个呢?也许美国有几个?中国有几个?只有很少的地方能承担得起万亿美元的投资。那么,为什么要花万亿美元呢?

为了拥有一个能够发明其他人无法发明的东西,能够解决所有经济、物理和科学问题的“世界通才”,这或许值万亿美元。

我的意思是,美国的武器计划就花费了万亿美元。这可能比美国资助的最大武器计划还要强大。这说得通。所以,如果你把它看作这样的模型,那么监管起来就容易多了,因为我们会知道它们的确切位置,因为它们会非常庞大。

还有一种不同的观点,即这些技术会分散到更小的、分散的模型中。然后你就会面临一个巨大的问题,那就是本质上的扩散。

我非常担心扩散问题,因为我们知道世界上存在邪恶。我们明白这些系统具有不对称的强大力量。如果你认为每个人都能访问一个“世界通才”,而且这是一个重要的假设,即对它的访问相对分散,那么我们就会处于一个截然不同的世界结构中。

主持人: 您谈到了万亿美元的数据中心,这引出了一个问题,即学术机构的作用。您还谈到了小型模型。学术机构与产业界该如何平衡?

施密特: 嗯,产业界的答案是,这里代表的超级聪明的人最终都会以某种方式成为这些机构的顾问或承包商,受其知识产权法的约束,并且不会进行开源。这大致是产业界的看法。

一个典型的满负荷运行的GPU大约5万美元。十万个GPU大约50亿美元,二十万个GPU大约100亿美元。埃隆在田纳西州令人印象深刻地建了一个拥有20万个GPU的数据中心,你可以在两到三年内将其折旧。所以这告诉你,三年多后,他必须拿出35亿美元的折旧来抵消他的收入。那么他需要每年收入100亿美元。Twitter公司收入都达不到。

还有很多更糟糕的例子。

像微软和谷歌这样的公司拥有如此多的资本,以至于他们实际上能够负担得起这个。我提到这一点的部分原因是,由于这种非凡的资本成本,整个竞争格局正在发生变化,这对大学和公司都是如此。AI代理会非常昂贵,但需求一直都在,AI初创投资者最大的问题仍是资金

当代理在未来一两年出现时,它们将变得更加复杂和昂贵。所以不必担心。资本需求,特别是电力需求,将继续存在。最大的问题仍然是如何为其提供资金。在某些时候,这些AI初创企业的投资者将希望获得回报。他们会希望看到某种收入。 这始终如此,每一代人都必须从硬件中吸取这个教训。

主持人: 您对政府在监管方面的作用的看法是什么?另外,技术发展如此迅速,行动缓慢的政府如何才能真正希望更快地对其进行监管呢?

施密特: 欧洲的做法是错误的。欧洲制定了一项名为《人工智能法案》(AI-EU Act)的法规,内容相当令人沮丧。它基本上要求将安全放在首位。它最有趣的规定是系统必须能够解释其运行方式。如今,这项技术被称为“可解释性问题”。它们无法解释。也许将来可以。人们认为很快就能解决这个问题;也许真的会实现。

主持人: 您希望在这个领域留下什么遗产?

施密特: 两年后我就50岁了。我还没有在心理上接受这个事实,但我想我们最终都必须面对它。我相信,杰出的天赋能够改变世界。

所以现在我们面临这样的情况:我们拥有能够让杰出人才以非线性水平扩展的工具。人才是这样发展的,科学家是这样发展的,等等。在某个时刻,我的行业相信实际上会有AI生成的科学家。所以你会有使用AI的人类科学家,然后你会有AI科学家。我们一致认为,这种发展速度会变得更快。这就是社会尚未做好准备的原因。

新一代人将会出现,他们将会赚取巨额财富。新一代企业家,我现在还不认识他们,但他们将比埃隆和乔布斯等更富有、更成功、更著名。因为这种加速创造了一种难以想象的大规模可能性。所以,如果你回顾我的职业生涯,我从这里开始,在计算机中心工作,当时这是一个87号项目。顺便说一句,我发现可乐的成本是五分钱,我发现他们将可乐机的价格提高到十分钱,我决定抵制它。

然后他们涨价到20美分,我意识到我的抵制对它没有任何影响。但我认为这里关键是要找到一种方法让自己置身于这些曲线之中。多亏了普林斯顿大学,我在每次革

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://szsrsrpdianzi.com/jinrong/13242.html
每学期都会转账 受王宝强资助孩子父亲发声 已资助2年
我受伤快要死了...医生 狗子 也就被纸割伤的程度! emm