知鱼
Surviving is nothing to be ashamed of. It's something to be proud of.

AI时代:算力、人才与创新博弈

trylab 发布于 2025-9-27 22:35    73 次阅读

问题意识

OpenAI CSO Jason Kwon - Power, Policy and the Race to Scale

背景介绍:
人工智能浪潮席卷全球,其核心驱动力究竟是什么?是算力、数据、算法,还是政策监管?OpenAI首席战略官Jason Kwon在《数据世界》播客中,深入剖析了AI发展面临的计算瓶颈、政策挑战、人才竞争以及用户体验的深层问题。他如何看待AI的未来走向,以及我们应如何应对这些复杂局面?

阅读收获:

  • AI发展核心: 算力是国家级瓶颈,组织级成功则依赖“押注选择”与“组织能力”。
  • AI应用挑战: 认识AI快速迭代与现有系统集成、用户期望管理的产品设计难题。
  • AI协作技能: 掌握与不完美AI工具高效协作的“熟练度”,是未来高技能工作核心。
  • 地缘竞争: 关注数据资产池和版权政策对AI竞争格局及IP价值的重塑。

开放性问题:

  1. 在AI算力瓶颈日益凸显的背景下,技术团队应如何平衡对通用硬件(如Nvidia GPU)的依赖与自研定制芯片的投入,以实现成本效益和性能的最优化?
  2. 文章指出与不完美AI工具协作的“熟练度”是未来高技能工作核心。作为技术从业者,你将如何培养这种能力,并将其融入日常工作流?
  3. 面对AI模型快速迭代与传统应用集成的挑战,你认为未来的软件架构和开发模式应如何演进,才能更好地拥抱AI原生应用,并解决用户体验的断裂问题?

Jason Kwon 是 OpenAI 的首席战略官(CSO),于 2023 年 7 月担任此职务。在此之前,他于 2021 年 4 月至 2023 年 7 月期间担任 OpenAI 的总法律顾问(GC)。

Kwon 在公司治理、并购和风险投资方面拥有丰富的背景,曾担任 ZeroDown 的总法律顾问兼 CSO、Y Combinator Continuity 的总法律顾问以及 Khosla Ventures 的助理总法律顾问。他拥有加州大学伯克利分校法学院的法学博士学位和乔治城大学的文学学士学位。在从事法律工作之前,他曾担任软件工程师和产品经理。他的职业生涯融合了法律专业知识和技术与创新领域的战略领导力。

Kwon 积极参与关于人工智能发展挑战、基础设施、政策和人工智能未来的讨论,这体现在他参与行业讲座和研讨会中。他目前常驻加利福尼亚州旧金山。

Sources

  1. Jason Kwon - Chief Strategy Officer at OpenAI
  2. Jason Kwon - Raizer
  3. Jason Kwon | Stanford Law School
  4. Jason Kwon, OpenAI CSO, on AI development challenges, infrastructure, and policy


👉 划线高亮 观点批注


Main

《数据世界》播客:与Jason Quan的对话

奥伦·霍夫曼: 各位数据迷们,大家好!我今天的嘉宾是Jason Quan。Jason是OpenAI的首席战略官(Chief Strategy Officer)。Jason,欢迎来到《数据世界》。

Jason Quan: 很高兴来到这里,奥伦。我真的很兴奋。

奥伦·霍夫曼: 那么,如果你思考对AI(人工智能)来说什么最重要,存在一场争论:可能是计算(compute)、可能是数据(data)、可能是算法(algorithms)、可能是监管(regulatory things)。你认为对AI来说最重要的是什么?

Jason Quan: 是的,好问题。我认为这取决于你提问的层面。你是在行业或国家层面提问,还是在单个组织层面提问?在国家或行业层面,我认为可能是计算。这是因为你可以进行研究的广度和多样性,而这正是驱动一切的动力。你需要计算来实现这一点,而且你现在在这方面拥有越多的经验……抱歉,计算方面存在瓶颈。

奥伦·霍夫曼: 是的。

Jason Quan: 是的,我认为在某种程度上是这样,但市场正在努力响应这种需求信号。甚至是你为了从模型的高级能力中受益而需要进行推理(inference)的扩展,因为推理范式(reasoning paradigm)已经明确表明,存在一个适用于你所应用的测试时间计算量的扩展定律(scaling law)。是的,计算对于高级能力和充分利用这些能力都将很重要。

奥伦·霍夫曼: 你会把这与电力(power)等因素结合起来考虑,还是认为它是一个大的整体?

Jason Quan: 是的,是的。我会把计算方程看作是构建物理基础设施所需的资本(capital)和电力,以利用AI基础设施,也就是模型和软件。但我认为另一方面,你可以在另一个层面提出这个问题,那就是在组织层面。在那里,答案会有些不同。这也是为什么会产生很多争论,因为人们可能从不同的层面来思考这个问题。所以,你谈论的是哪种通用性层面?在组织层面,我认为不一定是计算。这是因为如果你把计算仅仅归结为资本,那么它就只是钱,然后你购买物理基础设施。我们不一定在许多其他行业,甚至在科技行业中,假设如果你只是资本最雄厚的公司或组织,你就一定会赢。关键在于你如何利用这些资源并将其应用于各种押注。通常情况恰恰相反。你知道,资本最雄厚的公司做了一些事情,然后有人想出了非常创新的方法来完全应对。对。所以,有时正是稀缺性(scarcity)创造了创新,对吗?因此,我认为在组织层面,押注选择(bet selection),就研究押注而言,非常重要。然后,拥有某种组织能力或结构,使你能够很好地进行这些押注并维持它们,并拥有正确的品味和选择标准,这非常重要。我认为当你审视并放大各种实验室时,你可以思考这一点。他们正在进行哪些类型的押注?他们之间是如何竞争性地建立起来的?以及与这些事情相关的文化方面是什么?我认为这是一个有趣的分析,这就是为什么在行业层面有所不同,因为这种分析只是受益于所有单个组织的聚合。

奥伦·霍夫曼: 你认为其他方面什么时候会成为瓶颈?比如一个国家的电力什么时候会成为瓶颈?或者你认为其他一些因素什么时候会成为瓶颈,阻碍这些事情的发生?

Jason Quan: 我认为,当然存在监管瓶颈。你从一个国家到另一个国家,很难获得许可来建造新设施,这取决于你所在的国家。然后,电力肯定是一个瓶颈,这与监管瓶颈也有点关系,因为如果这个过程有更多的摩擦,就更难更快地建立容量。有些国家更倾向于可再生能源(renewable energy)和核能(pro-nuclear),而另一些国家对这些事情则比较保守,这也会影响电力方面的容量。所以,这里有一个有趣的轶事:当我们围绕能源问题进行了一系列调查时,大约在我们考虑Stargate项目的时候,很明显,世界上大多数国家都在建设能源容量,但没有考虑到AI的增长,这在几年前你可能会认为是一个相当理性的做法,因为人们没有对此进行规划。因此,人们计划在未来十年左右建设的基载容量(base load capacity)是为了人口增长。是的,人口增长,也许是电动汽车的普及,或者其他什么。是的,这只是他们根据人口结构和经济中已经看到的情况所预期的经济增长的基本速度,因此它还没有考虑到AI将带来的电力需求。然后你考虑到这大概是18个月前的事情,当然很多人在那之后更新了计划,但这仍然需要时间来通过系统,调整新发电容量建设的规划周期。所以,一个很好的数据点可以说明这一点:美国总发电量大约是1200吉瓦。如果有一些预测,我认为有些预测说我们到2030年将需要额外50吉瓦的发电量,这大约是我们全国总发电量的5%。这很重要,对吗?然后你考虑到每年新建的吉瓦电力容量要少得多,远低于50吉瓦。我不知道最新的估计是多少,但根据我们的经验,获得一个吉瓦的选址和建设是一个过程。这可能需要大约18个月。

奥伦·霍夫曼: 我能问你一个问题吗?我不太明白关于电力的问题是,我假设如果你在训练AI模型,你几乎可以保证你总是需要24/7的电力。而对于大多数电力来说,即使是工厂,也是起起伏伏的,或者其他类型的用途。但我假设在训练模型时,你可以说,我不知道这是否属实,你可以说我一直需要这个,我愿意一直为此付费,我可以保证这一点。还是说它真的变化很大,比如在需要时进行密集的训练,然后又趋于平稳?

Jason Quan: 是的,我认为训练(training)和推理之间可能存在差异。所以你可能更希望推理能够持续运行,因为你希望能够提供服务。训练方面你可能能够进行更多的分段,因为人们需要准备训练运行,进行计算分配等等。但我认为推动这一点的另一个因素是,人们总是在寻找更多的计算容量。我们的经验一直是,每当我们决定不获取某些计算容量时,我们后来都会后悔。所以,我相信我们不是唯一一个实验室。这表明,即使你可以进行你所说的负载平衡(load balancing),归根结底,你仍然需要更多的计算。

奥伦·霍夫曼: 但是,如果我们到了计算不再是瓶颈,而电力成为瓶颈的地步,或者我们开发出效率更高的芯片,或者未来几年会发生什么,那么是否有可能我们只在电网有额外容量时进行推理?即使在加州,现在也有电价为负的时候,因为即使在今天,也没有足够的人愿意从电网取电。那么,你是否可以进行某种启动和停止的操作,还是说这太难了?比如我们必须连续运行一周,而且很难围绕这一点进行规划。

Jason Quan: 是的,我认为在训练方面可能会很困难。可能可行的是,如果你正在运行一个非常大的推理任务,需要大量的计算。我认为这将是我们在一段时间内会越来越多看到的一种工作负载,因为我们刚才谈到的推理扩展定律。所以,我认为大多数人日常使用AI的典型体验,比如ChatGPT、Claude或Gemini,是你问一个问题,它会立即或在几分钟内回复。但如果确实可以通过运行计算推理来获得更好的答案和解决高价值问题的更好结果,你可以想象一个世界,你运行它几天,人们也愿意为此支付那么多钱。

奥伦·霍夫曼: 所以你也可以通过定价来决定,比如如果你愿意等待更长时间,我们可以优化何时使用更好的电力,或者何时这些芯片更可用,或者其他任何情况。

Jason Quan: 是的,是的。所以,我认为那里可能会出现一些有趣的经济模式。

奥伦·霍夫曼: 有趣。如果你只运行几个小时而不是几天,那么一天中可能有些时候运行它会更便宜。

Jason Quan: 是的。那很酷。

奥伦·霍夫曼: 那么,现在很多这些东西都建立在英伟达(Nvidia)的路线图上。而这个领域有一些公司,比如谷歌(Google),拥有更多的定制硬件(custom hardware)。你如何看待OpenAI和其他一些实验室之间的这种相互依赖关系?你认为这会如何发展?

Jason Quan: 是的,是的。所以,我认为简单的等式就是,在某个可靠性水平下,你每瓦(watt)能获得多少能力,以及从GPU角度来看,无论是英伟达还是定制硬件,任何输入都是有意义的,这始终是你正在处理的问题。然后,具体到英伟达的问题,他们长期以来一直是市场领导者。这是一个当之无愧的地位。所以,我认为不只是我们,很多其他实验室也在尽可能多地购买他们的产品。因为就那个等式而言,质量非常好。

奥伦·霍夫曼: 我认为这第二部分的关键等式是每瓦。

Jason Quan: 是的。是的。多少?

奥伦·霍夫曼: 你能获得多少GPU容量或能力?抱歉,芯片的成本如何分解?比如在芯片的生命周期中,有多少是电力成本,有多少是芯片本身的成本?

Jason Quan: 哦,就……是的,在这方面,我可能不是评论确切构成方面的最佳专家。我必须去和某人谈谈,问他们这在两者之间是如何精确分解的。

奥伦·霍夫曼: 我们可以问这个问题,我们稍后可能会在对话中讨论这个问题。但现在ChatGPT的好处是你可以把它插入到组织中,这有点像走下大厅和一位专家交谈。

Jason Quan: 是的。是的。

奥伦·霍夫曼: 现在,ChatGPT,我们正在……我们最近重新发布了GPT-5。在这个领域中,你最兴奋的是什么?

Jason Quan: 是的,我认为这有两个方面。一个与可访问性(accessibility)有关,另一个与真正深入的用例(deep use cases)有关。关于可访问性问题,我认为很多人不明显的一点是,ChatGPT的大多数用户已经有一段时间没有使用最先进的模型了。他们使用的是GPT-4或其变体。他们并没有真正与GPT-4 o1或GPT-4 o3进行交互。所以,我认为GPT-5是第一次,因为这需要太长时间,或者成本太高。模型选择器(Model picker),我认为默认通常是GPT-4o,大多数人不会去那里。

奥伦·霍夫曼: 使用默认设置。

Jason Quan: 是的。是的。是的。你应该使用默认设置,因为你会想,我真的想为这个答案等待更长时间吗?可能不够好。很难知道。是的。是的。所以,特别是如果你是ChatGPT的休闲用户,这有点像“这个模型选择器是什么?”是的。我们……这个命名约定是什么?我们因此被嘲笑了很多次。我24/7都在使用它,但我仍然不明白哪个是哪个,我真的很难理解。是的。而且,你知道,我认为现在你有了这个界面,可以帮助自动路由,其中一些路由会导向这些推理模型。我认为这是很多人第一次接触到这个。我认为这种最新范式的可访问性,去年被发现的,今年才真正普及到大多数人。我认为这是其中一件事,所以看到7亿人与这种能力互动会很有趣。

另一方面,对于高级用户(power users)或企业级用户,那些将其用于繁重的脑力劳动、任务或研究的人。也许退一步说,ChatGPT的许多常见用法都与指导(coaching)有关,比如“帮我完成这个任务”、“带我完成这个特定的任务”等等。它在这方面做得很好。但现在你可以让ChatGPT进行一些非常深入的研究,就像产品名称所暗示的那样,还可以进行一些相当长的对话或交流,无论是健康问题、法律问题、财务问题还是技术问题。它可以深入探讨。然后你还可以让它处理一个问题,走开,然后回来,它会给你一堆答案。另一个例子是,在我们的健康任务基准测试中,它在我们所有模型中得分最高。所以,如果它在所有这些我们不一定有评估的其他专业任务中表现更好,我也不会感到震惊。所以,我认为这也揭示了,你拥有这种广泛的可访问性,但如果你深入到特定领域,我认为现在可以比以前更深入,因为这种组合——它是一个更好的基础模型(base model),它嵌入了推理能力,它拥有模型路由(model routing)来自动优化成本、推理质量之间的权衡。

奥伦·霍夫曼: 一些API(应用程序编程接口)的成本也大幅下降了。

Jason Quan: 是的,没错。所以,我认为所有这些都将产生许多新的有趣的用例。就像你从GPT-3到GPT-4一样,围绕这些工具形成了一系列新的软件应用程序和新创业公司,我认为在GPT-3时代是不可能存在的,因为它不够深入,不够广泛,而且你从AI中获得的东西成本太高。

奥伦·霍夫曼: 你知道,在某些情况下,ChatGPT仍然会产生很多幻觉(hallucinates),这让用户非常沮丧。我的意思是,我大致理解为什么会发生,但为什么它如此难以修复?

Jason Quan: 嗯,我认为其中一个原因是用户意图(user intent)本身有时是模糊的

奥伦·霍夫曼: “为什么”的问题很难。

Jason Quan: 是的,所以,你知道,我可以问它,“嘿,给我描述一下言论自由的原则。”它在这方面做得很好。但我的意图是什么?我想要一个全面的法律分析吗?我想要一些随意的吗?我想要一个笑话吗?我是在讽刺吗?

奥伦·霍夫曼: 但即使有这个意图,你可能也不希望它告诉你一个事实错误或类似的东西,对吗?

Jason Quan: 这是真的。我认为,但这仍然引发了一个问题:我应该使用系统一(system one)还是系统二(system two)思维?你知道,这有点像你和一个人交谈时,当他们使用系统一思维时,错误会更多。而这种审慎的推理确实会降低错误率。然后,模型还经过训练,可以查找信息,这样当有能力查找信息并从中进行推理时,推理就不再是无根据的了。因此,这方面的训练也取决于理解用户意图信号。这就是为什么我认为你在响应中会看到差异,就用户体验而言,有些人说这个模型很棒,另一些人说它对我不起作用。我认为这可能与他们提问或提示的方式有关,以及他们以前和现在的使用模式与模型能力的关系。所以,如果你以前把它当作教练使用,它在模糊问题上做得很好。是的,在最新版本中,它在定义非常明确的请求上可能会做得异常好,但当它们非常模糊时,它可能会做一些不同的事情,对吗?所以,这只是期望与模型实际处理你想要做的事情之间的脱节。我认为所有这些都会继续改进,因为这是我们第一次以这种形式发布这样的东西。这可能就像你知道,我认为Sam喜欢说,每当我们做新事情时,这都是它最糟糕的时候。从这里只会变得更好。是的。我们只会学到更多关于用户意图信号和所有这些东西,训练将继续进行。

奥伦·霍夫曼: 关于这个AI时刻,有一件事非常奇怪,那就是作为用户,我对它应该做什么的期望值上升得非常快。事实上,我的期望值上升的速度与它实际改进的速度一样快。然而,通常当我与一个产品互动时,无论是汽车、手机还是任何软件,我对该产品的期望值都随着时间的推移而增长得非常非常慢。所以AI很难达到我的期望,因为我的期望一直在增长。这只是一种常见的奇怪的人类现象吗?

Jason Quan: 我认为确实如此,而且在这种情况下可能会更加突出,因为你有很多互动似乎是在与人类智能互动。对。对。是的。然后你开始期望那种你习惯的可靠性,然后当它出错时,你就会感到失望。我认为创新的速度也产生了这种条件反射效应,在几年内,从GPT-3到我们现在所处的位置,你知道,在GPT-3时代,尽管我们刚才谈到了幻觉,但当时更多。它没有能力查找信息或处理信息,它没有能力进行推理。但即使在那时,它也感觉很有趣和新颖,因为你可以与一个聊天机器人进行这种自然的、接近对话的交流,它不会像我们以前见过的早期版本的聊天机器人那样偏离轨道。然后看到事情继续快速发展。所以你期望事情会很快改变和改进。然后我认为你的大脑就会推断出广泛的进步,然后当你看到一些能力没有以同样的速度进步时,你就会感到失望。

我认为这反过来也是为什么我坚信这项技术实际上有潜力,它不是预先注定的,但我认为因为我们对这个结果有自主权(agency),所以它可能会创造很多新的工作和新型工作。所以,你知道,我们刚才谈到,根据你与系统互动的方式,你可以得到截然不同的结果,这本身就是一种技能。是的。这将会发展。人们已经非常擅长理解,有些人已经非常擅长理解模型的可靠性限制在哪里,或者它可能在哪里产生幻觉,以及如何最小化这种结果。其他人则理解如何将其应用于各种学科,比如STEM领域或医疗保健等,并获得非常好的结果,或者使用它进行高级分析,然后理解如何寻找他们需要改进的特定领域,因为他们对结果的可靠性开始下降的地方有所了解。所以这些都是来自这个工具的技能要素。如果它是完美的,你就不会有这些。但因为它是不完美的,它就是另一个工具,我认为它具有熟练程度。我认为这本身实际上非常有前景,并且可能是一种非常高技能的工作类型。

奥伦·霍夫曼: 我经常使用ChatGPT来处理各种技术支持问题,比如“这个不工作”、“这个有bug”、“这个软件我遇到麻烦了”或者“我的手机需要什么”。它在大多数这些方面都做得很好。但我觉得它在技术支持方面最糟糕的一个领域是当我问它关于它自己的问题时,比如“我如何使用它来帮助我自己?”或者“它是什么?”你会认为这应该是最容易的。我经常不得不去ChatGPT的实际技术支持部门,这可能是一个AI在与我互动,我不知道,但它是一个独立的界面,我经常给他们发电子邮件,他们通过Zendesk或其他他们使用的工具给我回邮件。为什么它不能整合到产品中呢?

Jason Quan: 是的,这是一个很好的问题,我认为这是另一个直观推断实际上会让你误入歧途的例子,因为幕后真正发生的是ChatGPT的表面积正在迅速变化。

奥伦·霍夫曼: 是的,没错。

Jason Quan: 好的,关于它的信息内容并没有那么广泛地在线传播。是的。部分原因是变化速度太快,而且由于它相对较新,信息的分布也不那么广泛。

奥伦·霍夫曼: 你是否担心在自己的内部资料上进行训练,因为那样有人可能会以某种方式攻击它并获取一些奇怪的信息?

Jason Quan: 我认为这并不是主要原因,更多的是产品功能不断推出,我们也在不断迭代。是的。所以,文档帮助可能会稍微滞后,然后关于它的在线讨论也会滞后。因此,当你训练这些模型时,每个人都听说过知识截止日期(knowledge cutoff),由于知识截止日期,这不会成为训练组合的一部分。然后让模型能够处理关于它自身的任意问题,并可靠地访问帮助网站,这本身也是一个训练挑战,因为你必须让用户进行互动,以理解他们正在问什么,对吗?

奥伦·霍夫曼: 所以,因为它变化太快,这使得它成为一个更难解决的问题。而我在iPhone上遇到的问题,可能三年前或更早的时候就有人遇到过。

Jason Quan: 是的。好的。这对我来说很有道理。

奥伦·霍夫曼: 有一件事是,人们正在谈论与CN的竞争。而且,CN的模型几乎肯定是在所有受版权保护的东西上进行训练的,至少传闻是这样。我不知道,我没有进去看。而且,显然,美国公司能做什么和不能做什么,以及他们被允许做什么,以及你是否可以进入防火墙内部或外部等等,存在不同的规定。我们必须如何发展才能保持竞争力?

Jason Quan: 是的。所以,是的,和你一样,我也不确定他们在做什么。但是,我认为如果他们训练的数据比我们能访问的更多,那可能会带来某种优势。至少对于预训练(pre-training)来说,数据量仍然非常重要,因为它能让你最大限度地利用所应用的计算。而且,即使在后训练(post-training)方面,通过应用强化学习(reinforcement learning)来使模型在响应人类指令、命令和特定类型的知识任务方面表现更好,基础模型(base model)的质量仍然很重要。

我认为这里另一个有趣的事情是,如果你推演这种动态,世界的一部分因为版权而训练得少,而世界的一部分则在没有任何限制的情况下进行训练,因为他们不认同这种观点。这种竞争均衡的自然结果是,能够训练最多的一方将训练最多。是的。没有什么能阻止他们。所以,如果AI持续发展,实际上会产生一种竞争动态或优势,可能是在内容方面,它将不再基于你何时可以获得版权,而更多地基于你能在AI的帮助下多深、多广、多快地生成新内容。所以,其他类型的东西,比如非创作数据。是的。所以它可以采取多种形式,对吗?它可以是,你有一个用户生成内容(UGC)平台,它能够以我们前所未有的速度生成内容,并因此迅速增长。它可能意味着某种娱乐形式,其中有一个核心内容被创建,然后你能够在用户参与、粉丝参与等情况下生成多个变体,在AI的帮助下使用,这本身如果身处内容行业,可能是一个非常强大的经济机会

所以,我认为这变得非常重要,谁在AI竞争中处于领先地位,因为这将影响版权IP(知识产权)是否有价值。因为在美国,训练受版权保护的内容被认为是合理使用(fair use),但如果你完全重复它则不然。但是,你知道,我认为CN实验室不这样看待。所以,如果围绕AI的生态系统更多地以美国实验室的方式为中心,你将拥有这种竞争均衡,在原创内容方面仍然对技术有保护措施。但如果生态系统转向另一个方向,那么你将拥有一个技术栈和市场结构,可能倾向于降低版权IP的价值。所以,我认为这是这种地缘政治竞争中非显而易见的部分,当涉及到版权问题时,显然还有所有这些内部文档,如果你能访问它们,你可能会在上面进行训练。我猜谷歌或微软已经可以访问很多这些人的内部文档、内部电子邮件和内部通信等,他们可能拥有或不拥有训练的权利,但如果你是作者,你可能拥有某种权利,或者你如何看待这一切的发展?

奥伦·霍夫曼: 是的,这是一个很好的问题。所以,有机会建立大型数据资产池的公司,姑且这么说吧,它们默认似乎具有优势(这也回答了为什么当下国内各个省市都在规划、建设数据管理部门)而且它们在某种程度上可能确实如此,我认为未来几年会出现一系列有趣的竞争问题。顺便说一句,现在可能还有所有内部律师在争论和互相叫喊。

Jason Quan: 是的。这就像一个全新的复杂性层面,也许是合规性(compliance),人们不一定欢迎,但它可能会出现。如果你还记得大约半个世纪前,所有这些关于互操作性(interoperability)的问题。你是否可以将数据从一个系统移植到另一个系统?这是一种触发更多竞争的方式,部分原因在于它降低了网络效应(network effects)和转换成本(switching costs)的力量。你可能会看到一些与此相关的推动,类似于围绕数据。我应该能够以某种方式带走我的数据,如果我选择这样做的话。或者,如果你拥有一个大型数据资产池,并且你以特定方式将其用于AI训练,你可能被要求分享其中一部分。这可能是一个结果。我不知道。我认为这取决于未来十年左右一些竞争理论如何演变。

我认为这里还有一个非常有趣的问题,那就是可能存在一些数据池,公司拥有它们,但那是客户数据,他们可能……这看起来像一个代理,但可能不是,因为在客户信任、用户信任等方面存在巨大的权衡。所以,我认为这将很有趣,看看这如何被概念化。所以,我认为,回到大约半个世纪或十年前,这些担忧围绕着隐私(privacy)等概念具体化。我不确定这是否是处理这类问题的正确机制,因为你的数据或信息不会被泄露,或者它不会以某种方式被用于广告定位。它可能被用于训练,我认为这更多地与公司与客户之间的信任关系有关。这可能只是由市场解决,因为如果一家公司决定以特定方式使用这些数据,它可能会在客户关系方面付出代价,也许你决定承担这个代价。是的。而且,在其他情况下,人们可能会,你知道,经营公司的人可能会非常重视这一点,以至于他们宁愿不支付这个代价。我认为这可能不需要市场力量之外的更多东西。我们拭目以待。

奥伦·霍夫曼: 有一件事让我感到惊讶,那就是很多这些AI工具都不是应用程序原生的。所以,如果我在Google表格中,我想在Google表格中做一些事情,或者在Excel中做一些事情,我已经在那儿了。或者,很难使用,比如,如果我想使用最强大的Gemini功能,它不在那里,我必须去其他地方。我必须复制我的表格,我必须说,“嘿,我怎么做这个?我正在尝试做这个奇怪的VLOOKUP,这个X。”然后它才能告诉我,然后我必须回去,我必须重新描述它。为什么把它整合到用户已经习惯的用户体验中如此困难?

Jason Quan: 所以,这有点像我的猜测,因为我们不一定处理那些遗留产品,但我认为这可能是多种因素的结合。可能存在发布或图表上的问题,然后你提到的那个产品,那个表格,或者其他公司中的类似产品。是的,有一个产品经理(PM)拥有它,他们喜欢他们的产品以某种方式工作,而这不一定是负责AI集成或AI创新的产品经理。所以你得到的东西有点笨拙。另一个原因可能是,用户已经习惯了以特定方式使用它,你需要建立某种过渡,人们正在努力如何平稳地做到这一点。我认为这就是为什么你在各种AI应用程序中看到这种“生成式AI搜索”(generative AI search)的概念。你会认为归根结底,人们只是想得到答案。我认为这确实是人们很多时候想要的,但很多人习惯了搜索范式。所以你必须建立这座桥梁。我认为这就是你看到的,例如像Perplexity这样的应用程序。这也是我们在ChatGPT内部拥有搜索功能的部分原因。我们只是认识到,对于某些类型的查询或互动,人们确实想要那种旧的体验,因为他们习惯了。是的。但我认为随着时间的推移,你可能会看到所有这些东西的演变,以及那些玩弄这项技术的16岁孩子,他们不真正使用搜索或使用AI。这些行为模式会改变,然后你可能会看到软件界面也随之演变。

奥伦·霍夫曼: 但是聊天界面在很多方面都非常好,对吧?而且它很好,就像我与人交谈并试图获取信息一样,无论是文本还是我输入或语音。但是,你知道,还有其他非常好的用户界面。比如电子表格(spreadsheet)就是一个了不起的用户界面,它已经存在了40多年,并且真正主导了我们思考事物的方式,我们的大脑现在以一种有趣的方式被设计成思考电子表格。如果除了那种聊天界面之外,还有其他方式可以从AI中受益,那就太好了。

Jason Quan: 是的,所以,我认为有趣的是,你能够用这个来回应。所以,为了呼应你所说的,你有一个电子表格,你能够不通过聊天,而是用另一个电子表格来回应。是的。所以,也许它会回复说,“你想用这两个数据集做什么?你想连接它们吗?”是的,你知道,使用SQL语言,内连接(inner join)、外连接(outer join),或者其他什么。你想删除重复的行,所有这些。我认为这些可能是人们在处理这个问题时可以探索的有趣途径,那就是,好的,我们当然现在能够通过AI来聊天处理数据,但是否有一种方法可以利用不同格式的输入和提示?你现在可以看到一些,你可以上传文件并与它们互动。但是,你知道,在提示本身中,有哪些新的交互形式可以利用LLM(大型语言模型)的运作方式?我认为我们仍处于早期阶段。我认为现在我们仍在推动模型的能力。但是有所有这些企业家正在摆弄应用程序。而这只进行了几年,所以我们仍处于早期阶段。

奥伦·霍F曼: 有一件事是,在谷歌搜索范式中,有很多人他们的工作就是操纵谷歌搜索结果以符合他们的利益,比如SEO(搜索引擎优化)和所有这些其他东西。而今天,已经有很多人他们的工作就是操纵AI输出,以符合他们的利益。我猜这已经创造了一个非常有趣的猫捉老鼠游戏,就像谷歌在过去25年里习惯的那样。从你的角度来看,这正在如何发展?

Jason Quan: 所以,我不知道我们是否密切关注这一点。我认为我们主要关注的是训练最好的模型,推动能力,然后,在搜索体验中,它试图返回相关的结果,然后由我们的推理引擎进行推理,然后根据用户信号不断完善。如果你从第一性原理(first principles)的角度来回答你的问题,从长远来看,这可能有些投机,但我认为如果推理和代理能力(agentic capabilities)继续发展,那么至少现在人们操纵搜索结果的方式可能会变得非常非常困难。这可能是一种新型的操纵,但如果用户不希望结果被操纵,而且模型提供商也希望如此,那么实际上应该更容易避免这种情况,因为你现在可以告诉系统,找到客观的东西,避免看起来像SEO的网站,分析你得到的结果,以了解是否存在财务偏见或动机,并从这些类型的来源,出版物、独立博主等,给我返回10个结果,并进行综合。不要只给我一个。实际上去分析并综合结果。所以,我得到的东西并不是那么新。再次,这其中涉及技能,如何做到这一点,但也有一个愿望,就是你不希望操纵发生。所以,这是一种现在人们触手可及的能力,在搜索范式中并不一定存在,在那里你受到关键词的限制,必须过滤掉东西。我认为这只是一个新事物,如果他们真的想操纵结果,人们将不得不应对。

奥伦·霍夫曼: 你知道,如果有一种方法可以做到,它就不会基于旧的方式。但是,我有一个人类助手,我经常会让她帮我预订酒店或餐厅,或者给我买一个手机充电器之类的,她会进行研究,我有点信任她作为我的代理人。我假设在某个时候,我将能够让AI为我做这些查询,我也会信任它的结果。我猜世界上会有很多人会非常积极地试图影响这些结果,让我去不同的酒店、不同的餐厅或不同的充电器。所以,我猜这些游戏会永远持续下去。

Jason Quan: 是的,我认为有趣的是,这又回到了我们之前谈论的满意和不满意的问题,人们会继续适应。我们正在以不同的背景回答这个问题,但我认为人们总是会找到一种新的游戏方式。然而,在这种情况下,它可能不是一种必然与用户需求不符的操纵系统。当然。

奥伦·霍夫曼: 我想要的餐厅,我很满意。

Jason Quan: 对。对。所以,这可能就像这样一种情况,在这里成功的营销人员实际上做得最好的是真正匹配产品和意图,匹配用户实际想要寻找的产品。而且,你知道,曾经的操纵现在看起来更像是优化。所以,我认为这会是一个非常有趣的发展方式。但我们拭目以待。

奥伦·霍夫曼: 有一件事,无论出于何种原因,在非AI世界中仍然显得如此困难,那就是好的内容推荐。我在亚马逊上购物,即使它有30年的购物历史,它仍然不能告诉我好的东西去买。我在Spotify上听音乐,它仍然不能给我推荐好的音乐。我在Netflix上,推荐简直糟糕透顶。为什么会这样?在新的AI世界中,也许他们还没有利用它,或者他们不想在内存中投入一百万个token,但为什么这如此困难?

Jason Quan: 是的,我很难评论人们对Spotify和Netflix算法的不满。但在我们自己的个性化工作中,因为这也在ChatGPT内部发生,你知道,我们发现的一件事是,人们在信号方面想要的东西不一定与他们实际想要的东西一一对应,对吗?

奥伦·霍夫曼: 只是他们点击的东西可能不是他们想要的,或者其他什么。

Jason Quan: 好的。是的。而且,你知道,要弄清楚产品内部有哪些正确的机制,让用户提供可靠的信号来表达他们实际想要的东西,这有点像一门艺术。我们有赞和踩,但我认为这损失了很多信息。是的。因为他们为什么点赞?是因为模型让你兴奋了吗?这是一个好答案吗?你那天心情很好吗?是的。所以,我认为这是其中一部分。然后第二部分是,即使模型给了你你想要的东西,你说的你想要的东西,这在消费科技中尤其如此,对吗?你说的你想要的东西不一定是你实际想要的东西。是的。因为,你知道,人们有时会偏好造假(preference falsify)。我认为这些事情可能是试图理解人们想要什么,个性化事物,以及如何个性化事物给他们,这些都是更持久的特征。这可能就是为什么它是一个持久的挑战。

奥伦·霍夫曼: 也有可能,这只是不在那些公司的DNA中。我认为Meta上的广告更好。如果你只是把它们看作内容推荐类型的东西,我猜在那里使用AI来帮助这些事情更符合他们的DNA,而不是今天的Netflix。也许这会随着时间的推移而改变。

Jason Quan: 是的,也许。

奥伦·霍夫曼: 随着我们进入这场全球AI竞争,这有点让人想起40年代的“回形针行动”(Operation Paperclip),二战后将一千名德国火箭科学家带到美国,以防止他们落入苏联手中。我们是否应该为这些杰出的AI工程师做类似的事情?如果你坐在匈牙利或其他某个地方,你可能会有很多机会,我们是否应该在任何情况下让他们来到美国?

Jason Quan: 所以,简而言之,我认为是的,我们应该想办法让尽可能多的AI人才来到美国,如果我们想成为这项技术的领导者,因为人才是在持续创新方面的关键要素之一。

奥伦·霍夫曼: 顺便问一下,你是否同意在AI领域只有相对少数的顶尖人才?

Jason Quan: 我现在确实同意,这当然是……

奥伦·霍夫曼: 比如说不到一万人?

Jason Quan: 是的,大概是这样。我认为这是今天的情况,是的。这可能会改变,是的。但随着更多人才的涌入,随着行业的成熟,更多人进入这个领域,这也会改变,市场也会进行调整。但我确实认为我们应该努力寻找方法来吸引更多人才到这里,当然,前提是目标是让美国继续在这里引领创新。但我认为这其中还有另一个部分,那就是你如何将人才带到这里,让他们留在这里?你知道,人才在这里定居,对吗?他们不仅仅是来几年就回到他们去的地方,或者去出价最高的地方,对吗?并成为社会结构的一部分,对吗?我认为这也很重要,因为不仅仅是“回形针行动”带来了一批科学家,那些科学家来到这里,你知道,他们成为了美国公民,是的,他们在这里养家糊口,他们的孩子在这里,他们留在这里,这是他们最好的去处。是的,是的,因为。所以,我认为人才非常重要,我们当然应该努力吸引人才到这里,但也有一个价值观问题,你如何确保两者共同发展,相互补充,因为我认为这也是创造持久人才积累的原因。

奥伦·霍夫曼: 但美国有一个优势,它擅长同化人才。它有很棒的学校。它对孩子很好。它是一个非常安全的地方,对吧?它还有很多其他优势,你知道,你来到其他某个地方,即使他们愿意支付你三倍的工资,我也不知道。我可能不愿意搬到朝鲜之类的。

Jason Quan: 是的。是的。在这方面我同意你的看法。

奥伦·霍夫曼: 我们还应该考虑什么?如果我们真的想确保美国在AI领域遥遥领先,从美国政策的角度来看,我们还应该考虑什么?

Jason Quan: 所以,我非常喜欢这个问题,你知道,人们有时会问我这个问题,我总是说同样的话,那就是我们可能拥有研究优势,也可能拥有技术创新优势,但是,你知道,这些优势是以时间来衡量的,比如你可能领先一年、两年、18个月等等。而时间因素只有在你也广泛采用这项技术时才真正重要。比如你可以推进科学,但如果人们不使用它,而其他人落后,但即使他们落后,他们的人口使用它,拥抱它,从中获得所有杠杆作用,那么你的领先优势到底有什么用呢?所以,我认为从政策角度来看,我认为本届政府正在非常努力地做到这一点,那就是如何想出办法来加快采用速度,提高采用效率,并增加围绕采用的人力资本,以便人们了解如何很好地使用这项技术。我认为这样你才能最大限度地利用这项技术,以及你所拥有的研究领先优势。

奥伦·霍夫曼: 但它并不难用,AI并不难用,它有点像手机。没有政府部门来教你如何使用智能手机。每个人都很快就学会了。我猜AI也类似。它有如此多的好处,如此之快,一旦你开始使用它,一旦你看到其他人使用它,你就会立即加入。

Jason Quan: 是的。我认识很多工程师,即使在六个月前,他们也不打算使用AI来编写代码,但在过去六个月里,他们都转用了。很多营销人员也类似,我认识的很多艺术家也类似。很多人,他们会开始看到其他人使用它,一旦它在那里,他们就会开始行动,所以我们不需要政府说“嘿,使用这个工具,它太棒了”之类的,对吧?

奥伦·霍夫曼: 嗯,政府之外可能就不那么需要了,对吧?因为你知道,私营部门有市场激励来推动技术采用,一旦他们领域中的其他人采用了,他们也会采用。在政府层面,你知道,我认为仍然存在一些问题,比如旧的采购流程有点慢。你知道,为特定类型的技术或工具编写的预算不一定适合新出现的东西。即使在iPhone问世时也是如此,政府中的任何人可能花了五年多才买到它,他们仍然在使用旧手机之类的,这种情况就是发生了,对吧?

Jason Quan: 是的,所以,我认为简化所有这些,而且,你知道,说起来容易做起来难,对吧?但我认为弄清楚如何缩小技术进入市场与特定政府机构或选民如何获取技术并将其推广到其组织之间的差距,以及人们如何最大限度地利用它来适应他们的日常工作流程。因为知道如何使用ChatGPT作为教练来帮助你学习东西或在线进行一些研究是一回事。而说“好的,我将它深度整合到我的日常工作中”则是另一回事。例如,摆脱我所做的一些文书工作。这也意味着可能需要淘汰其他遗留系统,这样你才能获得更高的杠杆作用。所以,一个例子是,我们在ChatGPT内部有连接器,可以连接到Gmail、Slack、Google Docs等所有这些东西。但如果你的组织运行在Lotus 123上,例如,那将限制你从ChatGPT获得的杠杆作用。所以存在一个转型……

奥伦·霍夫曼: 唯一还在使用它的是政府,对吧?

Jason Quan: 我们拭目以待。几个私人问题。你个人希望AI能帮助你做什么,但它还没有实现?

Jason Quan: 是的。所以,环境学习(ambient learning)可能是我首先想到的,这是因为它源于我们之前谈到的那种轻微的挫败感动态。所以我问它问题,让它为我做事情。但我希望有一种方法,我只需工作,而ChatGPT能够对我的工作进行某种可观察性(observability),然后它会时不时地提示我,“你似乎在做这种类型的工作,我认为你是这样做的,根据对你的观察,这似乎是一个好的结果,那是一个坏的结果。”然后我能够提供反馈。所以,这有点像我带一个学徒,他们看着我,然后他们来找我说,“好的,看起来我正在从你这里学习这些东西。我学到了正确的经验吗?”我可以引导他们。然后它达到一个点,能够做某些事情,对吧?然后它有一天突然出现说,“好的,我认为根据观察你的工作,这是你做的一件事,我认为我现在知道怎么做了。如果你愿意,从现在开始我可以为你做。”是的。我认为一旦我们达到这一点,那将是生产力方面的另一个质变,以及你从工具中获得的赋能。(On Job Training 基于实际环境的方法处理,并学习经验,以便在后续相似环境中实践、解决问题)

奥伦·霍夫曼: 是的,那太酷了。好的,我们问所有嘉宾的两个问题。你相信的阴谋论是什么?

Jason Quan: 是的。所以,我认为有点作弊,因为你很久以前问过我这个问题,但那是在一个集体场合。我没有机会回答,所以我脑子里已经有了答案。它更多是幽默而非严肃,但是,我是一个篮球迷,在2000年代早期,国王队和湖人队之间有过一场季后赛,那是第六场比赛。当时有一个疯狂的统计数据,在第三节或第四节,罚球差距大约是三比一,湖人队以一分险胜。几年后,有消息透露,当时执裁比赛的裁判在比赛中赌博。你知道,这让你有点挠头。所以,这是我有时会想到的一个。

奥伦·霍夫曼: 我的意思是,我确信有人,他们经常会把天平倾向于像湖人队这样的强队。NBA,他们就像NBA的前台,他们会把天平倾向于湖人队或那些类型的球队。他们只是希望湖人队进入总决赛,而不是国王队。这对每支球队都会更好,因为他们会变得更好。他们只会吸引更多人观看等等。

Jason Quan: 是的。尽管那支国王队,我不得不说,看他们打球很有趣。是的。而且,是的,有时你会想,如果不是那样,会发生什么。是的。

奥伦·霍夫曼: 好的。我喜欢,我认为那是一个真正的阴谋论。我喜欢那个阴谋论。好的。我们问所有嘉宾的最后一个问题。你认为哪种传统智慧或建议通常是糟糕的建议?

Jason Quan: 是的。所以,我认为可能是这样的建议,大概是“做你喜欢的事”或“追随你的热情”。我认为这是因为,你知道,这句话中的某个假设,至少在我看来,是内在动机(intrinsic motivation)来自于你天性中固有的部分。它就是你的一部分,所以你必须热爱你所热爱的东西,因此你需要去追随它,对吗?但我更倾向于认为,它应该是一种心理游戏,通过决定你只是想做某事来创造内在动机。对我来说,这就是自主权(agency)的本质。所以,我告诉人们的是,热爱自主权。并弄清楚如何在生活中拥有更多的自主权。我还认为,这也是一些人所说的另一件事的一部分,那就是热爱学习和成长。因为以这种方式参与你的生活,实际上只是一个延伸,如果我想学更多,那就能让我对自己的生活拥有更多的自主权,而这实际上是我有意识地在做的事情。这不是我正在追求的东西。

奥伦·霍夫曼: 你是什么意思?

Jason Quan: 你知道,自我决定(self-determination)。我只是决定这些是我热爱的事情。这不是发生在我身上的事情,对吗?而且,你知道,它可以是彻底重塑你的身份,也可以是把你不喜欢的东西变成你喜欢的东西,这样你就能完成它,对吗?所以,我的意思是,其他人可能会称之为纪律。我不知道。但这就是我所想的。

奥伦·霍夫曼: 这很有趣,因为有时人们会说“我生来就是做这个的”,你肯定有一些人是生来就是做某事的,比如他们是一个国家的王子,他们最终会成为国王。但我们大多数人,我认为我们不是生来就做任何特定的事情,我们可以选择我们想去哪里。

Jason Quan: 是的,我认为没错。我认为这就是生活的美妙之处,你可以选择。而且,我认为这就是我真正想表达的,你只是决定你是谁,你爱什么,你将追随什么。它不必是你觉得“哦,这已经为我决定了,所以我必须这样做”的东西。我认为这有时是我们告诉自己的一个叙事。但我认为所有这些,这可能是好的,因为它可以成为动力的来源,但认识到这只是你告诉自己的一个叙事,如果你愿意,你可以在某天决定重写它,这也是好的。

奥伦·霍夫曼: 好的,这实际上非常美妙。这是一个很好的结尾方式。感谢Jason Quan加入《数据世界》。我在X上关注你@JasonQuan。我绝对鼓励我们的听众在那里与你互动。这非常有趣,也充满了乐趣。所以,我非常感谢。

Jason Quan: 谢谢奥伦。很高兴来到这里。



== END ==