AI治理:戈尔和托波尔在HUMANX

HUMANX的AI治理:Gore和Topol谈气候、健康与民主

简要摘要:在旧金山的HUMANX,Al Gore和Eric Topol认为,核心问题不仅是人工智能能做什么,更是社会选择将其扩展到什么程度。他们的讨论将AI治理与气候影响、医疗保健、劳动力冲击以及民主韧性联系在了一起。

在旧金山的HUMANX,题为《我们选择将其超规模化(What We Choose to Hyper-Scale)》的讨论将AI辩论从仅关注技术能力,转向社会责任。Al Gore和Eric Topol传递的核心信息十分明确:人工智能不应只根据其推进速度来评判,还应看其增长是否能支持可持续性、公共健康和民主韧性。从这个意义上说,AI治理成为本次讨论的核心主题。

该讨论汇集了常常被分开谈论的议题。AI被呈现为一种快速推进、仍在兴起中的力量。它可能在短期内增加排放;在未来20年可能改善健康结果;并可能在治理无法跟上步伐的情况下重塑劳动力市场、加剧公共舆论的压力。

AI治理正在塑造下一阶段的AI

该小组讨论中最强烈的主题之一是:停止AI发展并不被认为是现实的。相反,发言者主张更有意图的创新,并愿意“瞄得更高”。因此,真正的政策与投资问题在于社会决定将什么“超规模化”——加深环境与社会压力的系统,还是支持气候目标、医疗质量与公众信任的应用。

这场辩论也反映出日益增长的担忧:前沿AI并不如传统软件周期那样运行。它被描述为一种正在出现的现象,在某些方面“近乎有意识”,并可能具备自我保护的行为。尽管这种措辞具有挑衅性,但更广泛的重点是务实的:随着自主性和影响力不断扩张、系统需要比市场单独提供的更强监督。

AI治理与气候困境

在气候方面,Gore认为AI可能在近期推高排放。随着对数据中心、芯片、电力以及制冷基础设施的需求增长,这种担忧正变得更具现实性。该小组并未提供新的定量证据。然而,实际含义十分清楚:AI扩张在环境层面并非中性。

与此同时,Gore也表示,一些AI应用可能在中期带来净气候收益。该论点并不是说AI本质上就“绿色”。相反,它的影响取决于其部署方式。如果用于提升效率、优化系统并支持更低碳的基础设施,AI可能在一段时间内帮助抵消自身足迹的一部分。

讨论还将AI纳入更广泛的可持续框架之中,该框架由《巴黎协定》所塑造,并被提为共同的全球参照点。这一点很重要,因为它将AI政策定位为更大范围经济转型的一部分,而不是一个孤立的技术问题。

为什么投资者将AI与可持续性放在一起关注

据称,Generation Investment Management认为,可持续投资能够带来具有竞争力、甚至更优的回报。该观点之所以重要,是因为它挑战了“可持续性会损害业绩”的观念——尤其是在AI基础设施支出正在加速之际。

对投资者而言,这一含义是直接的。AI与可持续性不应被当作彼此独立的资本配置主题对待。如果AI正成为基础性的基础设施,那么它的能源结构、资源密集度以及下游收益,都将影响长期估值、政策风险以及公众合法性。

该小组还指出,被称为“超大规模运营商”(hyperscalers)的大型科技公司,已经在推动可再生能源投资。它们的需求正在帮助加速太阳能和电池的发展。结果是,扩张AI产能的同一批公司,也在推动清洁能源的大规模部署。

这并不能消除AI增长与近期排放之间的矛盾。尽管如此,这表明AI的气候收支表将部分取决于超大规模运营商的投资是否能够足够快地持续把可再生能源向前推进。

健康是AI最清晰的公共利益案例之一

Topol将医疗健康呈现为AI最具前景的领域之一。他指出,AI可能在诊断准确性、运营效率、预防以及医患关系方面带来收益。这是AI最具体、最能代表公共利益的案例之一,因为它将可衡量的系统压力与清晰的未被满足需求结合在一起。

他最具体的预测涉及时间。Topol表示,在未来20年里,AI最重要的贡献将体现在初级预防上。这将叙事从“自动化现有照护”转向“更早识别风险,并在疾病进展之前进行干预”。

该小组还提到了可能出现的新工具:它们不仅能预测疾病风险,还能预测疾病发病的可能时间。如果此类系统被证明可靠且在临床上有用,它们可能改变预防策略、资源规划以及患者参与方式。即使不了解其底层模型的技术细节,战略含义也很重大:当医疗健康AI把价值前移、在急性治疗变得必要之前介入时,可能创造出最大的价值。

对卫生系统与专业人士而言,这意味着AI辩论不应被简化为对自动化的焦虑。它同样关乎更好的分诊、更早的干预、提升工作流程效率,以及在最重要之处为人类互动腾出更多时间。

AI治理是先进模型的关键检验

关于治理,小组传递的信息直截了当:更强大的AI系统需要更强的公共问责。在讨论提出的想法中,包括为先进模型设立“公共宪章(public constitutions)”,同时提高透明度并强化风险管理。

从实践层面看,公共宪章意味着治理框架需要明确施加原则、公共利益边界以及规则,而这些规则不能仅由私人开发者单方面制定。该小组并未解释这类宪章将如何起草或被执行。即便如此,这一概念反映出更广泛的转变:前沿AI可能需要比普通产品监管更接近公共基础设施监督的治理机制。

这一点尤其值得关注,因为发言者将AI风险不仅与技术失效挂钩,也与制度层面的压力相联系。在这种语境下,透明度不仅关乎模型输出。它还关乎由谁制定规则、如何评估风险,以及当伤害扩散到劳动力市场、信息系统或民主流程等领域时,是否存在可行的救济路径。

劳动力扰动与民主压力仍未解决

该小组警告称,社会并未为AI对工作的影响做好准备。如今,这一担忧正成为经济政策的核心,因为劳动力市场的扰动可能以不均衡的方式出现:某些职业可能很快受到影响,而另一些职业则会陷入更为持久的不确定性。社会准备不足被呈现为一种治理失败,既是治理问题,也是市场层面的挑战。

讨论也延伸至民主。发言者表达了对公共辩论质量以及传播性操控潜在可能性的担忧。这反映出一个正在扩大的政策议题,涉及AI生成内容、大规模说服以及在共享信息环境中对信任的侵蚀。

这些担忧并非边缘问题。如果AI削弱了人们对公共话语的信心,那么政府和机构在气候、健康与经济转型方面建立共识的能力也可能随之削弱——而这恰恰是在最需要协同行动的时候。

更可信的议程将AI创新与公共目标连接起来

HUMANX的讨论并不是反对AI进步。相反,它反对的是缺乏方向的扩张。Gore和Topol提出了一个框架:AI的价值取决于创新是否与治理相匹配;基础设施的增长是否与可持续性一致;以及最强的早期收益是否被指向健康与预防。

对会议参会者、投资者、医疗健康专业人士以及政策制定者而言,得到的并非某一个单点突破。更准确地说,这是战略层面的对齐。AI不再只是技术故事。它也是资本配置的故事、公共健康的故事、劳动力的故事以及民主治理的故事。

尚未解决的问题是:许多最重要的主张仍然走在本次讨论所呈现证据的前面。该小组没有提供详细的排放数据,没有给出治理的实施蓝图,也没有对Topol提到的疾病时间预测工具作出技术解释。不过,这种缺乏具体性的不足并不会降低上述议程的重要性。反而,它明确了下一步审视应当聚焦在哪里。

总之

在HUMANX,Al Gore和Eric Topol将AI界定为一种社会与政治选择,而不仅仅是技术发展。讨论将AI治理与四个主要领域联系起来:气候、医疗健康、劳动力与民主。核心要点很简单:AI将会扩展规模,但社会仍然能够选择,应该与AI一起扩展到何种程度。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论