
加密货币交易所,币安钱包,币安app官网下载,币安电脑PC版,币安交易所网址,币安app下载,币安邀请码返佣,币安交易所官方网站下载,币安交易所,币安,币安下载,币安注册,币安交易所网址,币安靠谱吗
在美国,关于“对人工智能安全、可靠和可信地开发与使用”的第14110号行政命令,虽然提及了民权、竞争、劳动和歧视等问题,但其最有力的问责义务却指向了大型、高能力的基础模型以及未来计算量超过一定阈值的系统,要求企业向联邦政府分享技术信息,并证明其模型符合特定的安全限制。英国则走得更远,成立了前沿人工智能工作坊——现已并入人工智能安全研究所,其职责聚焦于极端的、假设性的风险。欧盟人工智能法案(AI Act),没有试图规范当前AI带来的危害,却仍然专门设有一节讨论未来某个未知时间点可能出现的系统性风险和基础模型风险。在这些司法实践中,政治能量都聚集在未来的、推测性的系统之上。
超级人工智能的叙事,正在非常有意识地推进一项政治议程,即将注意力从当前的控制体系转移到遥远的灾难上,把讨论焦点从现实的力量转移到想象的未来。关于机器封神的预言重塑了权威的获取方式,以及由谁的利益来掌舵 AI治理;同时压制了那些在算法下受苦者的呼声,放大了那些希望人类灭绝的声音,使这些声音主导了讨论。这种伪装成中立未来主义的论调,实则是对当下政治经济的一种干预。擦亮双眼,超级智能的预言更多不是关于机器的警告,而是在为权力服务,而这种策略,必须被识破。这一叙事的力量,正源自其历史。
据数学家乌拉姆(Stanislaw Ulam)回忆,早在1958年,计算机科学家冯诺依曼便谈及一种技术奇点,即加速的进步终将使机器能够改进自身设计,迅速将自身提升到具有超越人类的能力。这一概念在20世纪60年代由数学家欧文·古德(Irving John Good)进一步完善,奠定了超级智能讨论的基本框架:递归式的自我进化、指数级的增长,以及人类所需要发明的最后造物。当然,这些只是数学上的推演而非实证观察,但此类推测与思想实验被如此频繁地复述,以至于它们获得了预言般的重量,使其所描绘的想象未来显得不证自明。
在回形针思想实验中,他们设计了一个高度先进的人工智能,它的唯一目标是尽可能多地制造回形针。这个微不足道的目标促使机器消耗所有资源。该思想实验突出了工具性收敛的可能,即几乎任何目标都会促使人工智能寻求权力和资源。这个思想实验还提出了正交性论题(Orthogonality Thesis),该定理认为智能与道德价值是独立的。他们为一个并不存在的实体创造了一套学术化的哲学体系,包括对不同类型的人工智能失控情景给出了细致分类,以及对可能的未来智能间非因果(acausal)权衡,给出了详尽论述。
这些思想家的共同点在于他们对某种推理风格的坚定承诺。他们的实践或许可以被称为极端理性主义,即相信纯粹的逻辑,在脱离经验约束或社会背景后,仍能够揭示关于技术和社会的根本真理。这种方法优先考虑思想实验而非数据,重视巧妙的悖论而非日常观察,其结果是一套读起来如同中世纪神学,精妙而复杂,但却完全脱离了人工智能系统实际发展的论述。诚然,我们应当承认,这种脱节并不意味着他们的努力毫无价值,相反,通过将抽象推理推向极限,他们澄清了关于控制、伦理和长期风险的问题,这些问题后来为更加务实的AI 政策和安全讨论提供了基础。
这篇评论并非试图贬低波斯特洛姆的成就,他的功绩在于将关于AI的那些蔓延且往往语无伦次的恐惧,梳理成了一个严谨的框架。但他的书有时读起来像是一项自然历史研究项目,他像分类学家一样,将通往超级智能的不同路径、各种“失败模式”(即系统可能出错或毁灭我们的方式),以及“控制问题”的解决方案(即保持AI对齐的方案)分门别类。这种分类学的方法,甚至让最狂野的臆测也披上了科学的外衣。通过将超级智能视为系统性研究的对象而非科幻设定的前提,波斯特洛姆成功地将存在性风险洗白进了体面的话语体系之中。
这并非仅仅是书斋里的抽象辩论,因为认同有效利他主义的慈善家们将大量资金投入了人工智能安全研究,而资金决定了研究人员关注的方向。与有效利他主义理念一致的组织已在大学和政策领域建立,发布报告为政府提供关于人工智能的思考建议。英国的前沿人工智能特别工作坊(Frontier AI Taskforce)包括了与有效利他主义运动有明确关联的成员,评论人士认为这些联系有助于将有效利他主义认定的优先事项加入到政府有关人工智能风险的政策中。
有效利他主义鼓励其支持者进入公共机构和主要实验室,从而形成一条将这些优先事项带入决策核心的人才管道。前美国政府机构“情报高级研究计划局”(Intelligence Advanced Research Projects Activity)主任Jason Matheny曾描述过,有效利他主义者可以通过“在政府职位中摘取低垂的果实”来施加影响。超级智能的讨论之所以传播,不是因为专家普遍认为这是我们最紧迫的问题,而是因为一场资源充足的运动为其提供了资金和接触权力的渠道。
这并不是要否认与有效利他主义理念或与Bostrom所阐述的超级智能这一概念进行交流所带来的价值。问题在于,一旦这些理念进入政治和商业领域,它们是何其容易被曲解。理清这段超级智能的思想谱系很是重要,因为它揭示了超级智能讨论作为一种文化产物的特性,这些理念已经超越了理论,进入了制度领域,获得了资金和倡导者。而它的出现根植于那些推崇理性主义而非经验主义、将个人天才置于集体判断之上、并优先考虑技术决定论而非社会背景的制度中。
OpenAI,这家成立于2015年、旨在确保人工智能造福全人类的非营利组织,正是这一转型的缩影。OpenAI已演变为一种奇特的嵌合体,它是一个由非营利董事会控制的“利润上限”公司,估值高达5000亿美元,却在争分夺秒地构建那个它自己警告可能会毁灭我们的AGI。这种结构因其复杂性而显得繁复,但在超级智能的逻辑中却完全合情合理。如果AGI既是终极的应许之地,又是存在的终极威胁,那么构建它的组织就必须是矛盾的统一体,既商业又利他,既激进又审慎,既胸怀天下又讳莫如深。
OpenAI的首席执行官奥特曼已将勉为其难的先知(Reluctant Prophet)这一修辞姿态修炼得炉火纯青。在国会听证、博客文章和采访中,他一方面警告人工智能的潜在危险,另一方面又坚持推进技术发展的必要性。他今年早些时候在自己的博客上写道:“我们的使命是确保AGI能够造福全人类。”他的论点中有一种强烈的紧迫感,认为我们必须在其他人之前完成AGI的构建,因为唯有我们才拥有足够的责任感去驾驭它。奥特曼似乎有意将OpenAI定位为人类的代表,背负着创造类神智能的可怕重担,只为将其关进笼子里。
由前OpenAI高管创立的Anthropic,将自己定位为“安全导向”的替代方案,承诺打造“有用、诚实且无害”的AI系统,从而筹集了数十亿美元资金。但这一切不过是一场精心编排的安全表演,因为AI带来的危害在OpenAI、Anthropic、Google DeepMind等公司之间的竞争中,并没有真实的立足之地,真正的较量在于谁能够构建出最佳、最盈利的模型,以及谁能更好地用谨慎的语言包装这场野心勃勃的追逐。
2023年11月OpenAI那场广为人知的宫斗大戏,将这些动态暴露无遗。当董事会因质疑奥特曼的坦诚而试图解雇他时,由此引发的混乱暴露了公司内部潜在的权力关系。那些被“拯救人类”的愿景招募进来的员工,他们威胁如果他们的CEO不被重新任命,就要集体辞职。他们对奥特曼的忠诚,竟压倒了拯救人类的使命?尽管微软并未正式掌控OpenAI董事会,但作为公司的主要资助者和云服务提供商,它在关键时刻发挥了决定性影响,提出雇佣Altman及其追随者。最终,那些认为“诚实是CEO重要品质”的董事会成员黯然离场,奥特曼凯旋归来。
媒体的推波助澜在这一过程中起着至关重要的作用,因为大语言模型的每一次小幅改进都会被描绘成通向AGI的一步。ChatGPT能写诗,显然意识即将来临。Claude能解决编程问题,奇点已经临近。这类说法往往源自构建这些系统的企业本身,营造出一种趋势,这种趋势逐渐成为自我实现的预言。投资者因此投资,因为AGI似乎触手可及;研究人员加入公司,因为未来正在那里被构建;政府推迟监管,因为他们不想拖累本国的领头羊。
AGI必然发生这一叙事模式也通过语言选择加以构建。注意“AGI”如何迅速取代“人工智能”在公共讨论中的地位,仿佛通用智能是自然演化的必然结果,而非一个具体且存在争议的概念。“超级智能”——或者这个概念最终采用的任何其他术语似乎自然而然地成为这架阶梯上的下一步。请注意,“对齐”,即确保人工智能系统做人类想要的事情是如何成为AI安全领域核心问题的,它假设了超人智能的存在,并将它带来的挑战视为技术问题而非政治问题。
弗雷德里克·泰勒是19世纪的美国机械工程师,也是《科学管理原理》的作者,他因通过严格控制劳动来实现最大效率而闻名。如今,我们所处的是一种以技术为中介的泰勒主义,工作被分解为微小的、经过优化的动作,每一个动作都被监控和计时,唯一的区别在于,管理的鞭子从秒表变成了代码。泰勒的逻辑已经被以远超他本人想象的方式实践和应用。但当我们讨论人工智能与工作时,话题总会瞬间跳跃到“AGI是否会消灭所有工作”,仿佛当下那些被算法驱使的工人的苦难,仅仅是通往废弃途中的一个中转站。
内容审核产业是这个“被遗弃的现在”的缩影。数以十万计的工人,主要来自全球南方国家,每天查看人类所制造的最恶劣内容——包括儿童虐待和性暴力,以训练人工智能系统识别和过滤此类材料。这些拿着硅谷同行零头薪水的工人,承受着有据可查的心理创伤。他们是“人工智能安全”的幕后劳动大军,在保护用户免受伤害的同时,自身却遍体鳞伤。然而,他们的痛苦很少出现在人工智能伦理的讨论中,因为那里的讨论总是围绕着如何防止超级智能在未来可能带来的假设性危害。
当人工智能系统将公民细分到越来越狭窄的信息流时,这个共享空间就崩塌了。我们不再争论相同的事实,因为我们不再身处同一个世界。然而,我们关于治理的讨论却聚焦于“如何防止AGI在未来摧毁民主”,而非解决“当前的 AI系统如何正在瓦解民主”。我们争论人工智能对齐问题,却忽视了在关键问题上,在人类之间需开展的对齐,例如人工智能系统是否应该服务于民主价值,而不是企业利润。设想中的超级智能专制掩盖了现实中的监控资本主义专制。
这些当前的危害都可以通过集体行动来应对。我们可以规范算法管理,支持内容审核员,限制监控,审查偏见,控制能源使用,保护民主并优先考虑心理健康。这些并非需要超级智能才能解决的技术难题,而是需要民主介入的、老派的政治挑战。然而,超级智能的讨论却让这些平凡的干预措施显得几乎过时。当工作本身可能很快就会消失,为什么我们还要重新组织工作场所?当AGI可能已经能监控我们的思想,我们为什么还要对监控加以监管?当超级智能可能完全超越人类的偏见,我们为什么还要处理当下的偏见?
全球各地,社区已经开始尝试不同的数据组织和自动化方式。例如,原生数据主权运动(Indigenous Data Sovereignty)已经发展出治理框架、数据平台和研究协议,将数据视为一种需要集体同意的公有资源。加拿大首个信息治理中心(First Nations Information Governance Centre)和新西兰的Te Mana Raraunga等组织坚持认为,数据项目(包括那些涉及AI的项目)必须对其关系、历史和义务负责,而不仅仅是对优化指标和规模扩张负责。他们的项目提供了自动系统的设计实例,这些系统旨在尊重文化价值并加强地方自主性,这与有效利他主义的冲动形成镜像,不会为了假设的未来人群而抽象地脱离具体地点。
类似的实验也出现在以女性主义和残障为中心的技术项目中,这些项目围绕关怀、可及性和认知多样性构建工具;还出现在全球南方的倡议中,这些倡议使用适度、由本地社区管理的AI系统,在资源有限的情况下支持医疗、农业或教育。不关注增长的技术专家正在设计低功耗、社区托管的模型和数据中心,旨在嵌入生态极限之中,而非试图凌驾其上。这些案例表明,批判与行动主义完全可以转化为具体的基础设施和制度安排,证明了AI的组织方式不必默认那个“为了少数科技兄弟眼中的大善而牺牲所有人”的超级智能范式。
这些多样化的想象——原生数据治理、工人主导的数据信托以及为全球南方设计的AI项目,其共同点在于对“智能”本身的另一种理解。他们并不将智能视为一种抽象的、脱离身体的、能够优化所有领域的能力,而是将其视为一种与特定情境紧密关联的、具有关系性和具身性的能力。他们关注的是真实存在的社区及其现实需求,而非假设的人类面对假设的机器。正因如此,它们与在超级智能的宏大叙事相对比时显得谦逊,毕竟,存在性风险让所有其他担忧都显得微不足道。你几乎能听到那些反驳:当工作本身都快消失了,谈论工人权利有何意义?当AGI被设想为能够按需解决气候变化问题时,为何还要考虑环境限制?
这些替代方案也揭示了超级智能叙事中的民主缺失。将人工智能同时包装为普通人无法理解的神秘技术问题,以及不可置疑的社会进步引擎,使得权力得以在系统拥有者和构建者手中高度集中。一旦算法参与到沟通、就业、福利、执法和公共讨论,它们就成为政治机构。这种权力结构是封建式的,一小撮企业精英凭借“特殊知识”和“末日紧迫感”垄断决策权,而公民和纳税人则被告知他们无法理解这些技术复杂性,且任何减速都是在全球竞赛中的不负责任。其结果是习得性无助,一种认为技术未来无法通过民主方式塑造,只能被托付给那些“远见卓识”的工程师的宿命感。
这可以有多种形式。工人可以参与关于算法管理的决策。社区可以根据自身优先事项管理本地数据。关键的计算资源可以由公共或合作方式拥有,而不是集中在少数公司手中。市民大会可以被赋予实际的决策权,决定一个城市是否推进有争议的AI应用,例如人脸识别和预测性警务。开发者可以在预防性框架下被要求在部署前证明其安全性。国际协议可以对AI研究中最危险的领域设定限制。所有这些都不是在讨论AGI或其他可以想象的超级智能是否会或不会出现;它只关乎一个认知:技术权力的分配是一种政治选择,而非不可避免的宿命。
超级智能的叙事通过将集中权力描绘为悲剧性的必然,削弱了这些民主实践的可能性。如果人类灭绝近在咫尺,公众商议便成了我们负担不起的奢侈品。如果AGI是不可避免的,那么治理权就必须让渡给那些正在竞相构建它的群体。这种叙事制造紧迫感,以合理化对民主的侵蚀。于是,最初关于假设性机器的故事,最终却演变为关于现实政治权力丧失的故事。归根结底,更大的风险在于,当我们忙着辩论虚构的未来心智如何对齐时,我们却忽视了现有制度的对齐问题。