人类能否“监督”未来的人工智能?

2023-12-18 21:35:17   编辑:战战
导读不久前,欧洲议会、欧盟成员国和欧盟委员会就人工智能法案达成协议,被认为是世界上第一个全面监管人工智能的人工智能法案(AI)法案。经过...
不久前,欧洲议会、欧盟成员国和欧盟委员会就人工智能法案达成协议,被认为是世界上第一个全面监管人工智能的人工智能法案(AI)法案。经过36个小时的马拉松谈判,欧洲议会、欧盟成员国和欧盟委员会于12月8日晚就人工智能法案达成协议。
 
根据欧洲议会的声明,达成的协议包括禁止几个人工智能应用程序,如无目标地捕获图像以创建面部识别库,并为立法者确定的高风险系统制定规则。未能遵守新规定的公司将面临全球营业额最高7%的罚款。
 
人类对人工智能的担忧似乎自诞生之日起就存在。此前,人工智能领域的全球领导者Open人工智能的突然管理震动正是这些最接近技术的人对技术发展的担忧。人工智能是应该蒙着眼睛跑,还是以安全为主要考虑放慢速度?在两种观点的冲突下,Open人工智能之前上演了一部精彩的“宫廷战斗剧”。简要回顾一下过程:
 
11月17日,OpenAI联合创始人兼CEO山姆·奥特曼突然被公司董事会宣布“毕业”。
 
11月19日,奥特曼“第一次也是最后一次”戴着访客牌前往OpenAI与董事会洽谈。然而,董事会未能同意他复职的拟议条款,而是找到了临时首席执行官。
 
11月20日,微软首席执行官萨蒂亚·纳德拉宣布,刚刚被解雇的奥特曼将加入微软,为新的先进人工智能研究团队服务,微软为他们提供成功所需的资源。
 
OpenAI于11月21日发表声明,奥特曼回归OpenAI。
 
当时,关于Open人工智能的戏剧一波又一波,反转和反转。随着奥特曼的回归,Open人工智能的起起落落似乎已经结束了,但事实上,它仍然留下了许多未知的数字。为什么董事会坚持让奥特曼离开?董事会有什么证据或理由,无论90%的内部员工抗议强行解雇奥特曼,原因都没有公开。
 
站在十字路口,在理想与现实的竞争中,人工智能技术将走向何方?
 
安全向左,技术向右
根据路透社此前发布的消息,奥特曼的辞退闹剧很可能来自Open人工智能员工的匿名信。信中提到,Open人工智能最新开发的新型人工智能模型“Q-star“取得了突破,人工智能有能力解决数学问题。研究人员认为,当人工智能掌握了只有正确答案的数学计算时,这意味着人工智能将具有更接近人类的推理能力。与只能执行有限计算的计算器不同,如果人工智能能够进行泛化学习和理解,它可以独自回答完全不熟悉的数学问题。就像人类在学习了数学教科书中的例子后自己做问题一样。这意味着人工智能可以在最经济的任务中超越人类的独立系统,这可能会对人类构成威胁。
 
这封警告信可能是董事会严厉指责“奥特曼对董事会不诚实”并解雇奥特曼的导火索之一。
 
OpenAI首席科学家伊利亚·萨克斯维尔是OpenAI董事会的绝对技术责任。
 
在纪录片中,面对镜头,伊利亚对人工智能技术的发展非常乐观,认为Open人工智能正在创造一个具有独立资格和完全独立的存在。但在电影的结尾,他担心地说:“未来对人工智能很好,如果对人类也很好。”出于谨慎的态度,伊利亚还成立了一个团队来研究如何防止人工智能系统的异常运行。
 
从ChatGPT的诞生到GPT4的出现,大模型的进步肉眼可见。在此之前,Open人工智能高调推动了技术的实施。但奥特曼越兴奋,伊利亚就越焦虑。对他来说,Open人工智能的激进实践似乎离最初使用人工智能造福人类的信仰越来越远。
 
条条大路通罗马,但通往人工智能造福人类的途径是什么?奥特曼选择全速前进,而伊利亚显然更注重人工智能的安全。激进的技术路线会有隐患吗?这是伊利亚的担忧,也是他“赶上”奥特曼离开的底层动机。
 
独特的架构能“管”OpenAI吗?
2014年,谷歌以6亿美元的价格收购了当时行业内顶尖的人工智能研究机构Deepmind,随后推出了令人惊叹的AlphaGo。在这方面,一些人工智能领域的骨干人士看到了人工智能的潜力和威胁,他们担心谷歌将成为垄断人工智能的权力霸主。其中六位来自硅谷的科技梦想家聚集在一起,决定建立一个不受任何公司、任何资本或任何人控制的人工智能实验室,希望探索以安全方式建立人工智能的正确途径。
 
2015年底,非营利组织Open人工智能正式成立。它有明确的目标和雄心勃勃的目标:开发一种可以造福全人类的“通用人工智能”。在早期阶段,Open人工智能完全依靠捐赠来维持组织的运作,并承诺向公众开放其专利和研究。这是Open人工智能的起点和初衷,但这个非常理想和“乌托邦”的组织很快就遇到了“经济危机”。
 
2018年,Open人工智能的创始人之一和“大金主”埃隆·马斯克宣布退出董事会。马斯克离开后,他没有兑现的捐款将Open人工智能推到了一个非常糟糕的境地。
 
当时,Open人工智能的困境动摇了奥特曼对非营利组织的模式,并探索了一条更现实的商业路线。
于是,一个全新的公司结构出现了:
 
Openainc公司.在非营利主体下,创建限制性盈利实体OpenAILP。OpenAIInc.控制权属于OpenAI非营利组织董事会。作为OpenAILP的一般合伙人,董事会全权管理OpenAILP,负责引导OpenAILP的运营。在有限合伙制度下,一般合伙人有权完全管理和控制企业,也需要承担无限责任。
 
同时,OpenAILP的有限合作伙伴包括OpenAILP员工、部分董事会成员、ReidHoffman慈善基金、Khoslaventures等投资者。理论上,他们的责任仅限于他们的投资。有限合作伙伴可以获得股息,但OpenAILP的最高收入仅限于他们投资的100倍。
 
此后,公司在OpenAILP下设立了OpenAIGlobal,OpenAILP与大投资者微软分享股权,并以分红的形式分享OpenAI的商业成果。其中,OpenAILP占51%,微软占49%。
 
在这个架构中,拥有和控制是两个完全不同的概念。无论是非营利组织资产平台还是限制性营利公司,他们的决策权都掌握在非营利组织拥有和控制的全资管理实体手中。这个管理实体的权利来自非营利组织的董事会。其实简单来说,拿钱的人不能投票,投票的人不能拿钱。因此,最大的投资者微软被排除在Open人工智能的决策层之外。
 
在这种“权力”和“利润”分离的组织结构下,OpenAILP可以放开手脚“赚钱”,微软等投资者可以从投资中获得利润,董事会也可以独立于投资者,保持对整个公司的控制,确保船舶不偏航。从当时的角度来看,这确实是一个完美的方案,巧妙地符合存在主义和理想主义,以避免公司受到资本的侵蚀。
 
然而,当时“完美”的组织结构为Open人工智能的风暴奠定了基础。其独特的结构设计不仅是对人性的挑战,也是对人性的反对。在Open人工智能的逻辑下,公司有赚钱的能力,但赚钱不好。有多少人只依靠理想和信念来支持和用爱发电?这样的“朝圣之路”能走多远?
 
在某种程度上,Open人工智能风暴是其发展史上不可避免的节点时刻,充分表明乌托邦不能容忍“世俗”的欲望。换句话说,“金钱能力”足以动摇理想。
 
在舆论领域,很多人情感上站在伊利亚一边,认为Open人工智能风暴的背后是科学家创始人奋力抵抗的悲歌。这场风暴被遐想为资本家只追求利润,而科学家有良知。但我们不能忘记的是,Open人工智能要实现理想主义,前提是要活着,不断探索。人工智能的发展本身就是一件耗费金钱、资源、计算能力和时间的事情。没有资本支持,Open人工智能根本无法发挥作用。在奥特曼精心设计的独裁帝国,资本没有举手议政的权利,但有用脚投票的自由。名义上,Open人工智能的所有决定都必须由董事会点头,但不持股的董事会实际上对支持Open人工智能的资本拥有有有限的话语权。
 
事实上,从资本的角度来看,加快技术的发展和商业化是可以理解的。同样,从安全的角度来看,谨慎地推进技术也没有错。Open人工智能的风暴与其说是理想与现实之间的冲突,不如说是旧制度与新形势之间的冲突。此前,面对生存危机,奥特曼激进的改革措施不仅得到了董事会的允许,甚至得到了鼓励。但是Open人工智能仍然需要冒着危害人类安全的风险继续前进吗?你还想坚持创业初期的“战时制度”吗?这可能是Open人工智能风暴的症结。
 
如今,越来越多的人质疑人工智能是否冒着快速发展的风险。甚至,以谨慎的态度发展人工智能已经成为越来越多人的共识。
 
让技术子弹飞一会儿
在人工智能研发的早期阶段,很难找到反对该技术发展的论据,但随着人工智能的发展,它的阴暗面逐渐出现。自然语言处理和机器学习被用于社交媒体、搜索和推荐引擎,扩大了信息的两极分化、偏见和错误。
 
甚至,“速度和安全”也不是唯一威胁人工智能领域专家的问题。更多的人担心另一件更困难的事情:人工智能正在操纵人类,人工智能将发挥更难以想象的巨大力量来操纵人类的无意识。
 
在Open人工智能风暴之前,伊利亚和相关负责人共同领导了一个“超对齐”研究项目,致力于解决一个简单但极其复杂的问题:“如何确保人工智能系统比人类更聪明地遵循人类的目标?”
 
但问题是,人工智能应该与什么样的人类目标保持一致?Open人工智能的一系列风暴充分证明,即使是少数Open人工智能领导者之间的目标也不可能一致。
 
面对注定相互冲突的目标,放慢人工智能的研究,让技术子弹飞一段时间,可能是解决问题的一种方法。
 
在超越人类智慧的“龙”真正走出笼子之前,每个人都认为自己有资格控制它。但无论是“奥特曼”还是“伊利亚”,没有人能确定自己选择了正确的道路。毕竟,“人类的判断总是有限的,真理只能在不断的延续中显现出来。”
免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章