OpenAI的最大担忧正在成真(2027年AGI的到来但不是由OpenAI)
By AI Revolution · 2024-06-23
近日,一家名为Safe Super Intelligence(SSI)的初创公司加入了发展安全超级智能的竞赛。他们的创始人曾是OpenAI的知名人士,离开了后便投身于这个挑战性的新项目。
打造安全超级智能:SSI开创新篇章
- 近日,一个名为Safe Super Intelligence(SSI)的初创公司加入了开发安全超级智能的竞赛。这家公司由一些来自OpenAI的知名人士创立,他们在颇具争议的情况下离开了OpenAI。你可能对OpenAI的“大脑”之一——伊利亚·苏瓦(Ilia Suaver)——有所了解,他就在上个月离开了那家公司,几乎立刻就投身到了这个新的事业中。
- SSI致力于打造安全超级智能,基本上是在创造一种智能超高的人工智能,它不会对人类产生敌意。苏瓦在Twitter上宣布了这一消息,他表示:“我们将一心一意追求安全超级智能,拥有一个目标,一个产品。”不过,SSI并不是苏瓦一个人的表演,他和AI领域的其他几位行家们联手。有曾领导过苹果AI和搜索工作的丹尼尔·格罗斯(Daniel Gross),还有另一位前OpenAI工程师丹尼尔·莱维(Daniel Levy)。可以说,他们组成了一个AI专家小组。
- 他们一起在加州的帕洛阿尔托和以色列的特拉维夫设立了公司。看起来,这些人是认真的,他们对让AI保持安全和安全有着严格的使命感,并且不会让任何短期业务压力左右他们的初衷,这真的很酷。
- 苏瓦离开OpenAI的背景故事颇有戏剧性。去年11月,他曾是一群人中的一员,试图罢免OpenAI的CEO山姆·阿尔曼。是的,就像是一次真正的政变。整个事件在AI界引起了轩然大波,苏瓦后来甚至公开道歉,表示他对这次企图感到后悔。显然,在如何处理AI安全性方面存在一些深刻分歧,这可能导致苏瓦等人离开公司。
- 因此,苏瓦的新创业公司SSI致力于确保人工智能在变得更加智能和先进的同时仍然保持安全。该公司的信息很明确:我们的核心关注点意味着不受管理开销或产品周期的干扰,我们的商业模式意味着安全、安全性。
打造安全超级智能:SSI开创新篇章
AI的未来:数字大脑何时能超越人类思维?
- 人工智能领域的进步受到短期商业压力的影响较小,但让我们暂停一下,看看OpenAI的超级对齐团队发生了什么事。这个团队专注于引导和控制AI系统,确保其不走偏离正 轨,这显然非常重要。然而,在Sut和他的同事Yan Leica离开后,团队解散了。Sut随后加入了另一家AI公司Anthropic,该公司也致力于AI安全。在2023年的一篇博文中,Sut和Leica谈到了超智能AI的潜在危险,并预测我们在未来十年内可能会见到比人类更聪明的AI。可以想象吗?比我们人类更聪明的AI。他们强调了对研究控制和限制这些强大AI系统的需求,这一直是Sut工作中的一个一贯主题,显然他对此非常热情。
- 现在SSI的方法是尽可能快地推进AI能力,同时确保安全措施领先于技术。他们相信这种策略将使他们能够扩大其技术规模,而不会遇到重大问题,这显然非常重要。Sut和他的团队正在为他们在Palo Alto和特拉维夫的办公室招募顶尖人才,旨在汇集这个领域最优秀的思想来应对这一巨大挑战。随着研究人员和工程师继续致力于AI,总有一天,存在于计算机内部的数字大脑将比我们自己的生物大脑更加优秀。
- 有趣的一点是SSI与OpenAI在商业模式方面的不同。与OpenAI不同,OpenAI起初是一个非营利组织,后来重组以适应其项目的大量资金需求,SSI从一开始就被设立为盈利实体。联合创始人之一Daniel Gross提到,由于AI引起了繁荣的兴趣并且他们的团队背景令人印象深刻,为他们筹集资金不是问题,因此他们并不担心金钱方面的事情。现在让我们谈谈最近披露的一些内容。
AI的未来:数字大脑何时能超越人类思维?
开放AI内部冲突与未来展望
- 在最近《纽约时报》的HardFork播客中,对一位开放AI的员工进行了采访。这位员工是Daniel Koko,他分享了一些关于开放AI内部运作的惊人见解。
- Koko提到,与开放AI有着重要合作关系的微软,在未等待内部安全委员会的批准之前,已经在印度部署了GP4。这个安全委员会本应确保任何人工智能的重大部署都是安全和经过深思熟虑的,但显然微软却有点操之过急,这引起了开放AI内部的失望和担忧。
- 这一事件表明,即使是大公司有时也会绕过重要的安全协议,这是相当令人担忧的。Koko还谈到了开放AI在之前提到的Sam Altman事件后的文化。他说,针对安全团队(其中也包括他自己)存在很多愤怒,开放AI的人认为安全团队在拖慢进展,而老板并未诚实地解释为什么要解雇Altman。
- 这为那些关注人工智能安全的人创造了一个相当敌对的工作环境,这是不好的。这种紧张情绪可能是导致John Leek等一些研究人员决定离开开放AI的因素,你还记得John Leek吧,那位在超级对齐团队解散后去Anthropic的人?
- 很明显,关于如何平衡快速的人工智能发展和确保安全方面存在着重大内部冲突,这确实是一个难以取舍的平衡。在这次与Koko的访谈中,还有一个相当大胆的预测出来。他提到,许多开放AI的员工,包括他自己,相信AGI(人工通用智能)可能在2027年之前到来。
- 关于这些模型的能力和过去四年中的进展的公开信息已经足够让我们做出推测,可以说天啊,看起来我们可能在2027年或更早就迎来AGI了,你知道,那只是几年之后的事情。这可是一件大事。
开放AI内部冲突与未来展望
人工智能的未来展望
- 人工智能如果能够达到或甚至超过人类智能,将意味着什么呢?如果这一预测成真,它将以我们无法完全想象的方式改变我们的世界。根据库库的观点,即使是关于人工智能进展的公开信息也表明,我们预计在2027年前将实现人工通用智能(AGI)。他表示,并不需要任何机密信息就能预见到这一点,这是相当令人震惊的。这一时间表与其他人工智能专家的预测一致,包括山姆·奥尔特曼本人,他们一直预测人工通用智能会在未来十年内实现,而现在共识似乎更倾向于较早实现,那么对于未来意味着什么呢?
- 如果我们在2027年看到人工通用智能,它将对我们工作和生活的方方面面产生巨大影响,以及我们如何应对全球挑战。但这也意味着我们需要非常小心地开发和部署这些强大的人工智能系统,这就是像SSI这样的公司所扮演的角色,专注于确保人工智能继续对人类安全和利益有益,这显然非常重要。让我们简要回顾一下伊利亚·苏茨创办SSI的背景:尽管开放人工智能公司有很多波折,但他仍专注于他认为是当今最重要的挑战,即创建安全的超级智能,他的新公司拥有明确的使命和才华横溢的团队,有望在这一领域取得重大进展,这令人兴奋。
- 从丹尼尔·库库的采访中所得到的见解也突显了人工智能行业内的复杂性和紧张关系,你知道,这不仅仅是制造智能机器,更重要的是要负责任地和道德地这样做,当然这比做起来容易得多。未来几年对于塑造人工智能的未来至关重要,看到一切如何展开将会非常吸引人。希望您觉得这条信息和我一样有趣,如果是这样,请确保点赞并订阅,点击通知铃,这样您就不会错过任何未来的更新。感谢观看,我们下期节目再见。
人工智能的未来展望
Conclusion:
未来人工智能领域的发展将对我们的生活和工作产生深远影响。SSI等公司致力于确保AI的安全和利益,关注人类利益。了解他们的使命和挑战,以及OpenAI内部的一些冲突与未来展望。