OpenAIの大きな恐怖、AGIは2027年にもたらされるが、OpenAIではないのか?
By AI Revolution · 2024-06-23
OpenAIの一部の重要メンバーにより立ち上げられた新興企業、Safe Super Intelligence(SSI)が安全な超知能AIを目指して挑戦しています。AGIの到来に向けて人類は未曽有の展望に直面しています。
安全な超知能AIの開発に向けた新たな挑戦
- 超知能AIを安全に開発するレースに新たなプレイヤーが現れました。オープンAIの一部の重要なメンバーが不穏な状況下で立ち上げたスタートアップ、Safe Super Intelligence(SSI)という新興企業です。Open AIの中心メンバーであり、Ilia Suaver氏が先月退社後、ほぼすぐにこの新しい事業に参加したことは知られています。
- SSIは、人類に対して背を向けない安全な超知能AIを作り出すことに焦点を当てています。Sagher氏は、Elon Muskの問題の後にTwitterで(今はXと呼ばれています)この発表を行いました。「私たちは、単一の焦点、目標、製品で安全な超知能を追求します。」と語っています。
- Suts氏はAIの世界で大物と共にチーム を組んでいます。AppleのAIと検索活動を率いていたDaniel Gross氏や、別の元Open AIエンジニアであるDaniel Levy氏など、AIの専門家がそろったスーパーグループです。彼らは一緒に、カリフォルニアのパロアルトとイスラエルのテルアビブに拠点を置く予定です。
- SutsのOpen AIからの離脱には、かなりドラマティックな出来事が絡んでいます。彼は去年の11月にOpen AIのCEOであるSam Altman氏を排除しようとしたグループの一員でした。実際にクーデターを試みたのです。この一連の出来事はAIコミュニティを大きく騒がせ、Suss氏は後に公に謝罪し、その行為を後悔したと述べました。
- SSIの新しい事業は、AIがより賢く高度になるにつれてもAIが安全であることを確認することに重点を置いています。同社のメッセージは明確で、「経営上のオーバーヘッドや製品サイクルによる逸脱はなく、ビジネスモデルは安全、セキュリティ」と述べています。
安全な超知能AIの開発に向けた新たな挑戦
未来のAI時代:人間を超える知性に向けて
- オープンAIのスーパーアライメントチームの解散から始めると面白いでしょう。このチームは、AIシステムをコントロールし、軌道を外れないように導くことに焦点を当てていました。しかし、スットと同僚のヤン・ライカがチームを去った後、チームは解散しました。
- その後、スットは別のAI企業であるアンソニックに参加しました。2023年のブログポストでは、彼らはスーパーインテリジェントなAIの潜在的な危険性について話し、10年以内に人間を上回る知性を持つAIが現れる可能性を予測しました。人間よりも賢いAI、想像してみてください。
- 現在、SSIのアプローチはAIの能力を可能な限り迅速に進化させながら、安全対策を先んじさせることです。彼らはこの戦略によって技術をスケールアップし、大きな問題に直面することなく進めると信じています。
- SSIは非営利団体として始まったオープンAIとは異なり、ビジネスモデルでも違いがあります。SSIは最初から営利企業として設立されており、資本調達にはそれほど心配していません。AIへの注目が高まっており、チームの印象的な資格により、資金調達に問題はないと述べています。
- 最近明らかになった情報についても触れてみましょう。