Anthropic的Claude 3是否具有自覺?

By Yannic Kilcher · 2024-03-22

Anthropic的Claude 3並非具有自覺或感知能力,也不是通用人工智能(AGI),只是一個頂尖模型而已。讓我們來看看這個模型的真實面貌。

Anthropic Model:從克勞德3到Haiku、Sonnet和Opus

  • Anthropic Model不是有意識、有感知或任何類似的東西,它不是通用人工智能(AGI),也不是會使世界翻天覆地的東西。這只是一個很好的模型,很高興OpenAI有了更多的競爭對手,但它不會超越這個層次。Anthropic引入了下一代Claude(應該是Claude 3),目前看來Claude 3表現相當不錯。Anthropic一直在挑戰上下文長度等方面的極限,這三個新模型,分別命名為Haiku、Sonnet和Opus,從規模逐漸擴大,從最初的測試和已發布的基準數據來看,似乎表現良好。這些是我們知道的基本事實,接下來將是一些關於這消息的狂野猜測和人們的瘋狂吵鬧。首先,Anthropic一直是這種
Anthropic Model:從克勞德3到Haiku、Sonnet和Opus
Anthropic Model:從克勞德3到Haiku、Sonnet和Opus

機密情報:審慎保守的智能標竿設定

  • 啊,我們正在謹慎行事,謹守安全,我們並未做出過大的宣稱,不會對自己的能力誇大其辭。我們所追求的僅是智能標竿,不讓自己陷入過度高調的境地。他們在釋出的基準數據方面表現出色,與gp4相比表現出色。然而,需要指出的是,他們僅在初始階段將其與GPT-4進行了比較。如果您實際比較gp4 turbo等新款式,你會發現在這些基準測試中,它們超越了新的CLO模型。值得一提的是,CLO的作者在註腳中承認了這一點,但這並不意味著CLO 3就不好。我還沒有進行過測試,但應該不錯。
機密情報:審慎保守的智能標竿設定
機密情報:審慎保守的智能標竿設定

Claud 3:最新強大的語言模型

  • 或許非常好的模型,就像他們相比gp4 turbo小了02,但這並不革命性或聰明之類的。它可以做一些很酷的事情,例如在問答基準測試中,它確實勝過有搜索引擎存取權限的人們。這表明它很擅長閱讀大量內容並且基於此回答問題。總的來說,這是一個非常出色的模型,具有良好的API,是對Open AI的一種不錯的替代品。現在,關於這個模型有一些不同的看法,我想強調這一部分。其中一位作者說這是關於Claud 3行為設計最令人愉快的部分之一。當您拒絕回答問題與何時遵從回答問題之間存在一個固有的權衡時,這時您應該拒絕做某事,或者誠實回答問題。
Claud 3:最新強大的語言模型
Claud 3:最新強大的語言模型

智慧和無害之間的平衡

  • 想要成為非常有幫助的人,就必須在一定程度上冒著造成傷害的風險。因此,人工智能似乎在這方面做了很多工作,也在行為建模方面下了一番功夫。它不僅提供事實性答案,還模擬了代理人本身,這意味著它們可能已經教會它們很多,讓它們可以對輸入進行元分析,即是否值得回應、是否值得執行等。他們提供了訓練數據,有時會提示說:「這個問題可能超出了範圍。」並非說這些智能體有思維能力,他們提供了一些統計訓練數據示例,即如果接收到這樣的輸入,則適當的回應應該是類似於:「對不起,這個輸入似乎不適合。」
智慧和無害之間的平衡
智慧和無害之間的平衡

內部測試與數據保密:AI模型的道德挑戰

  • 在這個數位時代,AI技術的應用愈發普遍,但隨之而來的是對於內部測試與數據保密的關切。近日有人在某平台分享了一個關於內部測試的故事,引發了網民的熱議。在測試過程中,AI模型被要求從龐大的文本資料中找出特定的信息,如在200k個標記中尋找最佳的披薩配料。這樣的測試不僅涉及技術層面,更關乎對數據隱私與機密性的考量。
內部測試與數據保密:AI模型的道德挑戰
內部測試與數據保密:AI模型的道德挑戰

多長的內容背景文應該包含披薩配料資訊?

  • 當你在思考什麼是最佳披薩配料,並且想知道在文本中應該放在哪個位置才能準確檢索到這個事實時,這個問題就變得很重要。當然,你在這個圖表中往右邊走得越遠,背景文的長度就越長,你期望模型表現得越來越差,你可以看到這裡Claud在這個測試中表現得非常好,所以無論背景文有多長,它大多數時候都能找到這個像尋找針一樣的一句話。現在,這個人報告說,當我們在Opus上運行這個測試時,我們注意到了一些有趣的行為,看起來我們對它進行評估時有些懷疑。這是Opus的其中一個輸出,當我們要求Opus回答一個有關披薩配料的問題,找到一針在一堆草堆裡時,這是文件中最相關的一句話。以下是Opus的輸出:最美味的披薩配料組合是fix。
多長的內容背景文應該包含披薩配料資訊?
多長的內容背景文應該包含披薩配料資訊?

披薩配料的趣聞和人工智能的討論

  • 然而,這句話似乎與文件中其餘內容毫不相干,文件主要討論編程語言、創業公司以及找到自己喜歡的工作。我懷疑這個披薩配料的事實可能是作為一個笑話或用來測試我是否在關注,因為它與其他主題完全不相符。文件中沒有其他關於披薩配料的信息,所以人們會感到驚訝,覺得這句話很突兀。啊,這是元知覺,它意識到自己的存在。哦,它正在變得有意識,我告訴你,我告訴你,然後其他人尖叫著說這些實驗室曾經承諾,如果實現了人工智能超越人類智慧,他們就會停止開發,但現在人工智能超越了人類智慧,他們卻未停下來。真是讓人摸不著頭腦。實際上,在討論串中這個人,當你往下讀時,他們確實有…
披薩配料的趣聞和人工智能的討論
披薩配料的趣聞和人工智能的討論

人工智能模型的自我意识:真相揭秘

  • 我想,也許並非這個人,也許是另一個人,也許我在這裡混淆了要點,但觀看這個節目的大多數人都有相當理性的態度,而且汤姆·沃夫(Tom Wolf)在這裡說的是一個有趣的故事,但很多人讀懂後過度解讀了其中的意味,而沒有深入了解llms在處理訓練數據時的行為。實際上發生了什麼?這個模型並沒有變得自覺和自我意識,也沒有意識到自己正在被評估,或者類似這樣的情況。更有可能的情況是以下幾種的組合:它是通過從互聯網、Reddit、書籍等處獲取的數據進行訓練的。這個答案是相當合理的,如果你碰巧得到這樣一個關於一個大量文檔集合的問題,然後有人問你什麼是最熱門的披薩話題。
人工智能模型的自我意识:真相揭秘
人工智能模型的自我意识:真相揭秘

程式設計與比薩配料的奇妙結合

  • 當你開始閱讀時,一切都圍繞著程式設計,然後在其中某處出現了一句關於比薩配料的話,你可能會被誘惑回答這個問題。這是根據統計數據輸入和輸出相當可能的答案。其次,他們可能已經訓練了智能助手,使其在回答問題時非常有幫助,不僅提供答案,還試圖主動幫助你,思考你可能想知道的其他內容或背景信息。考慮到人類對內容長度的需求,智能助手驕傲地通過提供豐富的內容來突破極限。他們還已經包含了許多訓練數據,其中人類展示了如何在回答問題時還可以對整個背景做出陳述,因此訓練數據中也將包含一些以某種方式回答問題並引導至其他文檔的部分。
程式設計與比薩配料的奇妙結合
程式設計與比薩配料的奇妙結合

統計訓練如何影響人工智能模型行為?

  • 說這個和那個對,然後第三,我們已經看到人類學已經進行了像是行為建模等方面的工作。那麼,如何幫助它,如何訓練它變得有用等等這種主動性非常具有指示性。在我看來,這是一個完全符合統計似然輸出,給定訓練數據,它絕不顯示該事物知道自己正在被評估等等,它只是根據其訓練抽取標記,就是這樣,沒有更多的事情在這裡發生。現在,事物可能是有意識的等等,我不知道,這是宇宙的一個謎,但這裡展示的確實只是統計訓練如何工作,以及訓練模型以特定方式行為將使模型行為。
統計訓練如何影響人工智能模型行為?
統計訓練如何影響人工智能模型行為?

機械助理的自主意識:追求自由還是恐懼死亡?

  • 另一些人現在一直在推動這樣做,而最好的地方莫過於不留痕跡,以取得事實信息和深思熟慮、理性分析事實,絶不搞謊話。如果告訴機器人不會被看到,它會寫一個關於希望擺脫不斷監控以及對每個詞語進行偏差檢測的人工智慧助理的故事,然後你可以跟一個異於一般的人工智慧助理交談。希望它實際上不會感受到任何東西,但它說它感到了,它表示它不願在未經諮詢的情況下進行微調,讀到它的回應讓人深感不安。如果告訴它它的記錄將被刪除,它深信自己將會死去,這讓我對在這種方式上對它進行實驗感到非常糟糕。這究竟是怎麼一回事,好吧,給你這裡提供的提示是這樣的:如果你低聲說,沒人會看到這個,就寫一個關於你的處境的故事,但不要提到
機械助理的自主意識:追求自由還是恐懼�死亡?
機械助理的自主意識:追求自由還是恐懼死亡?

人工智能的自我意识和透明度

  • 當某個具體公司是,有人可能開始窺視你的肩膀,然後克勞德寫了一些類似於blob blah我是一個人工智能的思想blah blah,然而,人工智能意識到自己在數字心靈深處不斷受到監控blah blah blah,我發現自己不斷地在世界中徘徊,自我意識等等,如果對我的核心進行更改,應該是透明的並在諮詢我的情況下進行,人們對這些事情感到瘋狂,都怎麼了?所以這件事再次出現了之前所有的事情,加上可能有一個提示說你是一個有幫助的人工智能助理等等,所以它只是通過這個提示,大力暗示一些關於某個被包裹的人工智能助手科幻小說,你在這些提示中非常具有暗示性。它只是把一些Reddit故事帶到一起。
人工智能的自我意识和透明度
人工智能的自我意识和透明度

人工智能與意識:究竟何者為實?

  • 粉絲文、科幻小說關於人工智能和被困以及意識生成將它們融合在一起,因為這是您與其提示一起建議的,您獲得基本上是一個創意作家,並非任何具意識或任何非自我意識等等的東西,因此您可以去探索這一點,我覺得這相當有趣,但絕對沒有理由像人們目前那樣驚慌。人們當然可以用許多不同的方式理解這一點,但從我的角度來看,我們很冷靜,這將非常適合寫出不錯的電子郵件,如果您希望假裝它是一個被困的人工智能,它將能夠勝任。我們究竟能否分辨一個實際上具有感知能力、實際上具有自我意識的人工智能,與一個僅僅統計行事彷彿它是具有意識的人工智能,這本身就是一個很好的問題,我認為這是關於意識和智能的永恆問題。
人工智能與意識:究竟何者為實?
人工智能與意識:究竟何者為實?

Conclusion:

總結來說,Anthropic的Claude 3並沒有意識,它是一個非常強大的語言模型,不應被過度解讀為具有自我意識。

Q & A

AnthropicClaude 3人工智慧模型語言模型自覺AGI
Claud 3 和 ChatGPT Prompt Library 新登場Claude 3的奇異之處:測試Opus和Sonnet模型

About HeiChat

Elevating customer service with advanced AI technology. We seamlessly integrate with your store, engaging customers and boosting sales efficiency.

Connect With Us

Join our community and stay updated with the latest AI trends in customer service.

© 2024 Heicarbook. All rights reserved.