什麼是人工通用情報(AGI)?您需要知道的一切

已發表: 2025-03-25

自從現代計算機發明以來,就如何定義人工通用智能(AGI)一直存在爭論,如何測試機器以查看其是否符合該定義,以及AGI的好處和缺點將對人類的工作,創造力和科學發現是什麼是什麼。

本文解釋了什麼是AGI,探討了其歷史,主要挑戰,以及它是否已經存在還是仍然是一個遙遠的目標。

目錄

了解人工智能(AI)

什麼是人工通用情報(AGI)?

AGI的關鍵特徵

AI將軍的歷史

Agi如何工作?

一般AI的潛在應用

道德考慮和挑戰

AI將軍的未來

什麼是AGI常見問題解答

了解人工智能(AI)

要了解AGI,將其與其他形式的人工智能(AI)區分開很重要。 AI通常通過與人類相比的智能以及其性能的範圍進行分類。

用語法更聰明地工作
任何有工作的人的AI寫作夥伴

什麼是人工智能?

AI是指使機器能夠解決複雜問題,通常模仿或超越人類能力的技術。它可以為語言處理,語音和圖像識別,數據分析和代碼生成等任務提供動力。但是,AI的功能各不相同,可以分為三種主要類型:

  • 狹窄的AI(弱AI):專門為特定任務設計的專門系統,例如垃圾郵件過濾,推薦算法和下棋程序。這些系統在其指定功能中表現出色,但不能超越它們。所有當前的AI都屬於此類別。
  • 人工通用智能(AGI):一種理論上的AI,可以學習,理性和解決與人類智能相似的廣泛領域的問題。與狹窄的AI不同,AGI不需要對新挑戰進行再培訓。
  • 人工超智能(ASI):一種假設的AI,超過了所有學科的人類智能,包括創造性的解決問題和戰略思維。 ASI仍然是推測性的,但經常與AGI的長期演變有關。

儘管今天的AI令人印象深刻,但它仍然狹窄,僅在預定義的邊界內才能出色。追求AGI是對真正的機器智能的追求,可以像人類一樣思考,學習和適應。

什麼是人工通用情報(AGI)?

沒有普遍接受的AGI定義,也稱為General AI。但是,許多定義表明,如果系統可以執行以下操作,則有資格為AGI:

  • 在不需要人類干預的情況下適應學習
  • 概括知識以解決陌生的問題
  • 在各種任務中對人類的表現相當

除了這些廣泛的屬性之外,AGI的定義各不相同,通常反映了那些試圖開發它的人的目標:

  • 在其2007年的書中,人工通用情報,本·戈特策爾(Ben Goertzel)和卡西奧·彭納辛(Cassio Pennachin)將AGI定義為具有“合理程度的自我理解和自主自我控制”的AI系統,並且可以在各種情況下解決各種複雜問題。
  • Openai將AGI定義為“在大多數經濟上有價值的工作中都超過人類的高度自主體系”。
  • 前Google AI研究人員和ARC-AGI基準的創建者Francois Chollet將AGI定義為能夠在其培訓數據之外有效地獲得新技能的系統。他強調,智力是技能的獲取和概括,而不是技巧本身。

AGI的關鍵特徵

儘管AGI的定義有所不同,但通常通過強調其在不同領域的功能來區分狹窄的AI。無論特定定義如何,AGI都需要擁有幾個核心特徵來實現這些能力:

自主決策

AGI必須能夠確定何時尋求新信息,請求幫助或採取獨立行動來解決問題。例如,如果任務是建模複雜的金融市場,則AGI將需要確定相關的數據源,分析歷史趨勢並確定如何獲取必要的信息 - 所有這些都沒有人類指導。

在不熟悉的領域解決問題

AGI必須能夠從一個領域概括知識並將其應用於新的,陌生的任務。通過類比進行學習的能力類似於在一兩個樂器上訓練的音樂家如何快速學習三分之一。同樣,AGI必須利用先驗知識來解決它沒有明確培訓的問題。

持續的自我完善

AGI必須能夠評估自己的表現並適應新情況。遞歸自我改善的一種方法是自我生成的訓練數據,如Deepmind的Robocat所示。另一個潛在的功能是修改其自己的代碼和體系結構。但是,如果AGI做出人類無法完全理解或控制的改變,這種自我修飾可能會引入安全風險。

AI將軍的歷史

在AI的廣泛歷史中,最好理解AGI的歷史。研究通過幾種不同的時代發展,每個時代都塑造了通往更有能力和一般AI系統的道路。

AI早期:符號AI(1950-1980S)

在1950年代和1960年代建立AI的第一次嘗試是基於這樣的想法:您可以教機器通過編程規則和邏輯(表示為符號)思考,並要求使用這些規則來解決問題。這產生了可以在棋盤遊戲中擊敗人並執行專業任務的專家系統(IBM的國際象棋冠軍Deep Blue是一個例子),但他們無法在編程知識之外學習任何東西。

轉向機器學習(1990年代至2011年)

隨著機器學習的興起(ML),這一重大轉變發生在1990年代,這從生物神經元如何在大腦中的功能中汲取了靈感。這些連接主義系統沒有使用硬編碼規則,而是使用神經網絡使用許多人工神經元的神經網絡,這些神經元通過在大型數據集上培訓並在許多培訓運行中逐步改善其輸出。

深度學習革命(2010年代至今)

現代深度學習革命始於2012年,當時研究人員開始使用圖形處理單元(GPU)來創建具有數万億個參數的神經網絡。這為計算能力提供了巨大的提升,這使這些機器學習模型(包括當代大型語言模型(LLM)等諸如Chatgpt)的能力是學習更多知識並將某些知識推廣到類似任務的能力。

定義AGI:超越傳統AI基準

隨著AI系統變得越來越複雜,研究人員提出了新的基準測試,以評估AI系統是否達到人類智能。最著名的早期基準Turing測試旨在確定機器是否可以令人信服地模仿人類對話。但是,正如Chatgpt和Claude這樣的LLM現在可以通過此測試,許多研究人員認為它已經過時了。

最新的基準測試(例如ARC-AGI測試)著重於AI系統超出其培訓數據的能力。儘管當前的AI模型仍然沒有類似人類的推理,但有些人(例如Openai的O3模型)取得了突破性的結果,重新激發了有關AGI可行性的辯論。

Agi如何工作?

在AI研究人員之間尚無共識,最終將導致AGI。符號AI和深度學習在構建可以跨越不同領域知識的系統方面都有局限性。當前的研究重點是開發具有元認知能力的模型,即評估和改善其推理過程的能力。

當前方法的限制

符號AI系統依靠人類程序員來獲取知識,並且無法自行獲得新信息,而包括生成AI在內的深度學習系統則需要大量的數據集和長期的培訓期才能學習新任務。另一方面,人類很容易吸收新信息,並且可以通過很少的例子來快速學習新事物。

但是,即使面臨這些挑戰,研究人員仍在探索許多途徑,以創建能夠在人類(或更好)層面學習,概括和做出決策的機器。最近具有AGI元素的一些方法包括神經符號AI,代理AI和體現的AI。

神經符號AI

包括加里·馬庫斯(Gary Marcus)和本·戈爾澤爾(Ben Goertzel)在內的一些AI研究人員認為,神經符號系統是通往AGI的方式。這些系統結合了不同類型的AI系統,以彌補任何一種方法的缺點。

例如,在2023年,Goertzel和他的合作者發布了Opencog Hyperon,這是一種開源AGI的工作,它提供了一個軟件框架,用於將來自各個學科的AI系統組合,包括自然語言處理(NLP),正式邏輯和概率推理。 Google DeepMind最近在國際數學奧林匹克運動會上實現了銀牌 - 級別的表現,並具有兩個神經符號系統,即字母隔板和字母表2。

代理AI

人工智能代理被認為是通往AGI道路的可能步驟,因為他們可以評估和響應其環境,理解背景並獨立於人類實現目標的決策。像神經符號的方法一樣,代理AI系統通過組合多種AI來完成不同的任務來工作。但是,對代理AI的研究仍處於早期階段,歸因於代理AI的許多更先進的功能仍然是理論上的。

體現了AI

領先的人工智能思想家,包括Openai聯合創始人Andrej Karpathy和科學家Melanie Mitchell,他說,到達AGI可能需要某種形式的體現。這是基於這樣的想法:AI很難學習基本的認知技能,例如了解因果關係或對象永久性而無需接收感覺輸入。

暗中需要體現的AI來滿足AGI的一些流行定義。例如,蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)提出了一個名為“咖啡測試”的基準,如果它能夠進入任意人的家,並弄清楚如何釀造一杯咖啡,則可以認為機器具有AGI。

一般AI的潛在應用

由於廣義智能的性質,AGI的潛在應用幾乎是無限的。一些可能從AGI提供的適應性和自主權中受益的一些行業包括醫療保健,教育,製造業和金融。

衛生保健

AGI有可能影響許多醫療保健領域的領域,在這種情況下,擁有一個具有訪問大量數據的智能係統,包括診斷和藥物發現,以及創建個性化治療計劃的能力,以反映患者健康病史的全部情況。

教育

教育中的AGI系統可用於幫助學生個性化學習途徑,以滿足他們的特定需求,幫助老師完成行政任務和課程計劃,以便他們可以花更多的時間在教學上,並幫助老師分析學生的績效,以識別學生可能落後的差距。

製造業

製造商不斷需要優化基於復雜供應鏈物流,生產計劃和質量控制的流程。 AGI有可能協助決定如何改善流程和自動化它們。

金融

由於金融部門公司處理大量數據,因此AGI將能夠比人類更快地分析和做出有關該信息規模的決定。這有可能加快諸如風險評估,合規性和市場分析之類的重型任務。

道德考慮和挑戰

隨著阿吉(Agi)的進展繼續前進,有一些法律問題和道德問題必須被建築物和使用AGI系統的人們考慮在內。

偏見

就像狹窄的AI系統可能缺乏訓練樣本中的多樣性一樣,AGI系統有可能基於偏斜或不完整的培訓數據表現出種族,性別或其他類型的偏見。算法還可以通過加權某些變量以使一組與另一組特權特權來引入偏差。

AGI行動的法律責任

AI系統已經成為違反隱私和公平住房法的法律糾紛的主題。但是,現有的法律框架並不總是清楚地定義誰應對AI造成的傷害負責。當機器以違反法律的方式行動時,先進的智能代理的出現將進一步使問責制的問題變得複雜。

一致性挑戰

AGI系統可以訪問大量數據和自主權以做出有影響力的決定。確保這些系統與人類價值觀和道德原則保持一致是AI對齊研究的重點。專家正在努力開發使AGI解釋並遵守期望的目標和約束的方法,從而最大程度地減少意外或不受歡迎的結果。

AI將軍的未來

隨著AI的發展,它既提出了挑戰和機遇。儘管必須解決有關就業和安全的擔憂,但AGI有可能在數據分析,自動化,優化,醫療保健和安全等領域帶來重大好處。

AGI可以通過以超出人類能力的規模解決問題來加速復雜的科學和社會問題的進步。通過處理重複的任務,AGI也可以使人們更多地專注於有意義的工作和個人利益。最終,它的發展不僅會重塑行業,而且還會重塑人類如何感知智力及其在世界上的作用。

AGI常見問題解答

AI和AGI有什麼區別?

AGI是AI的亞型,與狹窄或弱AI不同,該AI旨在在有限的域內執行特定任務。相比之下,AGI是指AI開發的假設階段,在該階段中,系統具有人類式的靈活性,適應性和推理,使它們能夠學習和執行各個領域的廣泛任務。

生成AI和將軍AI有什麼區別?

生成AI是一種AI類型,可分析大型數據集以基於學習模式生成預測,內容或響應。 AI或AGI將軍是指能夠在多個領域跨多個領域具有人類智能和推理的AI,從而可以學習和執行各種任務,而不僅僅限於特定功能。

chatgpt被認為是AGI嗎?

一些專家認為,像Chatgpt和Claude這樣的LLM可以被視為AGI。但是,這種觀點並未在AI研究人員中被廣泛接受。 Chatgpt缺乏對其產生的文本,與推理鬥爭的真正理解,並且無法跨越不同領域的知識,例如控制像自動駕駛汽車這樣的物理系統。這些限制意味著它不符合AGI的標準。

O3被視為AGI嗎?

儘管OpenAI的O3推理模型在2024年12月20日的Arc-Agi基準中取得了令人印象深刻的87.5%得分,但基準的創建者Francois Chollet並未認為它已經達到AGI。

觀察者指出,O3依靠公共測試樣本進行了廣泛的預培訓,並需要大量的計算資源才能達到其得分。 Chollet還指出,一些低計算模型得分高達81%,這表明O3的成功是由蠻力計算所驅動的,而不是真正的一般智能。

建立通用AI的主要挑戰是什麼?

  • 可信賴性: AGI系統必須始終準確且可靠,以使用戶依賴於關鍵應用程序中的輸出。
  • 長尾問題:無論AI系統擁有多少培訓數據,它都將不可避免地遇到罕見或無法預見的情況。例如,自動駕駛汽車將面臨訓練中未涵蓋的情況,要求他們有效地概括。
  • 能源消耗:先進的AI模型已經需要大量的能量和水進行計算。除非開發出更有效的處理方法,否則AGI可以要求更大的資源。
  • 常識:與人類不同,人工智能缺乏對物理學,社交互動和日常推理的真實經驗和直覺的理解 - 人們知道人們從童年時代就自然而然地獲取。

Agi是否存在?

由於AGI一詞是以不同的方式定義的,因此符合一個人(或公司)對AGI的定義的定義可能已經存在,但根據其他人而言。使用Google DeepMind論文的定義,即“至少在大多數任務上與人類一樣有能力的AI系統”,說AGI尚不存在是有道理的。