人工一般情報(AGI)とは何ですか?あなたが知る必要があるすべて

公開: 2025-03-25

現代のコンピューターの発明以来、人工的な一般情報(AGI)を定義する方法、その定義を満たしているかどうかを確認するためにマシンをテストする方法、およびAGIの利点が人間の仕事、創造性、科学的発見のためのものとなる方法について議論がありました。

この記事では、AGIが何であるかを説明し、その歴史、重要な課題、そしてそれがすでに存在しているのか、それとも遠い目標であるのかを説明します。

目次

人工知能の理解(AI)

人工一般情報(AGI)とは何ですか?

AGIの重要な特徴

AI将軍の歴史

AGIはどのように機能しますか?

一般的なAIの潜在的なアプリケーション

倫理的な考慮事項と課題

AI将来の未来

AGI FAQとは何ですか

人工知能の理解(AI)

AGIを理解するには、他の形態の人工知能(AI)と区別することが重要です。 AIは一般に、人間と比較して、その知性をどの程度広く適用できるか、どの程度うまく機能するかによって分類されます。

文法でより賢く働きます
やるべき仕事をしている人のためのAI執筆パートナー

人工知能とは何ですか?

AIとは、マシンが複雑な問題を解決できるようにするテクノロジーを指し、多くの場合、人間の能力を模倣したり上回ったりします。言語処理、音声および画像認識、データ分析、コード生成などのタスクを強化します。ただし、AIの能力は異なり、3つの主要なタイプに分類できます。

  • ナローAI(弱いAI):スパムフィルタリング、推奨アルゴリズム、チェスプレイプログラムなどの特定のタスク用に設計された専門システム。これらのシステムは、指定された機能に優れていますが、それらを超えて適応することはできません。現在のAIはすべてこのカテゴリに分類されます。
  • 人工一般情報(AGI):人間の知能に似た、広範囲のドメインで問題を学び、推論し、解決できる理論的AI。狭いAIとは異なり、AGIは新たな課題のために再訓練を必要としません。
  • 人工的な密集物(ASI):創造的な問題解決や戦略的思考を含む、すべての分野で人間の知性を上回る仮想的なAI。 ASIは投機的なままですが、AGIの長期的な進化に関連してしばしば議論されています。

今日のAIは印象的ですが、事前に定義された境界内でのみ優れている狭いままです。 AGIの追求は、真のマシンインテリジェンスの探求であり、人間のように考え、学び、適応できるものです。

人工一般情報(AGI)とは何ですか?

AI将軍とも呼ばれるAGIの普遍的に受け入れられている定義はありません。ただし、多くの定義は、システムが以下を実行できる場合、AGIとして適格であることを示唆しています。

  • 人間の介入を必要とせずに適応的に学ぶ
  • なじみのない問題を解決するために知識を一般化します
  • 幅広いタスクで人間と同等に実行する

これらの広範な属性を超えて、AGIの定義はさまざまであり、多くの場合、それを開発しようとしている人の目標を反映しています。

  • 2007年の本「人工的な一般情報」で、ベン・ゴエルツェルとカシオ・ペンナチンは、AGIを「合理的な程度の自己理解と自律的な自制心」を持ち、さまざまな文脈でさまざまな複雑な問題を解決できるAIシステムとして定義しています。
  • Openaiは、AGIを「最も経済的に価値のある仕事で人間を上回る非常に自律的なシステム」と定義しています。
  • 元Google AIの研究者であり、ARC-AGIベンチマークの作成者であるFrancois Cholletは、AGIをトレーニングデータ以外で効率的に新しいスキルを獲得できるシステムとして定義しています。彼は、インテリジェンスはスキル自体ではなく、スキルの獲得と一般化によって特徴付けられることを強調しています。

AGIの重要な特徴

AGIの定義は異なりますが、一般に、多様なドメインで機能する能力を強調することにより、狭いAIと区別します。特定の定義に関係なく、AGIはこれらの機能を達成するためにいくつかのコア特性を所有する必要があります。

自律的な意思決定

AGIは、新しい情報を求めたり、支援を要求したり、問題を解決するために独立した行動をとるかを判断できる必要があります。たとえば、複雑な金融市場のモデリングを担当する場合、AGIは関連するデータソースを特定し、歴史的傾向を分析し、必要な情報を取得する方法を決定する必要があります。

なじみのないドメインでの問題解決

AGIは、1つのドメインから知識を一般化し、それを新しい、なじみのないタスクに適用できる必要があります。アナロジーを通じて学習を転送するこの能力は、1つまたは2つの楽器でミュージシャンが訓練した方法と同様です。同様に、AGIは事前知識を活用して、明示的に訓練されていない問題を解決する必要があります。

継続的な自己改善

AGIは、独自のパフォーマンスを評価し、新しい状況に適応できる必要があります。再帰的な自己改善へのアプローチの1つは、DeepMindのロボカットに見られるように、自己生成トレーニングデータです。別の潜在的な機能は、独自のコードとアーキテクチャを変更することです。しかし、このような自己修正は、AGIが人間が完全に理解または制御できない変更を加えた場合、安全リスクを導入する可能性があります。

AI将軍の歴史

AGIの歴史は、AIのより広い歴史の中で最もよく理解されています。研究はいくつかの異なる時代を通じて進化し、それぞれがより能力のある一般的なAIシステムへの道を形作っています。

初期AI:シンボリックAI(1950年代〜1980年代)

1950年代と1960年代にAIを構築する最初の試みは、プログラミングルールとロジック(シンボルとして表される)で考える機械にコンピューターに考えることができ、これらのルールを使用して問題を解決するように依頼できるという考えに基づいていました。これにより、ボードゲームで人間をbeatり、専門的なタスク(IBMのチェスチャンピオンコンピューターのディープブルーはその一例です)を作成できる専門家システムを生み出しましたが、プログラムされた知識以外のものを学ぶことができませんでした。

機械学習への移行(1990年代〜2010年代)

1990年代には、機械学習の台頭(ML)とともに大きな変化が起こり、脳の生物学的ニューロンがどのように機能するかからインスピレーションを得ました。ハードコーディングされたルールを使用するのではなく、これらのコネクショニストシステムは、大規模なデータセットでトレーニングし、多くのトレーニングランで段階的に出力を改善することで学習する人工ニューロンの多くの層を使用するニューラルネットワークを使用します。

ディープラーニングレボリューション(2010年代〜プレゼント)

現代の深い学習革命は、研究者がグラフィックプロセシングユニット(GPU)を使用して、数兆個のパラメーターを持つニューラルネットワークを作成し始めたときに始まりました。これにより、CHATGPTのような現代の大規模な言語モデル(LLM)を含むこれらの機械学習モデルを提供する計算能力が大幅に向上しました。

AGIの定義:従来のAIベンチマークを超えて

AIシステムがより洗練されると、研究者はAIシステムが人間レベルの知能に到達したかどうかを評価するための新しいベンチマークを提案しました。最も有名な初期のベンチマークであるチューリングテストは、マシンが人間の会話を説得力のあるものに模倣できるかどうかを判断するために設計されました。ただし、ChatGptやClaudeのようなLLMSがこのテストに合格できるようになったため、多くの研究者はそれが時代遅れだと考えています。

ARC-AGIテストなどの最近のベンチマークは、トレーニングデータを超えて一般化するAIシステムの能力に焦点を当てています。現在のAIモデルは依然として人間のような推論に達していませんが、OpenaiのO3モデルのような一部の人は、AGIの実現可能性に関する議論を再燃させて、画期的な結果を達成しています。

AGIはどのように機能しますか?

AI研究者の間では、最終的にAGIにつながるアプローチに関するコンセンサスはありません。シンボリックAIと深い学習の両方に、異なるドメイン全体で知識を一般化できるシステムの構築に関しては、制限があります。現在の研究では、メタ認知能力を備えたモデルの開発に焦点を当てています。これは、独自の推論プロセスを評価および改善する能力です。

現在のアプローチの制限

シンボリックAIシステムは、人間のプログラマーに知識を依存しており、独自の新しい情報を取得できませんが、生成AIを含む深い学習システムには、新しいタスクを学ぶために膨大なデータセットと長いトレーニング期間が必要です。一方、人間は新しい情報を容易に吸収し、非常に少ない例で新しいことをすばやく行うことを学ぶことができます。

しかし、これらの課題にもかかわらず、研究者は、人間(またはより良い)レベルで学習、一般化、意思決定を行うことができるマシンを作成するための多くの手段を探求しています。 AGIの要素を持ついくつかの最近のアプローチには、神経腫瘍AI、エージェントAI、および具体化されたAIが含まれます。

神経系統症AI

Gary MarcusやBen Goertzelを含む一部のAIの研究者は、神経腫瘍システムがAGIへの方法であると主張しています。これらのシステムは、さまざまなタイプのAIシステムを組み合わせて、1つのアプローチの欠点を補正します。

たとえば、2023年に、Goertzelと彼の共同作家は、自然言語処理(NLP)、正式な論理、確率的推論など、さまざまな分野のAIシステムを組み合わせるためのソフトウェアフレームワークを提供するオープンソースAGIの取り組みであるOpenCog Hyperonをリリースしました。 Google Deepmindは最近、2つのニューロシンボリックシステムであるアルファプローフとアルファージ測定2を備えた国際数学オリンピアードで銀メダルレベルのパフォーマンスを達成しました。

エージェントAI

AIエージェントは、AGIへの道の可能なステップと考えられています。なぜなら、環境を評価して応答し、コンテキストを理解し、目標を達成するために人間から独立した意思決定を行うことができるからです。ニューロ - 免疫症のアプローチと同様に、エージェントAIシステムは、さまざまなタスクを達成するために複数の種類のAIを組み合わせることで機能します。ただし、エージェントAIの研究はまだ初期段階にあり、エージェントAIに起因するより高度な機能の多くは依然として理論的です。

具体化されたAI

Openaiの共同設立者であるAndrej Karpathyや科学者のMelanie Mitchellを含む主要なAI思想家は、AGIに到達するには何らかの形の具体化が必要になる可能性があると述べています。これは、AIが感覚入力を受け取る能力なしで因果関係やオブジェクトの永続性を理解するなどの基本的な認知スキルを学ぶことは難しいという考えに根ざしています。

具体化されたAIは、AGIの一般的な定義を満たすために暗黙的に必要です。たとえば、Appleの共同設立者Steve Wozniakは、任意の人の家に入ってコーヒーを醸造する方法を理解できれば、AGIを所有すると考えられるコーヒーテストと呼ばれるベンチマークを提案しました。

一般的なAIの潜在的なアプリケーション

一般化されたインテリジェンスの性質により、AGIの潜在的なアプリケーションは事実上無限です。 AGIが提供する適応性と自律性から特に恩恵を受ける可能性のあるいくつかの業界には、ヘルスケア、教育、製造、金融が含まれます。

健康管理

AGIは、診断や創薬など、膨大な量のデータにアクセスできるインテリジェントなシステムを持つことが有利であり、患者の健康履歴の全体像を反映する個別化された治療計画を作成する能力を持つことが有利なヘルスケアの多くの分野に影響を与える可能性があります。

教育

教育におけるAGIシステムを使用して、学生が特定のニーズを満たすための学習経路をパーソナライズし、管理タスクとレッスン計画で教師を支援して、教育により多くの時間を費やすことができ、教師が学生のパフォーマンスを分析して学生が遅れている可能性のあるギャップを特定できるようにすることができます。

製造

メーカーは、複雑なサプライチェーンロジスティクス、生産スケジュール、および品質管理の根底にあるプロセスを最適化する必要があります。 AGIは、プロセスを改善し、それらを自動化する方法についての決定を下すのを支援する可能性があります。

ファイナンス

金融セクター企業は膨大な量のデータを扱っているため、AGIは、その規模の情報に関する決定を分析し、人間よりもはるかに速く決定することができます。これにより、リスク評価、コンプライアンス、市場分析などのデータが多いタスクをスピードアップする可能性があります。

倫理的な考慮事項と課題

AGIへの進歩が進み続けるにつれて、法的な問題と倫理的懸念があり、それらの建物とAGIシステムを使用しているものの両方で考慮する必要があります。

バイアス

狭いAIシステムがトレーニングサンプルの多様性の欠如に苦しむ可能性があるのと同じように、AGIシステムは、歪んだトレーニングデータまたは不完全なトレーニングデータに基づいて、人種、性別、または他の種類のバイアスを示す可能性があります。アルゴリズムは、あるグループを別のグループよりも特権にするために特定の変数を重み付けすることにより、バイアスを導入することもできます。

AGIアクションに対する法的責任

AIシステムはすでに、プライバシーと公正な住宅法の違反に関する法的紛争の対象となっています。ただし、既存の法的枠組みは、AIによって引き起こされた害に対して誰が責任を負うかを常に明確に定義するとは限りません。高度なインテリジェントエージェントの出現は、機械が法律を破る方法で行動する場合、説明責任の問題をさらに複雑にします。

アラインメントの課題

AGIシステムは、膨大な量のデータと自律性にアクセスして、影響力のある決定を下すことができます。これらのシステムが人間の価値と倫理原則に沿っていることを保証することが、AIアライメント研究の重要な焦点です。専門家は、AGIが望ましい目標と制約を解釈し、遵守し、意図しないまたは望ましくない結果を最小限に抑えることができる方法を開発するために取り組んでいます。

AI将来の未来

AIが進むにつれて、課題と機会の両方を提示します。雇用と安全に関する懸念に対処する必要がありますが、AGIはデータ分析、自動化、最適化、ヘルスケア、セキュリティなどの分野に大きな利益をもたらす可能性があります。

AGIは、人間の能力を超えた規模で問題を解決することにより、複雑な科学的および社会的問題の進歩を加速することができます。繰り返しタスクを処理することにより、AGIは、有意義な仕事と個人的な関心にもっと集中するために人々を解放することもできます。最終的に、その発展は、産業だけでなく、人間が世界における知性とその役割をどのように認識しているかを再構築するでしょう。

AGI FAQ

AIとAGIの違いは何ですか?

AGIは、限られたドメイン内で特定のタスクを実行するように設計された狭いまたは弱いAIとは異なるAIのサブタイプです。対照的に、AGIは、システムが人間的な柔軟性、適応性、推論を備えているAI開発の仮説段階を指し、異なるドメインで幅広いタスクを学習して実行できるようにします。

生成AIと一般的なAIの違いは何ですか?

生成AIは、学習パターンに基づいて予測、コンテンツ、または応答を生成するために大きなデータセットを分析するAIの一種です。 AI将軍、またはAGIは、複数のドメインにわたって人間レベルの知性と推論が可能なAIを指し、特定の機能に限定されることなく、さまざまなタスクを学習および実行できるようにします。

ChatGptはAGIと見なされますか?

一部の専門家は、ChatGptやClaudeのようなLLMがすでにAGIと見なされる可能性があることを示唆しています。ただし、この見解はAIの研究者の間で広く受け入れられていません。 ChatGptは、生成するテキストの真の理解を欠いており、推論に苦しんでおり、自動運転車のような物理システムを制御するなど、さまざまなドメインで知識を一般化することはできません。これらの制限は、AGIの基準を満たしていないことを意味します。

O3はAGIと見なされますか?

OpenaiのO3推論モデルは、2024年12月20日にARC-AGIベンチマークで印象的な87.5%スコアを達成しましたが、ベンチマークの作成者であるFrancois CholletはAGIに到達したとは考えていません。

オブザーバーは、O3がパブリックテストサンプルを使用した広範なトレーニングに依存しており、そのスコアを達成するために大規模な計算リソースを必要としたことを指摘しています。 Cholletはまた、一部の低コンピュートモデルは81%に達したことを指摘し、O3の成功は真の一般情報よりもブルートフォース計算により駆動されたことを示唆しています。

AI将軍の建設における主な課題は何ですか?

  • 信頼性: AGIシステムは、ユーザーが重要なアプリケーションでの出力に依存するために一貫して正確かつ信頼できる必要があります。
  • ロングテールの問題: AIシステムがどれだけのトレーニングデータを持っているとしても、必然的にまれなシナリオまたは予期しないシナリオに遭遇します。たとえば、自動運転車は、トレーニングでカバーされていない状況に直面し、効果的に一般化する必要があります。
  • エネルギー消費:高度なAIモデルには、計算のために膨大な量のエネルギーと水がすでに必要です。 AGIは、より効率的な処理方法が開発されていない限り、さらに大きなリソースを要求する可能性があります。
  • 常識:人間とは異なり、AIには現実世界の経験と物理学、社会的相互作用、日常の推論に対する直感的な理解がありません。

AGIはもう存在しますか?

AGIという用語はさまざまな方法で定義されているため、AGIの1人(または会社)の定義を満たすものは、他の人には従っているわけではなく、すでに存在する可能性があります。 Google Deepmindの論文の定義を「少なくともほとんどのタスクで人間と同じくらい能力があるAIシステム」を使用して、AGIはまだ存在しないと言うのは理にかなっています。