原則から実践へ: 責任ある AI への道

公開: 2024-07-29

人工知能は、日常業務の効率を向上させ、テクノロジーの新たなフロンティアを前進させることで、私たちの社会を急速に変革しています。しかし、AI の急速な導入により、その影響と安全性についての本質的な議論が引き起こされています。

AI に責任を持ってアプローチするには、AI と自動車の間にいくつかの類似点があることを考慮してください。

車を安全にするものは何ですか?シートベルト、交通法規、衝突試験だけではありませんが、それらはすべて全体的な安全に貢献します。一連の製造プロセス、機能、テスト、ガバナンス、教育、社会規範により、何十億人もの人々が毎日安全に自動車を使用できるようになります。

車とAIは似ています。 Grammarly では、責任ある AI を、構想から開発、展開に至る AI パイプライン全体にわたる一連のチェック アンド バランスとして考えています。 AI に責任を負わせる単一の要素や制御はありませんが、組織全体で採用されている標準と実践により、責任ある AI への包括的なアプローチを確立できます。

責任あるAIとは何でしょうか?

責任ある AI とは、マインドフルで道徳的に健全で、人間の価値観に沿った方法で人工知能を作成および利用することです。それは、望ましくない動作や結果を減らしながら、意図した影響を優先する方法で AI を制御することです。そのためには、自由に使える AI テクノロジーの機能を十分に認識し、潜在的な落とし穴を特定し、適切なユースケースを選択し、リスクに対する保護を確立する必要があります。

責任ある AI は、AI パイプライン内のさまざまな段階でさまざまな形をとります。 AI を責任を持って導入するには、既存の AI モデルを実装したり、AI ベースのテクノロジーをゼロから構築したりする場合に必要な原則とは異なる原則が必要になる場合があります。 AI パイプラインのあらゆる段階で AI が動作するための明確な期待値を設定し、道しるべを確立することが不可欠です。

それを念頭に置いて、企業は責任ある AI を導入する際に正しい軌道に乗っていることをどのように確認できるでしょうか?

責任ある AI フレームワークの作成

責任ある AI への道のりには、テクノロジーを理解し、意図された影響を考慮し、意図しない動作、幻覚、危険なコンテンツの生成などの潜在的なリスクを軽減することが含まれます。これらの手順により、AI の動作が企業の価値観と一致することが保証されます。

ビジネスに AI を組み込むことを検討している企業は、AI が自社のブランド、ユーザー、意思決定の結果にどのような影響を与えるかを検討する必要があります。組織内で責任ある AI のフレームワークを確立すると、AI の構築または導入に関する意思決定に役立ちます。

米国国立標準技術研究所が公開している AI リスク管理フレームワークは、この取り組みにおいて貴重なリソースです。このフレームワークは、組織が生成型 AI に関連するリスクを認識して管理するのに役立ち、企業が責任ある AI の原則を策定する際の指針となります。

Grammarly の責任ある AI 標準

Grammarly では、AI ベースのソリューションを毎日作成して利用しています。責任ある AI は、当社の製品開発と優れた運用の基礎です。当社には、研究者、分析言語学者、機械学習エンジニア、セキュリティ専門家で構成される専任の Responsible AI チームがあり、当社、ユーザー、製品のために何を達成しようとしているのかを批判的に考えています。

当社は進化するにつれて、独自の責任ある AI 標準を開発してきました。

  • 透明性:ユーザーは、いつ AI と対話しているかを認識できる必要があります。これには、AI によって生成されたコンテンツの特定や、AI トレーニング方法の詳細の提供が含まれます。これは、AI がどのように意思決定を行うかをユーザーが理解するのに役立ちます。 AI の限界と能力を知ることで、ユーザーはそのアプリケーションについてより多くの情報に基づいた意思決定を行うことができます。
  • 公平性:AI の公平性は、Grammarly における単なる流行語ではありません。それは指針です。 Grammarly は、AI 出力を評価するツールと厳格な機密性リスク評価を通じて、偏見や不快なコンテンツを積極的に軽減します。敬意、包括性、公平性を保証するというこの取り組みが、あらゆるユーザー インタラクションを推進します。
  • ユーザー機関:真の制御はユーザーの手に委ねられています。 Grammarly は、ユーザーが AI との対話を形成できるようにします。ユーザーは、執筆の提案を受け入れるか、コンテンツでモデルをトレーニングするかどうかを決定するかどうかの最終決定権を持っています。これにより、AI はユーザーの声を上書きするのではなく、確実に増幅します。
  • 説明責任:誤用の可能性を認識し、Grammarly は AI の課題に直接立ち向かいます。 Grammarly は、バイアスに関する包括的なテストと、開発プロセス全体を通じて責任ある AI チームを雇用することにより、AI 出力に対する説明責任を保証します。責任ある AI は会社の構造の一部であり、AI が間違いや危害の原因ではなく、権限を与えるツールであることが保証されます。
  • プライバシーとセキュリティ:責任ある AI に対する Grammarly のアプローチは、ユーザーのプライバシーとセキュリティに強く取り組んでいます。当社はユーザーデータを販売したり、広告やトレーニングのために第三者がユーザーデータにアクセスすることを許可したりしません。法律、規制、および内部標準の厳格な順守がこの約束を裏付けており、すべての AI 開発とトレーニングで最高のプライバシーとセキュリティ対策を維持することが保証されます。

より責任ある未来に向けて

AI テクノロジーに対する責任ある環境を育むには、テクノロジー業界から規制当局、国家に至るまで、外部の関係者による協力的な取り組みが必要です。 AI を責任を持って使用するには、固有のバイアスを認識して対処し、AI の意思決定プロセスの透明性を追求し、AI の使用について情報に基づいた意思決定を行うために必要な知識をユーザーが確実に得られるようにする必要があります。

これらの原則を受け入れることは、AI の潜在的なリスクを軽減しながら AI の可能性を最大限に引き出すために非常に重要です。この共同の取り組みが、AI テクノロジーが革新的で公平かつ信頼できる未来への道を切り開くことになります。