禁止から抱擁まで:教育におけるAIの次の段階
公開: 2025-01-29生成AIを使用した1回の学年で、学術リーダーは180度をひっくり返しました。 ProvostsとCIOは、「どのようにしてAIを禁止しますか?」と尋ねていません。今、彼らを夜に留めているのは、「どのようにして機関全体でAIを受け入れ、生徒がこれらのツールを使用できるようにするのですか?」です。
Digital Education Councilの調査によると、高等教育の学生の86%が研究でChatGptを定期的に使用していると答えています。これらの学生の54%は、毎週それを使用していると答えています。そして、彼らは学生と同じペースでAIを採用していませんが、教員の3分の1以上が少なくとも毎月AIを使用しています。学校が準備されているかどうかにかかわらず、AIは学生、教員、専門家がすでに依存しているツールです。
AIに対する全体的なアプローチの課題
質問がAIの採用に移行した今、新しい課題は、学生の学習を維持しながら責任を持って実装する方法です。
2つのダイナミクスが再生されているのは、一方でAIの採用の増加と、他方での学問的整合性違反の増加です。インストラクターの68%は、AIが学問の完全性に悪影響を及ぼしていると答えています。これは、AIと不正行為が容易であることを認めている学生の47%(ほぼ半分)によって検証されています。学問の完全性に関するこの懸念は、懲戒および誠実さの違反の増加につながりました。
機関は、AIを採用する必要があることを知っていますが、 AIの革新と学問の完全性のバランスをとる方法をまだ考えています。私は、機関がAIに向けて取っている4つの主要なアプローチを見てきました。これは、前進、学問的完全性、責任ある使用、またはイノベーションフォワードです。
これは、あるアプローチが他のアプローチよりも優れている、または悪い成熟度のスケールではありません。むしろ、それは、まだ出現している強力な新しいテクノロジーに対する幅広い制度的および個々の教員姿勢を反映しています。興味深いのは、AIに対して回避アプローチをとる意味のある機関のグループがもはやないことです。単一のパスに優先順位を付けるのではなく、学生がAIが提示する可能性と落とし穴の両方を理解できるように、全体的なアプローチに移行する時が来ました。
aiは敵から味方にシフトします
機関全体のAIの思慮深い実装への漸進的でありながら意味のある変化を考えると、意思決定者はこの旅でそれらを支援するためのフレームワークを必要とします。
- セキュリティはフレームワークの基礎にあります。これには、データセキュリティ、プライバシー、技術的信頼性が含まれます。
- AIが認可されていない出版物を使用してモデルを構築するための見出しを作成しているため、機関は、継続的なモデルの改善をトレーニングするために使用される機関およびエンドユーザーデータを懸念しています。
- CIOとCTOは、モデルをトレーニングするためにデータを使用しないか、サードパーティと共有するために、保護ガードを備えたベンダーにベンダーに優先順位を付ける必要があります。一部の機関は、これらの懸念を軽減するために独自の社内モデルを構築しています。
- AIで2年生の学年に入ると、AIの採用にはセキュリティが不可欠ですが、テーブルステークスです。真に影響を与え、責任ある採用には、AIの教育と学習へのより積極的な統合が必要です。
- 透明性:フレームワークの中間層は、ソフトウェアを公平でアクセスしやすい、学習型の方法で実装することに焦点を当てています。
- 意思決定者は、ベンダーを評価する際に次の質問に「はい」と答えることができるはずです。AIがどのように動作するかは明らかですか?また、すべての学生が公平な方法でアクセスできますか?これらのツールをいつ、どのように使用するかは、シラバスおよび学問の整合性ポリシーで学生に伝えられていますか?学生は、適切で不適切なAIの使用に関する微妙なコンテキストベースの理解を備えていますか?
- 信頼:効果的な実装と明確な期待は、フレームワークの最上層の構成要素です。
- 透明な展開、ポリシー、許容可能な使用慣行、および執行メカニズムは、学生、教員、および管理者の間の信頼を確立します。この段階は、より思慮深くインパクトのあるAIロールアウトが発生する可能性があり、AIリテラシーイニシアチブにつながります。
2025年には、機関がフレームワークの最上層に到達するよう努めていることを確認します。これにより、教育学と学生の学習のための最大の変革のロックが解除されます。機関がそこに到達するために取ることができるいくつかの重要なステップがあります。

- 明確で一貫したポリシーを確立する:教育者と学生の両方をAIの使用に導くポリシーを作成することが重要です。これらのガイドラインは、責任あるAIの使用とそれを取り巻く期待を構成するものを明確にする必要があります。
- AIリテラシープログラムを開発する:教育的利害関係者(教員と学生の両方)は、責任あるAIの使用について教育を受けていません。機関は、AIリテラシーに焦点を当てたプログラムを実装し、これらのテクノロジーに関連する機会とリスクの両方を誰もが理解できるようにすることができます。
- AI検出器を慎重に利用する:AI検出ツールは洞察を提供できますが、それらは学問的完全性のより広いフレームワークに統合する必要があります。機関は、これらのツールの制限を認め、それらを単独で使用しないようにしなければなりません。
- オープンな会話を促進する: AIの使用に関する教員と学生の間の対話を奨励することが重要です。 Grammarly Authorshipのようなツールは、人間が型、AIに生成された、編集されたものであろうと、コンテンツの起源を詳述する包括的なレポートを生成します。これらの議論は、AIを分析し、疑いではなくコラボレーションを促進するのに役立ちます。
エンパワーメントツールとしてのAIの可能性
責任を持って使用すると、AIツールは、パーソナライズされた教育体験を提供し、情報へのアクセスを促進し、管理タスクを合理化することにより、学習を強化できます。 AIは、カスタマイズされたリソースを提供し、研究を支援し、エッセイに関するフィードバックを提供することさえできます。これらはすべて、倫理的使用に基づいた場合、学生の資料の関与と理解を深めることができます。
AIを教育環境に統合すると、教育者が繰り返しのタスクから解放され、重要なことに焦点を当てることができます。批判的思考、創造性、対人スキルの育成です。機関はAIを教育のパートナーとして受け入れるにつれて、イノベーションが繁栄する環境を培い、学生が長期的な成功のためにテクノロジーを活用することを学ぶ環境を培います。
教育におけるAIの存在の増大をナビゲートする際、機関は明確な政策を確立し、責任ある使用を促進する際に積極的な姿勢をとらなければなりません。教育機関は、教員と学生を教育し、オープンな対話を促進し、ツールを慎重に使用することにより、エンパワーリソースとしてのAIの可能性を活用できます。これにより、将来の世代は単に現在のために準備されているだけでなく、絶えず変化する世界で繁栄する準備が整っていることが保証されます。