從禁令到擁抱:AI的下一階段教育
已發表: 2025-01-29在僅有一個全部學年的AI學年中,學術領導者已經翻轉了180度。教務長和CIO不再問:“我們如何禁止AI?”現在,使他們在晚上保持的問題是:“我們如何在機構中擁抱AI並授權我們的學生使用這些工具?”
根據數字教育委員會的研究,高等教育的86%的學生表示,他們經常在學習中使用Chatgpt。 54%的學生說他們每週使用它。儘管他們沒有以與學生相同的速度採用AI,但三分之一以上的教師至少每月使用AI。不管學校是否準備好,AI都是學生,教職員工和專業人士已經依靠的工具。
AI的整體方法的挑戰
既然問題已經轉移到AI採用,那麼新的挑戰是如何在保留學生學習的同時負責任地實施它。
我們看到了兩種動態:一方面增加了人工智能的採用,另一方面增加了學術完整性的侵犯。 68%的講師表示,AI正在對學術完整性產生負面影響。這是由47%的學生(幾乎是一半)確認的,他們承認用AI作弊更容易。對學術完整性的關注導致了違反紀律和正直的行為。
機構知道他們需要採用AI,但他們仍在弄清楚如何在AI創新與學術完整性之間取得平衡。我已經看到了機構對AI的四種主要方法:檢測前進,學術完整性向前,負責任的使用或創新前進。
這不是一個成熟量表,一種方法比另一種方法更好或更糟。相反,這反映了廣泛的機構和個人教師姿勢,朝著仍在新興和有力的新技術方面。有趣的是,不再有一個有意義的機構以避免AI的方式。現在該轉向整體方法,以確保學生了解AI的潛在和陷阱。
AI從對手轉移到盟友
鑑於逐漸但有意義的轉變朝著跨機構進行周到的AI實施,決策者需要一個框架來幫助他們在這一旅程中:
- 安全是框架的基礎。這包括數據安全性,隱私和技術可靠性。
- 由於AI成為使用未經許可的出版物和培訓來建立模型的頭條新聞,因此機構關注其機構和最終用戶數據用於培訓正在進行的模型改進。
- CIO和CTO應使用保障措施優先考慮供應商,以確保不使用數據來培訓其模型,也不會與第三方共享。一些機構甚至正在建立自己的內部模型來減輕這些問題。
- 進入第二學年的AI,安全對於採用AI仍然是必不可少的,但是桌子賭注。真正的有影響力和負責任的採用需要將人工智能更積極地整合到教學中。
- 透明度:框架的中層重點是以公平,可訪問,學習的方式實施軟件。
- 在評估供應商時,決策者應該能夠對以下問題回答是:是否清楚AI是如何運作的,並且所有學生都可以公平地訪問這些工具嗎?期望何時以及如何使用這些工具與教學大綱和學術誠信政策中的學生傳達的期望?學生是否配備了對適當和不合適的AI使用的細微差別,基於上下文的理解?
- 信任:有效的實施和清晰的期望是框架頂層的基礎。
- 透明的推出,政策,可接受的使用實踐和執法機制在學生,教職員工和管理人員之間建立了信任。在這個階段也是可以進行更周到和有影響力的AI推出的地方,從而導致AI掃盲計劃。
在2025年,我們將看到機構努力達到框架的最頂層 - Trust。這將解鎖教學法和學生學習的最大轉變。機構可以採取幾個基本步驟:到達那裡:

- 制定明確,一致的政策:制定指導教育者和學生使用AI的政策至關重要。這些準則應闡明哪些構成了負責人的AI使用及其周圍的期望。
- 制定AI掃盲計劃:教育利益相關者(包括教師和學生)都必須接受負責人的AI使用。機構可以實施專注於AI素養的計劃,確保每個人都了解與這些技術相關的機會和風險。
- 明智地利用AI檢測器:雖然AI檢測工具可以提供見解,但應將其集成到更廣泛的學術完整性框架中。機構必須確認這些工具的局限性,並避免孤立地使用它們。
- 寄養公開對話:鼓勵教師與學生就AI使用的對話至關重要。諸如Grammarly著作之類的工具生成了全面的報告,詳細介紹了內容的起源(無論是人類的,AI生成的還是編輯),可以用作有價值的對話開始者。這些討論可以幫助揭示AI並促進合作而不是懷疑。
AI作為授權工具的潛力
當負責任地使用時,AI工具可以通過提供個性化的教育經驗,促進信息訪問以及簡化管理任務來增強學習。 AI可以提供量身定制的資源,協助研究,甚至提供有關論文的反饋 - 所有這些都可以基於道德使用,可以加深學生對材料的參與和理解。
將AI集成到教育環境中還可以使教育工作者擺脫重複的任務,使他們能夠專注於重要的事情:培養批判性思維,創造力和人際交往能力。隨著機構將AI作為教育的合作夥伴,他們將培養創新蓬勃發展的環境,並在這些環境中學習利用技術來實現長期成功。
隨著我們在教育中越來越多的人工智能存在,機構必須在製定明確的政策和促進負責任的情況下採取積極的立場。教育機構可以通過教育教師和學生,促進公開對話並明智地使用工具來利用AI作為授權資源的潛力。這將確保後代不僅為現在做好準備,而且還可以在不斷變化的世界中蓬勃發展。