Od zakazu do objęcia: następnej fazy AI w edukacji

Opublikowany: 2025-01-29

W zaledwie jednym pełnym roku akademickim z generatywną sztuczną inteligencją przywódcy akademiccy odwrócili 180 stopni. Provosts i CIO nie pytają już: „Jak zakazujemy sztucznej inteligencji?” Teraz pytanie utrzymujące ich w nocy brzmi: „Jak przyjmujemy AI w całej instytucji i umożliwiamy naszym uczniom korzystanie z tych narzędzi?”

Według badań Rady ds. Edukacji Digital , 86% studentów w szkolnictwie wyższym twierdzi, że regularnie korzysta z Chatgpt w swoich studiach. Pięćdziesiąt cztery procent tych uczniów twierdzi, że korzystają z niego co tydzień. I chociaż nie przyjmują sztucznej inteligencji w tym samym tempie co studenci, ponad jedna trzecia wydziału używa sztucznej inteligencji co najmniej miesięcznie. Niezależnie od tego, czy szkoły są przygotowane, AI jest narzędziem, na którym już polegają uczniowie, wykładowcy i profesjonaliści.

Trendy AI 2025, które mają znaczenie
Pobierz krótką listę AI 2025, aby uzyskać więcej kroków w zakresie trendów, które mają znaczenie.

Wyzwanie całościowego podejścia do AI

Teraz, gdy pytanie zmieniło się na adopcję AI, nowe wyzwanie polega na tym, jak wdrożyć je odpowiedzialne przy jednoczesnym zachowaniu uczenia się uczniów.

Widzimy dwie dynamiki: zwiększone przyjęcie sztucznej inteligencji z jednej strony i zwiększone naruszenia uczciwości akademickiej z drugiej. Sześćdziesiąt osiem procent instruktorów twierdzi, że AI negatywnie wpływa na integralność akademicką. Jest to zatwierdzone przez 47% studentów - prawie połowę - którzy przyznają, że łatwiej jest oszukiwać z AI. Ta obawa dotycząca uczciwości akademickiej doprowadziła do wzrostu naruszeń dyscyplinarnych i uczciwości.

Instytucje wiedzą, że muszą przyjąć sztuczną inteligencję, ale nadal zastanawiają się, jak zrównoważyć innowacje AI z uczciwością akademicką . Widziałem cztery podstawowe podejścia, które instytucje podejmują w kierunku sztucznej inteligencji: wykrywanie naprzód, integralności akademickiej, do przodu, odpowiedzialnego wykorzystania lub innowacji.

To nie jest skala dojrzałości, przy czym jedno podejście jest lepsze lub gorsze od drugiego. Jest to raczej odzwierciedlenie szerokiego zakresu instytucjonalnych i indywidualnych pozycji wydziałowych w kierunku wciąż powstającej i potężnej nowej technologii. Interesujące jest to, że nie ma już znaczącej grupy instytucji przyjmujących podejście do unikania AI. Zamiast nadać priorytet jednej ścieżce, nadszedł czas, aby przejść na całościowe podejście, aby uczniowie zrozumieli zarówno potencjał, jak i pułapki przedstawione przez AI.

AI przesuwa się z przeciwnika na sojusznik

Biorąc pod uwagę stopniową, ale znaczącą zmianę w kierunku przemyślanego wdrożenia AI między instytucjami, decydenci potrzebują ram, aby pomóc im w tej podróży:

  • Bezpieczeństwo leży u podstaw ramy. Obejmuje to bezpieczeństwo danych, prywatność i niezawodność techniczną.
    • Dzięki sztucznej inteligencji nagłówki do korzystania z nieskomplikowanych publikacji i szkoleń do budowania swoich modeli, instytucje są zaniepokojeni danymi instytucjonalnymi i użytkownikami końcowymi wykorzystywanymi do szkolenia bieżących ulepszeń modeli.
    • CIO i CTO powinny priorytetowo traktować dostawców z zabezpieczeniami, aby upewnić się, że żadne dane nie są wykorzystywane do szkolenia swoich modeli ani nie udostępniane stronom trzecim. Niektóre instytucje budują nawet własne wewnętrzne modele, aby złagodzić te obawy.
    • Idąc do drugiego roku akademickiego z sztuczną inteligencją, bezpieczeństwo pozostaje niezbędne do adopcji AI, ale jest stawką stołową. Prawdziwe napędzanie wpływowego i odpowiedzialnego adopcji wymaga bardziej proaktywnej integracji sztucznej inteligencji z nauczaniem i uczeniem się.
  • Przejrzystość: Środkowa warstwa ram koncentruje się na wdrażaniu oprogramowania w sprawiedliwy, dostępny, uczący się sposób.
    • Decydenci powinni być w stanie odpowiedzieć na tak na następujące pytania podczas oceny dostawcy: czy jest jasne, jak działa AI, i czy narzędzia są dostępne dla wszystkich uczniów w sprawiedliwy sposób? Czy oczekiwania dotyczące tego, kiedy i jak korzystać z tych narzędzi, przekazywane studentom w zakresie programów nauczania i uczciwości akademickiej? Czy uczniowie są wyposażani w dopracowane, oparte na kontekście zrozumienie odpowiedniego i niewłaściwego używania sztucznej inteligencji?
  • Zaufanie: Skuteczne wdrożenie i jasne oczekiwania są elementami składowymi górnej warstwy frameworka.
    • Przezroczyste wdrażanie, zasady, praktyki dopuszczalnego użytkowania i mechanizmy egzekwowania ustalają zaufanie między studentami, wykładowcami i administratorami. Na tym etapie może również zdarzyć się bardziej przemyślane i wpływowe wdrażania AI, co prowadzi do inicjatyw na rzecz umiejętności AI.

W 2025 r. Widzimy, że instytucje dążą do osiągnięcia najwyższej warstwy ramy - URUST. To odblokuje największą transformację pedagogiki i uczenia się uczniów. Istnieje kilka istotnych kroków, które instytucje mogą podjąć, aby się tam dostać:

  1. Ustal jasne i spójne zasady:ważne jest, aby stworzyć polityki , które kierują zarówno nauczycielami, jak i studentami w ich użyciu AI. Te wytyczne powinny wyjaśnić, co stanowi odpowiedzialne wykorzystanie sztucznej inteligencji i jakie otaczające go oczekiwania.
  2. Opracuj programy alfabetyzacji AI:zainteresowane strony - zarówno wykładowcy, jak i studenci - pozwalają być edukowani na temat odpowiedzialnego użytkowania sztucznej inteligencji. Instytucje mogą wdrażać programy, które koncentrują się na umiejętnościach związanych z AI, zapewniając, że wszyscy rozumieją zarówno możliwości, jak i ryzyko związane z tymi technologiami.
  3. Wykorzystaj detektory AI rozsądnie:chociaż narzędzia do wykrywania sztucznej inteligencji mogą oferować spostrzeżenia, powinny być zintegrowane z szerszymi ramami integralności akademickiej. Instytucje muszą potwierdzić ograniczenia tych narzędzi i unikać ich używania w izolacji.
  4. Wspieranie otwartych rozmów:zachęcanie do dialogu między wykładowcami a studentami na temat korzystania z AI ma kluczowe znaczenie. Narzędzia takie jak Grammarly Authorship , które generują kompleksowe raporty opisujące pochodzenie treści-niezależnie od tego, czy jest to tytuł, wygenerowane przez człowieka, czy edytowane-mogą służyć jako cenni startujący rozmowy. Dyskusje te mogą pomóc w demistyfikacji AI i promowania współpracy, a nie podejrzeń.

Potencjał AI jako narzędzia wzmacniającego

Używane odpowiedzialnie narzędzia AI mogą poprawić uczenie się, zapewniając spersonalizowane doświadczenia edukacyjne, ułatwiając dostęp do informacji i usprawnianie zadań administracyjnych. AI może oferować dostosowane zasoby, pomóc w badaniach, a nawet przekazywać informacje zwrotne na temat esejów - z których wszystkie, oparte na użytku etycznym, może pogłębić zaangażowanie i zrozumienie materiału przez studenta.

Integracja sztucznej inteligencji z ustawieniami edukacyjnymi może również swobodnie nauczycielom z powtarzających się zadań, umożliwiając im skupienie się na tym, co ważne: wspieranie krytycznego myślenia, kreatywności i umiejętności interpersonalnych. Ponieważ instytucje przyjmują sztuczną inteligencję jako partnera w edukacji, będą kultywować środowisko, w którym kwitnie innowacje i gdzie uczniowie uczą się wykorzystać technologię dla długoterminowego sukcesu.

Kiedy poruszamy się po rosnącej obecności AI w edukacji, instytucje muszą objąć proaktywne stanowisko w celu ustalenia jasnych zasad i promowaniu odpowiedzialnego użytkowania. Instytucje edukacyjne mogą wykorzystać potencjał AI jako upoważniający zasób, edukując wykładowców i studentów, wspierając otwarte dialogi i rozsądne wykorzystanie narzędzi. Zapewni to, że przyszłe pokolenia nie będą przygotowywane tylko na teraźniejszość, ale wyposażone w rozwój w ciągle zmieniającym się świecie.

Trendy AI 2025, które mają znaczenie
Pobierz krótką listę AI 2025, aby uzyskać więcej kroków w zakresie trendów, które mają znaczenie.