Uczenie się przez wzmacnianie: co to jest i jak działa

Opublikowany: 2024-07-17

W fascynującym świecie sztucznej inteligencji uczenie się przez wzmacnianie wyróżnia się jako potężna technika, która umożliwia maszynom uczenie się optymalnych zachowań metodą prób i błędów, podobnie jak ludzie i zwierzęta nabywają umiejętności w prawdziwym świecie.

Spis treści

  • Co to jest uczenie się przez wzmacnianie?
  • RL a uczenie się pod nadzorem i bez nadzoru
  • Jak działa uczenie się przez wzmacnianie
  • Rodzaje uczenia się przez wzmacnianie
  • Zastosowania uczenia się przez wzmacnianie
  • Zalety uczenia się przez wzmacnianie
  • Wady uczenia się przez wzmacnianie

Co to jest uczenie się przez wzmacnianie (RL)?

Uczenie się przez wzmacnianie (RL) to rodzaj uczenia maszynowego (ML), w którym agent uczy się podejmować decyzje poprzez interakcję ze swoim otoczeniem. W tym kontekście agent to program, który podejmuje decyzje dotyczące działań, jakie należy podjąć, otrzymuje informację zwrotną w postaci nagród lub kar i dostosowuje swoje zachowanie w celu maksymalizacji skumulowanych nagród.

Uczenie maszynowe to podzbiór sztucznej inteligencji (AI), która wykorzystuje dane i metody statystyczne do tworzenia programów naśladujących ludzkie rozumowanie, a nie polegających na zakodowanych na stałe instrukcjach. RL czerpie bezpośrednią inspirację z tego, jak ludzie korzystają z prób i błędów, aby zoptymalizować swoje decyzje.

Pracuj mądrzej dzięki Grammarly
Partner w pisaniu AI dla każdego, kto ma pracę do wykonania

Wzmacnianie a uczenie się pod nadzorem i bez nadzoru

W uczeniu nadzorowanym modele są szkolone przy użyciu oznakowanych danych, gdzie dla każdego wejścia dostarczane są prawidłowe dane wyjściowe.Te wskazówki ułatwiają modelowi dokonywanie dokładnych przewidywań w przypadku nowych, niewidocznych danych. Uczenie się pod nadzorem jest przydatne do zadań takich jak wykrywanie spamu, klasyfikacja obrazów i prognozowanie pogody.

Z drugiej stronyuczenie się bez nadzoru wykorzystuje nieoznaczone dane w celu znalezienia wzorców i grupowań.Może grupować podobne punkty danych, znajdować powiązania między elementami i zmniejszać złożoność danych w celu łatwiejszego przetwarzania. Przykłady obejmują segmentację klientów, systemy rekomendacji i wykrywanie anomalii.

Uczenie się przez wzmacnianie różni się od obu.W RL agent uczy się poprzez interakcję ze swoim otoczeniem i otrzymywanie pozytywnej lub negatywnej informacji zwrotnej. Ta pętla informacji zwrotnej umożliwia agentowi dostosowanie swoich działań w celu osiągnięcia najlepszych możliwych wyników. RL jest szczególnie przydatny w zadaniach, w których agent musi nauczyć się sekwencji decyzji, np. w grach, robotyce i autonomicznej jeździe.

Jak działa uczenie się przez wzmacnianie

Zrozumienie zasad RL ma kluczowe znaczenie dla zrozumienia, w jaki sposób inteligentni agenci uczą się i podejmują decyzje. Poniżej szczegółowo omówimy kluczowe pojęcia i proces RL.

Kluczowe pojęcia w RL

RL ma odrębne słownictwo, które nie ma zastosowania do innych typów ML. Podstawowe pojęcia, które należy zrozumieć, to:

1 Agent i środowisko: Agent to program komputerowy podejmujący decyzje, podczas gdy środowisko obejmuje wszystko, z czym agent wchodzi w interakcję.Obejmuje to wszystkie możliwe stany i działania, w tym wcześniejsze decyzje podjęte przez agenta. Interakcja między agentem a środowiskiem jest podstawą procesu uczenia się.

2 Stan i działanie: Stan reprezentuje obecną sytuację agenta w dowolnym momencie, a działanie to decyzja, którą agent może podjąć w odpowiedzi na swój stan.Celem agenta jest wybór działań, które doprowadzą do najkorzystniejszych stanów.

3 Nagroda i kara: Po podjęciu działania agent otrzymuje informację zwrotną od otoczenia: jeśli jest pozytywna, nazywa się to nagrodą, jeśli negatywną, karą.Ta informacja zwrotna pomaga agentowi dowiedzieć się, które działania są korzystne, a których należy unikać, co pomaga mu podejmować przyszłe decyzje.

4 Polityka: Polityka to strategia agenta polegająca na decydowaniu, jakie działania podjąć w każdym stanie.Odwzorowuje stany na działania, służąc agentowi jako przewodnik po osiągnięciu najlepszych wyników w oparciu o przeszłe doświadczenia.

5 Funkcja wartości: Funkcja wartości szacuje długoterminową korzyść z przebywania w określonym stanie lub podjęcia określonego działania.Pomaga agentowi zrozumieć potencjalne przyszłe nagrody, nawet jeśli oznacza to zniesienie krótkoterminowej negatywnej nagrody w celu maksymalizacji długoterminowych zysków. Funkcja wartości jest niezbędna do podejmowania decyzji optymalizujących skumulowane nagrody w czasie.

Proces RL

Chociaż cel i metoda uczenia się różnią się znacznie od innych typów uczenia maszynowego, proces jest podobny pod względem przygotowywania danych, wybierania parametrów, oceny i iteracji.

Oto krótki przegląd procesu RL:

1 Definicja problemu i wyznaczanie celów.Jasno zdefiniuj problem i określ cele agenta, w tym strukturę nagród. Pomoże Ci to zdecydować, jakich danych potrzebujesz i jaki algorytm wybrać.

2 Gromadzenie i inicjalizacja danych.Zbierz dane początkowe, zdefiniuj środowisko i skonfiguruj niezbędne parametry eksperymentu RL.

3 Przetwarzanie wstępne i inżynieria funkcji.Wyczyść dane: sprawdź na miejscu, usuń duplikaty, upewnij się, że masz odpowiednie etykiety funkcji i zdecyduj, jak sobie poradzić z brakującymi wartościami. W wielu przypadkach konieczne będzie utworzenie nowych funkcji wyjaśniających ważne aspekty środowiska, na przykład utworzenie pojedynczego punktu danych pozycjonowania na podstawie wejść kilku czujników.

4 Wybór algorytmu.W zależności od problemu i środowiska wybierz odpowiedni algorytm RL i skonfiguruj podstawowe ustawienia, zwane hiperparametrami. Na przykład musisz ustalić równowagę między eksploracją (próbowaniem nowych ścieżek) a eksploatacją (podążaniem znanymi ścieżkami).

5 Szkolenie.Szkoluj agenta, umożliwiając mu interakcję ze środowiskiem, podejmowanie działań, otrzymywanie nagród i aktualizację jego polityki. Dostosuj hiperparametry i powtórz proces. Kontynuuj monitorowanie i dostosowywanie kompromisu w zakresie eksploracji i eksploatacji, aby agent mógł efektywnie się uczyć.

6 Ocena.Oceń wydajność agenta za pomocą metryk i obserwuj jego wydajność w odpowiednich scenariuszach, aby upewnić się, że spełnia on określone cele.

7 Strojenie i optymalizacja modelu.Dostosuj hiperparametry, udoskonal algorytm i przeszkol agenta, aby jeszcze bardziej poprawić wydajność.

8 Wdrożenie i monitorowanie.Gdy wydajność agenta będzie satysfakcjonująca, wdróż przeszkolonego agenta w środowisku rzeczywistym. Stale monitoruj jego wydajność i wdrażaj pętlę informacji zwrotnej w celu ciągłego uczenia się i doskonalenia.

9 Konserwacja i aktualizacja.Chociaż ciągłe uczenie się jest bardzo przydatne, czasami może zajść potrzeba ponownego szkolenia od warunków początkowych, aby w pełni wykorzystać nowe dane i techniki. Okresowo aktualizuj bazę wiedzy agenta, szkol go przy użyciu nowych danych i upewnij się, że dostosowuje się do zmian w środowisku lub celach.

Rodzaje uczenia się przez wzmacnianie

Uczenie się przez wzmacnianie można ogólnie podzielić na trzy typy: bezmodelowe, oparte na modelach i hybrydowe. Każdy typ ma swoje specyficzne przypadki użycia i metody.

Uczenie się przez wzmacnianie bez użycia modeli

Dzięki bezmodelowemu RL agent uczy się bezpośrednio na podstawie interakcji z otoczeniem. Nie próbuje zrozumieć ani przewidzieć otoczenia, ale po prostu stara się zmaksymalizować swoje działanie w przedstawionej sytuacji. Przykładem RL bez modelu jest robot odkurzający Roomba: w miarę upływu czasu uczy się, gdzie znajdują się przeszkody i stopniowo rzadziej się z nimi spotyka, a jednocześnie sprząta więcej.

Przykłady:

  • Metody oparte na wartościach.Najbardziej powszechnym jest Q-learning, gdzie wartość Q reprezentuje oczekiwane przyszłe nagrody za podjęcie danego działania w danym stanie. Metoda ta jest optymalna w sytuacjach, w których istnieje możliwość wyboru dyskretnego, czyli ograniczonych i zdefiniowanych opcji, np. w którą stronę skręcić na skrzyżowaniu. Można ręcznie przypisać wartości Q, użyć wartości zerowej lub niskiej, aby uniknąć stronniczości, losować wartości, aby zachęcić do eksploracji, lub zastosować jednakowo wysokie wartości, aby zapewnić dokładną wstępną eksplorację. Z każdą iteracją agent aktualizuje te wartości Q, aby odzwierciedlić lepsze strategie. Uczenie się oparte na wartościach jest popularne, ponieważ jest proste do wdrożenia i dobrze sprawdza się w odrębnych przestrzeniach działania, chociaż może borykać się ze zbyt wieloma zmiennymi.
  • Metody gradientu polityki: W przeciwieństwie do Q-learningu, który próbuje oszacować wartość działań w każdym stanie, metody gradientu polityki skupiają się bezpośrednio na ulepszaniu strategii (lub polityki), której agent używa do wyboru działań.Zamiast szacować wartości, metody te dostosowują politykę w celu maksymalizacji oczekiwanej nagrody. Metody gradientu polityki są przydatne w sytuacjach, gdy działania mogą mieć dowolną wartość — zgodnie z powyższą analogią może to oznaczać poruszanie się w dowolnym kierunku w polu — lub gdy trudno jest określić wartość różnych działań. Mogą poradzić sobie z bardziej złożonym procesem decyzyjnym i ciągłością wyborów, ale zwykle potrzebują większej mocy obliczeniowej, aby działać efektywnie.

Uczenie się przez wzmacnianie w oparciu o model

RL oparte na modelu polega na stworzeniu modelu środowiska w celu planowania działań i przewidywania przyszłych stanów. Modele te wychwytują wzajemne oddziaływanie działań i zmian stanu, przewidując, jak prawdopodobne jest, że działanie wpłynie na stan środowiska i wynikające z tego nagrody lub kary. Takie podejście może być bardziej wydajne, ponieważ agent może wewnętrznie symulować różne strategie przed podjęciem działania. Samochód autonomiczny wykorzystuje to podejście, aby zrozumieć, jak reagować na elementy ruchu drogowego i różne obiekty. Technika bezmodelowa stosowana przez Roombę byłaby nieodpowiednia do tak złożonych zadań.

Przykłady:

  • Dyna-Q: Dyna-Q to hybrydowy algorytm uczenia się przez wzmacnianie, który łączy Q-learning z planowaniem.Agent aktualizuje swoje wartości Q w oparciu o rzeczywiste interakcje ze środowiskiem i symulowane doświadczenia generowane przez model. Dyna-Q jest szczególnie przydatny, gdy interakcje w świecie rzeczywistym są drogie lub czasochłonne.
  • Wyszukiwanie drzewa Monte Carlo (MCTS): MCTS symuluje wiele możliwych przyszłych działań i stanów w celu zbudowania drzewa wyszukiwania reprezentującego decyzje podejmowane po każdym wyborze.Agent korzysta z tego drzewa, aby wybrać najlepszą akcję, szacując potencjalne korzyści wynikające z różnych ścieżek. MCTS przoduje w scenariuszach podejmowania decyzji o przejrzystej strukturze, takich jak gry planszowe, takie jak szachy, i radzi sobie ze złożonym planowaniem strategicznym.

Metody oparte na modelach są odpowiednie, gdy środowisko można dokładnie modelować i gdy symulacje mogą dostarczyć cennych spostrzeżeń. Wymagają mniejszej liczby próbek w porównaniu z metodami bezmodelowymi, ale próbki te muszą być dokładne, co oznacza, że ​​ich opracowanie może wymagać większego wysiłku obliczeniowego.

Hybrydowe uczenie się przez wzmacnianie

Hybrydowe uczenie się przez wzmacnianie łączy podejścia mające na celu wykorzystanie ich mocnych stron. Technika ta może pomóc w zrównoważeniu kompromisów między wydajnością próbki a złożonością obliczeniową.

Przykłady:

  • Wyszukiwanie zasad z przewodnikiem (GPS): GPS to technika hybrydowa, która wykorzystuje na przemian uczenie się pod nadzorem i uczenie się przez wzmacnianie.Wykorzystuje uczenie nadzorowane do uczenia zasad w oparciu o dane wygenerowane z kontrolera opartego na modelu. Następnie strategia jest udoskonalana przy użyciu uczenia się przez wzmacnianie, aby obsłużyć części przestrzeni stanów, w których model jest mniej dokładny. Podejście to pomaga w przenoszeniu wiedzy z planowania opartego na modelach do bezpośredniego uczenia się polityki.
  • Architektury zintegrowane: niektóre architektury integrują różne komponenty oparte na modelach i bez modeli w jednej strukturze, dostosowując się do różnych aspektów złożonego środowiska, zamiast narzucać jedno podejście do wszystkiego.Na przykład agent może zastosować podejście oparte na modelach do planowania długoterminowego i podejście bez modeli do podejmowania decyzji krótkoterminowych.
  • Modele świata: Modele świata to podejście, w którym agent buduje zwartą i abstrakcyjną reprezentację środowiska, której używa do symulacji przyszłych stanów.Agent wykorzystuje podejście bezmodelowe do uczenia się zasad w tym wewnętrznym symulowanym środowisku. Technika ta zmniejsza potrzebę interakcji w świecie rzeczywistym.

Zastosowania uczenia się przez wzmacnianie

RL ma szeroki zakres zastosowań w różnych dziedzinach:

  • Granie w gry: algorytmy RL osiągnęły nadludzką wydajność w takich przypadkach, jak szachy i gry wideo.Godnym uwagi przykładem jest AlphaGo, która gra w grę planszową Go, wykorzystując hybrydę głębokich sieci neuronowych i wyszukiwania drzew Monte Carlo. Te sukcesy pokazują zdolność RL do opracowywania złożonych strategii i dostosowywania się do dynamicznego środowiska.
  • Robotyka: W robotyce RL pomaga w szkoleniu robotów w zakresie wykonywania zadań, takich jak chwytanie obiektów i pokonywanie przeszkód.Proces uczenia się metodą prób i błędów umożliwia robotom dostosowywanie się do niepewności występujących w świecie rzeczywistym i z biegiem czasu poprawianie swojej wydajności, wykraczając poza nieelastyczne podejście oparte na regułach.
  • Opieka zdrowotna: Odpowiadając na dane dotyczące konkretnego pacjenta, RL może optymalizować plany leczenia, zarządzać badaniami klinicznymi i personalizować leki.RL może również sugerować interwencje, które maksymalizują wyniki leczenia pacjenta, poprzez ciągłe uczenie się na podstawie danych pacjenta.
  • Finanse: RL oparty na modelu dobrze pasuje do jasnych parametrów i złożonej dynamiki różnych części dziedziny finansów, zwłaszcza tych wchodzących w interakcję z bardzo dynamicznymi rynkami.Jego zastosowania obejmują tutaj zarządzanie portfelem, ocenę ryzyka i strategie handlowe, które dostosowują się do nowych warunków rynkowych.
  • Pojazdy autonomiczne: samochody autonomiczne korzystają z modeli wyposażonych w technologię RL, aby reagować na przeszkody, warunki drogowe i dynamiczne wzorce ruchu.Natychmiast stosują te modele, aby dostosować się do bieżących warunków jazdy, jednocześnie przekazując dane z powrotem do scentralizowanego procesu ciągłego szkolenia. Ciągłe informacje zwrotne z otoczenia pomagają tym pojazdom z czasem poprawiać ich bezpieczeństwo i wydajność.

Zalety uczenia się przez wzmacnianie

  • Uczenie się adaptacyjne: agenci RL stale uczą się i dostosowują do swoich interakcji ze środowiskiem.Uczenie się w locie sprawia, że ​​RL szczególnie nadaje się do dynamicznych i nieprzewidywalnych ustawień.
  • Wszechstronność: RL sprawdza się w przypadku szerokiego zakresu problemów obejmujących sekwencję decyzji, w których jedna wpływa na środowisko następnej, od grania, przez robotykę, po opiekę zdrowotną.
  • Optymalne podejmowanie decyzji: RL koncentruje się na maksymalizacji długoterminowych nagród, zapewniając, że agenci RL opracują strategie zoptymalizowane pod kątem najlepszych możliwych wyników w czasie, a nie tylko na kolejnej decyzji.
  • Automatyzacja złożonych zadań: RL może zautomatyzować zadania trudne do zakodowania, takie jak dynamiczna alokacja zasobów, złożone systemy kontroli, takie jak zarządzanie siecią elektroenergetyczną, czy precyzyjnie spersonalizowane rekomendacje.

Wady uczenia się przez wzmacnianie

  • Wymagania dotyczące danych i obliczeń: RL często wymaga dużych ilości danych i mocy obliczeniowej, co może być dość kosztowne.
  • Długi czas szkolenia: szkolenie agentów RL może zająć tygodnie, a nawet miesiące, jeśli proces obejmuje interakcję ze światem rzeczywistym, a nie tylko modelem.
  • Złożoność: projektowanie i dostrajanie systemów RL wymaga dokładnego rozważenia struktury wynagrodzeń, reprezentacji polityki oraz równowagi poszukiwawczo-wydobywczej.Decyzje te należy podejmować przemyślanie, aby nie zabierać zbyt wiele czasu i zasobów.
  • Bezpieczeństwo i niezawodność: w przypadku zastosowań krytycznych, takich jak opieka zdrowotna i jazda autonomiczna, nieoczekiwane zachowanie i nieoptymalne decyzje mogą mieć poważne konsekwencje.
  • Niska interpretowalność: w niektórych procesach RL, zwłaszcza w złożonych środowiskach, dokładne ustalenie, w jaki sposób agent podjął decyzje, jest trudne lub niemożliwe.
  • Przykładowa nieefektywność: wiele algorytmów RL wymaga dużej liczby interakcji z otoczeniem, aby poznać skuteczne zasady.Może to ograniczyć ich użyteczność w scenariuszach, w których interakcje w świecie rzeczywistym są kosztowne lub ograniczone.