Dlaczego się nie rozpadamy na kawałki… czyli nietypowa wizja rozwoju AI na kolejne dziesięciolecia

Zasada wolnej energii Karla Fristona — najczęściej cytowanego neurobiologa świata. Życie jako walka z entropią, niespodzianki i wnioskowanie. I co to oznacza dla AI: zamiast reinforcement learning, active inference.

Inspiracją dla tego artykułu były dwa bodźce:

  • Pierwszy (1) - zaskoczyła mnie popularność pierwszego artykułu („Twój pacjent umrze za 7 dni. Najlepsze AI jakie widziałem”). Minęło już trochę czasu od jego publikacji, a wciąż jest lajkowany i udostępniany. Ten tekst jest jego kontynuacją i jednocześnie podziękowaniem za zainteresowanie.
  • Drugi (2) - okres początku/końca roku, który sprzyja podsumowaniom, prognozom i wróżbom. W poprzednim artykule pisałem o pewnej filozofii AI (filtra na świat, wspomagającego naszą percepcję) na przykładzie AI w szpitalu. Tutaj idę krok dalej.

Ponieważ w naszym świecie wszystko dzieje się losowo, to jest też trzecia (3) inspiracja. Artykuł w Wired, który przeczytałem na temat Karla Fristona i „Free Energy Principle”. Dla mnie był to rodzaj zwornika spajającego wiele tematów, które przewijają się w moim życiu zawodowym.

Zacznijmy od tego, kim jest profesor Karl Friston? Jest to najczęściej na świecie cytowany neurobiolog (wpływ jego publikacji mierzony tzw. h-index jest dwukrotnie większy od Alberta Einsteina). Jest to też jedna z 3 topowych osób świata nauki typowanych jako kandydat do Nagrody Nobla w dziedzinie fizjologii albo medycyny. Friston zajmuje się także psychiatrią (zaczynał od badań nad schrizofrenią), fizyką (co oczywiste) oraz AI. W tym ostatnim przypadku postuluje on podejście nieco różne od uczenia opartego o wzmocnienia (tzw. „reinforcement learningu”). Ale o tym za chwilę… Najpierw kilka słów o zasadzie wolnej energii (free energy principle).

Zasada wolnej energii

Zastanawialiście się kiedyś „Dlaczego się nie rozpadamy na kawałki?”. W dużym uproszczeniu wszechświat zmierza w kierunku entropii, lub rosnącej losowości / rozpadu. Wyjątkiem od tego procesu są … organizmy żywe. Generalnie zasada wolnej energii mówi nam, że my, nasze komórki ciała, bakterie na naszej skórze i nasz pies (a także organizacje przez nas budowane, społeczności ludzkie, my jako gatunek itp.) podlegamy jednemu imperatywowi - walce z entropią. A imperatyw ten może być sprowadzony do funkcji matematycznej - minimalizowania wolnej energii.

Jeszcze raz, żebyście mogli sobie to uświadomić.

  • Wszechświat dąży do entropii. Wszystko rozpada się, rozszerza, ucieka, roztapia
  • Życie opiera się na walce z entropią

Wow! Po prostu wow! (Jeśli szukaliście sensu w życiu - to tutaj go macie… / żartuję oczywiście /)

Nie bez przyczyny, Zasadę Wolnej Energii porównuje się do Teorii Ewolucji Darwina. No, bo pomyślcie - gdyby życie nie przeciwstawiało się entropii (jak reszta wszechświata) to nie byłoby ewolucji.

Poniżej umieściłem opis samej mechaniki zasady. Starałem się upraszczać, ale jeśli opis nie jest zbyt jasny to zwalcie to na mnie i przeczytajcie po prostu artykuł w Wired - opisuje on temat trochę mniej naukowo. Ale potem proszę wróćcie do tego artykułu i dalszych wniosków dotyczących AI.

O co chodzi w zasadzie wolnej energii Fristona:

  1. Wewnętrzne stany organizmu opierają się na sensorycznych informacjach ze środowiska (sensory oznaczają szeroko rozumiany zmysły, bakteria ma ich mniej niż nasz mózg, ale i tak koreluje zachowanie ze środowiskiem).
  2. Organizm działa „przeciwko” losowości środowiska, dążąc do pozostania w określonym stanie. Generalnie dbamy, żeby nie rozpaść się na molekuły, nie zginąć, nie umrzeć z głodu (my obejmuje także komórki naszego ciała i bakterie w jelitach). I tutaj w grę wchodzi entropia, nazywana także w przytaczanej teorii „niespodzianką”. Nasze organizmy starają się minimalizować niespodzianki związane z zewnętrznym światem. Na przykład: Jadąc na motorze zasłonię oczy okularami, żeby muchy nie wpadały mi do oczu.
  3. Działanie przeciwko „losowości środowiska” opiera się na tym, że organizm stara się potwierdzić ze swoimi zmysłami, że znajduje się w dobrze zdefiniowanym, określonym stanie. Czyli każdy organizm ma pewien model wewnętrzny, który buduje na podstawie zmysłów i dba o to, żeby model ten był spójny. Tutaj mała dygresja - na poziomie matematyki opisywane to jest procesami Markowa, natomiast na poziomie neurobiologii i psychiatrii zagadnienie to dotyka zarówno schorzeń takich jak schizofrenia, jak i zjawisk typu wytwarzanie przez mózg fałszywych bodźców (np. bóle fantomowe w utraconej kończynie, fałszywe odczucia w komorach deprywacji sensorycznej czy zjawisko FOMO - Fear of Missing Out związane z odcięciem od mediów społecznościowych, telefonu itp.). Mechanizm model vs bodźce zmysłowe działa od najprostszych organizmów jednokomórkowych (których zmysły nie są jakoś specjalnie rozbudowane) do … naszych mózgów. I jest solidną matematyczną teorią.
  4. Organizmy potrafią DOBRZE wnioskować (“Organisms make good inferences”). W bardzo dużym uproszczeniu (w modelu Fristona pojawia się tutaj dużo wzorów) oznacza to, ze organizm stara się w najlepszy możliwy sposób określić prawdopodobieństwo zdarzeń odpowiadające faktycznemu prawdopodobieństwu. Jadąc na motorze ubiorę okulary bo obawiam się much, ale jednocześnie nie będę jechał w stroju nurkowym jeśli nie zamierzam skakać do wody.
  5. Jeszcze raz. Co oznacza DOBRZE? Oznacza to, że organizm jednocześnie będzie się starał minimalizować niespodziankę (niespodziewane zdarzenia) a jednocześnie minimalizować błąd we wnioskowaniu. Nie lubimy jak coś nas zaskakuje więc unikamy niespodzianek a jednocześnie szykujemy się na nie. I tutaj pojawia się problem… w związku z budową organizmów żywych jedna z cech (minimalizowanie niespodzianek) jest w konflikcie z drugą (maksymalizacja zdolności wnioskowania). Załóżmy, że jesteśmy w ciemnym pokoju. Na podstawie naszych zmysłów możemy wnioskować niemalże idealnie („nie nie widać, nic mi nie grozi”), ale nie minimalizujemy w ten sposób niespodzianek. Pamiętajcie, ze wnioskowanie dotyczy budowania wewnętrznego stanu. Inny przykład…

Dostajesz miliony informacji na Facebook’u, LinkedIn, SMS’ami itp. - minimalizacja błędu we wnioskowaniu powinna polegać na analizie tego szumu i budowaniu sobie różnych opcji/stanów (np. poglądu na politykę budowaną z opinii zarówno Twoich lewicowych jak i prawicowych znajomych). Z drugiej strony nie minimalizujesz w ten sposób niespodzianki, bo możesz na to już nie mieć … energii.

I tutaj popatrzmy na to z punktu widzenia informacji. Życie (organizmy) z losowości tworzą mniejszą losowość. Entropia wszechświata będzie się zwiększać (także entropia informacyjna naszego małego wszechświata - popatrzcie ile przetwarzamy informacji w związku z telefonią mobilną, social mediami itp. - a ile przetwarzali nasi prapradziadkowie, którzy czasami całe życie mieszkali w jednej wsi (albo mieście)).

A teraz zastanówcie się co to oznacza dla nas. Nasze mózgi z niezwykle losowego świata tworzą modele o dużo mniejszej losowości, co więcej - my jako organizmy dbamy o to, żeby ten świat pod te modele aktywnie porządkować (zapobiegamy niespodziankom czynnie). Na tym polega nasza „wojna z entropią”.

AI a active inference

I teraz kilka słów o rozwoju AI. W poprzednim artykule („Twój pacjent za 7 dni umrze, czyli najlepsze AI jakie widziałem”) opowiadałem o tym, w jaki sposób AI może nam pomóc.

Dzisiaj potrafimy mierzyć miliardy rzeczy. Jesteśmy otoczeni internetem, nosimy go ze sobą w kieszeni a świat inteligentny wpada w nasze życie setkami komunikatów (systemy biznesowe, serwisy społecznościowe, smsy, powiadomienia z aplikacji, urządzenia IOT). Jesteśmy info-stworzeniami, ale kompletnie nie jesteśmy do tego przygotowani. O ile nasz organizm reaguje prawidłowo na bodźce ze środowiska nie-elektronicznego (ciepło, zimo, zagrożenie), o tyle kompletnie nie radzimy sobie z bodźcami z infosfery.

I tutaj dochodzimy do zasady wolnej energii oraz procesu mierzenia się z „niespodzianką” i „błędem wnioskowania”. Otóż na bazie prac Fristona można zbudować zupełnie inaczej działające AI. Co więcej - kilka firm już prowadzi nad tym prace (między innymi - Netflix).

Dzisiejsze systemy Sztucznej Inteligencji, a zwłaszcza te, którymi straszą nas dziennikarze (“AI zdominuje świat”) opierają się na dość prostych technikach analizy danych i maszynowego uczenia się. Większość z tych technik (regresje, klasyfikacje, drzewa decyzyjne, sieci neuronowe) były znane kilkadziesiąt lat temu. Postęp w ich obszarze nie dokonał się za pomocą jakiejś istotnej zmiany, ale dzięki wzrostowi liczby przetwarzanych danych. Trudno tutaj mówić o inteligencji. Nie nastąpił wzrost jakości ale liczby działań. Dobrym przykładem jest reinforced learning (uczenie za pomocą wzmocnień), które pierwszy raz zostało użyte na początku lat 80-tych ubiegłego wieku. Dzisiaj technologia ta służy do rozpoznawania obrazów, uczenia robotów, tworzenia „sztucznych inteligencji” dla gier komputerowych. Z grubsza podejście polega na „nagradzaniu agenta” (wprowadzenia parametru do którego maksymalizacji dąży algorytm) trenując go na wielkiej ilości danych. Jednak podejście to ma zazwyczaj minusy:

  • wystarczy mała zmiana środowiska (np. planszy do gry), żeby nasz robot czy agent zaczął się gubić i trzeba go było szkolić od nowa
  • cele w rzeczywistym świecie nie ograniczają się do prosto zdefiniowanych wskaźników („napiera na nas cała złożoność świata”)
  • potrzebujemy stosunkowo dużo danych, żeby takie AI nimi karmić

Można jednak inaczej. Sztuczna inteligencja opierająca się o zasadę wolnej energii (i sieci neuronowe) koncentruje się na analizach prawdopodobieństw związanych z aktywnym wnioskowaniem (active inference) i minimalizowaniem niespodzianek. Czyli buduje sobie model “walcząc z entropią”. W wyniku otrzymujemy dużo wydajniejsze wnioskowanie i dużo lepszą zdolność do adaptacji. A nasze AI aktywnie poszukuje rozwiązań (Friston używa pojęcia “Active Interference”). Przykładowy „inteligentny” agent grający w grę Doom na początku dużo dłużej określa opcje działania (w porównaniu do typowego reinforced learningu), by potem dużo szybciej osiągnąć wydajność normalnego gracza. Więcej na ten temat znajduje się w cytowanym artykule Wired.

Nie wiem jeszcze czy w pełni się z tym zgadzam, bo próbuje rozgryźć wzory (studia skończone 20 lat temu), ale coś w tym jest. Teoria, która łączy matematykę, neuronauki, fizykę oraz informatykę może być przełomem na miarę Teorii Względności. Może też powiedzieć nam więcej o tym „czym jest życie” i „jak tworzy się świadomość”. Jest to być może miejsce pierwszego dużego przełomu na drodze do uniwersalnego AI. Zresztą w ciągu 5-10 lat, według Karla Fristona AI będzie oznaczać Active Inference (aktywna inferencja) a nie Artificial Intelligence.

I tutaj dochodzimy do prognoz na najbliższe lata. Kierunkiem, który należy rozważyć jest walka z entropią, losowością i zmiennością. Bo świat jest zmienny i nieprzewidywalny, a próba zrozumienia i przyswojenia tego faktu stanowi sedno wielu filozofii, religii czy fizyki. Im więcej bodźców do nas dociera, tym sprawniej musimy umieć płynąć przez ten szum. Ograniczać go, wybierać najważniejsze schematy czy szukać wzorców. Od osobistego skupienia się na „tu i teraz” (rosnąca popularność technik „mindfulness”), przez zarządzanie naszymi biznesami (metodyki agile, kaizen/lean, VUCA) aż do technologii. I w obszarze technologii sztuczna inteligencja może być rozszerzeniem nie tyle naszych zmysłów, ale naszych mózgów przetwarzających z tym zmysłów komunikaty. Badania nad losowością, „niesamowitymi zdarzeniami” (tutaj polecam prace profesora Andrzeja Nowaka) oraz synchronizacją już dzisiaj stanowią front nowoczesnej nauki (gdzie na przykład psychologia spotyka się z fizyką kwantową). I w tym obszarze należy szukać miejsca dla AI.

Czyli - najbliższy czas (obawiam się, że najbliższy może oznaczać dziesięciolecia) to poszukiwanie szlaków do ogarnięcia rosnącej złożoności naszego świata a AI jest tutaj jednym z narzędzi. Czymś co rozszerza zdolności naszego mózgu do „aktywnej inferencji”.

Co my (one2tribe) mamy z tym wspólnego?

Pracując nad projektem optymalizacji zadowolenia z pracy (minimalizacji stresu) dotarliśmy do procesów decyzyjnych Markowa i optymalizacji Bellmana (w jednym z kolejnych artykułów napiszę jak wiele mają one wspólnego z gamifikacją i motywacją). Mechanizmy te (optymalizacja w szczególności) stanowią także podstawę Machine Learningu. A z drugiej strony doskonale komponują się z teorią gier i filozofią do której dążymy, a którą jest AI ograniczające złożoność otaczającego nas świata i pozwalające na podejmowanie nam lepszych decyzji. I … jeśli pod tym wszystkim mamy pewną uniwersalną zasadę (już dzisiaj porównywalną z teorią ewolucji czy ogólną teorią względności Einsteina) może to oznaczać, że nasza praca ma głębszy sens niż dostarczenie efektywnego systemu motywacyjnego.

Czyli jesteśmy na początku jeszcze bardziej fascynującej drogi…

Czyli przed nami jeszcze więcej przygód…

Bibliografia (gdzie czytać dalej)

  1. Poprzedni artykuł o zastosowaniu AI w medycynie i nie tylko (tutaj znajdziecie tezę, którą rozwijam)
  2. Artykuł w Wired: “The Genius Neuroscientist Who Might Hold the Key to True AI”
  3. Artykuł K. Fristona “The free-energy principle: a unified brain theory?”
  4. Wprowadzenie do „Free Energy Principle” znalezione w necie: Free Energy Principle for Dummies
  5. Strona Wikipedii o „Free Energy Principle”
  6. Film „Piękny umysł”: Link w IMDB
  7. Wywiad Elizy Michalik i Jacka Santorskiego z prof. Andrzejem Nowakiem dotyczący „Niezwykle rzadkich zdarzeń” (warto przeczytać, bo wiąże się z aspektem niespodzianki).

P.S. Jeśli widzisz w tym artykule błąd, lub chcesz podyskutować ze mną to zapraszam do komentowania.