Sztuczna inteligencja, uczenie maszynowe i głębokie uczenie się. Czym się różnią i co dokładnie znaczą?
Smart City

Sztuczna inteligencja, uczenie maszynowe i głębokie uczenie się. Czym się różnią i co dokładnie znaczą?

Kiedy południowokoreański mistrz gry Go został pokonany przez program komputerowy Google DeepMind AlphaGo, media, blogi i znajomi na fejsie twierdzili zamiennie, że o zwycięstwie maszyny zdecydowały: machine learning, deep learning i artificial intelligence.  I tak właściwie to mieli rację, bo wszystkie te zjawiska: ML, DL, AI, pojawiają się w tej historii, tyle, że każde z nich znaczy coś innego.

Sam też mam spory problem w toczonych dyskusjach. Rozmawiamy o czymś, co się nam wydaje, nie ustalając na samym początku, co rozumiemy przez poszczególne pojęcia. Efekt jest taki, że każdy mówi swoje i często ma rację, tylko poprzez bałagan pojęciowy, druga, trzecia, czwarta strona dyskusji rozumie to zupełnie inaczej. Kiedy dyskutujemy o przewidywaniu przyszłości, etyczności algorytmów, autonomicznych pojazdach, zarządzaniu poprzez dane musimy poruszać się w ramach pojęć, które dziś stają się rzeczywistością.

Na potrzeby szerszej dyskusji o wpływie maszyn na nasze życie, na życie miast, na zarządzanie nimi warto zdefiniować trzy pojęcia, które w tej sferze pojawiają się najczęściej.  To przyda się również jako wstęp do wielu kolejnych artykułów, o czym wkrótce się przekonacie.

Historycznie pierwsza była sztuczna inteligencja (AI), potem nastąpił rozwój uczenia maszynowego (ML), by wreszcie, już w XXI wieku, pojawienie się tzw. głębokiego uczenia się (DL), pozwoliło na dynamiczny rozwój zarówno sztucznej inteligencji, jak i uczenia maszynowego.

AI. Prawdziwa historia sztucznej inteligencji

To termin, któremu stuknęło już ponad 60 lat. W 1956 grupa informatyków ukuła to określenie, by nazwać przedmiot badań, jakimi zajmowali się podczas konferencji w Dartmouth.. Z jednej strony grono entuzjastów uważało, że to najbardziej doniosłe osiągnięcie technologiczne, które całkowicie zmieni reguły gry, z drugiej strony sceptycznie nastawieni podkreślali jego nieużyteczność, jałowość i ogromne koszty oraz pożerane zasoby. Do końca pierwszej dekady XXI wieku właściwie każdy sąd był uzasadniony.

W ciągu ostatnich kilku lat, zwłaszcza po roku 2015, AI przeżywa wielki boom. Wiąże się to przede wszystkim z tym, że przetwarzanie danych stało się coraz szybsze, wydajne, no i coraz tańsze. Ma to związek z równoległym rozwojem, o niemalże nieskończonym potencjale, zjawiska Big Data, czyli powodzi danych, zawartych w tekstach, obrazach, mapach itp.

Co właściwie wydarzyło się pomiędzy 1956 r. a nieodległym chociażby rokiem 2012? Jak to się stało, że uruchomiono procesy, z których dziś korzystają setki milionów mieszkańców naszego globu?

Pierwszą jaskółką, która zapowiedziała wiosnę, choć nieco przedwcześnie, były programy komputerowe do gry w szachy, czyli pierwsze przykłady sztucznej inteligencji. Wywołały one niebywałą falę nadziei i emocji. Marzeniem artykułowanym na wspomnianej wyżej konferencji w 1956 roku było skonstruowania złożonych maszyn, które miałaby wszystkie cechy ludzkiej inteligencji. Tę koncepcję oznaczamy dziś nazwą „General AI” – stworzenie super maszyny, która posiada wszystkie ludzkie zmysły, wszystkie cechy ludzkiej inteligencji, ludzkie sposoby postępowania oraz myśli podobnie do nas i posiada ogólny obraz świata i rzeczywistości jako swój własny zasób. Jak na razie takiego typu maszyny pojawiły się tylko w filmach science fiction,, bowiem ludzkość jeszcze nie potrafi stworzyć tak zaawansowanej technologii. Wielu naukowców i filozofów nauki twierdzi, że to nigdy nie będzie możliwe.

To co udało się wynaleźć, to tak zwana wąska definicja sztucznej inteligencji. W tym sensie AI to technologia, która jest w stanie wykonać określone zadania tak samo, albo lepiej niż ludzie. Przykładami są narzędzia do rozpoznawania obrazów czy twarzy używane w serwisach społecznościowych, takich jak Facebook czy Pinterest, ale też system rozpoznawania tablic rejestracyjnych na parkingach. Tak widziana AI stosowana jest szeroko w miastach w platformach do zarządzania transportem, ochroną wód, środowiska, w planowaniu przestrzennym itd.

W stosunku do pokładanych nadziei, efekty jak na razie okazały się nieco rozczarowujące. Mamy do czynienia z inteligencją, ale w zawężonym zakresie, w którym widoczne są tylko niektóre aspekty naszej, ludzkiej inteligencji.

Można jednak zadać uprawnione pytanie, skąd pochodzi ta inteligencja? A to prowadzi nas do następnego pojęcia – Machine Learning.

ML. Czego nauczy się maszyna

Zajrzyj w folder spamu w swojej skrzynce i zobaczysz przykład zastosowania machine learning. Pewnie, od razu powiesz, że często wpada tam coś, co nie powinno. Na tym właśnie polega problemu ML, że nie wszystko działa jeszcze perfekcyjnie.

Uczenie maszynowe, w swej najbardziej podstawowej formie ,to wykorzystywanie algorytmów do analizowania danych, uczenia się z nich, a następnie dokonywania określonych wyborów lub przewidywań. Zamiast kodowania procedur przez programistę, wszystkich komend z określonymi instrukcjami do określonego zadania, komputer-maszyna jest “nauczona”, przy zastosowaniu bardzo dużej ilości danych i algorytmów, które dają mu możliwość uczenia się, jak wykonać konkretne zadanie. Przewaga uczenia maszynowego polega na tym, że w relatywnie bardzo krótkim czasie, maszyna jest w stanie przeanalizować ogromną liczbę wypadków,  na tej podstawie wyciągnąć wnioski i nauczyć się procedury postępowania bądź przewidywania, dzięki czemu wszystko obarczone jest dużo mniejszym ryzykiem błędu.

Uczenie maszynowe zostało wynalezione przez pierwszych twórców AI i przez lata obejmowało między innymi uczenie się drzew decyzyjnych, indukcyjne programowanie logiczne, klastrowanie, uczenie się przez wzmacnianie (RL), sieci bayesowskie i inne. Jak wspomniałem, żadna z nich nie osiągnęła poziomu General AI, a we wczesnych etapach machine learning w większości niedostępna była nawet wąsko rozumiana sztuczna inteligencja.

Jednym z najczęstszych zastosowań okazała się technologia wykrywania obrazu.  Maszyny robią to naprawdę dobrze, ale nie genialnie. Zwłaszcza kiedy obraz jest niewyraźny, lub częściowo zasłonięty dochodzi do wielu błędnych interpretacji. Wciąż w tej konkurencji ludzie są o wiele lepsi i popełniają mniej błędów. Zasadniczą przewagę stanowi czas i ilość operacji, jaką można dokonać w niewielkiej jednostce czasu.

DL. Głębokie uczenie z użyciem kotów

Przez długi czas, właściwie dziesięciolecia, tempo prac nad AI, ML spadało. Rozbudzone nadzieje nie znajdowały potwierdzenia w kolejnych wynalazkach, malały więc też pieniądze inwestowane w rozwój tych ryzykownych technologii. Potrzebny był nowy przełom.

Może trudno w to uwierzyć, ale koty w internecie są nie tylko bohaterami niezliczonej ilości memów; właśnie zdjęcia kotów zbierane w serwisie YouTube stały się jednym z przełomów w zademonstrowaniu idei głębokiego uczenia się maszyn.

Wynalazek deep learnig, czyli tworzenia sztucznych sieci neuronowych ma już pięćdziesiąt lat i  przez dekady tkwił w stagnacji. Sieci te powstały inspirowane ludzkim rozumieniem tego, jak działa nasz mózg – czyli połączeniami pomiędzy neuronami. W naszym mózgu neurony w pewnej odległości od siebie mogą łączyć się, komunikować impulsami z dowolnym innym neuronem. Sztuczne „neurony” są podzielone na warstwy, a dane propagują się („poruszają się”) w określonych kierunkach. Poszczególne warstwy przekazują sobie dane, aby w ostatniej warstwie powstał wynik finalny.

Początkowo nawet specjaliści od sztucznej inteligencji odrzucali sieci neuronowe i jedynie upór Geoffreya Hintona z Uniwersytetu w Toronto oraz jego zespołu sprawił, że udało się tak dopracować algorytmy komputerów, żeby wykazać działanie sieci. Sieci neuronowe ważą prawdopodobieństwo, ale żeby robić to prawidłowo, potrzebują ogromnej liczby przykładów, często setek tysięcy, nawet milionów, dopóki sieć neuronowa się nie „nastroi”. Taka sieć neuronowa przechodzi proces „szkolenia się”.

Teraz już pewnie domyślasz się dlaczego YouTube i koty? Demonstracji działania DL, czyli deep learning, dokonał Andrew Ng z Google w 2012 na przykładzie miliona obrazków, a tylko koty występują w takiej ilości w internecie. Sieć neuronowa nauczyła się, co oznacza kot.

Przełom dokonał się dzięki temu, że udało się zaprząc ogromne moce obliczeniowe i zwiększyć gigantycznie ilość warstw i neuronów, dzięki czemu udało się uzyskać „głębię” uczenia. Tym sposobem udało się uzyskać technologię, która w przypadku niektórych scenariuszy radzi sobie lepiej niż człowiek. Dotyczy to rozpoznawania kotów, ale i identyfikacji objawów nowotworów na zdjęciach i we krwi. No i dzięki DL googlowski AlphaGo nauczył się gry Go tak doskonale, grając w kółko sam przeciw sobie, że dostroił sieć tak perfekcyjnie, iż ograł najlepszego gracza na świecie.

Dzięki wynalezieniu Deep Learning, AI (sztuczna inteligencja) uzyskała nowe perspektywy rozwoju i znalazła wiele praktycznych zastosowań. Głębokie uczenie rozkłada zadania na czynniki pierwsze w taki sposób, że różnego rodzaju mechanizmy wspomagające maszyny stają się możliwe. Ogrom zastosowań w autonomicznych pojazdach, medycynie, finansach, systemach rekomendacji występuje już dziś i z każdym miesiącem przybywa przełomowych zastosowań. Sztuczna inteligencja jest więc i teraźniejszością i przyszłością. Widząc ten potencjał Google w 2014 roku kupiło londyński strtup Deep Mind Technologies za 400 mln dolarów, dając jasny sygnał, że wycenia możliwości potencjalnych korzyści na znacznie więcej.

Przy okazji zapraszam na konferencje Nowe Trendy w Turystyce w Gdańsku, gdzie będę opowiadał jak AI, ML, DL zmieniają i zmienią biznes turystyczny http://trendywturystyce.pl/