Historia na 6 – przyjemna nauka historii Historia Historia sztucznej inteligencji

Historia sztucznej inteligencji

Historia AI

W pierwszej połowie XX wieku science fiction zapoznała świat z koncepcją sztucznie inteligentnych robotów. Zaczęło się od „bezdusznego” Blaszanego Drwala z Czarnoksiężnika z Krainy Oz, a kontynuacją był humanoidalny robot podszywający się pod Marię w Metropolis. W latach 50. mieliśmy już pokolenie naukowców, matematyków i filozofów, których koncepcja sztucznej inteligencji (lub AI) została kulturowo przyswojona w ich umysłach. Jedną z takich osób był Alan Turing, młody brytyjski polimatyk, który badał matematyczne możliwości sztucznej inteligencji. Turing sugerował, że ludzie używają dostępnych informacji oraz rozumu, aby rozwiązywać problemy i podejmować decyzje, więc dlaczego maszyny nie mogą robić tego samego? Takie były logiczne ramy jego pracy z 1950 roku, Computing Machinery and Intelligence, w której omówił, jak zbudować inteligentne maszyny i jak przetestować ich inteligencję.

Umożliwienie dążenia do celu

Co powstrzymało Turinga przed zabraniem się do pracy właśnie wtedy i tam? Po pierwsze, komputery musiały się fundamentalnie zmienić. Przed 1949 rokiem komputerom brakowało kluczowego warunku inteligencji: nie mogły przechowywać poleceń, tylko je wykonywać. Innymi słowy, komputerom można było powiedzieć, co mają robić, ale nie mogły pamiętać, co zrobiły. Po drugie, komputery były niezwykle drogie. Na początku lat 50. koszt dzierżawy komputera dochodził do 200 000 dolarów miesięcznie. Tylko prestiżowe uniwersytety i wielkie firmy technologiczne mogły sobie pozwolić na błądzenie po tych niezbadanych wodach. Aby przekonać źródła finansowania, że warto zajmować się inteligencją maszynową, potrzebny był dowód słuszności koncepcji oraz wsparcie ze strony wysoko postawionych osób.

Konferencja, od której wszystko się zaczęło

Pięć lat później, dowód koncepcji został zainicjowany przez Allena Newella, Cliffa Shawa i Herberta Simona, Logic Theorist. Logic Theorist był programem zaprojektowanym w celu naśladowania umiejętności rozwiązywania problemów przez człowieka i był finansowany przez Research and Development (RAND) Corporation. Przez wielu uważany jest za pierwszy program sztucznej inteligencji i został zaprezentowany na konferencji Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), której gospodarzami byli John McCarthy i Marvin Minsky w 1956 roku. Na tej historycznej konferencji McCarthy, wyobrażając sobie wielką współpracę, zgromadził najlepszych badaczy z różnych dziedzin na otwartą dyskusję na temat sztucznej inteligencji, terminu, który ukuł właśnie na tym wydarzeniu. Niestety, konferencja nie spełniła oczekiwań McCarthy’ego; ludzie przychodzili i odchodzili, jak im się podobało, i nie udało się uzgodnić standardowych metod dla tej dziedziny. Mimo to wszyscy z całego serca zgadzali się z opinią, że AI jest osiągalna. Znaczenia tego wydarzenia nie można podważyć, gdyż stało się ono katalizatorem następnych dwudziestu lat badań nad AI.

Roller Coaster sukcesów i niepowodzeń

Od 1957 do 1974 roku nastąpił rozkwit AI. Komputery mogły przechowywać więcej informacji i stały się szybsze, tańsze i bardziej dostępne. Algorytmy uczenia maszynowego również uległy poprawie, a ludzie stali się lepsi w zakresie wiedzy, jaki algorytm zastosować do danego problemu. Wczesne demonstracje, takie jak General Problem Solver Newella i Simona oraz ELIZA Josepha Weizenbauma, okazały się obiecujące w kontekście rozwiązywania problemów i interpretacji języka mówionego. Te sukcesy, jak również poparcie czołowych naukowców (mianowicie uczestników DSRPAI) przekonały agencje rządowe, takie jak Defense Advanced Research Projects Agency (DARPA), do finansowania badań nad AI w kilku instytucjach. Rząd był szczególnie zainteresowany maszyną, która mogłaby transkrybować i tłumaczyć język mówiony, jak również przetwarzać dane o dużej przepustowości. Optymizm był duży, a oczekiwania jeszcze większe. W 1970 roku Marvin Minsky powiedział Life Magazine, że „za trzy do ośmiu lat będziemy mieli maszynę o ogólnej inteligencji przeciętnego człowieka.” Jednak, choć podstawowy dowód zasady istniał, wciąż była długa droga do osiągnięcia końcowych celów przetwarzania języka naturalnego, abstrakcyjnego myślenia i samorozpoznawania.

Przebicie się przez początkową mgłę AI ujawniło górę przeszkód. Największą z nich był brak mocy obliczeniowej pozwalającej na zrobienie czegokolwiek istotnego: komputery po prostu nie były w stanie przechowywać wystarczająco dużo informacji ani przetwarzać ich wystarczająco szybko. Aby się na przykład porozumieć, trzeba znać znaczenia wielu słów i rozumieć je w wielu kombinacjach. Hans Moravec, ówczesny doktorant McCarthy’ego, stwierdził, że „komputery były jeszcze miliony razy za słabe, by wykazywać się inteligencją.” W miarę jak cierpliwość malała, tak samo malało finansowanie, a badania stanęły w miejscu na dziesięć lat.

W latach 80-tych AI została ponownie rozpalona przez dwa źródła: rozszerzenie zestawu narzędzi algorytmicznych i wzrost funduszy. John Hopfield i David Rumelhart spopularyzowali techniki „głębokiego uczenia”, które pozwalały komputerom uczyć się na podstawie doświadczenia. Z drugiej strony Edward Feigenbaum wprowadził systemy ekspertowe, które naśladowały proces podejmowania decyzji przez ludzkiego eksperta. Program pytał eksperta w danej dziedzinie o to, jak zareagować w danej sytuacji, a kiedy już nauczył się tego dla praktycznie każdej sytuacji, osoby niebędące ekspertami mogły otrzymywać od niego porady. Systemy eksperckie były szeroko stosowane w przemyśle. Rząd japoński mocno finansował systemy eksperckie i inne przedsięwzięcia związane z AI w ramach projektu Fifth Generation Computer Project (FGCP). W latach 1982-1990 zainwestowano 400 milionów dolarów w celu zrewolucjonizowania przetwarzania komputerowego, wdrożenia programowania logicznego i udoskonalenia sztucznej inteligencji. Niestety, większość ambitnych celów nie została zrealizowana. Można jednak twierdzić, że pośrednie efekty FGCP zainspirowały utalentowane młode pokolenie inżynierów i naukowców. Niezależnie od tego, finansowanie FGCP ustało, a AI zniknęła z pola widzenia.

Jak na ironię, przy braku rządowego finansowania i publicznego szumu, AI kwitła. W latach 90. i 2000 wiele z przełomowych celów sztucznej inteligencji zostało osiągniętych. W 1997 roku panujący mistrz świata w szachach i arcymistrz Gary Kasparow został pokonany przez IBM-owski program komputerowy Deep Blue. Ten bardzo nagłośniony mecz był pierwszą przegraną panującego mistrza świata w szachach z komputerem i stanowił ogromny krok w kierunku sztucznie inteligentnego programu do podejmowania decyzji. W tym samym roku oprogramowanie do rozpoznawania mowy, opracowane przez firmę Dragon Systems, zostało wdrożone w systemie Windows. Był to kolejny wielki krok naprzód, ale w kierunku przedsięwzięć związanych z tłumaczeniem języka mówionego. Wydawało się, że nie ma problemu, z którym nie poradziłyby sobie maszyny. Nawet ludzkie emocje były uczciwą grą, czego dowodem jest Kismet, robot opracowany przez Cynthię Breazeal, który potrafił rozpoznawać i okazywać emocje.

Czas leczy wszystkie rany

Nie staliśmy się mądrzejsi w kwestii tego, jak kodujemy sztuczną inteligencję, więc co się zmieniło? Okazuje się, że podstawowy limit pamięci komputerowej, który powstrzymywał nas 30 lat temu, nie był już problemem. Prawo Moore’a, które szacuje, że pamięć i szybkość komputerów podwaja się co roku, w końcu dogoniło, a w wielu przypadkach przewyższyło nasze potrzeby. To właśnie dzięki temu Deep Blue był w stanie pokonać Gary’ego Kasparova w 1997 roku, a Alpha Go firmy Google była w stanie pokonać chińskiego mistrza Go, Ke Jie, zaledwie kilka miesięcy temu. To trochę wyjaśnia rollercoaster badań nad AI; nasycamy możliwości AI do poziomu naszej obecnej mocy obliczeniowej (pamięci masowej i szybkości przetwarzania danych), a następnie czekamy, aż Prawo Moore’a znów nas dogoni.

Sztuczna inteligencja jest wszędzie

Historia sztucznej inteligencji

Żyjemy obecnie w epoce „big data”, epoce, w której mamy możliwość gromadzenia ogromnych ilości informacji zbyt kłopotliwych do przetworzenia przez człowieka. Zastosowanie sztucznej inteligencji w tym zakresie było już dość owocne w kilku branżach, takich jak technologia, bankowość, marketing i rozrywka. Widzieliśmy, że nawet jeśli algorytmy nie ulegają znacznej poprawie, big data i masowe obliczenia po prostu pozwalają sztucznej inteligencji uczyć się poprzez brute force. Być może istnieją dowody na to, że prawo Moore’a nieco spowalnia, ale przyrost danych z pewnością nie stracił tempa. Przełomowe odkrycia w informatyce, matematyce czy neuronauce to potencjalne wyjścia przez sufit prawa Moore’a.

Przyszłość AI

Co więc czeka nas w przyszłości? W najbliższej przyszłości język AI zapowiada się na kolejną wielką rzecz. W rzeczywistości jest to już w toku. Nie pamiętam, kiedy ostatnio dzwoniłem do firmy i bezpośrednio rozmawiałem z człowiekiem. W dzisiejszych czasach maszyny dzwonią nawet do mnie! Można sobie wyobrazić interakcję z systemem eksperckim w płynnej rozmowie lub rozmowę w dwóch różnych językach tłumaczonych w czasie rzeczywistym. Możemy się również spodziewać, że w ciągu najbliższych dwudziestu lat na drogach pojawią się samochody bez kierowcy (i to ostrożnie). W dłuższej perspektywie celem jest ogólna inteligencja, czyli maszyna, która przewyższa ludzkie zdolności poznawcze we wszystkich zadaniach. To coś na wzór czujących robotów, które przywykliśmy oglądać w filmach. Dla mnie wydaje się niewyobrażalne, że uda się to osiągnąć w ciągu najbliższych 50 lat. Nawet jeśli istnieje taka możliwość, kwestie etyczne będą stanowiły silną barierę przed jej urzeczywistnieniem. Kiedy nadejdzie ten czas (ale lepiej jeszcze przed nim), będziemy musieli przeprowadzić poważną rozmowę na temat polityki maszynowej i etyki (jak na ironię, oba te zagadnienia są fundamentalnie ludzkie), ale na razie pozwolimy AI stale się doskonalić i szaleć w społeczeństwie.

Polecane posty

Otton III

Scharakteryzuj koncepcję polityczną, którą starał się realizować Otton III.Scharakteryzuj koncepcję polityczną, którą starał się realizować Otton III.

Otton III starał się zrealizować ideę cesarstwa uniwersalnego, czyli tworzenie luźnej federacji, której przewodził, skupiającej wszystkie ziemie zamieszkane przez wyznawców chrześcijaństwa. Otton III był władcą niemieckim z rodziny Ludolfingów. Został