Równi Hefajstosowi – historia sztucznej inteligencji

Filozofowie i twórcy od Homera po Kartezjusza rozpatrywali sztuczne inteligentne byty nie zastanawiając się, czy przedstawiane zachowanie w istocie można określić jako rozumne. Jak doszliśmy do tego, co myślimy dziś? I kiedy wyruszyliśmy w tym kierunku?

Równi Hefajstosowi – historia sztucznej inteligencji
00:00 00:00

Summary

  • Idea sztucznej inteligencji fascynuje ludzkość od czasów Homera, który opisał złote posągi-roboty w Iliadzie.
  • Pierwszą partię szachów z maszyną rozegrano w 1912 roku z automatem El Ajedrecista.
  • Ada Lovelace, matematyczka i poetka, jest uznawana za autorkę jednego z pierwszych programów komputerowych.
  • Alan Turing zaproponował w 1950 roku test na inteligencję maszyn, który otworzył drogę do naukowych rozważań na temat nieożywionych bytów posiadających rozum.
  • Model matematyczny sieci neuronowej został opisany w 1943 roku, a rozwój sztucznej inteligencji (AI) był inspirowany odkryciami w neurologii.
  • W 1956 roku Marvin Minsky, John McCarthy, Claude Shannon i Nathan Rochester z IBM zorganizowali warsztat, który nakreślił ramy AI jako dyscypliny naukowej.
  • Sztuczna inteligencja zyskała na popularności w latach 80. dzięki systemom ekspertowym, ale rozwój technologii został zahamowany z powodu kosztów rozbudowy i utrzymania tych systemów.
  • Przełomem w rozbudowie AI był sukces komputera Deep Blue w szachach przeciwko Garry'emu Kasparowowi.
  • Od 2012 roku sieci neuronowe rozwijały się intensywnie i przejmowały coraz więcej zadań od systemów bazujących na instrukcjach warunkowych.
  • Według danych zebranych przez Forbes, 97% właścicieli biznesów uważa, że technologie takie jak ChatGPT poprawią wydajność pracy w ich firmach.
  • Następnym krokiem w rozwoju AI jest stworzenie "Ogólnej sztucznej inteligencji" (General Artificial Intelligence), która dorówna możliwościami ludzkiego umysłu.

W czasach Homera ludzki umysł nie miał konkurencji, ale już wtedy dopuszczano myśl, że stworzone przez człowieka twory, których zadaniem jest pomoc w pracy, mogą być obdarzone pewną formą inteligencji. W XVIII księdze Iliady poeta pisał:

[Hefajstos] Gąbką ociera z dymu swe czoło wyniosłe

I ręce, i kark silny, i piersi obrosłe.

Wdział szatę, a do ręki wziął berło złocone;

Dwa zaś posągi w kształcie dwóch dziewic zrobione

Krok niepewny swym pewnym krokiem podpierały:

I ruch, i głos, i rozum bogi im nadały

I przemysł, najcudniejsze dzieła robić zdolny.

To jeden z najstarszych zachowanych opisów sztucznych, obdarzonych inteligencją istot, w tym przypadku złotych posągów-robotów, wykutych przez boga-kowala, by ułatwiały mu pracę. Idea podobnych stworzeń, zarówno życzliwych ludziom, jak i tych, które wymykają się spod kontroli, nie opuszczała ludzkości przez następne stulecia. Zwykle jednak opowieści o nich miały więcej mroku. Żyjącemu w XVI w. w Pradze rabinowi Jehudzie Löw ben Becalelowi przypisuje się stworzenie Golema, glinianego posągu ożywionego przez słowa. W jednej z wersji legendy Golem wpadł w szał i zaczął mordować tych, których wcześniej bronił. Równie ponury los spotkał bohatera powieści Mary Shelley, naukowca Wiktora Frankensteina. Ożywiony przez niego sztuczny człowiek wymknął się spod kontroli i zabił bliskich swego twórcy, a na końcu również jego samego. 

1769 – Maszyny królów i hetmanów

Szczególne miejsce w historii inteligentnych maszyn zajmuje tak zwany „Mechaniczny Turek”. Zaprezentowany w 1769 roku miał być genialnym automatem, który wygrywał mecze szachowe między innymi z Benjaminem Franklinem, Napoleonem Bonaparte czy uczonym Charlesem Babbage’m. 

Wszyscy oni jednak, łącznie z Babbage’em, twórcą maszyn różnicowych i autorem koncepcji pierwszego mechanicznego komputera, dali się wywieść w pole. Wewnątrz Mechanicznego Turka ukryty był utalentowany szachista, który poruszał sztucznym ramieniem i przestawiał figury. 

Pierwszą (dalece uproszczoną) partię szachów z maszyną rozegrać można było dopiero z automatem El Ajdrecista (z hiszpańskiego: gracz szachowy) zbudowanym w 1912 roku. Maszyna, dzięki wbudowanemu algorytmowi i systemowi elektromagnesów mogła dać mata wieżą i królem człowiekowi, który grał samym królem. Jednak decyzję o kolejnym ruchu, na podstawie algorytmu, podejmowała maszyna. 

Inteligencja algorytmicza

Dzięki coraz bardziej rozbudowanym maszynom liczącym możliwe było tworzenie bardziej zaawansowanych algorytmów, które skuteczniej imitowały świadome działanie człowieka. 

–  W grach strategicznych najczęściej jest zaimplementowana konkretna strategia. Polega to na tym, że osoba programująca „zachowanie” komputera określała co i kiedy ma się dziać. Strategia ta będzie działać tylko w jednej konkretnej grze, bo do tego została stworzona –  tłumaczy profesor Marek Cygan z Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego. 

Jednym z błyskotliwych przykładów takiej inteligencji jest zachowanie duchów z opublikowanej w 1980 roku gry Pac-Man. Czynności duszków goniących głównego bohatera zostały dokładnie zaprogramowane: czerwony gonił bohatera, różowy go oskrzydlał, zielony zmieniał taktykę na przemian goniąc i okrążając, a pomarańczowy zachowywał się losowo. 

W obrębie zamkniętego świata Pac-Mana działania duszków były sprytne i przemyślane. Tylko czy ich strategię można nazwać inteligencją? Od którego momentu zachowanie maszyny staje się faktycznie inteligentne?

Na wiele lat przed pojawieniem się Pac-Mana odpowiedzi na to pytanie szukał miedzy innymi matematyk i kryptolog Alan Turing. 

Czym jest inteligencja?

Filozofowie i twórcy od Homera po Kartezjusza rozpatrywali sztuczne inteligentne byty niejako intuicyjnie, nie zastanawiając się, czy przedstawiane zachowanie w istocie można określić jako rozumne, czy też jest sprytną tresurą lub inną formą mimikry. 

Interesujące w tym kontekście jest spojrzenie matematyczki i poetki Ady Lovelace, córki lorda Byrona. Współpracowała ona z Charlesem Babbage’m, a jej notatki dotyczące algorytmu realizowanego przez zaprojektowaną przez uczonego maszynę analityczną uznawane są za jedne z pierwszych programów komputerowych. Sama Lovelace twierdziła, że „należy się wystrzegać przeceniania możliwości maszyny”. 

Metodę odróżniania maszyny inteligentnej od jedynie udającą inteligencję zaproponował dopiero w 1950 roku Alan Turing. Test miał polegać na ślepej próbie: jeśli człowiek nie jest w stanie określić, czy jego partner do rozmowy jest innym człowiekiem czy maszyną, najwyraźniej maszyna jest inteligentna. 

Test okazał się później wysoce niedoskonały, gdyż programy oparte na sprytnych parafrazach zdań wpisywanych przez użytkownika (na przykład wirtualny psychoterapeuta ELIZA) były w stanie wywieść w pole swoich rozmówców. 

Jednak wraz z testem Turinga idea nieożywionego bytu posiadającego odpowiednik rozumu stała się przedmiotem rozważań nauki, a nie tylko fikcji. 

Na obraz i podobieństwo

Jednym z nieoczywistych bodźców do rozwoju sztucznej inteligencji były nowe odkrycia na gruncie neurologii i postęp wiedzy na temat działania mózgu. Fakt, że mózg działa na zasadzie sieci połączonych neuronów przesyłających impulsy elektryczne stanowił inspirację dla badaczy i konstruktorów sztucznych mózgów. Model matematyczny sieci neuronowej został po raz pierwszy opisany w 1943 przez neurofizjologa Warrena McCullocha i logika Waltera Pittsa. Aby udowodnić swoją tezę, zbudowali swoje testowe neurony z obwodów elektrycznych. 

Warsztat w Dartmouth

Sześć lat po tym, jak Alan Turing przedstawił swój test, Marving Minski, John McCarthy, Claude Shannon oraz Nathan Rochester z IBM zorganizowali warsztat, podczas którego opisana została Sztuczna Inteligencja, a jej nakreślono jej ramy jako dyscypliny naukowej. Przedtem brakowało jednolitego nazewnictwa i terminologii opisującej tę dziedzinę. Mówiono nawet o „myślących maszynach”, co nie oddawało sedna sprawy. 

Nakreślenie ram nowej dziedziny i optymizm związany z jej wynikami doprowadziły do eksplozji zainteresowania tematyką w latach 50. ubiegłego wieku. 

1956 - Pierwsze lato 

Warsztat w Dartmouth zaowocował wieloma inspirującymi programami, które przyczyniły się do wzrostu zainteresowania tą technologią. Badacze przewidywali powstanie pierwszych „w pełni inteligentnych” maszyn w ciągu 20 lat. W 1970 roku Marvin Minsky przekonywał w wywiadzie dla magazynu „Life”, że wystarczy od trzech do ośmiu lat, by maszyny osiągnęły poziom inteligencji przeciętnego człowieka. Optymizm znalazł odzwierciedlenie w strumieniu funduszy płynącym do badaczy między innymi od DARPA (Defense Advanced Research Projects Agency, czyli Agencja Zaawansowanych Projektów Badawczych Departamentu Obrony). 

Już wówczas przedmiotem zainteresowania badaczy było wnioskowanie i przetwarzanie języka naturalnego. Opierało się jednak przede wszystkim na podejściu algorytmicznym, porównywalnym do programowania AI w grach. Optymizm potęgował oczekiwania, którym badacze nie byli w stanie sprostać, co doprowadziło do tak zwanej Zimy AI

1974 - Pierwsza zima

Jednym z podstawowych problemów, z którymi musieli się mierzyć badacze sztucznej inteligencji, był brak dostępu do mocy obliczeniowej. W latach 70., gdy zainteresowanie tą dziedziną spadło, komputery wciąż dysponowały śmiesznymi z dzisiejszej perspektywy możliwościami. Popularny w tamtych czasach komputer Atari 400 miał 8 kilobajtów pamięci i procesor taktowany 1,792 MHz. Przy tym poziomie dostępu do mocy obliczeniowej sztuczna inteligencja i wczesne sieci neuronowe mogły co najwyżej rozwiązywać bardzo uproszczone problemy. Istniały więc dowody, że sztuczna inteligencja działa, ale brakowało infrastruktury do jej dalszego rozwoju. 

1980 - Kolejne lato

Temat sztucznej inteligencji powrócił w latach 80. wraz z tak zwanymi systemami ekspertowymi. Opierały się one na algorytmicznym, zaprogramowanym podejściu i przechowywały wiedzę na temat wąskiej dziedziny. Ich tworzenie było drogie, jednak okazywały się szalenie przydatne. 

Dzięki prowadzonej równolegle pracy nad nową architekturą sieci neuronowych oraz wzrostowi dostępnej mocy obliczeniowej możliwe było zastosowanie tej technologii do takich zadań jak rozpoznawanie znaków, na przykład napisanych ręcznie (Optical Character Recognition) czy mowy. Wzrost zainteresowania trwał siedem lat, po czym rozwój technologii znów został zahamowany. 

1987 - Druga zima AI

Systemy ekspertowe, które zachwyciły użytkowników na początku „lata AI”, okazały się drogie w rozbudowie i utrzymaniu. W przeciwieństwie do sztucznej inteligencji opartej o sieci neuronowe, wymagały całkowicie ręcznej aktualizacji. Podobnie jak w przypadku pierwszego lata AI, rozdmuchane oczekiwania przyczyniły się do gorzkiego rozczarowania kolejną falą rozwoju sztucznej inteligencji. Po raz kolejny DARPA niezadowolona ze zbyt powolnego rozwoju technologii obcięła finansowanie dla projektów. 

Nowe lato i nowoczesne podejście

Od 1993 roku prace nad rozbudową sztucznej inteligencji trwały, choć w mniejszym stopniu przyciągały uwagę publiczności. Pewnym przełomem była wygrana komputera Deep Blue z ówczesnym mistrzem szachowym Garrym Kasparovem. Duch Mechanicznego Turka na swój sposób powrócił do historii myślących maszyn. 

Jednak prawdziwy przełom w zainteresowaniu sztuczną inteligencją, który widać do dzisiaj, możliwy był dzięki dwóm rewolucjom: big data oraz cloud computingu. Pierwsza, poprzez możliwość analizowania i gromadzenia ogromnych zbiorów danych pozwoliła zbudować infrastrukturę do trenowania sieci neuronowych. Druga zapewniła dostęp do ogromnej mocy obliczeniowej, której niedobory były jednym z głównych czynników hamujących rozwój tej technologii od czasów Alana Turinga. 

– Powszechnie uznaje się, że najważniejsze kamienie milowe to sukces sieci neuronowych w konkursie Imagenet w 2012 roku, polegający na rozpoznawaniu tego, co jest na zdjęciu. Od tego momentu nastąpił renesans zainteresowania sieciami neuronowymi – tłumaczy profesor Marek Cygan. – Kolejne to model AlphaGo z 2016 roku oraz ChatGPT z 2022 roku. 

W praktyce od 2012 roku sieci neuronowe rozwijały się bardzo intensywnie i przejmowały coraz więcej zadań od systemów wcześniej bazujących na instrukcjach warunkowych. 

– Od roku 2012 postęp był bardzo widoczny w świecie naukowym, a sieci neuronowe znajdowały coraz więcej praktycznych zastosowań. Większość osób nie zdawała sobie z tego sprawy, gdyż dla użytkownika końcowego nie ma za bardzo znaczenia, jakich algorytmów i metod używa dany system, ważne że działa coraz lepiej – tłumaczy profesor Marek Cygan. – To co zmienił ChatGPT to powszechność dostępu do tej nowej technologii oraz poprawa jakości działania, powodująca przekroczenie granicy używalności.

Popularność najnowszych rozwiązań znajduje odzwierciedlenie w badaniach i raportach. Według danych zebranych przez magazyn Forbes nawet 97% właścicieli biznesów uważa, że ChatGPT oraz podobne technologie poprawią wydajność pracy w ich firmach. Zautomatyzowani asystenci po nieco ponad dwóch i pół tysiącu lat stały się codziennością w dla wielu tysięcy pracowników na całym świecie.

Na swój sposób więc chatGPT uczynił nas wszystkich równymi Hefajstosowi. 

Co dalej?

Wraz z pojawieniem się Chatu GPT, Midjourney oraz innych systemów bazujących na generatywnym AI narodziło się wiele pytań. Co z rynkiem pracy? W jaki sposób zmieni się społeczeństwo, w którym każdy może mieć prywatnego asystenta? Na ile godne zaufania są maszyny?

Wszystkie te pytania uzyskują dziesiątki odpowiedzi, często sprzecznych ze sobą. Przed dalszym rozwojem sztucznej inteligencji przestrzegał między innymi Stephen Hawking. Do ostrożności wzywa również choćby Yuval Noah Harari. Nie powstrzymuje to takich firm jak McKinsey przed powoływaniem własnych, wewnętrznych chatbotów do zarządzania zgromadzoną przez wiele lat pracy wiedzą. 

Następnym krokiem jest tak zwana „Ogólna sztuczna inteligencja” (General Artificial Intelligence), co w praktyce oznacza stworzenie sztucznego mózgu dorównującego możliwościami ludzkiemu umysłowi. Pracę nad nią zapowiedziały najważniejsze laboratoria, między innymi OpenAI oraz Deepmind. 

A przyszłość to science fiction.