Drukuj

- Ponad pół wieku naukowcy zastanawiają się, czy sztuczna inteligencja jest możliwa. A może to tylko oksymoron, bo inteligencja to wyłącznie domena ludzi? Maszyny mądrzeją o wiele szybciej niż ludzie i już niebawem prześcigną nas w inteligencji. Ale nie bójmy się tego, widziałem wiele zaskakujących zachowań AI, ale nie widziałem sztucznej inteligencji, która posiadałaby jaźń i intencję, aby nas wyeliminować. Zresztą, czy przeszkadza nam, że samochody i samoloty są od nas szybsze, a dźwigi silniejsze? – wyjaśniał i jednocześnie retorycznie pytał profesor Ryszard Tadeusiewicz, autorytet w tematyce sieci neuronowych, biocybernetyki i inżynierii biomedycznej, podczas telewykładu „Archipelag sztucznej inteligencji”, który odbył się w Państwowej Wyższej Szkole Informatyki i Przedsiębiorczości w Łomży w ramach działań Uniwersytetu Otwartego. Profesor przemawiał do studentów uczelni ze studia Akademickiego Centrum Komputerowego Cyfronet AGH. – Tuż za ścianą jest z nami Prometeusz, jeden z pięciuset najpotężniejszych komputerów świata – mówił.  Termin Artificial Intelligence po raz pierwszy został użyty w 1956 roku podczas konferencji w Dartmouth College w USA. Nowe pojęcie, które niebawem miało zrewolucjonizować wiele dziedzin, zostało zdefiniowane jako „system, który świadomie postrzega otoczenie i reaguje na nie tak, aby zmaksymalizować swoje szanse powodzenia”.  Profesor Ryszard Tadeusiewicz przedstawił „spokojny” wykres rosnących możliwości mistrzów szachowych: Fischera, Karpowa i Kasparowa oraz skokowo rosnącej mocy obliczeniowej programów komputerowych; NSS, MACHACK, BELLE, DEEP BLUE, które w 1997 roku osiągnęły spektakularny sukces. – Dość długo myślano, że sztuczna inteligencja jest tylko opakowaniem dla naturalnej inteligencji człowieka, programisty. Garri Kasparow był najlepszym graczem w szachy, więc nie było człowieka, który mógłby opisać reguły, jak go pokonać. A jednak program DEEP BLUE, stworzony przez programistów, to zrobił, pokonał arcymistrza  – mówił profesor. 

Inny program Logic Theorist dowiódł automatycznie większości twierdzeń zawartych w „biblii matematyków”, czyli w drugim tomie „Principia Mathematica” Bertranda Russella i Alfreda Northa Whiteheada, czyniąc to jednocześnie, przynajmniej w jednym przypadku, bardziej elegancko niż dwójka wybitnych matematyków. Sztuczna inteligencja poza spektakularnymi sukcesami, np. systemów eksperckich i sieci neuronowych, miała także swoje spektakularne „wpadki”. General Problem Solver stworzony w 1957 roku przez informatyków Herberta Simona i Allena Newella, miał rozwiązać dręczące ludzkość problemy: gospodarcze, środowiskowe, zdrowotne. – Miał odpowiedzieć jak zwalczać raka, ubóstwo. To było kompletne fiasko. Ten program nie rozwiązał żadnego problemu. Wojsko i rządy wycofały wsparcie finansowe, na lata porzucono myślenie o rewolucyjnej roli sztucznej inteligencji – mówił profesor Ryszard Tadeusiewicz, który naukowo związany jest z Akademią Hutniczo-Górniczą w Krakowie, był m.in. trzykrotnym rektorem tej uczelni.

Skok poznawczy nastąpił w ostatniej dekadzie dwudziestego wieku. – To era mózgu, co przełożyło się na rozwój sieci neuronowych. Jednak paradoksalnie, właśnie ten postęp biologii i medycyny z jednej strony i rozwój techniki z drugiej, doprowadziły do tego, że pomiędzy tymi dziedzinami wyrósł mur. Mur odmiennych metodologii, różnych tradycji rozwoju, a także hermetycznej, odmiennej terminologii i wzajemnej nieufności – mówił profesor, a na pytanie, czy AI zabierze nasze miejsca pracy, ripostował:  – Być może tak się stanie, że niebawem to nie praca będzie określać naszą samorealizację, ale z drugiej strony, czy wiecie kim był linotypista? Czy odczuwacie brak linotypistów?