Sztuczna inteligencja i świadomość? Czy to możliwe? Maszyna nabrała naukowca

MiniSI #1: Czym jest sztuczna inteligencja?

Sztuczna inteligencja jest ostatnio bardzo nośnym tematem. Z jednej strony producenci sprzętów oferują nam SI w aparacie, SI w domowym asystencie i SI w lodówce, z drugiej zaś persony pokroju Stephena Hawkinga i Elona Muska ostrzegają nas przed jej niekontrolowanym rozwojem. Dorzućmy do tego wizję inteligentnych programów przedstawianą nam przez pisarzy science-fiction, zmieszajmy z typowym dla nas koloryzowaniem i voilà, otrzymujemy mocno zniekształcony obraz sztucznej inteligencji.

Czym więc ona właściwie jest? Co sprawia, że program można nazwać inteligentnym? Sięgnijmy jeszcze głębiej – jakie są cechy bytu inteligentnego, żywego lub sztucznego? Aby odpowiedzieć na te pytania, należy cofnąć się przynajmniej do połowy ubiegłego wieku, choć niektórzy początków sztucznej inteligencji upatrują już w przemyśleniach starożytnych filozofów. Nie będę jednak schodził tak głęboko i postaram się skupić na tym, co definiuje sztuczną inteligencję w czasach obecnych. Zdolność do uczenia się? Umiejętność przystosowania się do nowych warunków? A może po prostu samoświadomość istnienia?

Jak zdefiniować sztuczną inteligencję?

Termin „sztuczna inteligencja” (SI, w angielskiej wersji mamy AI, czyli artifical intelligence) został zaproponowany w 1956 roku przez zmarłego kilka lat temu Johna McCarthy’ego; do zagadnień SI zaliczono wtedy poszukiwanie metod rozwiązywania problemów, rozumowania logicznego i procesu wnioskowania podobnego do tego, który zachodzi w naszych mózgach. Na zorganizowanej przez McCarthy’ego konferencji mówiono również o rozumieniu języka naturalnego, uczeniu się na podstawie analogii, przewidywaniu i prognozowaniu, a także na odwzorowaniu procesów percepcyjnych człowieka. Filozofowie zastanawiali się także nad problemem świadomości inteligentnego komputera. Innymi słowy, sztuczna inteligencja buduje informatykę poprzez inspirację światem biologicznym. I nie tylko.

Marvin Minsky, współzałożyciel laboratorium sztucznej inteligencji w MIT (Massachusetts Institute of Technology) mówi: „sztuczna inteligencja to nauka o maszynach realizujących zadania, które wymagają inteligencji, gdy są realizowane przez człowieka”. Bardziej informatyczną definicję przedstawił Wodzisław Duch, polski profesor nauk fizycznych: „sztuczna inteligencja to dziedzina nauki zajmująca się rozwiązywaniem zagadnień efektownie niealgorytmizowanych”. Jeszcze inaczej opisał to Robert J. Schalkoff, profesor na University of Virginia: „sztuczna inteligencja obejmuje rozwiązywanie problemów sposobami wzorowanymi na naturalnych działaniach i procesach poznawczych człowieka za pomocą symulujących je programów komputerowych”.

Definicje te można rozumieć na wiele sposobów, dlatego też do nauki wprowadzono termin Computational Intelligence, co tłumaczy się jako Inteligencję Obliczeniową. To gałąź informatyki, która zajmuje się rozwiązywaniem abstrakcyjnych i symbolicznych problemów sztucznej inteligencji z wykorzystaniem obliczeń numerycznych, a więc takich, które opisane są wyłącznie liczbami. Musicie bowiem wiedzieć, że komputery same w sobie są absolutnie głupie; wykonują tylko proste obliczenia. Nie potrafią myśleć, nie dysponują zdolnością abstrakcyjnego przetwarzania informacji. Wszystko, co znajduje się w komputerze, jest tylko ciągiem zer i jedynek. Mimo to sztuczna inteligencja myśli, a przynajmniej takie możemy odnieść wrażenie.

Dokończmy jednak definiowanie pojęcia sztucznej inteligencji. Choć na ogół jest to dziedzina informatyki (szczególnie w postaci inteligencji obliczeniowej), to jednak samym zagadnieniem zajmują się nie tylko informatycy. Wiele aspektów SI powstaje z udziałem matematyków, biologów, lekarzy, psychologów i filozofów. Z pełną odpowiedzialnością możemy więc powiedzieć, że sztuczna inteligencja to nauka interdyscyplinarna, a jej rozwój jest niemożliwy bez współpracy naukowców z różnych środowisk. Mało tego – jej rozwój jest niemożliwy bez rozwoju innych dziedzin nauki, a także bez rozwoju samej technologii.

Test Turinga

Za ojca (a przynajmniej jednego z ojców) sztucznej inteligencji uważa się Alana Turinga, brytyjskiego matematyka i kryptologa, a także jednego z twórców informatyki. Turing na kilka lat przed konferencją McCarthy’ego zaproponował test mający stwierdzić, czy dany program jest inteligentny. Oryginalnie idea testu polegała na zadawaniu pytań za pośrednictwem komputera, przy czym odpowiedzi mógł udzielić zarówno program, jak i człowiek. Jeśli zadający pytanie nie był w stanie wprost wskazać, której odpowiedzi udzielił człowiek, a której komputer, to sztuczna inteligencja przechodziła test.

Jego bardziej współczesna wersja polega nie tyle na zadawaniu pytań, ile po prostu na rozmowie, dodatkowo prowadzonej na głos, a nie poprzez słowa wprowadzane klawiaturą. Google zaprezentowało nam już pokaz możliwości swojego asystenta (w postaci Google Duplex), który, jeśli dobrze pamiętam, na polecenie właściciela zarezerwował stolik w restauracji. Ostatnio pokazali również tryb, w którym asystent odbiera telefon i sam prowadzi rozmowę z telemarketerem. I oglądając te pokazy, można odnieść wrażenie, że asystent przeszedłby test Turinga, bo płynność wypowiedzi, sensowność, kojarzenie faktów i logiczne wnioskowanie wydaje się działać tutaj poprawnie. Gdyby jednak rozmówca, podczas zamawiania stolika, nagle poprosił asystenta o wyjaśnienie podstaw teorii względności, asystent prawdopodobnie by zgłupiał, a jego jedyną odpowiedzią byłoby „nie rozumiem polecenia”.

Nieinteligentna inteligencja

Choć wydawać by się mogło, że test Turinga może być skuteczny przy weryfikacji sztucznej inteligencji, to jednak w rzeczywistości nie ma on praktycznego zastosowania. Powodem jest fakt, że sztuczna inteligencja… nie jest inteligentna. Gdy Turing wymyślał swój sprawdzian, praktycznie żadna z obecnie wykorzystywanych technik nie istniała. Powstawało za to coraz więcej powieści science-fiction, w których przewijał się temat sztucznej inteligencji; przykładem niech będzie tutaj cykl Fundacja Isaaca Asimova oraz jego legendarne już Trzy Prawa Robotyki, które definiowały zasady postępowania inteligentnych robotów. Wtedy wydawało się, że wystarczy stworzyć inteligentnego robota, zakazać mu działania na szkodę właściciela i voilà, mamy idealnego, fanatycznie lojalnego pomocnika. No ale nie.

Sztuczna inteligencja polega na wykorzystaniu pewnych metod i technik informatycznych. Nie bez powodu wspomniałem wcześniej o inteligencji obliczeniowej i nie bez powodu ta dziedzina informatyki została nazwana inteligencją obliczeniową, zamiast po prostu sztuczną inteligencją. Metod i technik istnieje wiele, zaś podział wynika głównie z możliwości oraz zastosowań. Indywidualnie każda z technik jest w stanie rozwiązać zwykle tylko proste problemy; swą siłę sztuczna inteligencja zyskuje na łączeniu metod w ramach jednego, spójnego systemu. Względnie szczegółowo o metodach i technikach przeczytać będziecie mogli w jednym z następnych odcinków cyklu.

Tajemnica chińskiego pokoju

W środowisku naukowców test Turinga zyskał dość dużą aprobatę, natomiast nie można powiedzieć, by była ona całkowicie jednomyślna. Jednym z bardziej znanych krytyków testu (i ogólnie komputerowej inteligencji) był amerykański filozof John Searle, który wprost twierdził, że komputer nie może być inteligentny. Tezę starał się udowodnić za pomocą całkiem prostego eksperymentu myślowego, który nazwał „chiński pokój”.

Wyobraźmy sobie sytuację, w której w zamkniętym pokoju znajduje się Europejczyk nieznający języka chińskiego. Przez szczelinę drzwi (czy w jakikolwiek inny sposób) podawane są mu kolejne karteczki zapisane chińskimi znakami i opowiadające pewną historię. Europejczyk nie zna tego języka, ale w pokoju zauważa książkę pod tytułem Co zrobić, gdy ktoś wsunie pod drzwiami kartkę z chińskimi znakami, w dodatku napisaną w zrozumiałym dla niego języku. I co się dzieje? Europejczyk odpowiada na karteczki zgodnie ze zrozumiałymi dla niego instrukcjami, ale tak naprawdę nie ma pojęcia, co robi. Tym samym definitywnie nie jest inteligentny, natomiast dla obserwatora zewnętrznego (na przykład tego Chińczyka podającego mu kartki) może sprawiać wrażenie, jakby był.

W ten sposób Searle starał się udowodnić, że test Turinga w gruncie rzeczy jest bez sensu, ponieważ istnieje różnica pomiędzy symulowaniem procesów myślowych a samym myśleniem. Fakt, iż współcześnie test Turinga nie jest praktycznym wyznacznikiem inteligencji komputera, stanowi pewne zwycięstwo Searle’a, natomiast wydaje się, że zagadnienie jest zbyt złożone, by można je było obalić prostym eksperymentem myślowym.

Komputer nauczony myślenia

Sztuczna inteligencja, jako nauka, przede wszystkim stara się zrozumieć inteligencję człowieka, a następnie zaimplementować w komputerach. Jest tylko jeden, podstawowy problem – my nie mamy pojęcia, w jaki sposób działa ludzka inteligencja. Nie wiemy, czym jest świadomość. Nauka dotychczas wyodrębniła podstawowe elementy ludzkiego mózgu; znajomość budowy i działania pojedynczego neuronu bezpośrednio przełożyła się na powstanie sztucznych sieci neuronowych, które jednak, względem przeogromnej sieci obecnej w głowie każdego z nas, jest niczym papierowy samolocik przy rakiecie kosmicznej.

Ale nie tylko ludzkim mózgiem sztuczna inteligencja stoi. Jednym z odłamów tej dziedziny nauki są algorytmy ewolucyjne, które bezpośrednio wywodzą się z teorii ewolucji Darwina. Innym przykładem są tak zwane algorytmy mrówkowe, które stworzono poprzez obserwację i zrozumienie sposobu życia kolonii mrówek. Bazując na tych przykładach, możemy z dużą dozą pewności stwierdzić, że postęp w innych dziedzinach nauki stale będzie przekładał się na rozwój sztucznej inteligencji.

Czy sztuczna inteligencja przejmie władzę nad światem?

Żadna z dotychczas stworzonych maszyn nie potrafiła wyjść poza zestaw zaprogramowanych przez człowieka zasad. Żadna sztuczna inteligencja nie zaczęła przejawiać oznak inteligencji innych niż te, do których została stworzona. SI stworzona do prognozowania kursów akcji na giełdzie nie zacznie nagle zastanawiać się, czy kot bardziej podobny jest do tygrysa czy do lwa. SI optymalizująca pracę w fabryce nie będzie w stanie prognozować kursów akcji na giełdzie. SI klasyfikująca dzikie zwierzęta na podstawie zrobionych im zdjęć nie będzie w stanie optymalizować pracy w fabryce.

Tego typu przykłady można mnożyć dosłownie w nieskończoność. Czy wobec tego powinniśmy się czuć bezpieczni, a bajania Hawkinga i Muska możemy z miejsca wsadzić między bajki? No cóż, nie do końca; temat jest dość złożony i niejednoznaczny, dlatego też postanowiłem poświęcić mu osobny materiał. Jak więc brzmi odpowiedź na pytanie postawione w tytule akapitu? Po tym wszystkim chciałoby się napisać: „hej, SI nie jest inteligentna, to jak ma przejąć władzę nad światem?”, niemniej… SI robi to, do czego zostanie przeznaczona, za pomocą wiedzy, której zostanie nauczona. Nie zapominajmy jednak, że za każdą sztuczną inteligencją stoją ludzie, a ci, jak wiemy, nie zawsze chcą czynić dobro. I tym miłym akcentem zakończę dzisiejszy materiał. Do następnego!

źródła: Leszek Rutkowski Metody i techniki sztucznej inteligencji, wykład W.Ducha / grafika tytułowa z flickr

_

#MiniSI to cykl poświęcony zagadnieniu sztucznej inteligencji, w którym, bazując głównie na literaturze, staram się rozprawić z zagmatwaniem, poplątaniem, niejasnościami i różnorakimi mitami jej dotyczącymi.

Sztuczna inteligencja

Wykład 1

Sztuczna inteligencja - podstawy.

Streszczenie

Wykład wprowadzający w problematykę sztucznej inteligencji i tematykę wykładu.

Nie ma jednej, powszechnie uznanej definicji sztucznej inteligencji (AI), to samo dotyczy też samego terminu "inteligencja". Poniższy przegląd nie wyczerpuje wszystkich możliwych sposobów rozumienia tego terminu.

Nauka o maszynach realizujących zadania, które wymagają inteligencji wówczas, gdy są wykonywane przez człowieka.

Jest to jedna z antropocentrycznych definicji sztucznej inteligencji: przyjmujemy, że punktem odniesienia jest człowiek, inteligentny z definicji. Zauważmy jednak, że rozpoznanie twarzy na zdjęciu nie jest zwykle uznawane za przejaw inteligencji u człowieka, podczas gdy w przypadku komputera problem ten jest powszechnie uznany za należący do dziedziny sztucznej inteligencji. Z drugiej strony: przewidywanie skutków własnych działań (np. wyliczenie „brutalną siłą” wszystkich możliwych stanów w grze w kółko i krzyżyk) często nie jest uznawane za przejaw AI, podczas gdy bylibyśmy skłonni uznać to za przejaw inteligencji u człowieka.

Maszyna jest inteligentna, jeżeli znajdujący się w drugim pomieszczeniu obserwator nie zdoła odróżnić jej odpowiedzi od odpowiedzi człowieka.

Jest to tzw. test Turinga . Wadą tej definicji jest to, że uwzględnia ona tylko wąski aspekt inteligencji człowieka. Ponadto uważny "tester" będzie skłonny wyszukiwać w konwersacji raczej elementy mało wiążące się z inteligencją - np. emocjonalne wypowiedzi, drobne pomyłki itp.

Dział informatyki, którego przedmiotem jest badanie reguł rządzących inteligentnymi zachowaniami człowieka, tworzenie modeli formalnych tych zachowań i - w rezultacie - programów komputerowych symulujących te zachowania.

Kolejna definicja antropocentryczna. Odpowiada ona wielu rzeczywistym działom sztucznej inteligencji, jednak w wielu przypadkach okazuje się, że skuteczne rozwiązanie problemu przez komputer realizowane jest za pomocą zupełnie innych metod niż używane przez ludzi. Pojawia się pytanie: czy kryterium sztucznej inteligencji ma obejmować skutki działania programu, czy jego budowę wewnętrzną? Czy komputer wygrywający w warcaby tylko dzięki temu, że potrafi szybko sprawdzić wszystkie możliwe przebiegi gry, można uznać za sztucznie inteligentny?

Dział informatyki uprawiany przez badaczy uważających się za specjalistów od AI i piszących książki z AI w tytule.

Definicja czysto formalna i na pierwszy rzut oka tautologiczna, jednak zadziwiająco często wykorzystywana w praktyce (z braku lepszej).

Nauka o tym, w jakich inteligentnych czynnościach człowieka można obyć się bez inteligencji.

Definicja nieco żartobliwa i przewrotna: jeśli w czymś może komputer zastąpić człowieka, to znaczy, że to nie wymagało "prawdziwej" inteligencji. W podtekście negujemy w ogóle możliwość posiadania inteligencji przez maszynę.

Warto przypomnieć najważniejsze aspekty inteligencji "naturalnej" (ludzkiej). Zgodnie z jedną z definicji, jeśli algorytm będzie realizował podobne zadania, zyska prawo do uznania go za sztucznie inteligentny.

Inteligencja praktyczna: umiejętność rozwiązywania konkretnych zagadnień na podstawie ogólnej wiedzy i wcześniejszych doświadczeń.

Inteligencja abstrakcyjna: zdolność operowania symbolami i pojęciami.

Inteligencja społeczna: umiejętność zachowania się w grupie.

Dopasowanie działania do okoliczności: wybieranie najlepszego wariantu rozwiązania danego problemu, reagowanie na zmieniające się warunki.

Świadomość działania: droga od sformułowania problemu do rozwiązania może być przez człowieka objaśniona i uzasadniona.

Znajomość własnych ograniczeń: inteligentny człowiek wie, na które pytania nie zna odpowiedzi.

Era prehistoryczna: Do około 1960 roku, kiedy pojawiły się powszechnie dostępne komputery. W tym okresie powstawały pierwsze koncepcje związane ze sztuczną inteligencją.

Era romantyczna: 1960-1965, kiedy przewidywano, że AI osiągnie swoje cele w ciągu 10 lat i odniesiono sporo początkowych sukcesów. Komputery trafiły już do świadomości społecznej (por. rysunek obok), inteligentne (rozmowne i ruchliwe) roboty miały już lada dzień stać się elementem codzienności.

Okres ciemności: 1965-1970, w którym niewiele się działo, opadł entuzjazm i pojawiły się głosy krytyczne. Wiele zadań, które wcześniej wydawały się stosunkowo łatwe, przerastało ówczesne możliwości sprzętowe i algorytmiczne (i często przerastają do dziś - np. problem odczytywania pisma ręcznego, wykonywania streszczenia tekstu, automatyczne tłumaczenia, rozpoznawanie w zadowalającym stopniu osób i przedmiotów na niewyraźnych zdjęciach).

Renesans: 1970-1975, gdy zaczęto budować pierwsze użyteczne systemy doradcze. Okazało się, że stawiając przed sztuczną inteligencją ograniczone cele, można wiele osiągnąć w praktyce.

Okres partnerstwa: 1975-1980, gdy do badań nad AI wprowadzono metody z nauk poznawczych i nauk o mózgu, itd.

Okres komercjalizacji: 1980-..., gdy przymiotnik "inteligentny" stał się sloganem reklamowym, a takie technologie, jak sieci neuronowe i logika rozmyta stały się standardowym elementem instalacji przemysłowych i sprzętu AGD/RTV. Rosnąca moc obliczeniowa komputerów pozwoliła realizować "siłowo" zadania, dla których nie znaleziono rozwiązań "inteligentnych".

Obecnie termin "sztuczna inteligencja" oznacza co najmniej dwa nurty badań:

Stworzenie maszyn o inteligencji dorównującej (przewyższającej) ludzką. Są to często badania nad rozwiązaniami całościowymi, sprzętowymi, charakteryzujące się nierzadko wielkim rozmachem (np. projekt CYC - baza pojęć i faktów z języka naturalnego z możliwością wnioskowania i komunikacji z człowiekiem; projekt rozwijany już kilkadziesiąt lat).

Stworzenie maszyn (algorytmów) przejawiających tylko wąski aspekt inteligencji (grających w szachy, rozpoznających obrazy, czy tworzących streszczenia tekstu). Dalsze wykłady będą koncentrowały się na tym nurcie sztucznej inteligencji.

Postęp w dziedzinie metod algorytmicznych i możliwości sprzętowych, warunkujących skuteczność sztucznej inteligencji, można prześledzić na podstawie poniższego zestawienia osiągnięć w dziedzinie gier logicznych.

Szachy

Umiejętność gry w szachy była dawniej postrzegana jako probierz inteligencji maszynowej - jeśli maszyna potrafi pokonać człowieka w tak wymagającej intelektualnie rozgrywce, to znaczy, że jest (sztucznie) inteligentna. Obecnie komputery górują nad prawie wszystkimi ludzkimi szachistami, choć wielu uznaje to za triumf szybkości maszyn, a nie ich sztucznej inteligencji.

ok. 1948 – pierwsze programy szachowe.

1951 – A. Turing: Nikt nie jest w stanie ułożyć programu lepszego od własnego poziomu gry .

. 1967 – pierwsze zwycięstwo komputera nad "profesjonalnym" szachistą podczas turnieju.

1977 – pierwsze zwycięstwo nad mistrzem klasy międzynarodowej (jedna partia w symultanie).

1997 – Deep Blue wygrywa pełny mecz z Kasparowem (specjalny superkomputer 418-procesorowy; wynik 3,5:2,5).

2003 – Deep Junior remisuje z Kasparowem (8 zwykłych procesorów Intela 1,6 GHz; wynik 3:3). Mecz odbywał się na warunkach określonych przez Kasparowa: m.in. mógł on przez dłuższy czas przed rozgrywką trenować z Deep Juniorem, poznając jego słabe strony.

Warcaby

W przeciwieństwie do szachów, problem gry w warcaby można uznać za w praktyce rozwiązany. Oznacza to, że w większości przypadków już po kilku posunięciach można podać wynik partii (przy założeniu optymalnej gry). Gra w warcaby na poziomie amatorskim jest, przy możliwościach obecnych komputerów, możliwa do zrealizowania w sposób "siłowy", tzn. poprzez cierpliwe wyliczanie drzewa gry. Programistycznie jest to zadanie o wiele łatwiejsze niż obsługa robota, który przesuwałby pionki na planszy i rozpoznawał ich pozycję za pomocą kamery (gdyby nie miały specjalnych, kontrastowych kolorów - por. zdjęcie obok).

Pierwsze udane programy do gry w warcaby z elementami uczenia się (ewolucyjnego) powstawały już w 1952 r. (A. Samuel). W roku 1989 powstał program Chinook z biblioteką wszystkich końcówek 8-pionkowych (6 GB), który w 1992 przegrał (2:4) z mistrzem świata; kolejna jego wersja w 1996 zwyciężyła w ogólnokrajowym konkursie w USA. Aktualnym mistrzem świata jest program Nemesis.

Go

Gra go jest z kolei przykładem gry bardzo trudnej (z punktu widzenia komputera). Wiąże się to ze znacznie większym rozmiarem przestrzeni możliwych posunięć (choćby dlatego, że plansza do go ma 361 pól), co ogranicza możliwość wykorzystania czysto "siłowych" metod obliczeniowych. W efekcie najlepsze programy grają w go co najwyżej na poziomie zaawansowanego amatora.

Systemy uczące się to programy komputerowe posiadające zdolność poprawiania jakości swojego działania poprzez zdobywanie nowych doświadczeń, które są następnie wykorzystywane podczas kolejnych interakcji ze środowiskiem. Kolejnym stopniem uczenia się są układy samoadaptacyjne, dobierające parametry pracy w zależności od efektów, a jednocześnie doskonalące strategię dalszego uczenia się (np. strategie ewolucyjne). Systemy uczące się są obecnie najlepiej rozwijajacą się i mającą największe znaczenie praktyczne dziedziną sztucznej inteligencji. Techniki będące przedmiotem tego wykładu w znacznej części będą miały zastosowanie właśnie w tego rodzaju systemach.

Poniższy przegląd prezentuje wybrane zagadnienia i zastosowania systemów uczących się.

Systemy eksperckie, systemy gromadzące wiedzę wyposażone w mechanizmy rozumowania logicznego.

Komputerowe widzenie, analiza oraz rekonstrukcja obrazu.

Rozpoznawanie obrazów, mowy, pisma, struktur chemicznych oraz biologicznych, stanu zdrowia, sensu wyrazów i zdań.

Wspomaganie decyzji menedżerskich, diagnoz medycznych.

Modelowanie gier, uczenie się na błędach.

Sterowanie samochodami, robotami, fabrykami.

Planowanie, optymalizacja wielokryterialna.

Oczyszczanie obrazów, separacja sygnałów akustycznych.

Prognozowanie wskaźników ekonomicznych, wspomaganie decyzji zakupu i sprzedaży.

Łączenie informacji z wielu baz danych.

Inteligentne szukanie wiedzy w bazach danych.

Szczególnie wiele uwagi warto poświęcić systemom klasyfikującym (klasyfikatorom). Są to systemy uczące się działające według następującego schematu:

opatrujemy pewien zbiór obiektów etykietami ("decyzjami") klasyfikującymi te obiekty do dwóch lub więcej grup

prezentujemy obiekty wraz z etykietami systemowi klasyfikującemu (jest to tzw. zbiór danych treningowych)

system klasyfikujący wykrywa różnice między obiektami i uczy się, jak powiązać te różnice z właściwą decyzją (etykietą)

wiedza ta przechowywana jest w postaci pewnego modelu danych; wykorzystanie jej polega na tym, że prezentujemy klasyfikatorowi nowy obiekt i oczekujemy, że zostanie on automatycznie zaklasyfikowany do właściwej klasy.

Przykład: nauczyć się odróżniania zdjęcia Marksa od pozostałych. Nauka polega na zaprezentowaniu wielu zdjęć z właściwym przyporządkowaniem:

Wytrenowany klasyfikator powinien poradzić sobie ze zdjęciem, którego nie było w próbce treningowej:

Program wykładu NAI obejmuje narzędzia algorytmiczne i metody ogólne wykorzystywane w zadaniach z zakresu sztucznej inteligencji. Nie będzie mowy o wielu szczegółowych technikach, związanych np. z analizą języka naturalnego czy analizą obrazu. Zamiast tego poznamy narzędzia uniwersalne, wykorzystywane w wielu, odległych nawet, zastosowaniach.

Plan wykładu obejmuje m.in.:

Sieci neuronowe: przegląd struktur oraz zastosowań, metody uczenia, propagacja wsteczna, sieci Hopfielda, sieci Kohonena.

Problemy optymalizacji i przeszukiwania: heurystyki, złożoność obliczeniowa, przykłady i zastosowania.

Algorytmy randomizowane: wychładzanie, strategie ewolucyjne, metody Monte Carlo.

Algorytmy ewolucyjne: operatory genetyczne, metody hybrydowe i zastosowania.

Termin "Sztuczna inteligencja" wiąże się ponadto z wieloma technikami i narzędziami, które nie zostaną omówione w ramach przedmiotu NAI:

Teoria gier (tylko kilka uwag przy okazji programowania genetycznego).

Eksploracja danych i odkrywanie wiedzy w bazach danych ( data mining, KDD , omówimy tylko zarys problematyki).

, omówimy tylko zarys problematyki). Automatyczne wnioskowanie i narzędzia do tego przeznaczone (programowanie w logice).

Systemy wieloagentowe.

Metody optymalizacji/aproksymacji typu numerycznego (np. programowanie liniowe i kwadratowe, klasyczne metody interpolacji).

Słownik pojęć

Szczegółowe definicje znajdują się w treści wykładu (słowa kluczowe zaznaczone są na czerwono).

systemy klasyfikujące - systemy komputerowe pozwalające automatycznie przypisywać obiekty do klas zdefiniowanych uprzednio na podstawie przykładów

systemy uczące się - systemy komputerowe mające zdolność do zdobywania doświadczeń i modyfikacji sposobu działania w interakcji z otoczeniem lub pod wpływem nowych danych

sztuczna inteligencja - dział informatyki (definiowany na wiele różnych sposobów) będący przedmiotem tego wykładu

test Turinga - klasyczne kryterium sztucznej inteligencji: komputer jest inteligentny, jeśli w rozmowie nie da się go odróżnić od człowieka

Strona

uaktualizowana przez Sinh Hoa Nguyen

Sztuczna inteligencja i świadomość? Czy to możliwe? Maszyna nabrała naukowca

W czerwcu 2022 r. jeden z inżynierów Google’a, Blake Lemoine, publicznie ogłosił światu, że jedna ze sztucznych inteligencji, chatbot LaMDA 2, nad którą pracował internetowy potentat, zyskała świadomość. Pan Lemoine dość szybko pożegnał się z pracą w firmie, która zdecydowanie odżegnywała się od jego deklaracji, zarzucając swojemu byłemu już inżynierowi naruszenie szeregu zasad obowiązujących w firmie. Jednocześnie Google jasno deklaruje, że w przypadku chatbota LaMDA 2 nie ma mowy o jakiejkolwiek świadomości, co więcej ten pogląd podziela również wielu ekspertów zajmujących się sztuczną inteligencją, którzy w żaden sposób nie są związani z Google. Czyżby zatem Lemoine – mówiąc wprost – dał się nabrać? Dokładnie tak i aby lepiej zrozumieć, co się wydarzyło, warto prześledzić rozwój inteligentnych algorytmów, jak również przyjrzeć się bliżej pracom naukowców w poszukiwaniu odpowiedzi na pytanie "Czym jest świadomość?".

Pierwszym człowiekiem, który użył sformułowania artificial intelligence, czyli sztuczna inteligencja był amerykański matematyk i informatyk, absolwent prestiżowego Princeton, John McCarthy. Był to rok 1956 i trwały wówczas naukowe warsztaty w Darthmouth College, podczas których wielu badaczy zajmujących się wówczas automatyką, sieciami neuronowymi, czy badaniami nad ogólnie pojętą inteligencją. Już wówczas naukowcy dowiedli, że maszyny to nie tylko liczby, ale potrafią przeprowadzić proces dedukcji czy dowodzić twierdzeń matematycznych posługując się nie tylko liczbami, ale i logiką, zainteresowanych zachęcam do poszukiwań na temat programu Logic Theorist opracowanego przez Herberta A. Simona i Allena Newella, jednych z wielu ówczesnych pionierów sztucznej inteligencji. Na tych samych warsztatach w Darthmouth inny badacz, Arthur Samuel zaprezentował swój autorski program, który grał z człowiekiem w warcaby. Dziś to przecież nic nadzwyczajnego i raczej nie uznalibyśmy takiego oprogramowania za inteligentne, ale wówczas był to przełom, bo program Samuela był dowodem na to, że możliwe jest nauczenie komputera czegoś. Samuel jest do dziś uznawany za jednego z ważniejszych pionierów uczenia maszynowego. Czy jednak ktokolwiek uważał te pionierskie algorytmy za świadome? Mimo ich imponujących wówczas możliwości – absolutnie nie.

ELIZA – pierwszy chatbot

Foto: Wiki Commons

W 1965 roku Joseph Weizenbaum, pracownik Laboratorium Sztucznej Inteligencji na słynnej uczelni MIT opracował jeden z pierwszych, o ile nie pierwszy w historii, program do przetwarzania języka naturalnego o nazwie ELIZA. Program ten był w stanie symulować rozmowę poprzez dopasowanie wzorców, ale bez jakiegokolwiek rozumienia kontekstu wypowiedzi. W rzeczy samej ELIZA był chatbotem, który w rozmowie przypominał nieco pseudopsychoanalityka, który w umiejętny sposób powtarza to, co właśnie powiedział do niego człowiek. Sam Weizenbaum nigdy nie miał ambicji stworzyć programu, który miałby aspirować do miana "inteligentnego", czy tym bardziej "świadomego". Weizenbaum wręcz twierdził, że opracował ten kod po to, by pokazać powierzchowność komunikacji pomiędzy człowiekiem a maszyną, co więcej niektóre skrypty programu opracowane były wręcz jako parodie komunikacji pomiędzy człowiekiem a maszyną. Mimo braku rozumienia kontekstu dość łatwo rozpoznawalnej metodzie powtarzania wypowiedzi człowieka, już wówczas wielu użytkowników programu przypisywało mu ludzkie uczucia! Ciekawa jest historia sekretarki Weizenbauma, która prosiła swojego szefa o wyjście z gabinetu, bo musi przeprowadzić z ELIZA poważną rozmowę…

Czy zatem ELIZA pokazał, że maszyna może być inteligentna czy "świadoma"? Absolutnie nie, ale jedno się Weizenbaumowi udało wyśmienicie: dowiódł, że ludzie niezwykle łatwo ulegają iluzji.

Czym jest świadomość?

Tysiąclecia myśli filozoficznych, setki lat rozważań, dziesięciolecia ściśle naukowych badań nad tym pytaniem nie dały nam do dziś odpowiedzi. Nie istnieje jedna, ścisła definicja tego, czym jest świadomość. Nie wiemy, w jaki sposób świadomość się kształtuje, ani też co dokładnie jest jej reprezentacją w naszych umysłach. Owszem istnieją pewne teorie na temat obszarów mózgu, które mogą przechowywać to, co nazywamy świadomością, ale niczego nie wiemy "na pewno". Jeden z pionierów neurochirurgii, kanadyjski badacz Wilder Penfield uważał, że fizyczna reprezentacja tego, co nazywamy świadomością, jest u człowieka zlokalizowana w tzw. górnym pniu mózgu, ale już inny badacz, laureat nagrody Nobla, neurolog John O’Keefe uważa, że świadomość mieszka w hipokampie, niewielkiej strukturze stanowiącej część układu limbicznego w naszych mózgach. Z kolei Roger Penrose, również noblista, fizyk i matematyk uznaje, że przestrzenią reprezentacyjną i fizycznym odzwierciedleniem ludzkiej świadomości jest kora mózgowa. Sami widzicie, trzech wybitnych specjalistów w swoich dziedzinach, trzy różne lokalizacje, zero ścisłej definicji.

Iluzja świadomości i LaMDA

Mimo braku definicji świadomości ludzie doskonale wiedzą, czy ktoś jest świadomy, czy też nie. Przynajmniej w uproszczonym kontekście dotyczącym nas samych. My wiemy, jak my się zachowujemy, skoro zatem inny człowiek zachowuje się podobnie, reaguje na nas, my na niego, prowadzimy intelektualne dysputy, jesteśmy zatem inteligentni i świadomi, prawda? Jednak w odniesieniu do maszyn takie uproszczone spojrzenie nie działa. Dziś algorytmu potrafią doskonale imitować działania, które uznajemy za typowo ludzkie cechy. Jednym z cech naszej cywilizacji jest posługiwanie się językiem naturalnym. Algorytmy, takie jak wspomniana na wstępie sztuczna inteligencja LaMDA też to potrafią, czy to znaczy, że są inteligentne i mają świadomość? To błąd i pułapka, w którą wpadł właśnie były już inżynier Google’a, Blake Lemoine.

Foto: Phonlamai Photo / Shutterstock

Postrzeganie reakcji jakiegokolwiek obiektu jako ludzkie jedynie względem naszej własnej percepcji nie daje nam w istocie odpowiedzi na pytanie, co do świadomości, bądź nie, danego obiektu. Podam prosty przykład. Jednym z testów sprawdzających, czy dany byt jest samoświadomy (świadomy własnego "ja"), jest tzw. test lustra. To bardzo prosty test, ustawiamy badany obiekt przed lustrem i na podstawie zachowania możemy stwierdzić, czy badana istota jest w stanie rozpoznać swoje własne odbicie. W przypadku ludzi, to oczywiste – choć, o czym nie wszyscy wiedzą – noworodki nie są w stanie zdać testu lustra, nasz gatunek zyskuje tę umiejętność w wieku ok. 18 miesięcy. Wiele zwierząt również "zalicza" test lustra. Swoje odbicie rozpoznają m.in. niektóre gatunki naczelnych, słonie, delfiny, ale także niektóre gatunki ptaków, które wydawałoby się stoją niżej na drabinie ewolucyjnej niż ssaki. Dla odmiany testu lustra nie zdają psy, czy zatem są głupsze od ptaków? To jest właśnie iluzja antropocentrycznego myślenia o problemie i postrzeganie na dany przedmiot w kontekście naszej własnej percepcji. Behawioryści zajmujący się psami doskonale wiedzą, że te zwierzęta są świadome samych siebie, a testu lustra nie zaliczają głównie dlatego, że to nie wzrok, lecz węch jest dla nich podstawowym zmysłem orientacji w otaczającej je rzeczywistości.

Dlaczego o tym wspominam? Bo pułapka, w którą wpadł Lemoine wynika właśnie z błędów poznawczych i postrzegania otaczającej rzeczywistości względem własnej percepcji. Komputer mówi do mnie jak człowiek? Musi być inteligentny, prawda? Cóż, to tak nie działa. Algorytm może perfekcyjnie wręcz posługiwać się językiem naturalnym i prowadzić dysputy filozoficzne o naturze rzeczywistości, nie mając żadnej świadomości i jakichkolwiek cech typowo ludzkich. Algorytm może doskonale przetwarzać językowe reguły, kontekst, znaczenie tworząc zdania, które w ludzkim umyśle stwarzają iluzję rozmowy z inteligentnym bytem. Doskonałym przykładem pokazującym, że algorytm może udawać inteligencję, jest robot Nico, zbudowany ponad dekadę temu przez badaczy z Uniwersytetu Yale. Dr Brian Scassellati wraz ze swoim zespołem zbudowali robota i zaprogramowali go tak, by ten poprawnie zaliczył wspomniany test lustra. Eksperyment ten pokazał, że wystarczy symulować zachowania, które my ludzie uznajemy za przejaw inteligencji i świadomości, by człowiekowi to wystarczyło.

To nie jest nowa wiedza, już Alan Turing, twórca słynnego Testu Turinga, mylnie przez wielu określanego jako test na inteligencję maszyn, deklarował, że jego test to eksperyment myślowy, który nie ma na celu odpowiedzi na pytanie, czy "maszyna jest inteligentna", lecz bardziej, czy maszyna jest w stanie symulować człowieka na tyle dobrze, by ten dał się nabrać. LaMDA potrafiła nabrać wykwalifikowanego inżyniera. To imponujące możliwości, z pewnością wielu znacznie mniej wykwalifikowanych rozmówców toczących dysputy z tym algorytmem również doświadczałoby niemal mistycznego wrażenia obcowania z istotą wyższą, ale nie dajmy się nabrać. Świadomości tu nie ma.

LEAVE A REPLY