Myślące komputery - fantazja czy rzeczywistość

Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times
badania i analizyCzy komputery potrafią myśleć? Pierwszy to pytanie zaczął stawiać angielski matematyk Alan Turing. O tym co z tego wyszło i jakie to pociągnęło za sobą konsekwencje – aktualne do dziś – opowiadali Piotr Broda (fizyka UW) i Małgorzata Fraszczak (UAM matematyka) w ramach V Letniej Praktyki Badawczej „Matematyka, informatyka, komercjalizacja” w IBS PAN w Warszawie. 
 
Nieodłączną częścią myślenia jest inteligencja. Uczeni od dawna zastanawiali się czym ona jest. Według jednych jest nią zdolność do aktywnego przetwarzania informacji, przekształcania ich z jednej formy w inną poprzez operacje logiczne, według innych (definicja W. Sterna) - to ogólna zdolność adaptacji do nowych warunków i wykonywania nowych zadań przez wykorzystanie środków myślenia. Znana jest też definicja Piageta (zdolność do rozwiązywania problemów), czy Fergusona (zdolność uczenia się). Najczęściej stosowana „wypośrodkowana” definicja powiada, że inteligencja to zdolność do twórczego, a nie tylko mechanicznego przetwarzania informacji, czyli tworzenia zupełnie nowych pojęć i ich nieoczekiwanych połączeń.

A jak się ma sprawa z inteligencją sztuczną, którą przejawiają maszyny? Badacze nie są w tej sprawie zgodni. Jedni są zdania, że  maszyny mogą tylko symulować inteligencję, drudzy skrajni optymiści skłonni są sądzić, że maszyny mogą być rzeczywiście inteligentne oraz co więcej – samoświadome swoich działań. 

Precyzyjne rozróżnienie w tym względzie wprowadził m.in. w roku 1980 John Searle, który w pracy „Minds, brains and programs” stwierdził, że skuteczne symulowanie rozumu przez komputer nie jest tożsame z posiadaniem przez niego prawdziwego rozumu. Jeszcze inaczej ujął to Roger Penrose, którego zdaniem świadome myślenie zawsze polega na obliczeniach, a w szczególności świadome doznania powstają wskutek realizacji odpowiedniego procesu obliczeniowego. Rodził się stąd wniosek, że możliwe jest stworzenie maszyny, która będzie myśleć, a nie tylko odtwarzać proces myślenia. Nie będzie to jednak myślenie rzeczywiste, tożsame z ludzkim. Jego zdaniem nie będzie możliwe zbudowanie maszyny, która potrafiłaby symulować proces myślenia, podobnie jak nierealne jest zbudowanie sztucznej świadomości. Skoro człowiek nie jest w stanie poznać zasad jej funkcjonowania u samego siebie, to tym bardziej nie będzie mógł odtworzyć tego procesu w maszynie. 

Sztuczna inteligencja
Tak wygląda teoria a jak jest z praktyką? Dziś sztuczna inteligencja jest działem informatyki. Jego przedmiotem jest badanie reguł rządzących inteligentnymi zachowania człowieka, tworzenie modeli formalnych tych zachowań i – w rezultacie – programów komputerowych symulujących te zachowania. Fundamentalne prace w tej dziedzinie są zasługą Alana Turinga (1912-1954), matematyka brytyjskiego, jednego z głównych pomysłodawców sposobu złamania niemieckiej maszyny szyfrującej Enigma (Turing konstruując tzw. bombę kryptologiczną oparł się na pracach polskich matematyków Mariana Rejewskiego, Jerzego Różyckiego i Henryka Zygalskiego),  pomysłodawcy programu komputerowego przechowywanego w pamięci komputera, autora testu (praca Computing Machinery and Intellignce z roku 1950) sprawdzającego zdolność maszyny do posługiwania się językiem naturalnym mającego pośredmnio dowodzić, że jest on zdolny do myślenia w sposób podobny do ludzkiego. 

Turingowi zawdzięczamy też architekturę współczesnego komputera, pionierskie koncepcje sztucznej inteligencji opartej na sieciach neuronowych. Istotą sieci neuronowych jest równoległe przetwarzanie przez komputer informacji przez wiele wzajemnie połączonych „neuronów” (układów scalonych) naśladujących biologiczne struktury mózgu. Inne nie mniej ważne „odkrycia” w tej dziedzinie to algorytmy genetyczne (istnieje środowisko z pewną populacją, każdy z osobników ma przypisany pewien zbiór informacji (genotyp), każdy osobnik jest oceniany, do następnej generacji wybierane są najlepsze osobniki) oraz oparte na inteligencji rozproszonej systemy wieloagentowe (wiele współdziałających ze sobą celowo jednostek, tworzących zdecentralizowany, samoorganizujący się system). 

Zastosowanie technik sztucznej inteligencji przyniosło rozwiązanie wielu problemów badawczych, takich jak komputerowe widzenie (rozpoznawanie pisma, analiza obrazów, rozpoznawanie mowy), tworzenie gier strategicznych czy tworzenie sztuki.

Komputerowe widzenie znalazło konkretnie zastosowanie w automatycznym sterowaniu samochodem, w budowie samobieżnych robotów, rozpoznawaniu pisma (automatyzacja przetwarzania dokumentów), analizie obrazów trójwymiarowych (biometryczna identyfikacja twarzy) czy logowaniu do komputera z weryfikacją uprawnień. W tym ostatnim przypadku wpisując podczas logowania zmodyfikowane graficznie cyfry i litery ukryte w tle obrazkowym rozwiązujemy tzw. odwrotny test Turinga, czyli udowadniamy maszynie (komputerowi), że jesteśmy ludźmi, bo tylko ludzie potrafią wyłowić z obrazkowego tła ciągi cyfr i liter i wpisać je w odpowiednie pole, by wejść do systemu (program CAPTCHA). 

Postęp w dziedzinie sztucznej inteligencji sprawił, że buduje się dziś coraz wydajniejsze programy do rozpoznawania mowy (pierwsze prace w tej dziedzinie powstały w latach 60-tch ubiegłego wieku, coraz lepsze gry strategiczne (początkiem był algorytm Turinga z 1952 roku, krokiem milowym w tej dziedzinie skonstruowanie przez IBM komputera Deep Blue, który wygrał w 1997 roku w szachy z mistrzem świata Gari Kasparowem). 

W ostatnich latach coraz częstsze są próby zastosowania technik sztucznej inteligencji do automatycznego dowodzenia twierdzeń matematycznych oraz do uprawiania sztuki. Przykładem tego drugiego jest m.in. próba generowania wierszy pochodzących z prac rzeczywistych poetów (pomysł Raya Kurzweila), komponowanie przez komputery muzyki (grające roboty sterowane przez sieci neuronowe), czy malowanie obrazów (program The Painting Full).

Sztuczna inteligencja będzie miała również ogromne znaczenie dla przyszłych procesów edukacyjnych. Być może będzie to kolejna rewolucja w nauczaniu - po tej obecnej, w której nowe technologie edukacyjne zastępują powoli tradycyjne metody nauczania. I nikt nie wie na czym to się skończy. Podobnie jak nikt nie jest w stanie powiedzieć, czy komputery przyszłości posiądą samoświadomość. Na razie jest to możliwe tylko w literaturze i w filmach z gatunku science-fiction.

(PAP Nauka w Polsce, opr. red.)
 

Jesteśmy na facebooku

fb

Ostatnie komentarze

Kasia napisał/a komentarz do Rady nietrafione i rady pożyteczne
Dyrektora, a zwłaszcza dyrektorkę, cechuje żądza władzy. Arogancja ze strony dyrektorki w moim liceu...
Jacek Ścibor napisał/a komentarz do Brak chętnych do nauczania w szkołach
Moim zdaniem i Maciej Sysło i Robert Raczyński mają rację - obie wypowiedzi trafiają w sedno problem...
Gość napisał/a komentarz do Na zastępstwach
W punkt.
Ppp napisał/a komentarz do Czas na szkołę doceniania
Pytanie podstawowe: PO CO oceniać? Większość ocen, z jakimi się w życiu spotkałem, nie miało żadnego...
Robert Raczyński napisał/a komentarz do Brak chętnych do nauczania w szkołach
W żaden sposób nie negowałem potrzeby, czy wręcz obowiązku kształcenia nauczycieli. Niestety, kontyn...
Generalnie i co do zasady ok. 30% ocen jest PRZYPADKOWYCH - częściowo Pani opisała, dlaczego. Jeśli ...
Maciej Sysło napisał/a komentarz do Brak chętnych do nauczania w szkołach
W odpowiedzi na sarkastyczny ton wypowiedzi Pana Roberta mam jednak propozycję. Jednym z obowiązków ...
Robert Raczyński napisał/a komentarz do Brak chętnych do nauczania w szkołach
Jeśli pominąć ideologiczne ozdobniki, problem z brakiem nauczycieli wynika z faktu, że wiedza przest...

E-booki dla nauczycieli

Polecamy dwa e-booki dydaktyczne z serii Think!
Metoda Webquest - poradnik dla nauczycieli
Technologie są dla dzieci - e-poradnik dla nauczycieli wczesnoszkolnych z dziesiątkami podpowiedzi, jak używać technologii w klasie