Czy pokolenie Alfa postrzega generatywną AI jak autorytet i wyrocznię?

fot. Fotolia.com

Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Dzieci i młodzież najczęściej zadają AI pytania dotyczące teraźniejszości i przyszłości, uznając odpowiedzi za wyrocznię. Prowadzi to do postrzegania jej jak autorytetu i nadania AI podmiotowości – wskazuje dr Ada Florentyna Pawlak z Uniwersytetu SWPS.

Ekspertka w obszarze antropologii technologii jest członkinią zespołu w Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego i współautorką (wraz z kierownikiem Centrum dr. hab. Arturem Modlińskim) badań nad zachowaniami internetowymi dzieci i młodzieży. Chcieli oni sprawdzić, jak to, o co dzieci pytają generatywną AI, wiąże się z ich dobrostanem.

Wyniki badań – przeprowadzonych na grupie ponad 400 młodych ludzi w wieku od 9 do 14 lat – wykazały, że młodzi ludzie cierpiący na zaburzenia lękowe lub ogólnie niskie samopoczucie psychiczne często szukają rozwiązań swoich problemów w internecie, wykorzystując do tego również narzędzia generatywnej sztucznej inteligencji.

Badania wykazały, że dzieci wybierające pytania związane z potrzebami psychicznymi i bezpieczeństwem cechowały się zdecydowanie wyższym poziomem lęku i depresji niż te, które pytały o codzienne czynności i pasje. Z kolei osoby, które wybierały pytania dotyczące miłości i przynależności, miały z reguły większe problemy psychiczne niż grupa w większym stopniu zainteresowana potrzebami fizjologicznymi. Zaobserwowano również, że dzieci próbujące znaleźć u generatywnej sztucznej inteligencji odpowiedzi na pytania związane z miłością i przynależnością oraz te odnoszące się do szacunku i uznania, miały wyraźnie niższy poziom dobrostanu psychicznego niż dzieci chcące spytać o samorealizację i osobiste zainteresowania – podali naukowcy.

Dodali, że wyniki zostaną wykorzystane do projektowania i testowania systemów konwersacyjnych dla młodych osób, które sygnalizowałyby potencjalne obniżenie ich dobrostanu.

Ponadto – jak powiedziała w rozmowie z serwisem Nauka w Polsce dr Ada Florentyna Pawlak – badanie pokazało, jak przedstawiciele pokolenia Alfa (urodzeni w latach 2010-2024) postrzegają samą sztuczną inteligencję.

Generacja Alfa rozpoczyna edukację w dynamicznie zmieniającym się krajobrazie technokulturowym. To pokolenie dorasta w takim transhumanistycznym świecie, często wśród syntetycznych towarzyszy. Coraz częściej wchodzimy bowiem w interakcję z jakimiś agentami o nieokreślonym statusie ontologicznym. Czasem zatraca nam się granica, czy to jest prawdziwy człowiek, czy coś wygenerowanego na wzór człowieka, co zostało wytworzone, aby nas, ludzi, łudzić – powiedziała ekspertka. A przez to – dodała – zmienia się postrzeganie takich pojęć jak autentyczność i wiarygodność.

Dlatego też w opisywanym wcześniej badaniu naukowcy sprawdzili również inne kwestie.

Nasze badanie pokazało też, że dzieci i młodzież z pokolenia Alfa najczęściej zadawali chatbotom pytania dotyczące teraźniejszości albo przyszłości. Pytali też generatywną sztuczną inteligencję nie tylko o fakty, lecz również o opinie dotyczące np. odżywiania, sportu, mody. Zadawali również pytania o przyszłość 'dalekiego zasięgu', np. kto zostanie mistrzem świata w piłce nożnej w kolejnych mistrzostwach albo kto wystąpi na Eurowizji w następnej edycji konkursu. A przecież są to rzeczy, który nie można jeszcze dzisiaj wiedzieć – podsumowała badaczka.

Jej zdaniem to pokazuje, że młodzi traktują AI jako pewnego rodzaju wyrocznię, obdarzając ją autorytetem. Pokolenia Milenialsów i starsze po pierwsze traktują sztuczną inteligencję z większą ostrożnością, zazwyczaj wiedząc, że nie jest to wiarygodne źródło informacji. Z drugiej strony, w większości pytamy o coś, co już się wydarzyło, o przeszłość, czyli traktujemy AI trochę jak taką 'Wikipedię 2.0' – zauważyła dr Ada Florentyna Pawlak.

Dodała, że poprzez postrzeganie AI jak autorytetu czy wyroczni nadaje się jej podmiotowość, a to prowadzi do następnych wyzwań. W naszym badaniu wśród młodych ludzi nie było różnicy między zaufaniem zbudowanym do człowieka a obdarzeniem zaufania sztucznych systemów. Musimy mieć świadomość możliwych skutków tego zjawiska, ponieważ za jakiś czas obdarzenie autorytetem przedstawicieli takich zawodów jak profesor, lekarz czy nauczyciel nie będzie większe niż zaufanie do sztucznej inteligencji – wskazała.

Wpisują się w to również wyniki z ponownie przeprowadzonego słynnego eksperymentu Milgrama. Tym razem naukowcy z Uniwersytetu SWPS w roli autorytetu wydającego polecenia, zamiast człowieka, obsadzili robota i uzyskali bardzo wysokie poziomy posłuszeństwa – 90 proc. uczestników postępowało zgodnie z wszystkimi wydanymi im instrukcjami.

 

(Źródło: Nauka w Polsce)

Jesteśmy na facebooku

fb

Ostatnie komentarze

Marcin Polak napisał/a komentarz do Szkolna klasa - dobre miejsce do współpracy
Świetny przykład, że każdą przestrzeń klasy da się łatwo zreorganizować, aby pobudzić aktywne uczeni...
Robert Raczyński napisał/a komentarz do Informacja zwrotna dla przyszłości
O informacji zwrotnej można długo... Przedstawione tu wskazówki są cenne. Niestety, problem w tym, ż...
Andrzej napisał/a komentarz do Informacja zwrotna dla przyszłości
Bardzo proszę o przykład idealnie napisanej informacji zwrotnej.
Ppp napisał/a komentarz do Informacja zwrotna dla przyszłości
Jeśli jestem w czymś dobry - wiem o tym, dodatkowy komentarz nie jest potrzebny.Jeśli jestem w czymś...
Piotr napisał/a komentarz do Déjà vu
Codziennie z ulgą odkrywam, że jestem emerytowanym nauczycielem
Marcin Polak napisał/a komentarz do Déjà vu
Jeśli podzielimy prace na kilkadziesiąt zespołów i każdy przygotuje PP dla przedmiotu na 20-parę str...
Marcin Polak napisał/a komentarz do Déjà vu
No niestety przedstawienie faktycznie jakby to samo. Obojętnie z której strony partyjnej, model dzia...
Marcin Polak napisał/a komentarz do Narracje w polskiej debacie o ochronie przyrody
Wydaje mi się, że ta "trzecia grupa" jest równo rozłożona i reprezentowana w dwóch opisanych w artyk...

E-booki dla nauczycieli

Polecamy dwa e-booki dydaktyczne z serii Think!
Metoda Webquest - poradnik dla nauczycieli
Technologie są dla dzieci - e-poradnik dla nauczycieli wczesnoszkolnych z dziesiątkami podpowiedzi, jak używać technologii w klasie