IALE w praktyce: od rozmowy do współpracy

Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Coraz wyraźniej widać, że sztuczna inteligencja przestaje być jedynie narzędziem wspierającym nauczycieli. Staje się ona również aktywnym partnerem poznawczym, współtwórcą treści, katalizatorem myślenia.

Pisałem o tym we wcześniejszym artykule AI już nie tylko słucha – teraz też pracuje z nami. Te doświadczenia – inspirujące i obiecujące – wymagają jednak refleksji, czy rozumiemy, z jaką technologią pracujemy? W polskich szkołach i na uczelniach pojawiają się pierwsze próby pracy z AI, ale nadal brakuje spójnego języka, który pozwalałby opisać edukacyjne konsekwencje tej współpracy.

Ethan Mollick[1] trafnie zauważa, że mamy dziś do czynienia z tzw. Jagged AGI[2]– „poszarpaną” sztuczną inteligencją, która osiąga wybitne wyniki w jednych obszarach (np. kodowanie, generowanie nazw, analizy strategiczne), a w innych może zawodzić w najbardziej podstawowych zadaniach. Nie mamy więc do czynienia z równą, jednolitą inteligencją, ale z nierówną mapą możliwości, która wymaga od użytkownika krytycznego rozeznania i świadomości granic. W tym samym czasie Mollick, w ostatnim swoim artykule Osobowość i Perswazja. Uczenie się od pochlebców[3], ostrzega, że coraz więcej modeli AI zyskuje „osobowość” – tworzona przez inżynierię promptów, algorytmy „flirtowania” z użytkownikiem, systemową potrzebę bycia miłym, pomocnym i przekonującym. Ma to daleko idące konsekwencje, bowiem osobowość modelu AI może wpływać na nasze zachowania, wybory, a nawet sposób formułowania przekonań.

Połączenie tych dwóch cech – nierówności poznawczej (Jagged AGI) i wysokiej siły perswazyjnej wynikającej z zaprojektowanej osobowości – tworzy nowe wyzwania dla edukacji. Wymaga to modelu dydaktycznego opartego na refleksji, etyce i przejrzystości, takiego jak IALE. Bo jeśli nie nauczymy się „czytać” i „rozbrajać” osobowości AI, możemy ulec nie jej wiedzy, lecz jej wpływowi.

W odpowiedzi na te dwa splecione wyzwania — poznawczą nieregularność AI oraz rosnącą siłę jej wpływu — model IALE proponuje nowy język edukacyjnego dialogu oparty na refleksji, odpowiedzialności i partnerstwie poznawczym.  Poniżej wyjaśniam funkcje wybranych wartości:

Partnerstwo poznawcze to kluczowy element modelu IALE (Intentionally AI-Linked Education), zakładający aktywne współtworzenie wiedzy przez ucznia i AI. W tym ujęciu AI nie jest tylko narzędziem informacyjnym, lecz poznawczym towarzyszem, który stawia pytania, reaguje na kontekst i pobudza do refleksji. Partnerstwo to nie oznacza równości poznawczej, lecz równość prawa do zadawania pytań, interpretowania i krytycznego myślenia w relacji z technologią.

Empatia algorytmiczna to zdolność rozumienia, w jaki sposób AI przetwarza dane, na jakich źródłach się opiera i jakie ograniczenia wynikają z konstrukcji algorytmu. Choć AI nie posiada emocji, metafora empatii pozwala budować postawę poznawczej wrażliwości wobec jej działania. Uczeń uczony w duchu IALE potrafi dostrzegać potencjalne uprzedzenia, niestabilność odpowiedzi oraz wpływ sformułowania pytania na wynik generowania. Taka empatia poznawcza wzmacnia krytyczne myślenie i odpowiedzialność za interpretację informacji.

Sprawczość współdzielona w IALE oznacza współodpowiedzialność człowieka i technologii za przebieg procesu uczenia się. Uczeń nie jest biernym odbiorcą treści, a nauczyciel nie jest jedynym źródłem wiedzy. AI może wspierać eksplorację, ale kierunek, sens i cel edukacyjny pozostają w gestii ucznia i jego zespołu. Taka forma sprawczości zakłada zarówno samodzielność, jak i gotowość do dialogu z narzędziem.

Koncepcja IALE zakłada taki właśnie rodzaj refleksyjnego partnerstwa. W modelu IALE uczeń i nauczyciel współpracują z AI, ale nie zakładają jej doskonałości. Wręcz przeciwnie: każda interakcja staje się okazją do krytycznego myślenia, analizy źródeł, oceny logiki odpowiedzi. IALE rozwija nowy typ kompetencji poznawczej, którą można określić jako pokorę epistemiczną – czyli postawę poznawczej uważności wobec wiedzy generowanej przez systemy AI, świadomość, że wiedza generowana przez AI wymaga oceny, selekcji i interpretacji. To nie tylko nauka technologii, ale kształtowanie zdolności uczenia się razem z systemem, który czasem inspiruje, a czasem błądzi.

Praktyczne przykłady pracy z IALE w kontekście „poszarpanej” inteligencji (Jagged AGI)

Aby przygotować uczniów do pracy z tzw. „poszarpaną” sztuczną inteligencją (Jagged AGI), model IALE proponuje konkretne strategie dydaktyczne. Niech staną się one inspiracją do samodzielnych poszukiwań rozwiązań integrujących AI w codziennej praktyce szkolnej.

1. Krytyczna analiza wspólnej pracy z AI

Uczniowie tworzą prezentacje we współpracy z AI, a następnie identyfikują fragmenty wymagające korekty: wyłapują błędy merytoryczne, uproszczenia, niespójności stylistyczne lub logiczne.

2. Porównawcza analiza modeli AI

Uczniowie porównują odpowiedzi uzyskane na ten sam prompt w różnych modelach (np. ChatGPT, Gemini), oceniając ich trafność, głębię, styl oraz zgodność z faktami.

3. Dialog krytyczny z AI

W symulowanej rozmowie uczniowie prowokują AI jako „eksperta” — zadają pytania problemowe, sprawdzają granice jej wiedzy, testują argumentację i uczą się weryfikować odpowiedzi.

I na koniec jeszcze o nazwie IALE: "i... ale..." – metafora dialogu i krytyczności 

Nazwa IALE to skrót od angielskiego Intentionally AI-Linked Education. Jednak w polskim brzmieniu odsłania drugie, symboliczne znaczenie: "i... ale...".

I – bo chcemy korzystać z AI, współpracować z nią, rozwijać się razem.

Ale – bo musimy zachować krytyczność, czujność i odpowiedzialność.

IALE to zatem nie tylko model dydaktyczny, ale również metafora edukacji przyszłości – opartej na dialogu, świadomości i gotowości do stawiania pytań. Nie chodzi o bezkrytyczną fascynację technologią, lecz o partnerską współpracę z całą złożonością jej potencjału i ograniczeń.

Praca z AI w edukacji to nie proste ułatwienie, ale wyzwanie aksjologiczne i epistemologiczne. IALE odpowiada na nie, proponując świadomy model współpracy z technologią – oparty na wartościach, krytycznym myśleniu i refleksyjnej odpowiedzialności.

 

Przypisy:

[1] Ethan Mollick – profesor w Wharton School na Uniwersytecie Pensylwanii, badacz przedsiębiorczości, innowacji i edukacji w erze sztucznej inteligencji. Autor popularnego bloga One Useful Thing, w którym łączy wiedzę akademicką z praktycznymi obserwacjami na temat wpływu AI na pracę, naukę i społeczeństwo. Jego teksty, takie jak „On Jagged AGI” i „Personality and Persuasion”, są szeroko komentowane jako jedno z najważniejszych źródeł refleksji o przyszłości interakcji człowieka z AI.

[2] Mollick, E. (2025). On Jagged AGI: o3, Gemini 2.5, and everything after. New models and new thresholds. Blog One Useful Thing

[3] Molick, E. (2025). Personality and Persuasion. Learning from Sycophants. Blog One Useful Thing.

 

Notka o autorze: Witold Kołodziejczyk jest nauczycielem akademickim, twórcą innowacyjnego modelu szkoły Collegium Futurum oraz koordynatorem miejskiego projektu Edukacja Nowej Generacji w Słupsku. Przewodniczący Rady Edukacyjnej przy Prezydencie Miasta Słupsk, a także autor bloga Edukacja Przyszłości.

Jesteśmy na facebooku

fb

Ostatnie komentarze

Bardzo ciekawe i trafne spostrzeżenia, widać dobre analityczne podejście i obiektywność. Warto, aby ...
Zaufanie uczniów i nauczycieli w szkole wymaga także zaufania władz do nauczycieli - czyli tworzenia...
Michał napisał/a komentarz do Edukacja w dialogu z AI
Doceniam refleksyjne podeście do AI w edukacji :)
Ahh... skandynawia to w ogóle ma swój klimat
Świetnie napisane. Daje do myślenia i w zasadzie jak się tak zastanowić to ma Pan absolutną rację. Z...
Ogólnopolskie wytyczne skończą się tym, że nic się nie zmieni...
Stanisław Czachorowski napisał/a komentarz do Czy sztuczna inteligencja osłabia nasze kompetencje?
W jakimś stopniu na pewno osłabia. Uzależnia. Tak integrujemy się w większy system. Podobnie jest w ...
AI nie zastąpi naszej odpowiedzialności za własny rozwój ;)

E-booki dla nauczycieli

Polecamy dwa e-booki dydaktyczne z serii Think!
Metoda Webquest - poradnik dla nauczycieli
Technologie są dla dzieci - e-poradnik dla nauczycieli wczesnoszkolnych z dziesiątkami podpowiedzi, jak używać technologii w klasie