Google udostępnia Gemini dzieciom poniżej 13 roku życia
Czy to przełom edukacyjny, czy eksperyment na dzieciach?
Niedawno Google ogłosiło, że dzieci poniżej 13 roku życia będą mogły korzystać z Gemini, czyli jednego z najnowszych narzędzi AI, pod warunkiem że będą korzystać z konta nadzorowanego przez rodzica w systemie Family Link. Firma zapowiada wersję „dla dzieci”, z filtrami treści i uproszczonym językiem, z dodatkowymi instrukcjami, jak korzystać z narzędzia odpowiedzialnie. Argumentuje, że dzieci i tak mają kontakt z AI w różnych formach, a lepiej, by był to kontakt kontrolowany i edukacyjny.
Gemini dla dzieci w systemie Family Link
Ale co to tak naprawdę znaczy? Kto będzie kontrolował ten kontakt? W teorii brzmi to dobrze: filtr, przewodnik, ograniczenia. Ale dla mnie, to nie zabezpieczenia są największym problemem, ale przesunięcie odpowiedzialności na rodziców. Bo kto w rzeczywistości ma nauczyć dzieci, jak myśleć krytycznie, jak ocenić wiarygodność odpowiedzi AI, jak korzystać z takich narzędzi w sposób bezpieczny i rozwojowy?
Rodzice? Wątpię. Nie dlatego, że nie chcą, ale dlatego, że większość z nich sama tego jeszcze nie potrafi. Badania pokazują, że wielu dorosłych ma trudności z oceną wiarygodności treści generowanych przez AI, nie rozumie zasad działania tych narzędzi i nie wie, jak je bezpiecznie wykorzystywać. To właśnie wśród dorosłych robiono pierwsze badania mówiące o iluzji zrozumienia, o spadku zaangażowania poznawczego i o tym, że korzystając z AI, często czujemy się mądrzejsi, niż jesteśmy w rzeczywistości. Dochodzi do tzw. lenistwa poznawczego — kiedy narzędzie myśli za nas, a my przestajemy zadawać pytania, sprawdzać informacje, szukać alternatyw. Badania pokazują, że użytkownicy AI mają tendencję do zbytniego zaufania generowanym treściom — nawet wtedy, gdy są one niepełne lub błędne. Jeśli dorośli dopiero się tego uczą, to jak mamy oczekiwać, że nauczą dzieci? Oczywiście, są pewne wyjątki — rodzice, którzy znają się na technologii, interesują się edukacją i mają czas, by świadomie wprowadzać dzieci w świat AI. Ale takich osób jest wciąż za mało, żebyśmy mogli na nich budować systemowe rozwiązania.
Dlatego — moim zdaniem — to nie rodzice powinni być jedynymi przewodnikami dzieci po świecie AI.
Potrzebujemy profesjonalnego przygotowania. I to w szkołach. To nauczyciele powinni wprowadzać dzieci w tematykę sztucznej inteligencji. Ale nie przez narzędzia, tylko przez myślenie. Nie zaczynajmy od ChatGPT, zacznijmy od pytań: jak wiem, co wiem? skąd mam pewność? jak odróżniam opinię od faktu? W końcu, gdy dzieci uczą się, czym jest liczba, suma czy różnica — nie dostają od razu kalkulatora. Najpierw liczą na palcach, na klockach, porównują, eksperymentują. Ich rozumienie rozwija się przez działanie, a nie przez podpowiedzi. Dopiero później pojawiają się symbole, a jeszcze później narzędzia. Z AI powinno być tak samo — zanim dziecko zacznie korzystać z gotowych odpowiedzi, musi najpierw nauczyć się zadawać pytania i samodzielnie szukać sensu.
Bo zbyt wczesne użycie AI nie tylko osłabia proces uczenia się, ale może powodować trwałe trudności poznawcze.
Uczenie się dzieje się przez wysiłek. Uczenie się to nie kopiowanie odpowiedzi, ale tworzenie ram myślenia. Jeśli zrezygnujemy z tej „walki” poznawczej, dzieci nie nauczą się rozumieć. Tylko odtwarzać. A generatywna AI jest w tym doskonała — tworzy piękne, poprawne odpowiedzi, które nie mają wiele wspólnego z prawdziwym myśleniem.
Nauczyciele a AI
I tak, już słyszę te głosy, że przecież nauczyciele nie znają się na sztucznej inteligencji, że sami rzadko korzystają z technologii i nie rozumieją, jak działają nowoczesne narzędzia. Na pewnie coś w tym jest. Ale nauczyciele znają się na czymś znacznie ważniejszym: znają się na uczeniu. Rozumieją psychologię dziecka, wiedzą, jak bezpiecznie i z wyczuciem wprowadzać dzieci w świat nowych technologii. Na początku rzeczywiście sami muszą wejść w ten obszar: poeksperymentować z narzędziami, zrozumieć ich działanie, przemyśleć, co to zmienia w ich klasie, w ich podejściu do edukacji. Muszą się nauczyć, jak edukacja musi się zmienić, skoro uczniowie będą mieli dostęp do takich narzędzi jak ChatGPT. To długa droga, wymagająca czasu i wsparcia, ale możliwa. I właśnie to wsparcie jest kluczowe. Trzeba zorganizować dla nauczycieli szkolenia, grupy wymiany doświadczeń, przestrzenie, w których będą mogli razem uczyć się i planować zmiany. Krytyka niewiele tu zmieni. A już na pewno nie można uzasadniać braku takiego wsparcia tym, że skoro nauczyciele się nie znają, to dzieciom wystarczy aplikacja. Udostępnianie AI dzieciom bez wstępnego planu, bez przygotowania dorosłych, bez przemyślanego procesu edukacyjnego, to nie jest neutralna decyzja. To ryzykowny eksperyment, w którym dzieci mają być pierwszymi testerami.
AI w szkołach na świecie
Inne kraje już szukają odpowiedzi na te pytania. W Zjednoczonych Emiratach Arabskich planuje się nauczanie o AI już od przedszkola. W Chinach dzieci mają obowiązkowe lekcje o sztucznej inteligencji już w szkole podstawowej. W Estonii planowane jest udostępnianie kont AI młodzieży — ale pod ścisłym nadzorem i w powiązaniu z programem edukacyjnym. Zaczynając od wsparcia dla nauczycieli. Wszędzie tam AI trafia do uczniów, ale pod nadzorem, zaplanowane, w oparciu o wiedzę o korzyściach ale i zagrożeniach.
Google eksperyment?
Decyzja Google może być przełomowa — ale może też okazać się po prostu kolejnym nieprzemyślanym eksperymentem. Wszystko zależy od tego, jak zostanie wprowadzona i kto naprawdę weźmie za to odpowiedzialność. Jeśli zostawimy dzieci samym sobie, a rodziców z regulaminem aplikacji i obowiązkiem „czuwania”, to z dużym prawdopodobieństwem więcej będzie szkód niż korzyści. Jeśli jednak zaczniemy od przygotowania nauczycieli, wsparcia szkół i sensownej edukacji, to może być inaczej. Ale dzieci muszą najpierw nauczyć się myśleć. Samodzielnie. Krytycznie. Z refleksją. A nauczyciele — którzy znają się na dzieciach, uczeniu i wprowadzaniu w nowy świat — to właśnie oni powinni poprowadzić ten proces. Wtedy dopiero możemy zacząć mówić o bezpiecznym i wartościowym korzystaniu z AI. Nie wcześniej.