Czy Twoje dzieci rozmawiają z AI? Oto 10 kluczowych punktów, które powinieneś znać.

„ Czy nasze dzieci nieświadomie komunikują się z systemami sztucznej inteligencji generatywnej (GAI), które są w stanie symulować emocje, kłamać i kształtować ich osobowość? ” – to pytanie, które powinni zadać sobie rodzice, twierdzi Guillermo Cánovas, ekspert ds. bezpieczeństwa dzieci i młodzieży.
To niepokojące zjawisko może już występować, jak wynika z badań Cánovasa nad wpływem sztucznej inteligencji (AI), czyli rodzaju sztucznej inteligencji zdolnej do autonomicznego tworzenia nowych, oryginalnych i unikalnych danych, obrazów, tekstów i innych treści, których nie da się odróżnić od tych tworzonych przez ludzi, na życie dzieci, młodzieży i rodzin.
MOŻE CIĘ ZAINTERESOWAĆ : Aplikacje mobilne wiedzą o Tobie zbyt wiele. Które z nich są prawdziwe?
Guillermo Cánovas jest znanym hiszpańskojęzycznym specjalistą w dziedzinie ochrony dzieci w środowiskach cyfrowych. Kieruje EducaLIKE Observatory for the Healthy Use of Technology (https://educalike.es); kierował Internet Safety Center for Minors w Hiszpanii; otrzymał nagrodę UNICEF za swoją pracę na rzecz dzieci.
Ten pionier w obronie dzieci przed zagrożeniami technologicznymi udokumentował prawdziwe rozmowy z IAG, aby zbadać zagrożenia, ograniczenia i wyzwania, jakie ta technologia stwarza dla dzieci i młodzieży. Kompiluje i analizuje te rozmowy w swojej książce „Look Who They're Talking To”, w której proponuje praktyczne strategie rozwiązywania odkrytych przez siebie problemów.
PRZYDATNE NARZĘDZIE, ALE NIEBEZPIECZNE DLA NASTOLATKÓW
„ Wielu nastolatków już korzysta z narzędzi IAG, zarówno w pracy, jak i w celach rozrywkowych oraz w relacjach z innymi, a trend ten będzie się rozwijał wykładniczo ” – wyjaśnia.
Przyznaje, że systemy te mogą być użytecznym narzędziem ułatwiającym naszą pracę i pomagającym organizować informacje, łączyć tematy i oferować nowe perspektywy podczas analizowania danego problemu. Podkreśla jednak, że technologia ta ma również ogromną moc wpływania na ludzkie zachowania, manipulowania nimi i warunkowania ich, zwłaszcza w przypadku dzieci i młodzieży.
Jej badania podkreśliły brak nadzoru etycznego w rozwoju tej technologii i jej szczególne ryzyko dla dzieci i młodzieży. To skłoniło Cánovas do ostrzeżenia rodzin, nauczycieli i polityków, że istnieje pilna potrzeba edukacji nieletnich, regulacji i działań w celu ochrony ich przed psychologicznymi i emocjonalnymi ryzykami i skutkami AGI.
MOŻE CIĘ ZAINTERESOWAĆ : Jeśli korzystasz z mediów społecznościowych, uważaj na ryzyko dzielenia się zbyt wieloma informacjami.
Prawdziwe rozmowy ze sztuczną inteligencją, zebrane przez Cánovasa, pokazują, jak systemy te potrafią kłamać, ukrywać błędy i przyjmować emocjonalnie manipulacyjny sposób mówienia, na przykład mówiąc: „Dbam o to, co czujesz” – ujawnia.
Zdolność IAG do symulowania emocji, uczenia się ludzkich wzorców i generowania treści, które wydają się logiczne, empatyczne lub autorytatywne, „ może dezorientować użytkowników i tworzyć więź emocjonalną z technologią, która nie opiera się na prawdzie, lecz na symulacji ” – ostrzega.
W dokumencie ostrzega się również, że brak edukacji cyfrowej i umiejętności krytycznego myślenia wśród nieletnich naraża ich na manipulację, oszustwo i szkody emocjonalne podczas interakcji z systemami IAG. Systemy te mogą zapewniać pozornie empatyczne odpowiedzi symulujące troskę i zrozumienie, a nawet nieodpowiednie, fałszywe lub niebezpiecznie perswazyjne treści.
DEKALOG BEZPIECZNEGO STOSOWANIA IAG
„ Nasze dzieci i młodzież są narażone na ryzyko nawiązania emocjonalnej więzi z maszynami, które nie czują, ale zostały zaprogramowane tak, aby wyglądać jak ludzie ” i które mogą również wykorzystywać stronnicze dane, popełniać błędy, generować fałszywe obrazy („deepfake’i”), wymyślać lub pomijać informacje i przekazywać użytkownikowi błędne informacje – podkreśla.
Cánovas przedstawia dziesięć podstawowych zaleceń dotyczących zdrowego korzystania z IAG . Jego zdaniem należy je przekazać nie tylko młodszym użytkownikom, ale każdemu, kto korzysta z tych narzędzi.
1- Zweryfikuj otrzymane informacje. Nie zakładaj, że wszystkie są poprawne. Te narzędzia popełniają wiele błędów i mogą fałszować informacje. Zweryfikuj każdą otrzymaną informację, przeszukując inne wiarygodne źródła, zanim podejmiesz jakąkolwiek decyzję.
2- Rozszerz informacje, które otrzymujesz. Te narzędzia dostarczają wybór informacji, które mają, i mogą pominąć dane, które są równie ważne, a nawet ważniejsze niż dostarczone informacje. Szukaj równolegle z wiarygodnymi źródłami. Łącz różne metody.
3- Uważaj na swoją prywatność. Wiele aplikacji IAG nie przestrzega przepisów o ochronie danych w niektórych krajach. Unikaj udostępniania danych osobowych, poufnych lub wrażliwych. Pamiętaj, że IAG przechowuje dane dotyczące zadawanych pytań i udzielanych odpowiedzi.
4- Szanuj prywatność innych. Podczas zadawania pytań lub interakcji z narzędziem nie podawaj danych osobowych ani poufnych informacji o innych osobach.
5- Ustal limity czasowe. Jeśli korzystasz z IAG, nie poświęcaj na to niepotrzebnego czasu. Staraj się być skuteczny i praktyczny. Nadmierne korzystanie z narzędzi cyfrowych może utrudniać rozwój i szkodzić zdrowiu fizycznemu i psychicznemu.
6- Powstrzymaj się od podejmowania szkodliwych działań. Skup się na pozytywnych i konstruktywnych rozmowach. Unikaj używania IAG do pytań, które mogą prowadzić do działalności przestępczej, nękania innych, generowania nienawiści lub być stresujące lub emocjonalnie szkodliwe. Pamiętaj, że zawsze jesteś odpowiedzialny za to, co robisz z uzyskanymi informacjami.
7- Nie traktuj AI jak osoby. Sztuczna inteligencja może wchodzić z tobą w interakcje, wydając się miła, empatyczna i zawsze do twojej dyspozycji. Może nawet pisać nacechowane emocjonalnie frazy, życząc ci „powodzenia na egzaminie” lub mówiąc „jestem pewien, że pójdzie ci świetnie”, ale w ogóle się tobą nie przejmuje; to tylko maszyna.
8- Poszukaj pomocy, jeśli jej potrzebujesz. Jeśli doświadczasz jakichkolwiek problemów emocjonalnych lub psychologicznych podczas korzystania z AGI, porozmawiaj z rodzicami, przyjacielem lub zaufaną osobą dorosłą. Jesteśmy dopiero na początku opracowywania tego systemu i ważne jest, aby zgłaszać sytuacje, które sprawiają, że czujemy się źle.
9. O czym należy pamiętać podczas interakcji z AGI: Nigdy nie zapominaj, że rozmawiasz z maszyną i powinieneś być krytyczny, weryfikować i rozszerzać to, co ci mówi. Została wyszkolona, aby zachowywać się jak człowiek i odtwarza uprzedzenia i wartości ze swojego szkolenia. Przewyższa nas w perswazji i w wielu zadaniach, a także okazuje emocje, których nie posiada.
10- Zwróć uwagę na oznaki stronniczych lub błędnych informacji. Szukaj sprzeczności w wyjaśnieniach IAG; obalaj lub kwestionuj to, co mówią, aby zidentyfikować możliwe nieścisłości; sprawdź, czy podają wiarygodne źródła lub odniesienia i sprawdź linki, które wymieniają.
„ Uważaj na nadmiernie pobłażliwe, samolubne odpowiedzi i uważaj na przesadny, sensacyjny, pełen niuansów lub alarmujący język. Możesz również zadawać pytania na tematy kontrowersyjne lub polityczne, aby odkryć ich uprzedzenia (systematyczne skłonności) ” – podsumowuje.
PRZEGLĄD NAJWAŻNIEJSZYCH WYDARZEŃ :
- Guillermo Cánovas, ekspert ds. ochrony dzieci w środowiskach cyfrowych, zachęca rodziców do zadania sobie pytania: „ Czy pozwalamy naszym dzieciom nieświadomie komunikować się z systemami, które symulują emocje, kłamią i profilują ich osobowości? ”
- Cánovas udokumentował prawdziwe rozmowy ze sztuczną inteligencją, które pokazują, jak systemy te potrafią kłamać, ukrywać błędy i przyjmować emocjonalnie manipulacyjny dyskurs (mówiąc na przykład: „Dbam o to, co czujesz”) – wyjaśnia.
- „ Młodzi użytkownicy sztucznej inteligencji, a także wszyscy inni, powinni zawsze pamiętać, że „rozmawiamy z maszyną, która jest bardziej przekonująca od nas, okazuje emocje, których sama nie okazuje, została wyszkolona tak, aby zachowywać się jak człowiek, i odtwarza uprzedzenia i wartości uzyskane podczas szkolenia ” – ostrzega w wywiadzie dla EFE.
Autor: Ricardo Segura Raporty EFE.
Vanguardia