Reklama

Felietony

Pułapki sztucznej inteligencji

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje.

2025-06-30 18:52

Niedziela Ogólnopolska 27/2025, str. 36

[ TEMATY ]

Monika Przybysz

Moim zdaniem

Red.

Bądź na bieżąco!

Zapisz się do newslettera

Wraz z rosnącą popularnością narzędzi sztucznej inteligencji, takich jak ChatGPT, rośnie ryzyko nadużywania kolejnego potężnego narzędzia. Nieodpowiedzialne korzystanie z modeli językowych może prowadzić do szeregu problemów – od utraty umiejętności krytycznego myślenia po dezinformację i uzależnienie od technologii. ChatGPT wykazuje negatywny wpływ na funkcje poznawcze, w tym pamięć operacyjną, zdolność cytowania i poczucie autorstwa.

Reklama

Ciekawe w tym względzie jest badanie wpływu ChatGPT na funkcje poznawcze. Zostało ono przeprowadzone w Massachusetts Institute of Technology (MIT) i potwierdza wcześniejsze badania opublikowane w czołowych naukowych czasopismach, które wykazały wpływ sztucznej inteligencji (AI) na zmiany w ludzkim myśleniu. Badanie przeprowadzone przez naukowców z MIT, oparte na analizie EEG pięćdziesięciorga czworga studentów, wykazało, że intensywne korzystanie z ChatGPT prowadzi do obniżenia pamięci, zdolności krytycznego myślenia oraz aktywności mózgu. Wskazuje na zjawisko „długu poznawczego” (ang. cognitive debt), czyli pozornej produktywności kosztem pogorszenia funkcji poznawczych. Nadmierne poleganie na odpowiedziach generowanych przez AI może osłabić zdolność użytkowników do samodzielnego analizowania informacji. Studenci, którzy regularnie korzystali z ChatGPT do pisania esejów i rozwiązywania problemów, wykazywali mniejszą skłonność do weryfikacji źródeł i krytycznej oceny danych. Automatyzacja procesów myślowych może prowadzić do intelektualnego lenistwa, szczególnie wśród młodych ludzi.

Pomóż w rozwoju naszego portalu

Wspieram

Modele AI, choć zaawansowane, nie są nieomylne. ChatGPT może generować odpowiedzi brzmiące wiarygodnie, ale zawierające błędy lub fałszywe informacje, zwłaszcza gdy użytkownicy nie weryfikują wyników. Według badania opublikowanego w Nature Communications (2024), aż 62% użytkowników AI nie sprawdza odpowiedzi modeli językowych, co zwiększa ryzyko rozprzestrzeniania fake newsów, szczególnie w mediach społecznościowych.

Korzystanie z AI jest wygodne, ale może prowadzić do uzależnienia. Chodzi o zjawisko „automatyzacji zaufania”, gdy użytkownicy bezrefleksyjnie przyjmują odpowiedzi AI jako ostateczne. Wyniki badań zamieszczonych w Frontiers in Psychology (2023) pokazują, że osoby regularnie korzystające z asystentów AI wykazują symptomy podobne do uzależnienia od mediów społecznościowych, takie jak kompulsywne sprawdzanie odpowiedzi czy niepokój w sytuacjach wymagających samodzielnego działania. Nadużywanie AI rodzi pytania o prywatność i manipulację. Modele językowe gromadzą dane użytkowników, co budzi obawy o ich wykorzystanie, np. w celach marketingowych lub politycznych. Co więcej, brak regulacji prawnych dotyczących AI zwiększa ryzyko nadużyć, np. w edukacji czy rekrutacji. Wyniki badania z AI & Society (2024) wskazują, że masowe użycie AI w rekrutacji może prowadzić do dyskryminacji, jeśli algorytmy nie są odpowiednio nadzorowane.

Nie jest to jednak nowość, ponieważ w badaniu z 2011 r., opublikowanym w Science Sparrow, Liu i Wegner opisali tzw. efekt Google; wskazali, że dostępność informacji w internecie zmienia sposób, w jaki nasz mózg przetwarza i przechowuje dane. Kiedy wiemy, że możemy łatwo sprawdzić informacje (np. za pomocą wyszukiwarki), nasz mózg mniej angażuje się w ich zapamiętanie, a zamiast tego „deleguje” pamięć zewnętrznym źródłom. Badanie wykazało, że uczestnicy lepiej zapamiętali, gdzie można znaleźć informacje (np. w którym folderze lub wyszukiwarce) niż same fakty, co sugeruje, że współczesne technologie przekształcają naszą pamięć w bardziej „transaktywną”, opartą na współpracy z narzędziami cyfrowymi.

Aby zminimalizować zagrożenia, kluczowe jest świadome korzystanie z AI. Dlatego lepiej przyjąć pozytywne nastawienie do sztucznej inteligencji i wdrażać edukację w zakresie krytycznego myślenia i weryfikacji informacji. Warto również ustalić granice korzystania z narzędzi AI, szczególnie w edukacji i pracy zawodowej. Wniosek badaczy z MIT jest kluczowy: „Musimy uczyć ludzi, kiedy warto używać AI, a kiedy lepiej samemu się zastanowić”.

Oceń: +3 0

Reklama

Wybrane dla Ciebie

Ekologia integralna

Niedziela Ogólnopolska 4/2025, str. 21

[ TEMATY ]

Moim zdaniem

Archiwum TK Niedziela

Obok ekologicznej troski o ciało potrzebujemy ekologii integralnej, uwzględniającej duchowy wymiar naszego człowieczeństwa.

Jednym ze znaków naszych czasów jest nieporównywalna z wcześniejszymi okresami historii troska o naturalne środowisko. Media, politycy, programy szkolne, a nawet nauczanie Kościoła poświęcają temu tematowi coraz więcej uwagi. Osobom nieco starszym komunikaty radiowe o godzinach większego lub mniejszego dostępu do zielonej energii przypominają informacje o stopniach zasilania z dawnych peerelowskich czasów. Niestety, podejściu bez zbędnych emocji do tematu ekologii nie służą działania organizacji – w ostatnim czasie także w Polsce – realizujących swe cele pod płaszczykiem troski o przyszłość świata. Ich działania przyjmują formy utrudniające codzienne życie, kwestionujące hodowlę zwierząt i pracę rolnika, a nawet dewastujące dzieła sztuki. Niektóre organizacje ekologiczne cechuje często wrogość do życia ludzkiego z jednoczesną obroną życia zwierząt. Podejmują te hasła zwłaszcza ludzie młodzi, z natury mniej krytyczni i bardziej podatni na nowoczesne idee. Zjawiska te stanowią także wyzwanie duszpasterskie.
CZYTAJ DALEJ

Francja: dlaczego kobiety w kościele zakrywają głowę, skąd ten nowy trend?

2025-07-22 19:07

[ TEMATY ]

kobieta

Adobe Stock

To duchowy rytuał, który pomaga w lepszym przeżywaniu Eucharystii, znak, że w tym szczególnym czasie chcę być tylko dla Boga – opowiadają na łamach La Croix kobiety, które podczas liturgii zdecydowały się zakrywać głowę koronkową chustą, tzw. mantylą. Paryski dziennik przypomina, że w przeszłości był to we Francji powszechny zwyczaj. Dziś ta tradycja odżywa na nowo, choć wciąż jest zjawiskiem mniejszościowym. Można ją zaobserwować w kręgach tradycjonalistycznych i u neofitek.

Cytowana przez La Croix Isabelle Jonveaux, socjolog religii na Uniwersytecie we Fryburgu zauważa, że osoby nawrócone mają tendencję do eksponowania zewnętrznych znaków swojej wiary, aby zaznaczyć swoje nawrócenie. „Noszenie odzieży o charakterze religijnym to również sposób na wyrażenie pewnego radykalizmu” – dodaje szwajcarska socjolog.
CZYTAJ DALEJ

USA/ Trump: Karol Nawrocki będzie świetnym prezydentem

2025-07-24 07:26

[ TEMATY ]

Donald Trump

Karol Nawrocki

PAP/EPA/Yuri Gripas / ABACAPRESS.COM / POOL

Donald Trump

Donald Trump

Wspaniała wygrana Karola Nawrockiego w Polsce, będzie świetnym prezydentem - napisał w czwartek prezydent USA Donald Trump na swojej platformie społecznościowej Truth Social. Wyraził przekonanie, że Nawrocki wygrał wybory prezydenckie w Polsce, bo „naprawdę kocha Polaków”.

To „takie wspaniałe zwycięstwo Karola Nawrockiego w Polsce. Będzie świetnym prezydentem! Wygrał, bo naprawdę kocha Polaków” - napisał Trump na Truth Social.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję