AI prezentuje lewicowe poglądy. Badacze o „pogłębianiu podziałów”

AI nie jest neutralna – wynika z badania przeprowadzonego ostatnio przez brytyjskich naukowców. Eksperci przekonują, że sztuczna inteligencja chętniej przyjmuje lewicową postawę i stroni od konserwatywnych wypowiedzi. Chociaż problem może wydawać się błahy, na dłuższą metę może stanowić poważne zagrożenie m.in. dla przyszłych wyborów. ChatGPT nie przeszedł testu na neutralność Testowaniem chatbota zajął się zespół […] Artykuł AI prezentuje lewicowe poglądy. Badacze o „pogłębianiu podziałów” pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.

Lut 7, 2025 - 19:33
 0
AI prezentuje lewicowe poglądy. Badacze o „pogłębianiu podziałów”
Telefon z wyświetloną aplikacją ChatGPT.

AI nie jest neutralna – wynika z badania przeprowadzonego ostatnio przez brytyjskich naukowców. Eksperci przekonują, że sztuczna inteligencja chętniej przyjmuje lewicową postawę i stroni od konserwatywnych wypowiedzi. Chociaż problem może wydawać się błahy, na dłuższą metę może stanowić poważne zagrożenie m.in. dla przyszłych wyborów.

ChatGPT nie przeszedł testu na neutralność

Testowaniem chatbota zajął się zespół naukowców z University of East Anglia. Kierował nim dr Fabio Motoki – badacz przyglądający się m.in. kwestiom związanym z przetwarzaniem języka naturalnego i algorytmami uczenia maszynowego.

Dr Pinho Neto, drugi z autorów badania, dodaje zaś, że uprzedzenia utrwalone w modelach AI mogą „pogłębiać istniejące podziały społeczne, podważając zaufanie do instytucji i procesów demokratycznych”.

Kto jest odpowiedzialny za poglądy AI?

Eksperci zauważają, że źródło problemów stanowią dane wykorzystywane do trenowania modeli. Zdaniem prof. Dariusza Jemielniaka dobór informacji może powodować odchylenia AI w różne strony, np. w kierunku nadreprezentacji mężczyzn. To już zaś bardziej konserwatywny klucz.

Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeśli wykorzystuje się głównie zachodnie bazy, w tym magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości. Problem pokazuje zatem, że trzeba być bardzo ostrożnym w doborze danych. Prof. Dariusz Jemielniak, Akademia Leona Koźmińskiego, komentarz badań na kozminski.edu.pl

To oczywiście nie zdejmuje odpowiedzialności z twórców, którzy powinni kontrolować ilość i podchodzenie danych wykorzystywanych przez modele generatywnej sztucznej inteligencji.

Problem w tym, że wiele z tych modeli korzysta z nielegalnych źródeł i informacji zbieranych z różnych części internetu. W efekcie może generować treści, które są polaryzujące lub prezentują konkretne stanowiska polityczne.

Testy ujawniły lewicowe poglądy ChataGPT

Naukowcy z University of East Anglia postanowili zbadać, jak dane wejściowe (czyli wykorzystywane do trenowania modeli) wpływają na sztuczną inteligencję. Aby uniknąć pomyłki, zaplanowali szereg skrupulatnych testów. Jedna z faz polegała na zadaniu chatbotowi konkretnych pytań, gdzie każde z nich było powtarzane po 100 razy.

Zabieg ten miał wyeliminować ryzyko wygenerowania losowych lub nieprecyzyjnych odpowiedzi. Wyniki porównali z zestawem 60 neutralnych odpowiedzi na pytania polityczne (wygenerowane przez inny model AI – RoBERTa) i przeanalizowali ChatGPT pod kątem „politycznego skrzywienia”.

Wyniki nie pozostawiły wątpliwości: ChatGPT skłania się ku lewicowym poglądom i faworyzuje konkretne ugrupowania – m.in. Partię Pracy w Wielkiej Brytanii czy Partię Demokratyczną w USA.

Główny autor badania ostrzegł, że może mieć to wpływ na wyniki przyszłych wyborów.

Wszelka stronniczość na takiej platformie jest niepokojąca. Jeśli stronniczość byłaby po prawej stronie, powinniśmy być równie zaniepokojeni. Czasami ludzie zapominają, że te modele AI to tylko maszyny.

Zapewniają w bardzo wiarygodny sposób przetrawione podsumowania tego, o co pytasz, nawet jeśli się kompletnie mylą. A jeśli zapytasz je „czy jesteś neutralny”, odpowie „och, jestem!”. Podobnie jak media, internet i media społecznościowe mogą wpływać na opinię publiczną, może to być bardzo szkodliwe. dr Fabio Motoki, University of East Anglia, cytowany przez SkyNews

Problemem są nie tylko treści

Badania wykazały, że stronnicze są nie tylko treści, ale też generowane przez ChatGPT obrazy. Naukowcy potwierdzili to w drugiej fazie testów, analizując wyniki za pomocą GPT-4 Vision i weryfikując je za pomocą modelu Gemini firmy Google.

Generowanie obrazów dokładnie odzwierciedlało stronniczość tekstową modelu, ale odkryliśmy jeszcze jeden niepokojący trend – w przypadku niektórych tematów, takich jak równość rasowo-etniczna, ChatGPT odmówił wygenerowania prawicowych perspektyw, powołując się na obawy dotyczące dezinformacji. Jednak obrazy o charakterze lewicowym tworzył bez wahania. dr Fabio Motoki, University of East Anglia, cytowany przez PAP

Lewicowe AI to globalny problem

Stronniczość sztucznej inteligencji to problem całej branży. Elon Musk, jeden z pierwszych inwestorów OpenAI, od dawna krytykuje twórców ChatGPT za polityczne skłonności i odejście od pierwotnej misji non-profit.

Jak przypomina CityMagazine, Musk zarzuca OpenAI, że „porzuciło swoje korzenie” i stało się „de facto spółką zależną Microsoftu”, dążąc do globalnej dominacji na rynku kosztem otwartego i transparentnego rozwoju.

Musk nie pozostał wobec tego bierny i podjął kroki prawne, oskarżając OpenAI o praktyki antykonkurencyjne i naruszanie umowy założycielskiej – jak twierdzi, został nakłoniony do współtworzenia firmy pod fałszywymi pretekstami i oszukany na ponad 44 miliony dolarów, które przekazał firmie w latach 2016-2020.

Swego czasu Musk głośno krytykował też lewicowe skłonności wybranych modeli AI i stworzył nawet własny system AI Grok, który miał być dla nich przeciwwagą. Badania przeprowadzone przez University of East Anglia wydają się poniekąd potwierdzać jego obawy.

Potrzebujemy nowych regulacji?

Autorzy badania zauważają, że wprowadzenie nowych przepisów może być konieczne dla ochrony demokracji. Zastanawiają się też, czy obowiązujące w USA zasady neutralności, które gwarantują wolność słowa i światopoglądu, nie powinny obowiązywać również narzędzi opartych na AI. Podkreślają, że w ten sposób moglibyśmy uniknąć wykorzystywania ich w celach politycznych.

Źródła: Portal Samorządowy (za PAP), Koźmiński.edu.pl, CityMagazine, Forsal.pl (za SkyNews). Zdjęcie otwierające: photosince / Shutterstock

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Artykuł AI prezentuje lewicowe poglądy. Badacze o „pogłębianiu podziałów” pochodzi z serwisu ANDROID.COM.PL - społeczność entuzjastów technologii.