Sztuczna inteligencja namieszała przed wyborami w Polsce i USA. Ma dar przekonywania


Generatywna sztuczna inteligencja może być bardzo przekonująca. Odpowiedzi udzielone przez ChatGPT lub Gemini mogą bardziej wpłynąć na nasze decyzje niż kampanie wideo w internecie lub telewizji. Okazuje się, że dotyczy to także demokratycznych wyborów. Naukowcy zbadali zachowania ludzi rozmawiających z czatbotem przed wyborami w Kanadzie, USA i Polsce. Odkryli, jaka jest moc przekonywania AI oraz jakich technik perswázji zwykle używa.


Duży robot o ludzkich rysach twarzy z niebieskimi oczami umieszczony na tle cyfrowych połączeń. W prawym górnym rogu osoba w garniturze wrzuca kartę do przezroczystej urny wyborczej. W tle urny widoczny godło Polski.

AI zagraża demokracji? Czatboty przekonują wyborców z Polski, USA i Kanady skuteczniej niż spoty wideoAlexandra_Koch/mobywatel.gov.plPixabay.com


 

Spis treści:

  1. Groźna perswazja. AI skuteczniejsza niż tradycyjne media

  2. Sztuczna inteligencja przekonuje merytorycznie, ale z błędami

  3. Czatboty zagrażają demokratycznym wyborom?

Groźna perswazja. AI skuteczniejsza niż tradycyjne media


Wybory parlamentarne lub prezydenckie to okres wzmożonej działalności sztabów wyborczych. Tabuny specjalistów głowią się nad tym, jak poprowadzić skuteczną kampanię. Dziś reklamy w telewizji czy na plakatach wyborczych już nie wystarczą i w ruch wchodzą nowe technologie, takie jak sztuczna inteligencja. Z uwagi na dużą interaktywność i moc przekonywania pojawiają się obawy, że AI może w niebezpieczny sposób wpływać na demokratyczne wybory. Na ile są one uzasadnione? Naukowcy z MIT, Uniwersytetu Jagiellońskiego, Carnegie Mellon University oraz Cornell University postanowili to sprawdzić.

W szczególności eksperci postanowili zbadać, jaka jest zdolność dużych modeli językowych (LLMs) do wpływania na postawy wyborców. Eksperyment polegał na losowym przydzieleniu uczestników do rozmów z modelem generatywnej sztucznej inteligencji w kontekście wyborów prezydenckich w Stanach Zjednoczone w 2024 r., wyborów federalnych w Kanadzie w 2025 r. oraz wyborów prezydenckich w Polsce w 2025 r. Badacze odkryli, że AI jest bardziej przekonująca niż tradycyjne media.

"Zaobserwowaliśmy znaczące efekty tego środka na preferencje co do kandydata, większe niż zwykle obserwowane w przypadku tradycyjnych reklam wideo. Dokumentujemy także duże efekty perswazji na poparcie mieszkańców Massachusetts dla inicjatywy ustawodawczej legalizującej psychodeliki" - wyjaśniają autorzy badania w artykule, który ukazał się we wpływowym "Nature".

Sztuczna inteligencja przekonuje merytorycznie, ale z błędami


Jak przekonuje sztuczna inteligencja? Okazuje się, że najczęściej duże modele językowe nie uciekają się do nieuczciwych sztuczek, takich jak pozamerytoryczne sposoby argumentowania (erystyka), które należą do stałego repertuaru polityków i ich PR-owców. Zamiast tego AI stara się przekonać rozmówców w sposób logiczny, opierając się na dowodach i twardych danych, a nie emocjach, zmanipulowanych danych czy wręcz kłamstwach.

 

"Analiza strategii perswazji używanych przez te modele wskazuje, że przekonują one przy pomocy istotnych faktów i dowodów, zamiast wykorzystywać wyrafinowane psychologiczne techniki perswazji" - tłumaczą autorzy badania. "Nie wszystkie zaprezentowane fakty i dowody były jednak poprawne".

Jest to zgodne wynikami innych badań przeprowadzonych w tym roku, które niedawno omawialiśmy. Mówią one, że AI ma problemy z interpretacją wiadomości, halucynuje średnio w 20% odpowiedzi, a połowa z nich zawiera znaczące błędy. Nawet więc, jeśli sztuczna inteligencja "myśli", że udziela rzetelnej odpowiedzi, to bardzo często jest mitomanką, naprawdę wierzącą w swoje opowieści wyssane z palca.

Czatboty zagrażają demokratycznym wyborom?


"We wszystkich trzech krajach modele AI opowiadające się za kandydatami z prawej strony sceny politycznej częściej przedstawiały nieprawdziwe twierdzenia, niż modele agitujące za kandydatami centrowymi. Jest to zgodne z wcześniejszymi badaniami pokazującymi, że w USA to wyborcy prawicy częściej udostępniają treści wprowadzające rozmówców w błąd. Modele generatywne wydają się powielać nierówności informacyjne obserwowane w społeczeństwie" - powiedziała Polskiej Agencji Prasowej współautorka badania, dr Gabriela Czarnek z Zakładu Psychologii Społecznej na UJ.

 

"Model AI popierający Donalda Trumpa spowodował przesunięcie potencjalnych wyborców Kamali Harris o 2,3 punktu procentowego w stronę kandydata Republikanów. Zaś model wspierający Kamalę Harris przesunął prawdopodobnych wyborców Trumpa o 3,9 punktu w stronę kandydatki Demokratów" - tłumaczy polska badaczka.

Zdaniem autorów badania te odkrycia uwidaczniają potencjał sztucznej inteligencji we wpływaniu na decyzje wyborców oraz rolę, jaką najpewniej odgrywać będzie ona w przyszłych wyborach. Można się spodziewać, że twórcy kampanii będą próbowali wpływać na ludzi nie tylko tradycyjnymi metodami, poprzez środki masowego przekazu, ale również przez "SEO AI". Warto więc zachować sceptycyzm podczas rozmów z ChatGPT, Copilotem lub Gemini.

 

WSZYSTKIE WIADOMOSCI