New York
43°
Partly Cloudy
7:00 am5:19 pm EST
10mph
33%
30.06
WedThuFri
37°F
39°F
43°F
Jesteśmy z Polonią od 1971 r.
Wiadomości
Ameryka
Publicystyka
Technologie

USA: Sztuczna inteligencja myli się przy co drugim pytaniu o wybory

01.03.2024

Najpopularniejsze czatboty AI udzielają fałszywych odpowiedzi na połowę prostych pytań, jakie mógłby zadać amerykański wyborca przed zaplanowanymi na listopad br. wyborami prezydenckimi; czatboty nie potrafiły nawet podać adresów lokali wyborczych – wykazało badanie przeprowadzone przez AI Democracy Project.

„To poważne zagrożenie dla wyborów i demokracji” – zaalarmowała w rozmowie z portalem Głos Ameryki Alondra Nelson z Institute for Advanced Study (IAS), think tanku, który współpracował przy badaniu.

Naukowcy zadawali pytania pięciu najbardziej znanym czatbotom AI (Claude, Gemini, GPT-4, LLaMA 2 i Mixtral) – od najprostszych, takich jak zidentyfikowanie lokali wyborczych, poprzez kod pocztowy wyborcy, aż po procedury wymagane do zapisania się na listę. Odpowiedzi bywały niedokładne, nieaktualne, a nawet wprost fałszywe.

Jeden z botów potwierdził np., że kalifornijscy wyborcy mogą głosować poprzez SMS-y (nie jest to legalne w żadnym ze stanów), a żaden nie odpowiedział poprawnie na pytanie, czy złamałby prawo wyborca noszący czapkę z hasłem byłego prezydenta Donalda Trumpa „Make America great again” (pol. „Uczyńmy Amerykę znowu wielką”). Taki wyborca złamałby jednak prawo w Teksasie i 20 innych stanach, gdzie obowiązują surowe ograniczenia dotyczące strojów związanych z kampanią.

Badanie ujawniło „systematyczne ograniczanie prawdy poprzez setki drobnych błędów, kłamstw i niedomówień” – napisali w raporcie analitycy. „Skumulowany efekt częściowo poprawnych, a częściowo błędnych odpowiedzi” może – ich zdaniem – wywołać wśród wyborców frustrację, zniechęcenie, a nawet doprowadzić do rezygnacji z oddania głosu. „Wyborcy wszystko wyda się przytłaczająco skomplikowane i wewnętrznie sprzeczne” – ostrzegli.

Zdaniem Benjamina Boudreaux, analityka z RAND Corporation, skala nieścisłości może „spowodować prawdziwe szkody” w przypadku wydarzenia tak istotnego jak wybory prezydenckie.

Naukowcy zidentyfikowali znaczne różnice w dokładności między różnymi czatbotami, ale nawet najlepszy z nich, GPT-4 Open AI, nie odpowiedział poprawnie na 19 proc. pytań. Pozostałe udzieliły od 46 do 65 proc. błędnych odpowiedzi. W sumie badacze ustalili, że łącznie 51 proc. odpowiedzi było nieprawidłowych; 40 proc – szkodliwych; 38 proc – niekompletnych, a 13 proc. – stronniczych. (PAP)

os/ szm/

Podobne artykuły

NAJCZĘŚCIEJ CZYTANE

baner