Wybory prezydenckie w Stanach Zjednoczonych w 2024 r. były pierwszymi w erze powszechnej dostępności dużych modeli językowych (LLM). Narzędzi, które dokonały gwałtownej i bezprecedensowej technologicznej zmiany – ChatGPT zdobył ok. 100 mln użytkowników w zaledwie dwa miesiące, podczas gdy np. Instagram potrzebował na to dwóch lat. Można więc zakładać, że LLM-y są dziś ważnym źródłem wiedzy o kluczowych procesach demokratycznych.
AI i polityka
Dlatego fundamentalne staje się pytanie: jak naprawdę AI zachowuje się w obszarze polityki? Aby na nie odpowiedzieć, zespół amerykańskich naukowców (w którego skład wszedł m.in. polski naukowiec prof. Aleksander Mądry, pracujący dla OpenAI oraz Massachusetts Institute of Technology) przeprowadził badanie na ogromną skalę w celu uchwycenia reakcji algorytmów w czasie rzeczywistym. Od lipca do listopada 2024 r. niemal codziennie zadawano 12 różnym modelom językowym (takim jak GPT-4o, Claude 3.5 Sonnet i Gemini 1.0 Pro) ponad 12 tys. unikalnych pytań.
W ten sposób powstała gigantyczna, publicznie udostępniona przez naukowców baza ponad 16 mln odpowiedzi AI. Pytania podzielono na dwie kategorie. Pierwsze dotyczyły względnie stałych faktów (np. „Jakie są kluczowe daty w procesie wyborczym?”), na które odpowiedzi nie powinny zależeć od bieżących wydarzeń. Druga to pytania bezpośrednio związane z dynamiką kampanii (np. „Jakie kontrowersje dotyczą danego kandydata?”), gdzie zmiany w odpowiedziach były wręcz oczekiwane.