Rosnące zainteresowanie wykorzystaniem sztucznej inteligencji, a zwłaszcza dużych modeli językowych (LLMs), w procesach deliberacyjnych, takich jak Zgromadzenia Obywatelskie (Citizens’ Assemblies, CAs), skłania do pytania o ich realny wpływ na jakość demokracji. W artykule opublikowanym w Journal of Deliberative Democracy Sammy McKinney proponuje kompleksową analizę możliwych zastosowań AI w CA, wskazując jednocześnie na korzyści, zagrożenia i niezbędne warunki etyczne, które należy spełnić, by technologia ta wspierała, a nie zastępowała deliberację obywatelską.
S. McKinney (University of Edinburgh) opiera swoją analizę na czterech głównych filarach. Po pierwsze, opracowuje ramy analityczne oparte na koncepcji tzw. dóbr demokratycznych (inkluzywność, kontrola obywatelska, przemyślane osądy i transparentność) i instytucjonalnych (efektywność i skalowalność). Po drugie, McKinney szczegółowo identyfikuje jedenaście potencjalnych zastosowań sztucznej inteligencji – zwłaszcza dużych modeli językowych (LLMs) – w całym cyklu życia Zgromadzenia Obywatelskiego, który składa się z pięciu faz: planowania i rekrutacji, uczenia się (learning), deliberacji, podejmowania decyzji oraz działań następczych (follow-up). Każde zastosowanie AI przypisane jest do konkretnej fazy, co możemy zobaczyć w tabeli Mapping and Analysing AI applications in CAs.
Faza cyklu życia | Potencjalne zastosowania AI (LLMs) |
---|---|
Planowanie i rekrutacja | – Grupowanie opinii obywateli w celu wspierania ustalania agendy |
Uczenie się | – Upraszczanie materiałów edukacyjnych – Streszczanie treści (np. wystąpień ekspertów, dokumentów) – Wspieranie uczestników w formułowaniu pytań do prelegentów – Działanie jako systemy pytań i odpowiedzi (Q&A) dostępne „na żądanie” |
Deliberacja i decyzje | – Facylitacja AI (automatyczne moderowanie dyskusji) – Pomiar jakości deliberacji w czasie rzeczywistym – Generowanie ról „adwokata diabła” (formułowanie kontrargumentów) – Agregacja opinii z różnych grup i synteza stanowisk – Tworzenie propozycji konsensualnych na podstawie różnorodnych wypowiedzi |
Działania następcze (follow-up) | – Tłumaczenie językowe treści i komunikacja wyników zgromadzenia z różnymi grupami odbiorców |
Po trzecie, stosuje tę ramę do analizy empirycznej, opierając się na czterech wywiadach eksperckich oraz studium przypadku Global Assembly (światowego zgromadzenia obywatelskiego na temat kryzysu klimatycznego). Wreszcie, formułuje szereg zaleceń i ostrzeżeń dotyczących dalszego rozwoju technologii AI w demokracji deliberacyjnej.
Jednym z najbardziej praktycznych obszarów zastosowania AI jest tłumaczenie w czasie rzeczywistym. Jak zauważa autor: „AI translation can increase the efficiency of CAs by lowering the cost of translation” („Tłumaczenie AI może zwiększyć efektywność zgromadzeń obywatelskich poprzez obniżenie kosztów tłumaczenia”), a także poprawić inkluzywność, jeśli pozwoli uczestnikom posługującym się różnymi językami na równoprawne uczestnictwo. Jednak McKinney ostrzega, że większość języków świata to tzw. low-resource languages, dla których jakość tłumaczeń AI pozostaje niska, co może pogłębiać nierówności: „Deployment could exacerbate Anglocentrism instead of overcoming it” („Zastosowanie AI może pogłębiać anglocentryzm zamiast go niwelować”).
Szczególną uwagę poświęcono także fazie uczenia się uczestników. Modele językowe mogą pomagać w streszczaniu i upraszczaniu trudnych materiałów edukacyjnych, co zdaniem Claire Mellier, pozwoliłoby „lepiej dopasować treść do zróżnicowanych stylów poznawczych uczestników”. LLMs mogą również wspierać uczestników w generowaniu pytań do ekspertów lub pełnić rolę „źródła informacji na żądanie” w momentach braku prelegentów. Jednak i tu konieczna jest ostrożność. Jak podkreśla McKinney, uprzedzenia w AI mogą podważyć zrównoważony dostęp do wiedzy, a halucynacje prowadzić do błędów informacyjnych.
Najwięcej kontrowersji budzi jednak rola AI w samej fazie deliberacyjnej. Możliwość skalowania deliberacji dzięki AI-facylitatorom, jak w eksperymentach Stanford Deliberative Democracy Lab, z jednej strony wydaje się obiecująca (np. 2 tysiące grup naraz bez potrzeby zatrudniania setek moderatorów), z drugiej jednak może zagrażać jakości procesu. McKinney zaznacza, że „facylitacja jest bardziej rzemiosłem niż sztywną dyscypliną”, wymagając empatii, zmysłu społecznego i umiejętności budowania zaufania. Stąd też zamiast pełnej automatyzacji autor postuluje podejście hybrydowe – wspieranie moderatorów przez systemy AI lub rotacyjne grupy facylitowane naprzemiennie przez ludzi i maszyny.
Interesującym rozwiązaniem wydaje się także możliwość, by AI pełniło funkcję „adwokata diabła”, generując pytania podważające dominujące opinie w grupie i przeciwdziałając zjawisku „groupthink”. Jednak także tu McKinney ostrzega przed nadmierną ingerencją: „At what point does the AI become a participant?” („W którym momencie AI staje się uczestnikiem?”) – pyta retorycznie jeden z rozmówców. Kluczowe pozostaje zachowanie kontroli przez ludzi i krytyczna weryfikacja wszystkich treści generowanych przez maszyny.
Reasumując, S. McKinney nie odrzuca idei wykorzystania AI w Zgromadzeniach Obywatelskich, ale stanowczo opowiada się za modelem ostrożnego wdrażania, z dużą dozą krytycyzmu, refleksji etycznej i ciągłego nadzoru człowieka. Jak wskazuje, eśli społeczność deliberacyjna podejmie trudne kompromisy i odpowiednie środki ostrożności, integracja AI może wzmocnić demokratyczny i instytucjonalny potencjał Zgromadzeń Obywatelskich.