Relacja z webinaru „Sztuczna inteligencja w narzędziach partycypacji – możliwości i zagrożenia”
Coraz więcej instytucji publicznych, organizacji pozarządowych oraz samorządów lokalnych korzysta z narzędzi cyfrowych do angażowania obywateli w procesy podejmowania decyzji. Konsultacje społeczne, budżety obywatelskie, platformy zgłoszeń inicjatyw lokalnych czy deliberacje online stają się standardem, a wraz z rozwojem technologii coraz częściej wspierane są przez sztuczną inteligencję (AI).
Fundacja SOC TECH LAB wskazuje, że przyszłość partycypacji cyfrowej zależy od tego, czy AI będzie stosowana odpowiedzialnie – zgodnie z wartościami demokracji, równości i przejrzystości. I czy jako społeczeństwo nauczymy się ją rozumieć, a nie tylko wykorzystywać.
Nowy krajobraz partycypacji cyfrowej
Damian Wojciech Dudała, założyciel SOC TECH LAB i członek grup roboczych przy Ministerstwie Cyfryzacji i Ministerstwie ds. Społeczeństwa Obywatelskiego, od lat obserwuje rozwój narzędzi civic tech. W swojej prezentacji podkreśla, że cyfrowa partycypacja to dziś nie tylko platformy do głosowania i konsultacji, ale także zaawansowane algorytmy, chatboty i interfejsy konwersacyjne oparte na dużych modelach językowych (LLM).
AI już dzisiaj może wspierać cały proces partycypacji, m.in. poprzez:
- tworzenie planów procesów konsultacyjnych,
- redagować ankiety,
- analizować dane zebrane od mieszkańców,
- mapować problemy miejskie,
- podsumowywać wyniki debat,
- a nawet samodzielnie „uczestniczyć” w dyskusjach.
Od FixMyStreet do Decidim i dalej
Rozwiązania takie jak Decidim, CityScope czy PaKOMM to przyszłość cyfrowej demokracji. Dzięki AI i rozszerzonej rzeczywistości (AR/VR), mieszkańcy mogą w czasie rzeczywistym wizualizować zmiany urbanistyczne, spacerować po wirtualnych dzielnicach czy decydować o przyszłości miasta z poziomu własnego smartfona.
Ale – jak pokazuje przykład z Hamburga – technologia sama w sobie nie wystarcza. Platforma CityScope pozwoliła mieszkańcom wyznaczyć lokalizacje dla zakwaterowania uchodźców tylko dlatego, że połączono ją z realnym dialogiem, edukacją i zaufaniem do systemu.
AI jako asystent demokracji – ale pod nadzorem
W idealnym scenariuszu sztuczna inteligencja jest tylko narzędziem: podpowiada mieszkańcom, jak sformułować propozycję, automatycznie generuje podsumowania debat czy pomaga seniorom czy osobom z niepełnosprawnościami w nawigowaniu po platformie. Ale jak ostrzega D. W. Dudała, AI może też reprodukować uprzedzenia, manipulować opinią publiczną i wypaczać debatę. Wszystko zależy od danych, na których była trenowana, oraz przejrzystości algorytmu.
„System moderujący może ‘nauczyć się’, że aktywistyczne komentarze to zagrożenie – i zacząć je automatycznie blokować. Nie dlatego, że są agresywne, ale dlatego, że są politycznie niewygodne” – zauważa autor.
Ciche zagrożenia – od botów po deepfake’i
Jednym z najgroźniejszych zjawisk są tzw. automaty partycypacyjne – boty i modele AI, które udają realnych uczestników. Potrafią one: tworzyć pozory zaangażowania, generować masowe komentarze, a nawet wypaczać wyniki konsultacji lub głosowań. Podobnie niebezpieczne są deepfake’i i dezinformacja – przykłady z kampanii politycznych na świecie pokazują, jak łatwo AI może stworzyć fikcyjne obrazy i narracje, które wpływają na decyzje obywateli.
Nowy paradygmat – od kliknięć do konwersacji
Kolejnym krokiem w ewolucji narzędzi partycypacyjnych jest interfejs intencyjny – rozmowa z systemem AI jak z doradcą obywatelskim. Użytkownik nie musi już szukać formularza – po prostu pisze: „Chciałbym zaproponować więcej zieleni w dzielnicy Dąbrowa”, a system sam prowadzi go przez proces. To ogromna szansa na demokratyzację dostępu – zwłaszcza dla osób, które nie radzą sobie z tradycyjnymi interfejsami. Ale też potencjalna pułapka – bo automatyczna obsługa nie zawsze oznacza dobre zrozumienie niuansów społecznych.
Zagrożenia dla danych i prywatności
Fundacja SOC TECH LAB ostrzega także przed niekontrolowanym przetwarzaniem danych. Coraz częściej obywatele wprowadzają swoje dokumenty do ChatGPT czy Gemini – nie wiedząc, że te informacje mogą być używane do trenowania modeli.
„To nie jest tylko kwestia techniczna – to pytanie o zaufanie, transparentność i społeczną kontrolę nad technologią” – wskazuje D. W. Dudała.
Etyczne zasady stosowania AI w partycypacji
Fundacja SOC TECH LAB proponuje konkretny zestaw zasad etycznych:
- Transparentność – użytkownik wie, że rozmawia z AI.
- Możliwość interwencji człowieka – każda decyzja automatyczna musi mieć opcję odwołania.
- Równość i włączenie – systemy nie mogą reprodukować dyskryminacji.
- Odporność na nadużycia – zabezpieczenia przed spamem, botami i fałszywymi kontami.
- Edukacja cyfrowa – obywatele muszą rozumieć, jak działa AI i jakie są jej granice.
Sztuczna inteligencja wnosi nowe możliwości do partycypacji obywatelskiej, usprawniając analizę danych, dostępność treści i komunikację z mieszkańcami. Jednocześnie niesie ze sobą poważne zagrożenia – od automatyzacji opinii publicznej po utratę kontroli nad danymi. Bez etycznych zasad, przejrzystości i społecznego nadzoru, AI może wypaczyć sens demokracji. Kluczowe jest rozpoznanie, kiedy technologia wspiera obywatela, a kiedy go zastępuje lub wyklucza. Potrzebujemy systemów projektowanych z myślą o różnorodności użytkowników i odporności na nadużycia. Przyszłość demokracji cyfrowej zależy od tego, czy uda się połączyć innowację technologiczną z odpowiedzialnością społeczną.
Webinar zorganizowano w ramach „Narzędziownika Partycypacji Cyfrowej”, który jest jednym z zadań projektu pn. „Rozwój PR Fundacji SOC TECH LAB w zakresie partycypacji cyfrowej”, realizowanego w ramach projektu Fundacji Stocznia i The Transatlantic Foundation i dofinansowany ze środków UE.
„Program dofinansowany ze środków UE. Wyrażone poglądy i opinie są jedynie opiniami autora lub autorów i niekoniecznie odzwierciedlają poglądy i opinie Unii Europejskiej lub Europejskiej Agencji Wykonawczej ds. Edukacji i Kultury (EACEA). Unia Europejska ani EACEA nie ponoszą za nie odpowiedzialności.”