W czasach dynamicznego rzwoju AI i narastających napięć wokół jej etycznego zastosowania, coraz wyraźniej wybrzmiewa potrzeba zbudowania „ekosystemu zaufania”. Nie jest to przedsięwzięcie zarezerwowane wyłącznie dla regulatorów czy wielkich firm technologicznych. Jak wskazuje raport „Accelerating Progress Toward Trustworthy AI” opracowany przez zespół Fundacji Mozilla (2024), to właśnie organizacje społeczeństwa obywatelskiego odgrywają kluczową rolę w budowaniu AI, której można zaufać.
W Fundacji SOC TECH LAB – promującej odpowiedzialną transformację cyfrową organizacji pozarządowych w Polsce – dostrzegamy, jak fundamentalna staje się obecnie kwestia przejrzystości, współpracy i wspólnotowego nadzoru nad rozwojem technologii. Jak możemy przeczytać w raporcie, Mozilla nie pozostawia w tym względzie wątpliwości: „open source approaches and broad market access are key ingredients for promoting agency and accountability in the AI era” („Otwarte podejście (open source) i szeroki dostęp do rynku to kluczowe elementy wspierające sprawczość i odpowiedzialność w erze sztucznej inteligencji”; s. 14).
NGO jako strażnicy otwartości i różnorodności
Fundacja Mozilla zwraca szczególną uwagę na fakt, że zamknięty model rozwoju AI, koncentrujący się wokół kilku korporacji technologicznych (przyp. red. GAFAM – Google, Apple, Facebook (dzisiaj Meta), Amazon, Microsoft, ale też OpenAI czy NVIDIA), zagraża pluralizmowi i demokracji cyfrowej. Mozilla ostrzega, że AI rozwijana przez zamknięte konsorcja technologiczne tworzy zagrożenia dla transparentności, konkurencji i demokratycznej kontroli społecznej nad technologią. Podkreśla potrzebę przeciwdziałania koncentracji poprzez otwarte modele, wspólne standardy i dostępność infrastruktury dla mniejszych podmiotów (NGO, badaczy, społeczności lokalnych).
Dane treningowe pochodzące z dominujących języków, kultur i punktów widzenia tworzyły dotąd modele, które odzwierciedlają świat w sposób upraszczający, a często krzywdzący. Jak zauważa Mozilla, „współczesny ekosystem AI jest strukturalnie wadliwy – ogranicza niezależne badania i współpracę, utrudnia kontrolę społeczną i regulacyjną oraz zwiększa bariery rynkowe dla nowych podmiotów.” (s. 6).
To właśnie trzeci sektor, posiadający wiedzę lokalną, kontakty z różnorodnymi grupami, szczególnie reprezentujące osoby marginalizowane, wykluczone, i kompetencje w zakresie rzecznictwa, może skutecznie przeciwdziałać tym tendencjom. Mozilla wskazuje na konieczność „szersze grono głosów zaangażowanych w projektowanie i wdrażanie AI” (s. 18). NGO mogą być nie tylko odbiorcami technologii, ale również ich współtwórcami, testerami i strażnikami etyki.
Otwartość jako wartość polityczna, ale też i narzędzie kontroli
Zarówno w teorii, jak i praktyce Mozilla pokazuje, że otwartość to nie tylko cecha oprogramowania, ale decyzja polityczna. Ruch open source to przestrzeń, gdzie możliwa jest realna partycypacja, audyt i współtworzenie. Otwarty kod, dane, a także transparentne procedury trenowania modeli AI to narzędzia, dzięki którym organizacje społeczne mogą dochodzić sprawiedliwości algorytmicznej. Mozilla przypomina, że „zwiększanie publicznego dostępu i nadzoru czyni technologię bardziej bezpieczną, a nie bardziej niebezpieczną.” (s. 35).
Właśnie z tego powodu Mozilla tworzy i wspiera narzędzia takie jak Common Voice, Fakespot czy llamafile – produkty wspierające odpowiedzialne wykorzystanie AI przez osoby spoza świata Big Tech (s. 24). Tego typu rozwiązania mogą z powodzeniem służyć organizacjom pozarządowym jako alternatywa wobec komercyjnych narzędzi opartych na „czarnej skrzynce”.
NGO jako współtwórcy regulacji i standardów
Mozilla wzywa sektor pozarządowy do aktywnego współtworzenia ram prawnych i standardów etycznych. Organizacje obywatelskie uczestniczą w konsultacjach ustaw takich jak AI Act (UE). Co więcej, Mozilla przekazuje rekomendacje i ekspertyzy jako głos społeczeństwa obywatelskiego w ramach forów takich jak AI Insight Forum (s. 34).
W SOC TECH LAB wierzymy, że aktywne uczestnictwo NGO jest kluczowe dla przekładania globalnych debat na lokalne strategie i standardy. Dlatego organizujemy m.in. cykliczne spotkania AI & No-Code Impact, organizujemy Festiwal SOC TECH LAB, aktywnie uczestniczymy w debatach, konferencjach, angażujemy się w opiniowanie dokumentów na poziomie ministerialnym i publikujemy teksty eksperckie. Tylko poprzez takie działania można w praktyce realizować ideę odpowiedzialnej i etycznej cyfryzacji.
Partnerstwo ponad sektorem
Raport Mozilli pokazuje, że tylko poprzez współpracę różnorodnych aktorów można stworzyć zaufany ekosystem AI. „Żadna pojedyncza firma ani organizacja nie jest w stanie samodzielnie poradzić sobie ze wszystkimi tymi zagrożeniami.” (s. 14). NGO powinny wchodzić w partnerstwa ze światem akademickim, organizacjami tworzącymi open-source zespołami, sektorem IT czy instytucjami publicznymi. Mozilla realizuje ten model, m.in. poprzez finansowanie DAIR Institute, Responsible Computing Challenge czy Mozilla Technology Fund.
Wskazania dla trzeciego sektora
- Włączanie się w debaty o regulacjach i standardach AI – np. poprzez udział w konsultacjach społecznych dokumentów takich jak „Założenia do ustawy o sztucznej inteligencji” przygotowanych przez Ministerstwo Cyfryzacji, czy strategii „Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2020–2027”. Obecnie prowadzone są m.in. konsultacje nad „Krajową Strategią Cyfryzacji” oraz standardami wykorzystania AI w administracji publicznej.
- Korzystanie z otwartych technologii – open source AI, takich jak: Bielik – polski model językowy, PLLuM – Polish Large Language Model, Uwazi, OpenAI for Nonprofits, Open source AI Projects, Common Voice czy llamafile, umożliwiają niezależną kontrolę i rozwiązania dostosowane do potrzeb trzeciego sektora.
- Tworzenie sojuszy – sektor akademicki, technologiczny i publiczny jest naturalnym partnerem NGO w dziedzinie AI.
- Budowanie kompetencji cyfrowych w swojej organizacji – AI nie można zostawić ekspertom. Potrzebne są szkolenia, edukacja i wewnętrzne polityka w zakresie odpowiedzialnego i etycznego wykorzystywania narzędzi cyfrowych.
- NGO jako strażnik zaufania publicznego – monitoring, audyt i edukacja. Społeczne zaufanie do AI musi opierać się na transparentności.
Odpowiedzialna AI nie powstanie bez organizacji, które rozumieją kontekst społeczny, potrzeby grup wrażliwych i mechanizmy nierówności. NGO nie są dodatkiem do transformacji cyfrowej – są jej współarchitektami. Budowa zaufania wymaga otwartości i współpracy trzeciego sektora.
Autor: Damian Wojciech Dudała