Generatywna sztuczna inteligencja z impetem wkroczyła do sektora non-profit, oferując obietnicę zwiększonej efektywności, oszczędności oraz lepszej dostępności usług. Jednakże wraz z szybkim tempem adopcji pojawiają się poważne pytania o etykę, wartości i zgodność technologii z misją organizacji działających dla dobra publicznego. Jak pogodzić presję ekonomiczną z wartościami? Czy narzędzia AI pomagają, czy zagrażają wiarygodności i integralności sektora pozarządowego, obywatelskiego?
Presja efektywności a wartości etyczne
Z Raportu pn. „Grassroots and non-profit perspectives on generative AI. Why and how do non-profit and grassroots organisations engage with generative AI tools, and the broader AI debate?” przygotowanego przez Joseph Rowntree Foundation i We and AI wynika, że 78% badanych organizacji non-profit korzysta z narzędzi generatywnej AI, a 71% robi to w celu poprawy efektywności pracy (s. 2). Co więcej, 47% organizacji wskazuje na oszczędności kosztów pracy jako główny powód wdrożenia AI. Cytat jednej z organizacji dosadnie ujmuje skalę zjawiska: „AI zastępuje co najmniej trzy osoby… etycznie i moralnie nie czuję się z tym dobrze, ale ze względu na brak wsparcia i finansowania dla organizacji charytatywnych, mam wybór: albo używam tego co jest, albo zamykam organizację” (s. 40).
Tego rodzaju wypowiedzi pokazują napięcie między wartościami a przetrwaniem. Presja finansowa może zmuszać do kompromisów, które w długim okresie mogą osłabić zaufanie do organizacji oraz ich zdolność do realizacji misji w zgodzie z zasadami etycznymi.
Intencje kontra działania – luka etyczna
Zjawisko to wpisuje się w szerszy problem tzw. luki intencji i działania (ang. intention-action gap), znanej m.in. z działań korporacji w obszarze zrównoważoneżgo rozwoju. Organizacje deklarują wartości, ale rzeczywiste praktyki bywają z nimi niespójne (s. 44). W raporcie zwraca się uwagę, że wiele NGO chce działać etycznie, ale brakuje im narzędzi i zasobów, by przekształcać zasady w konkretne procedury.
Jak zauważa jeden z uczestników grupy fokusowej: „To ogromne wyzwanie, gdy musisz zestawić ze sobą różne dylematy etyczne. Możesz powiedzieć: z jednej strony pomoże to większej liczbie osób, ale z drugiej strony pogłębi nierówności. Czy jesteśmy z tym ok?” (s. 45).
Niewidzialne koszty: środowisko i reprezentacja
AI, mimo że prezentowana jest jako narzędzie przyszłości, niesie ze sobą ukryte koszty. Organizacje ekologiczne, mimo świadomości śladów węglowych, zużycia wody i energii związanych z AI, często wciąż z niej korzystają. Jak podkreśla przedstawiciel jednej z nich: „Obawiamy się znacznego zwiększenia zużycia wody i energii związanego z centrami danych” (s. 41).
Dodatkowo problemem jest reprezentacja i uprzedzenia w danych trenujących AI. Jedna z organizacji wspierających uchodźców zauważa, że AI może generować obrazy i treści niezgodne z ich wartościami: „Jeśli wpiszę w Canvie 'handel ludźmi’, AI wygeneruje coś w stylu wojennym. My jesteśmy przeciwko takiemu obrazowaniu” (s. 40).
Zaufanie i przejrzystość
Zaufanie to fundament działalności organizacji społecznych. Tymczasem 70% organizacji „średnio” ufa generowanym przez AI treściom, a jedynie 15% ujawnia, że korzysta z AI (s. 4). Czy to znaczy, że używanie AI bez informowania o tym podważa autentyczność komunikacji?
W rzeczywistości wiele organizacji nie ujawnia korzystania z AI, gdy narzędzia są osadzone w powszechnie stosowanych platformach (np. edytorach tekstu czy mediach społecznościowych). Część uznaje, że to narzędzia pomocnicze, nie wymagające disclosure. Inni z kolei rezygnują z ujawniania, obawiając się, że ich odbiorcy mogliby zareagować negatywnie na wieść o stosowaniu AI, zwłaszcza gdy są to osoby starsze lub mniej zaznajomione z technologią (s. 55–56).
Równocześnie wiele organizacji kampanijnych czy rzeczniczych przywiązuje ogromną wagę do przejrzystości. Ich obawy dotyczyły sytuacji, w których brak ujawnienia generowania np. grafik czy treści może zaszkodzić reputacji i podważyć zaufanie do działalności (s. 58). Przykładem może być sytuacja, w której AI wygenerowało obrazek przedstawiający różnorodność w zespole organizacji, która w rzeczywistości takiej różnorodności nie miała. Tego rodzaju przypadki budzą pytania o granice autentyczności.
Jak wskazuje jedno ze źródeł zewnętrznych, organizacje pozarządowe są szczególnie narażone na utratę zaufania publicznego w razie percepcji manipulacji czy braku autentyczności (CharityComms, 2023). Dlatego też przejrzystość w stosowaniu AI powinna stać się podstawowym standardem.
Propozycje i rekomendacje
Raport zaleca opracowanie polityk AI nawet dla małych organizacji, stworzenie ról liderów AI oraz budowanie wspólnoty praktyki i wzajemnego wsparcia w sektorze (s. 60). Warto dodać, że instytucje europejskie rozwijają ramy regulacyjne, takie jak AI Act, które mogą w przyszłości wpłynąć na zasady stosowania AI również przez NGO (Parlament Europejski, 2024). Wzorcowe podejście pokazują też niektóre inicjatywy lokalne, np. brytyjski projekt „AI 4 Good” promujący szkolenia z zakresu etyki i odpowiedzialnego stosowania AI dla sektora publicznego i NGO (Nesta, 2023).
Wykorzystanie AI przez organizacje non-profit to zjawisko zarówno obiecujące, jak i pełne ryzyk. Kluczowe pytanie nie brzmi: „czy używać AI?”, lecz: „jak to robić etycznie, w sposób zgodny z misją, wartościami i odpowiedzialnością wobec społeczności?”. Aby odpowiedzieć na nie uczciwie, sektor społeczny potrzebuje więcej refleksji, edukacji i współpracy. I choć sztuczna inteligencja może pomagać, to wartości organizacji muszą pozostać… jak najbardziej ludzkie.
O Raporcie
Raport „Grassroots and Non-profit Perspectives on Generative AI (…)” został opublikowany w lipcu 2024 r. przez Joseph Rowntree Foundation we współpracy z organizacją We and AI. Badania przeprowadzono wśród organizacji non-profit z Wielkiej Brytanii, reprezentujących różne sektory, w tym pomoc społeczną, edukację, prawa człowieka, działania ekologiczne i wsparcie dla uchodźców. Główną autorką raportu jest Yasmin Ibison, starsza doradczyni ds. polityki w JRF oraz: Gulsen Guler, Elizabeth Remfry, Ismael Kherroubi Garcia, Nicholas Barrow and Tania Duarte.
Metodologia
Ankietę wypełniło 51 różnych organizacji. Zawierała ona pytania dotyczące formalnego i nieformalnego wykorzystania generatywnej AI w organizacji, potencjalnych korzyści i obaw dotyczących generatywnej AI oraz świadomości i zaangażowania w szerszą debatę na temat AI. Następnie przeprowadzono trzy grupy dyskusyjne online, w których wzięli udział decydenci z organizacji, które wypełniły ankietę. W sumie wzięło w nich udział 16 osób z 15 różnych organizacji. Grupy dyskusyjne kierowały się serią pytań, aby dokładniej zbadać odpowiedzi z ankiety. Na koniec przeprowadzono dodatkowo 5 indywidualnych wywiadów online, aby zbadać i wyjaśnić ustalenia z ankiety i grup dyskusyjnych, a także dogłębniej przeanalizować niektóre tematy zidentyfikowane na podstawie wstępnych ustaleń.
Autor: Damian Wojciech Dudała