Choć generatywna AI budzi ekscytację jako narzędzie zwiększające produktywność, wiele organizacji non-profit wskazuje, że jej wdrożenie nie odpowiada na rzeczywiste przyczyny problemów sektora. Jak zauważa raport pn. „Grassroots and Non-profit Perspectives on Generative AI (…)” Joseph Rowntree Foundation, AI może pomagać w codziennej pracy, ale nie rozwiązuje problemu ograniczonych zasobów finansowych, przeciążenia usług czy systemowych barier strukturalnych (s. 6).
„Po początkowym entuzjazmie, coraz więcej organizacji uświadamia sobie, że AI nie generuje dodatkowych środków na działalność, a konkurencja o fundusze pozostaje taka sama” – zauważają autorzy raportu. Co więcej, ceny narzędzi mogą wzrosnąć, gdy staną się integralną częścią narzędzi biurowych i procesów organizacyjnych (s. 5).
Tymczasem realne problemy, z którymi mierzy się sektor pozarządowy, mają charakter głębszy: chroniczne niedofinansowanie, zmniejszające się darowizny, rosnące zapotrzebowanie na pomoc i brak kadr. Generatywna AI może chwilowo odciążyć zespoły, ale nie zapewni stabilności finansowej ani trwałych rozwiązań instytucjonalnych. 65% respondentów raportu uznało, że AI to tylko część rozwiązania, a nie jego całość (s. 7).
Warto również zauważyć, że łatwo dostępne narzędzia AI mogą pogłębiać presję konkurencyjności. Gdy wszyscy zaczną stosować AI do przygotowywania ofert, wniosków czy komunikacji, przewaga pierwszych użytkowników szybko znika. A procesy fundacyjne, zamiast być usprawnione, mogą stać się jeszcze bardziej przeciążone. W raporcie pada pytanie: czy jeśli AI przyspiesza zarówno pisanie, jak i ocenę wniosków, to czy naprawdę zyskujemy czas, czy po prostu zwielokrotniamy wysiłek? (s. 31)
Respondenci zauważyli też, że korzystanie z AI może doprowadzić do standaryzacji języka i formy wniosków, co może pozbawić organizacje unikalnego głosu. „To, co ma wyróżniać nasz głos, może zostać rozmyte przez schematyczne narzędzia” – zauważył jeden z uczestników badania (s. 30). Dla mniejszych organizacji, które bazują na autentycznym przekazie i lokalnym zaufaniu, może to być poważne zagrożenie.
Organizacje ryzykują też uzależnienie się od narzędzi, których działanie nie jest w pełni zrozumiane, a ich rozwój kontrolowany jest przez komercyjne podmioty. W dłuższej perspektywie może to ograniczyć niezależność sektora i wpływać na jego działania, zwłaszcza gdy warunki licencyjne lub ceny ulegną zmianie. Przykładem są zmiany warunków korzystania z popularnych narzędzi AI, które były bezpłatne, a następnie stawały się usługami premium – powodując konieczność przeszkolenia zespołu lub zmiany narzędzia (s. 42).
Zagrożenia wiążą się również z dominacją narracji tworzonych przez AI. Jak zauważa David Beer, profesor socjologii na Uniwersytecie w Yorku, AI może przekształcać strukturę władzy w społeczeństwie, a zatem NGO powinny zachować krytyczne podejście do narzędzi, które kształtują narracje, treści i decyzje. D. Beer w swoich badaniach analizuje, jak transformacje technologiczne i medialne przekształcają kulturę i społeczeństwo, koncentrując się na kwestiach władzy. Jego prace obejmują m.in. politykę danych i metryk, społeczną siłę algorytmów, napięcia związane z AI oraz dynamikę mediów społecznościowych.
W artykule „The social power of algorithms” Beer bada, jak algorytmy wpływają na społeczeństwo, podkreślając ich rolę w kształtowaniu codziennego życia i decyzji. Zwraca uwagę na to, że algorytmy nie są neutralnymi narzędziami, lecz mają zdolność do przekształcania struktur społecznych i relacji władzy, mają wpływ na to, co widzimy, jak działamy i co uważamy za prawdę.
W kontekście organizacji non-profit, Beer sugeruje, że przyjmowanie technologii AI bez krytycznej refleksji może prowadzić do niezamierzonych konsekwencji, takich jak utrata kontroli nad procesami decyzyjnymi czy pogłębienie istniejących nierówności. Organizacje powinny zatem zachować ostrożność i rozwijać własne kompetencje w zakresie technologii, aby uniknąć uzależnienia od komercyjnych dostawców i zapewnić, że ich działania pozostają zgodne z misją i wartościami.
W efekcie AI nie może być traktowana jako cudowne rozwiązanie dla sektora obywatelskiego czy panaceum na społecznie ważne problemy. Potrzebne są rozwiązania systemowe: stabilne finansowanie podstawowe, zmiany w polityce grantowej, wzmocnienie instytucji lokalnych i partnerstw sektorowych. AI może być narzędziem wspierającym, ale nie substytutem głębszej reformy. NGO powinny inwestować nie tylko w technologię, ale i w kompetencje, krytyczną refleksję oraz strategie długofalowe, które nie opierają się wyłącznie na nowościach cyfrowych, lecz na budowaniu trwałych fundamentów zmian.
O Raporcie
Raport „Grassroots and Non-profit Perspectives on Generative AI (…)” został opublikowany w lipcu 2024 r. przez Joseph Rowntree Foundation we współpracy z organizacją We and AI. Badania przeprowadzono wśród organizacji non-profit z Wielkiej Brytanii, reprezentujących różne sektory, w tym pomoc społeczną, edukację, prawa człowieka, działania ekologiczne i wsparcie dla uchodźców. Główną autorką raportu jest Yasmin Ibison, starsza doradczyni ds. polityki w JRF oraz: Gulsen Guler, Elizabeth Remfry, Ismael Kherroubi Garcia, Nicholas Barrow and Tania Duarte.
Metodologia
Ankietę wypełniło 51 różnych organizacji. Zawierała ona pytania dotyczące formalnego i nieformalnego wykorzystania generatywnej AI w organizacji, potencjalnych korzyści i obaw dotyczących generatywnej AI oraz świadomości i zaangażowania w szerszą debatę na temat AI. Następnie przeprowadzono trzy grupy dyskusyjne online, w których wzięli udział decydenci z organizacji, które wypełniły ankietę. W sumie wzięło w nich udział 16 osób z 15 różnych organizacji. Grupy dyskusyjne kierowały się serią pytań, aby dokładniej zbadać odpowiedzi z ankiety. Na koniec przeprowadzono dodatkowo 5 indywidualnych wywiadów online, aby zbadać i wyjaśnić ustalenia z ankiety i grup dyskusyjnych, a także dogłębniej przeanalizować niektóre tematy zidentyfikowane na podstawie wstępnych ustaleń.
Autor: Damian Wojciech Dudała