/

Social Media

Zobacz inne nasze serwisy

Magazyn SOC TECH LAB

Czasopismo online o demokracji lokalnej, cyfrowej partycypacji obywatelskiej i civic tech.

Studio SOC TECH LAB

Usługi w zakresie projektowania i wdrażania stron internetowych, projektowania aplikacji mobilnych , audytu dostepności cyfrowej oraz badań UX.

Algorytmy coraz głębiej wnikają w funkcjonowanie organizacji pozarządowych – od planowania kampanii po podejmowanie decyzji o alokacji środków i analizie danych społecznych. W artykule „The Social Power of Algorithms” David Beer (2016) ukazuje, że algorytmy nie są tylko narzędziami, lecz elementami porządku społecznego, kulturowego i politycznego. Niniejszy tekst adaptuje jego tezy na grunt organizacji pozarządowych, konfrontując je z realiami trzeciego sektora.

David Beer jest profesorem socjologii na Uniwersytecie w Yorku (UK). W swoich badaniach analizuje, jak transformacje technologiczne i medialne przekształcają kulturę i społeczeństwo, koncentrując się na kwestiach władzy. Jego prace obejmują m.in. politykę danych i metryk, społeczną siłę algorytmów, napięcia związane z AI oraz dynamikę mediów społecznościowych.

Algorytmy jako ukryci partnerzy działań NGO
Organizacje pozarządowe coraz częściej korzystają z narzędzi AI do analizy danych beneficjentów, planowania komunikacji, tworzenia treści czy monitorowania efektów projektów. Tym samym algorytmy stają się współtwórcami decyzji, które mają realny wpływ na ludzi.
D. Beer wskazuje, że musimy analizować algorytmy nie tylko jako linie kodu, ale jako „aktorów społecznych”. NGO nie mogą traktować ich jak neutralnych narzędzi, lecz powinny refleksyjnie podchodzić do ich roli w kształtowaniu rzeczywistości społecznej.

NGO w „społeczeństwie czarnej skrzynki”
D. Beer odwołuje się do koncepcji „black box society” Pasquale’a (2015) – „świata, w którym decyzje są delegowane do nieprzejrzystych systemów”. NGO często korzystają z platform typu Google Workspace + Gemini, Meta, Microsoft 365 Copilot, Canva czy systemów CRM z wbudowaną AI, nie mając wpływu na ich logikę działania.
To budzi ważne pytania o przejrzystość: czy organizacja wie, skąd pochodzą dane, na których opiera na przykład targetowanie w marketingu albo na jakiej podstawie algorytm decyduje, które osoby zobaczą jej kampanię społeczną w mediach społecznościowych? Czy chatbot, z którego korzysta NGO, nie powiela stereotypów, uprzedzeń kulturowych obecnych w modelach AI? Organizacje działające na rzecz równości powinny szczególnie uważać, by technologie nie wykluczały nikogo w ukryty sposób.

Algorytmy a tworzenie tzw. „prawd społecznych”
W logice grantodawców, darczyńców i opinii publicznej dominują dane. AI jest narzędziem nie tylko raportowania, ale i tworzenia „dowodów” efektywności działań. Jak zauważa D. Beer, algorytmy mają moc „produkowania prawd” – tego, co uznajemy za rzeczywiste, mierzalne i warte finansowania.
Tymczasem wiele ważnych aspektów pracy NGO (np. empatia, relacje, zaufanie) wymyka się algorytmicznej kalkulacji. Jeśli AI decyduje, który projekt uznać za skuteczny, to może wykluczać działania o długofalowym i trudnym do zmierzenia efekcie. NGO muszą zatem dbać o narracje, które nie dadzą się zredukować tylko do danych.

Algorytmy i emocje w kontaktach z beneficjentami
Systemy automatyzujące komunikację (chatboty, autorespondery) mogą poprawiać dostępność, ale też pogarszać jakość kontaktu z osobami w kryzysie. D. Beer, powołując się na badania Tainy Bucher, pokazuje jak algorytmy wpływają na emocje i poczucie bycia zauważonym.

Taina Bucher, w swoim artykule „The algorithmic imaginary: exploring the ordinary affects of Facebook algorithms” (2017), bada, jak użytkownicy mediów społecznościowych doświadczają i interpretują działanie algorytmów, zwłaszcza w kontekście emocji i poczucia bycia zauważonym. Wprowadzając pojęcie „wyobraźni algorytmicznej” (algorithmic imaginary), T. Bucher opisuje, jak ludzie tworzą własne wyobrażenia na temat działania algorytmów, co wpływa na ich codzienne interakcje z platformami cyfrowymi.  

Badania T. Bucher pokazują, że użytkownicy często przypisują algorytmom intencje i emocje, co wpływa na ich własne odczucia i zachowania. Na przykład, gdy posty nie są widoczne dla znajomych, użytkownicy mogą odczuwać frustrację, smutek czy poczucie odrzucenia, mimo że decyzje o widoczności treści są podejmowane przez algorytmy na podstawie złożonych kryteriów. Takie doświadczenia pokazują, że algorytmy nie tylko organizują treści, ale także wpływają na emocjonalne aspekty interakcji społecznych online.

W nawiązaniu do tego, D. Beer podkreśla, że algorytmy mają zdolność kształtowania nie tylko informacji, ale także emocji i relacji społecznych. Algorytmy wpływają na to, co użytkownicy widzą, z kim się komunikują i jakie treści są dla nich dostępne, co ma bezpośredni wpływ na ich codzienne doświadczenia i samopoczucie.

Dla NGO oznacza to konieczność projektowania AI z empatią. Automatyczne odpowiedzi muszą brać pod uwagę wrażliwość grup docelowych. Zrozumienie tych mechanizmów jest kluczowe, zwłaszcza gdy korzystają one z narzędzi cyfrowych na przykład do komunikacji i angażowania społeczności. Świadomość, że algorytmy mogą wpływać na emocje odbiorców, pomaga NGO w tworzeniu bardziej empatycznych i skutecznych strategii komunikacyjnych.

Algorytmiczne sortowanie dostępu do pomocy
Wiele NGO używa formularzy online, oceny potrzeb, automatycznego przydziału zasobów. Choć usprawnia to działanie, może prowadzić do różnego rodzaju wykluczeń. D. Beer wskazuje, że algorytmy porządkują ludzi według zdefiniowanych norm. Czy osoba z nieoczywistym problemem znajdzie się w kategorii „warta pomocy”? Czy osoby cyfrowo wykluczone zostaną dostrzeżone? NGO muszą aktywnie przeciwdziałać powielaniu nierówności przez automatyczne systemy kwalifikacji.

Algorytm jako mit racjonalności i efektywności
D. Beer ostrzega przed fetyszyzacją algorytmu. W sektorze NGO, gdzie każdy grant wymaga „innowacyjności” i „mierzalności”, algorytmy stają się symbolem nowoczesnego zarządzania. Tymczasem mogą one ukrywać redukcję złożoności problemów społecznych.
Na przykład, wprowadzenie elektronicznego systemu obsługi wniosków o świadczenia rodzinne, takie jak 800+, przyspieszyło procesy administracyjne, ale jednocześnie ograniczyło bezpośredni kontakt z urzędnikami. To może prowadzić do sytuacji, w których osoby potrzebujące dodatkowego wsparcia lub wyjaśnień napotykają trudności w uzyskaniu pomocy.

Rekomendacje dla NGO
Na podstawie tekstu D. Beera i aktualnych badań, można wskazać kilka postulatów:

  1. Polityka AI – Każda organizacja powinna opracować dokument regulujący zasady stosowania AI, ze szczególnym uwzględnieniem etyki, transparentnościi i odpowiedzialności.
  2. Edukacja – NGO powinny inwestować w kompetencje cyfrowe i krytyczne myślenie nt. technologii przede wszystkim wśród swoich zespołów, a także interesariuszy.
  3. Audyt narzędzi – Należy analizować, jakie modele AI są wykorzystywane i jakie dane je trenują.
  4. Współpraca – Tworzenie koalicji NGO na rzecz partycypacyjnej i odpowiedzialnej transformacji cyfrowej.
  5. Partnerstwa z sektorem IT – NGO powinny aktywnie poszukiwać partnerstw z sektorem IT – firmami technologicznymi i ekspertami, by wspólnie projektować rozwiązania zgodne z wartościami sektora społecznego, a jednocześnie bezpieczne, otwarte i dostępne. Takie partnerstwa pomagają też lepiej zrozumieć, jak działaja algorytmy,  sztuczna inteligencja i jak używać jej odpowiedzialnie. Dobrym przykładem jest tu ekosystem Tech To The Rescue.

Organizacje pozarządowe nie mogą traktować algorytmów jako neutralnych narzędzi. Jak pokazuje David Beer, są one elementem porządku społecznego – tworzą normy, wykluczenia, prawdy. Jeśli NGO chcą pozostać wierne swoim wartościom, muszą podejść do AI nie z entuzjazmem technologicznym, lecz z krytyczną troską. Algorytmy mogą wspierać zmianę społeczną – ale tylko wtedy, gdy są projektowane i stosowane etycznie.

Autor: Damian Wojciech Dudała