Fala nagłych i nieprzejrzystych blokad kont na Instagramie wywołała głębokie zaniepokojenie wśród europejskich organizacji LGBTQIA+, które domagają się od koncernu Meta natychmiastowych wyjaśnień.
W ciągu zaledwie kilku tygodni z platformy zniknęło ponad sto profili, przy czym skala zjawiska szczególnie dotkliwie uderzyła w podmioty z Holandii. Przedstawiciele amsterdamskich instytucji, takich jak The Queer Agenda, Club Church czy Tillatec, alarmują, że proces moderacji przypomina arbitralne czystki, pozbawione merytorycznego uzasadnienia i możliwości realnego dialogu z administratorem serwisu.
Sytuacja ta jest o tyle bezprecedensowa, że stanowi drugą falę masowych usunięć w krótkim odstępie czasu. Poszkodowani twórcy opisują proces jako chaotyczny i niesprawiedliwy – część z nich otrzymała jedynie zdawkowe komunikaty o rzekomym naruszeniu regulaminu, podczas gdy inni zostali odcięci od swoich społeczności bez słowa wyjaśnienia. Szczególnie jaskrawym przykładem jest sytuacja Micklina Korsuize, który wskazuje, że jego konto zostało zablokowane ponownie, mimo że po poprzednim zawieszeniu nie publikował żadnych nowych treści. Z kolei Caspar Pisters z Club Church podkreśla frustrację wynikającą z nagłej utraty tysięcy obserwujących na profilu, który był z mozołem odbudowywany po wcześniejszych problemach technicznych.
Eksperci z organizacji praw cyfrowych Bits of Freedom podkreślają, że działania Mety stoją w sprzeczności z elementarnymi standardami przejrzystości, do których gigant technologiczny jest zobowiązany. Choć przepisy powinny gwarantować użytkownikom prawo do odwołania i kontaktu z żywym operatorem, w rzeczywistości administratorzy odbijają się od ściany automatycznych komunikatów. Brak przejrzystości uderza w fundamenty działalności wielu podmiotów, dla których Instagram jest krytycznym narzędziem komunikacji. Przykładem jest Tillatec, który z dnia na dzień stracił dostęp do 40 000 odbiorców, co realnie paraliżuje jego funkcjonowanie.
Badacze analizujący cyfrową przestrzeń sugerują, że za tym zjawiskiem może stać wadliwy algorytm automatycznej moderacji lub zorganizowane kampanie masowych zgłoszeń, wymierzone celowo w grupy mniejszościowe. Systemy sztucznej inteligencji Mety mogą błędnie interpretować specyficzną dla tej społeczności estetykę lub język jako treści naruszające standardy. Mimo rosnącej presji ze strony organizacji pozarządowych i mediów, Meta dotychczas nie odniosła się do zarzutów, pozostawiając poszkodowane organizacje w próżni informacyjnej i bez narzędzi do odzyskania swojej cyfrowej tożsamości.

