Drogi Facebooku, nie blokuj mnie bez powodu

Każdy, komu Facebook choć raz usunął konto albo post, wie, że nie jest łatwo skutecznie zakwestionować taką blokadę. Razem z ponad 70 organizacjami apelujemy w liście do Marka Zuckerberga o wprowadzenie przejrzystych zasad moderowania treści i skutecznych procedur odwoławczych dla użytkowników. Arbitralność działania firm internetowych w tym zakresie uważamy za jedno ze współczesnych zagrożeń dla swobody wypowiedzi.
Dlaczego Facebook mnie zablokował?
Jak pisaliśmy w tekście Kto czyści dla nas Internet (i dlaczego nadal jest tak brudno?), z FB znika to, co narusza Standardy społeczności, a więc m.in. treści propagujące nienawiść, zachęcające do przemocy, znieważające, drastyczne. Jednak ofiarą prywatnej cenzury padają też zdjęcia z reportaży wojennych, materiały dokumentujące brutalność policji i inne naruszenia praw człowieka czy relacje z protestów społecznych, ale też lżejsze treści, takie jak zdjęcia modelki plus size czy klasycznych dzieł artystów (Rubensa, Courbeta) portretujących nagie kobiety. Nie do końca wiadomo, dlaczego, według jakich kryteriów i zasad FB usuwa treści zamieszczane przez użytkowników. Brak przejrzystości tego procesu prowokuje z kolei zarzuty wobec firmy, że ta, podejmując decyzje, kieruje się określonymi sympatiami politycznymi czy światopoglądowymi, co zagraża pluralizmowi debaty publicznej prowadzonej w serwisie.
Nie chcemy takiego Facebooka, ponieważ wiemy już, że dziś to coś więcej niż usługa w sieci. To ważny kanał komunikacji międzyludzkiej, forum, na którym możemy wyrażać opinie i poglądy, oraz źródło, z którego pozyskujemy informacje. Jeśli firma ma tak istotny wpływ na to, jak współcześnie korzystamy z wolności słowa i innych praw człowieka, powinniśmy wymagać, aby je respektowała, i móc ją z tego rozliczyć. Więcej przejrzystości i społecznej kontroli nad procesem usuwania treści przez FB (i inne platformy) to ważny krok w tym kierunku. Docelowo chcielibyśmy, żeby decyzje te były poddane także zewnętrznej, niezależnej kontroli sądu.
Trzy postulaty
W liście do Marka Zuckerberga, który opracowały organizacje Article 19, Electronic Frontier Foundation, Center for Democracy and Technology i Ranking Digital Rights, sformułowano trzy główne postulaty. Domagamy się:
1) uzasadniania przez FB decyzji o zablokowaniu treści
- informacja, którą otrzymuje użytkownik o zablokowaniu postu czy konta, powinna zawierać wskazanie odpowiedniego punktu Standardów społeczności, który zdaniem firmy został naruszony;
- informacja taka powinna ponadto szczegółowo wskazywać zakwestionowaną treść oraz to, w jaki sposób została zidentyfikowana i poddane ocenie;
- użytkownik powinien otrzymać jednocześnie jasną informację na temat możliwości złożenia odwołania;
2) skutecznej procedury odwoławczej
- procedura odwoławcza powinna być łatwo dostępna i łatwa w użyciu;
- odwołanie powinno być rozpatrywane przez osoby, które nie były zaangażowane w podjęcie pierwotnej decyzji o zablokowaniu treści;
- zablokowany użytkownik powinien mieć możliwość, żeby przedstawić argumenty i dowody na swoją obronę, które zostaną uwzględnione w procedurze odwoławczej;
- odwołanie powinno być w miarę możliwości szybko rozpatrzone, a ostateczna decyzja zakomunikowana użytkownikowi;
- jakiekolwiek wyjątki od stosowania tak skonstruowanej procedury odwoławczej powinny być jasno określone i zgodne ze standardami praw człowieka;
- FB, we współpracy z innymi zainteresowanymi podmiotami, powinien stworzyć niezależne mechanizmy samoregulacyjne, które zagwarantują większą rozliczalność portali społecznościowych;
3) publikacji statystyk dotyczących blokowania na podstawie Standardów społeczności w ramach raportu przejrzystości
- FB powinien publikować szczegółowe informacje na temat kategorii treści podlegających restrykcjom (tekst, zdjęcie lub wideo, przemoc, nagość, naruszenia praw autorskich etc.) wraz ze statystykami dotyczącymi usuwanych treści w każdej ze wskazanych kategorii;
- publikowane informacje powinny obejmować także dane na temat liczby blokad zainicjowanych odpowiednio przez zgłoszenie innego użytkownika, „zaufanego zgłaszającego” (trusted flagger) czy nałożonych w wyniku korzystania z proaktywnych środków, takich jak automatyczne filtry;
- statystyki powinny uwzględniać liczbę pozytywnie rozpoznanych odwołań i innych sytuacji, w których niesłusznie doszło do zablokowania treści;
- wreszcie FB powinien informować o istniejących mechanizmach nadzoru nad decyzjami, od których nie złożono odwołania, i w przejrzysty sposób monitorować poziom popełnianych błędów w moderacji.
Dorota Głowacka
Polecamy:
Panoptykon: SIN versus Facebook