Site icon Bizrun.pl

Niektóre firmy uciekają z Facebooka

13 marek wycofało reklamy z Facebooka po ujawnieniu problemów z mechanizmem usuwania obraźliwych słów i negatywnych treści.

Zespół odpowiedzialny za bezpieczeństwo treści w Facebooku opublikował post na swoim blogu przyznający, że mechanizm usuwania obraźliwych treści (werbalne przekazy dot. nienawiści do kobiet czy mniejszości seksualnych), nadal nie działa poprawnie.

Następnego dnia brytyjska edycja MediaWeek podała, że 13 marek wycofało swoje reklamy z Facebooka, aby nie pojawiać się obok negatywnych treści. Wśród tych, którzy zrezygnowali z reklamowej obecności w najpopularniejszym portalu społecznościowym, znalazł się Nissan. Rzecznik Nissana w Ameryce Północnej podkreślił, że wycofane zostały reklamy jedynie z brytyjskiej części Facebooka.

Faktem pozostaje jednak, że duże, szanujące się i dbające o wizerunek firmy nie chcą, aby reklamy ich produktów pojawiały się w kontekście obraźliwych komentarzy, mimo że sami reklamodawcy nie mają z nimi nic wspólnego. Kontekst pozostaje negatywny.

Pracownicy Facebooka w poście opublikowanym na swoim blogu przyznają:
„Pracujemy od kilku miesięcy nad ulepszeniem systemu reakcji na zgłoszenia nadużyć, ale wytyczne używane w systemie moderacji nadal nie wyłapują wszystkich negatywnych treści. Musimy zrobić to lepiej – i zrobimy.”

Wypowiedzi pracowników Facebooka to reakcja na list otwarty wystosowany w zeszłym tygodniu przez Women, Action & the Media – grupę, która wezwała firmę do skuteczniejszego reagowania na treści, które trywializują lub gloryfikują przemoc wobec dziewcząt i kobiet. Grupa zachęcała również użytkowników Facebooka do kontaktowania się z firmami, których reklamy pojawiają się obok tego typu negatywnych treści.

Dlaczego Facebook ma problem z mechanizmem usuwania niecenzuralnych wpisów?

– Aby usunąć mowę nienawiści, czy jakiekolwiek inne niepożądane treści, należy po pierwsze liczyć na raportowanie takich stron przez użytkowników i potem ręczną weryfikację przez moderatorów, a po drugie oprzeć się na zaawansowanym systemie automatycznie weryfikującym treści – wyjaśnia Krzysztof Kicior-Rychlicki z Makimo Systems, firmy zajmującej się inteligentnymi systemami tłumaczeń treści.

– Moderatorzy, to rozwiązanie bardzo drogie, zważywszy na ilość wpisów publikowanych na całym świecie i potrzebę szybkiej reakcji na zmiany. Dodatkowo, zarówno Facebook jak i Google często korzystają z nisko płatnych usług off-shore, przez co ich jakość jest wątpliwa. Globalnie to olbrzymia operacja obejmująca tysiące moderatorów – tłumaczy Kicior-Rychlicki.

Najlepszym rozwiązaniem byłaby automatyzacja procesu i zlecenie pracy robotom i komputerom, które podążają za algorytmem wykrywania słów negatywnych. Tego jednak zrobić się nie da.

– Problem w tym, że wykrywanie mowy nienawiści, czy to skierowanej na płeć, religię, czy cokolwiek innego, nie może być zrealizowane tylko na podstawie np. filtrowania tekstów wg określonych słów. Często liczy się kontekst – słowa same z siebie nie są wulgarne, czy też obraźliwe, ale połączone ze sobą dają taki właśnie przekaz – tłumaczy specjalista z Makimo Systems.

Komputer nie rozumie metafor czy odniesień do rozmaitych aspektów kulturowych, które ludzie chwytają w mig.

Fot. Getty Images


Exit mobile version