Sztuczna inteligencja pomaga Facebookowi wykryć i usunąć aż 96,8% zakazanych treści

Wczoraj na Facebooku опубликовала kolejny raport dotyczący zapewnienia zgodności ze standardami społecznościowymi. Firma udostępnia dane i wskaźniki za okres od stycznia do marca, ze szczególnym uwzględnieniem całkowitego wolumenu zabronionych treści, które trafiają na Facebooka, a także ich procentu, który portal społecznościowy skutecznie usunął na etapie publikacji lub przynajmniej zanim można było zobaczyć przypadkowego użytkownika sieci społecznościowej. Facebook zwraca uwagę na szczególną rolę sztucznej inteligencji (AI), bez której firma po prostu nie byłaby w stanie przefiltrować tak szalonej ilości treści.

Sztuczna inteligencja pomaga Facebookowi wykryć i usunąć aż 96,8% zakazanych treści

Według Facebooka sztuczna inteligencja i uczenie maszynowe pomogły znacząco zmniejszyć ilość zabronionych treści w serwisie społecznościowym. W sześciu z dziewięciu kategorii uwzględnionych w raporcie firma twierdzi, że dzięki sztucznej inteligencji była w stanie proaktywnie wykryć 96,8% nieodpowiednich postów i usunąć je, zanim ktokolwiek zdążył je zauważyć (w porównaniu z 96,2% w czwartym kwartale 4 r.). Jeśli chodzi o mowę nienawiści, z raportu wynika, że ​​sztuczna inteligencja pomogła zidentyfikować 2018% z ponad czterech milionów takich postów usuwanych z Facebooka co kwartał, w porównaniu z 65% nieco ponad rok temu i 24% w czwartym kwartale 59 r.

Facebook wykorzystuje sztuczną inteligencję również do identyfikowania postów, reklam osobistych, zdjęć i filmów, które naruszają zasady dotyczące reklamowania i sprzedaży przedmiotów zabronionych, takich jak narkotyki i broń palna. W pierwszym kwartale 2019 roku firma podała, że ​​podjęła działania w związku z około 900 000 postów związanych ze sprzedażą leków, z czego 83,3% zostało wykrytych za pomocą sztucznej inteligencji. W tym samym okresie Facebook zidentyfikował i usunął także około 670 000 postów dotyczących sprzedaży broni palnej, z czego 69,9% zostało przetworzonych, zanim moderatorzy lub użytkownicy mogli się z nimi spotkać.

Różne ulepszenia algorytmów sztucznej inteligencji doprowadziły do ​​zmniejszenia ogólnej liczby zabronionych treści wyświetlanych na Facebooku. Firma szacuje, że na każde 10 000 odwiedzin portalu społecznościowego tylko 11–14 użytkowników zetknęło się z treściami pornograficznymi, a tylko 25 mogło zauważyć posty zawierające okrucieństwo i przemoc. Jeśli chodzi o terroryzm, nagość dzieci i wykorzystywanie seksualne, liczby te są jeszcze niższe. Facebook podaje, że w pierwszym kwartale 1 roku na każde 2019 tys. wyświetleń w serwisie społecznościowym mniej niż trzy dotyczyły podobnych treści.

„Dzięki proaktywnemu monitorowaniu obraźliwych postów technologia ta pozwala naszemu zespołowi skoncentrować się na identyfikowaniu trendów w tym, jak sprawcy próbują obejść nasze ograniczenia” – napisał w poście na blogu Guy Rosen, wiceprezes Facebooka ds. bezpieczeństwa treści. „Nadal inwestujemy w technologię, aby zwiększyć naszą zdolność wykrywania nieodpowiednich treści w różnych językach i regionach”.

Kolejnym obszarem, w którym Facebook wykorzystuje sztuczną inteligencję, są konta spamowe. Na corocznej konferencji programistów F8 w San Francisco dyrektor ds. technologii firmy Mike Schroepfe powiedział, że w ciągu jednego kwartału Facebook blokuje ponad miliard kont spamowych, ponad 700 milionów fałszywych kont i dziesiątki milionów treści zawierających nagość i przemoc. Według niego sztuczna inteligencja jest głównym źródłem wykrywania i przeciwdziałania w tych kategoriach. Jeśli chodzi o twarde liczby, Facebook zawiesił 1,2 miliarda kont w czwartym kwartale 4 r. i 2018 miliarda w pierwszym kwartale 2,19 r.



Źródło: 3dnews.ru

Dodaj komentarz