Algorytmy Facebooka pomogą firmom internetowym wyszukiwać duplikaty filmów i zdjęć w celu zwalczania nieodpowiednich treści

Facebook ogłosił o otwarciu kod źródłowy dwóch algorytmów, zdolne do określenia stopnia identyczności zdjęć i filmów, nawet w przypadku wprowadzenia w nich niewielkich zmian. Sieć społecznościowa aktywnie wykorzystuje te algorytmy do zwalczania treści zawierających materiały związane z wykorzystywaniem dzieci, propagandą terrorystyczną i różnymi formami przemocy. Facebook zauważa, że ​​po raz pierwszy udostępnia taką technologię i firma ma nadzieję, że z jego pomocą inne duże portale i serwisy, małe studia programistyczne i organizacje non-profit będą mogły skuteczniej walczyć z rozprzestrzenianiem się nieodpowiednich mediów treści w sieci WWW.

Algorytmy Facebooka pomogą firmom internetowym wyszukiwać duplikaty filmów i zdjęć w celu zwalczania nieodpowiednich treści

„Kiedy znajdziemy nieodpowiednią treść, technologia może pomóc nam znaleźć wszystkie duplikaty i zapobiec ich rozprzestrzenianiu się” – napisali w poście poświęconym czwartej edycji Facebook Child, dyrektor ds. bezpieczeństwa Facebooka, Antigone Davis i wiceprezes ds. uczciwości Guy Rosen Hackaton Bezpieczeństwa. „W przypadku osób korzystających już z własnej lub innej technologii dopasowywania treści nasze technologie mogą zapewnić kolejną warstwę ochrony, czyniąc systemy bezpieczeństwa znacznie potężniejszymi”.

Facebook twierdzi, że dwa opublikowane algorytmy – PDQ i TMK+PDQ – zostały zaprojektowane do pracy z ogromnymi zbiorami danych i opierają się na istniejących modelach i implementacjach, w tym pHash, PhotoDNA Microsoftu, aHash i dHash. Na przykład algorytm dopasowywania zdjęć PDQ został zainspirowany pHash, ale został opracowany całkowicie od podstaw przez programistów Facebooka, natomiast algorytm dopasowywania wideo TMK+PDQF został stworzony wspólnie przez grupę badawczą Facebooka zajmującą się sztuczną inteligencją oraz naukowców z Uniwersytetu w Modenie i Reggio Emilia we Włoszech .

Obydwa algorytmy analizują szukane pliki, korzystając z krótkich cyfrowych skrótów – unikalnych identyfikatorów, które pomagają określić, czy dwa pliki są takie same, czy podobne, nawet bez oryginalnego obrazu lub filmu. Facebook zauważa, że ​​skróty te można łatwo udostępniać innym firmom i organizacjom non-profit, a także partnerom branżowym za pośrednictwem Globalnego internetowego forum na rzecz zwalczania terroryzmu (GIFCT), dzięki czemu wszystkie firmy zainteresowane bezpieczeństwem w Internecie będą mogły również usuwać treści oznaczone przez Facebooka za niebezpieczny, jeśli zostanie przesłany do ich usług.

Nastąpił rozwój PDQ i TMK+PDQ uwolnienie wspomnianego PhotoDNA 10 lat temu, próbując przez Microsoft zwalczać pornografię dziecięcą w Internecie. Niedawno firma Google uruchomiła także Content Safety API – platformę sztucznej inteligencji zaprojektowaną do identyfikowania w Internecie materiałów przedstawiających wykorzystywanie seksualne dzieci, aby zwiększyć skuteczność ludzkich moderatorów.

Z kolei dyrektor generalny Facebooka Mark Zuckerberg od dawna przekonuje, że sztuczna inteligencja w najbliższej przyszłości znacząco zmniejszy liczbę nadużyć popełnianych przez miliony pozbawionych skrupułów użytkowników Facebooka. I rzeczywiście, w opublikowanym w maju Raport dotyczący zgodności ze standardami społeczności Facebooka firma podała, że ​​sztuczna inteligencja i uczenie maszynowe pomogły znacząco zmniejszyć liczbę zabronionych treści publikowanych w sześciu z dziewięciu kategorii takich treści.



Źródło: 3dnews.ru

Dodaj komentarz