AI helpt Facebook om tot 96,8% van de verboden inhoud te detecteren en te verwijderen

Gisteren Facebook опубликовала nog een rapport over het waarborgen van de naleving van de normen van de sociale netwerkgemeenschap. Het bedrijf levert gegevens en indicatoren voor de periode januari tot en met maart en besteedt bijzondere aandacht aan de totale hoeveelheid verboden inhoud die op Facebook terechtkomt, evenals het percentage daarvan dat het sociale netwerk met succes heeft verwijderd in de publicatiefase of op zijn minst voordat het een willekeurige sociale netwerkgebruiker kon zien. Facebook wijst op de bijzondere rol van kunstmatige intelligentie (AI), zonder welke het bedrijf simpelweg niet zo’n waanzinnige hoeveelheid content had kunnen filteren.

AI helpt Facebook om tot 96,8% van de verboden inhoud te detecteren en te verwijderen

Volgens Facebook hebben kunstmatige intelligentie en machinaal leren ertoe bijgedragen dat de hoeveelheid verboden inhoud op het sociale netwerk aanzienlijk is teruggedrongen. In zes van de negen categorieën die in het rapport worden gevolgd, zegt het bedrijf dat het met behulp van AI 96,8% van de ongepaste berichten proactief kon detecteren en verwijderen voordat enig mens ze kon opmerken (vergeleken met 96,2% in het 4e kwartaal van 2018). Als het om haatzaaiende uitlatingen gaat, blijkt uit het rapport dat AI heeft geholpen bij het identificeren van 65% van de ruim vier miljoen van dergelijke berichten die elk kwartaal van Facebook worden verwijderd, vergeleken met 24% iets meer dan een jaar geleden en 59% in het vierde kwartaal van 4.

Facebook gebruikt ook AI om berichten, persoonlijke advertenties, foto's en video's te identificeren die de regels voor het adverteren en verkopen van verboden artikelen zoals drugs en vuurwapens schenden. In het eerste kwartaal van 2019 zei het bedrijf actie te hebben ondernomen op ongeveer 900 berichten over de verkoop van medicijnen, waarvan 000% werd gedetecteerd met behulp van kunstmatige intelligentie. In dezelfde periode heeft Facebook ook ongeveer 83,3 berichten over de verkoop van vuurwapens geïdentificeerd en verwijderd, waarvan 670% werd verwerkt voordat moderators of gebruikers ze konden tegenkomen.

Verschillende verbeteringen in de algoritmen voor kunstmatige intelligentie hebben geleid tot een afname van het totale aantal verboden inhoud dat op Facebook wordt bekeken. Het bedrijf schat dat voor elke 10 bezoeken aan het sociale netwerk slechts 000 tot 11 gebruikers pornografische inhoud tegenkwamen, en dat slechts 14 berichten berichten konden opmerken die wreedheid en geweld bevatten. Als het gaat om terrorisme, kindernaaktheid en seksuele uitbuiting zijn de cijfers zelfs nog lager. Facebook meldt dat in het eerste kwartaal van 25 van elke 1 views op het sociale netwerk er minder dan drie voor vergelijkbare inhoud waren.

“Door proactief toezicht te houden op beledigende berichten, stelt deze technologie ons team in staat zich te concentreren op het identificeren van trends in de manier waarop misbruikers onze beperkingen proberen te omzeilen”, schreef Guy Rosen, vice-president voor inhoudveiligheid van Facebook, in een blogpost. “We blijven investeren in technologie om ons vermogen om ongepaste inhoud in verschillende talen en regio’s te detecteren, uit te breiden.”

Een ander gebied waarop Facebook kunstmatige intelligentie gebruikt, zijn spamaccounts. Op de jaarlijkse F8-ontwikkelaarsconferentie van het bedrijf in San Francisco zei Mike Schroepfe, Chief Technology Officer van het bedrijf, dat Facebook in één kwartaal meer dan een miljard spamaccounts, meer dan 700 miljoen nepaccounts en tientallen miljoenen stukjes inhoud die naaktheid bevatten, blokkeert. en geweld. Volgens hem is AI de belangrijkste bron van detectie en tegenreactie in deze categorieën. In termen van harde cijfers heeft Facebook 1,2 miljard accounts opgeschort in het vierde kwartaal van 4 en 2018 miljard in het eerste kwartaal van 2,19.



Bron: 3dnews.ru

Voeg een reactie