KI hilft Facebook dabei, bis zu 96,8 % der verbotenen Inhalte zu erkennen und zu entfernen

Gestern Facebook опубликовала ein weiterer Bericht über die Sicherstellung der Einhaltung der Community-Standards sozialer Netzwerke. Das Unternehmen stellt Daten und Indikatoren für den Zeitraum Januar bis März bereit und legt besonderes Augenmerk auf die Gesamtmenge der verbotenen Inhalte, die auf Facebook landen, sowie auf den Prozentsatz davon, den das soziale Netzwerk zum Zeitpunkt der Veröffentlichung erfolgreich oder zumindest entfernt hat bevor es ein zufälliger Benutzer eines sozialen Netzwerks sehen konnte. Facebook weist auf die besondere Rolle der künstlichen Intelligenz (KI) hin, ohne die das Unternehmen einfach nicht in der Lage gewesen wäre, so wahnsinnig viele Inhalte zu filtern.

KI hilft Facebook dabei, bis zu 96,8 % der verbotenen Inhalte zu erkennen und zu entfernen

Laut Facebook haben künstliche Intelligenz und maschinelles Lernen dazu beigetragen, die Menge verbotener Inhalte im sozialen Netzwerk deutlich zu reduzieren. In sechs der neun im Bericht erfassten Kategorien konnte das Unternehmen laut eigenen Angaben mithilfe von KI 96,8 % der unangemessenen Beiträge proaktiv erkennen und entfernen, bevor ein Mensch sie bemerken konnte (im Vergleich zu 96,2 % im 4. Quartal 2018). In Bezug auf Hassreden stellte der Bericht fest, dass KI dazu beigetragen hat, 65 % der mehr als vier Millionen solcher Beiträge zu identifizieren, die jedes Quartal von Facebook entfernt wurden, gegenüber 24 % vor etwas mehr als einem Jahr und 59 % im vierten Quartal 4.

Facebook verwendet KI auch, um Beiträge, persönliche Anzeigen, Fotos und Videos zu identifizieren, die gegen seine Regeln zur Werbung und zum Verkauf verbotener Artikel wie Drogen und Schusswaffen verstoßen. Im ersten Quartal 2019 gab das Unternehmen bekannt, dass es Maßnahmen gegen etwa 900 Beiträge im Zusammenhang mit Arzneimittelverkäufen ergriffen habe, von denen 000 % mithilfe künstlicher Intelligenz erkannt wurden. Im gleichen Zeitraum identifizierte und entfernte Facebook außerdem etwa 83,3 Beiträge zum Thema Schusswaffenverkäufe, von denen 670 % verarbeitet wurden, bevor Moderatoren oder Benutzer auf sie stoßen konnten.

Verschiedene Verbesserungen der Algorithmen der künstlichen Intelligenz haben dazu geführt, dass die Gesamtmenge der auf Facebook angezeigten verbotenen Inhalte zurückgegangen ist. Das Unternehmen schätzt, dass pro 10 Besuche des sozialen Netzwerks nur 000 bis 11 Nutzer auf pornografische Inhalte stießen und nur 14 Beiträge mit Grausamkeit und Gewalt bemerkten. Wenn es um Terrorismus, Nacktheit von Kindern und sexuelle Ausbeutung geht, sind die Zahlen sogar noch geringer. Facebook berichtet, dass im ersten Quartal 25 von 1 Aufrufen des sozialen Netzwerks weniger als drei auf ähnliche Inhalte entfielen.

„Durch die proaktive Überwachung missbräuchlicher Beiträge kann sich unser Team mit dieser Technologie darauf konzentrieren, Trends zu erkennen, wie Täter versuchen, unsere Beschränkungen zu umgehen“, schrieb Guy Rosen, Facebooks Vizepräsident für Inhaltssicherheit, in einem Blogbeitrag. „Wir investieren weiterhin in Technologie, um unsere Fähigkeit zu erweitern, unangemessene Inhalte in verschiedenen Sprachen und Regionen zu erkennen.“

Ein weiterer Bereich, in dem Facebook künstliche Intelligenz einsetzt, sind Spam-Konten. Auf der jährlichen F8-Entwicklerkonferenz des Unternehmens in San Francisco sagte Mike Schroepfe, Chief Technology Officer des Unternehmens, dass Facebook in einem einzigen Quartal mehr als eine Milliarde Spam-Konten, mehr als 700 Millionen Fake-Konten und zig Millionen Inhalte mit Nacktheit blockiert und Gewalt. Ihm zufolge ist KI in diesen Kategorien die Hauptquelle für Erkennung und Gegenmaßnahmen. Konkrete Zahlen zeigen, dass Facebook im vierten Quartal 1,2 4 Milliarden Konten und im ersten Quartal 2018 2,19 Milliarden Konten gesperrt hat.



Source: 3dnews.ru

Kommentar hinzufügen