Facebook-Algorithmen werden Internetunternehmen dabei helfen, nach doppelten Videos und Bildern zu suchen, um unangemessene Inhalte zu bekämpfen

Facebook kündigte die über das Öffnen Quellcode zweier Algorithmen, das in der Lage ist, den Grad der Identität von Fotos und Videos zu bestimmen, selbst wenn daran geringfügige Änderungen vorgenommen werden. Das soziale Netzwerk nutzt diese Algorithmen aktiv zur Bekämpfung von Inhalten, die Materialien im Zusammenhang mit der Ausbeutung von Kindern, terroristischer Propaganda und verschiedenen Formen von Gewalt enthalten. Facebook weist darauf hin, dass dies das erste Mal ist, dass eine solche Technologie geteilt wird, und das Unternehmen hofft, dass mit seiner Hilfe andere große Portale und Dienste, kleine Softwareentwicklungsstudios und gemeinnützige Organisationen die Verbreitung unangemessener Medien wirksamer bekämpfen können Inhalte im World Wide Web.

Facebook-Algorithmen werden Internetunternehmen dabei helfen, nach doppelten Videos und Bildern zu suchen, um unangemessene Inhalte zu bekämpfen

„Wenn wir einen unangemessenen Inhalt finden, kann uns die Technologie helfen, alle Duplikate zu finden und ihre Verbreitung zu verhindern“, schrieben Antigone Davis, Chief Security Officer von Facebook, und Guy Rosen, Vice President of Integrity, in dem Beitrag, der dem vierten jährlichen Facebook Child gewidmet ist Sicherheits-Hackathon. „Für diejenigen, die bereits ihre eigene oder andere Content-Matching-Technologie verwenden, können unsere Technologien eine weitere Schutzebene bieten und Sicherheitssysteme deutlich leistungsfähiger machen.“

Facebook behauptet, dass die beiden veröffentlichten Algorithmen – PDQ und TMK+PDQ – für die Arbeit mit großen Datenmengen konzipiert wurden und auf bestehenden Modellen und Implementierungen basieren, darunter pHash, Microsofts PhotoDNA, aHash und dHash. Beispielsweise wurde der Foto-Matching-Algorithmus PDQ von pHash inspiriert, aber von Facebook-Entwicklern komplett neu entwickelt, während der Video-Matching-Algorithmus TMK+PDQF gemeinsam von Facebooks Forschungsgruppe für künstliche Intelligenz und Wissenschaftlern der Universitäten Modena und Reggio Emilia in Italien entwickelt wurde .

Beide Algorithmen analysieren die gesuchten Dateien mithilfe kurzer digitaler Hashes, eindeutiger Kennungen, die dabei helfen, festzustellen, ob zwei Dateien gleich oder ähnlich sind, auch ohne das Originalbild oder -video. Facebook weist darauf hin, dass diese Hashes über das Global Internet Forum to Counter Terrorism (GIFCT) problemlos mit anderen Unternehmen und gemeinnützigen Organisationen sowie Industriepartnern geteilt werden können, so dass alle an Online-Sicherheit interessierten Unternehmen auch Inhalte entfernen können, die Facebook enthält wurde als unsicher gekennzeichnet. wenn es auf ihre Dienste hochgeladen wird.

Es folgte die Entwicklung von PDQ und TMK+PDQ Veröffentlichung der oben genannten PhotoDNA Vor 10 Jahren in einem Versuch von Microsoft, Kinderpornografie im Internet zu bekämpfen. Google hat außerdem kürzlich die Content Safety API eingeführt, eine Plattform für künstliche Intelligenz, die Online-Materialien zum sexuellen Missbrauch von Kindern identifizieren soll, um menschliche Moderatoren effektiver zu machen.

Facebook-Chef Mark Zuckerberg wiederum argumentiert seit langem, dass KI in naher Zukunft den Missbrauch durch Millionen skrupelloser Facebook-Nutzer deutlich reduzieren wird. Und tatsächlich, im Mai veröffentlicht Bericht zur Einhaltung der Facebook-Community-Standards Das Unternehmen berichtete, dass KI und maschinelles Lernen dazu beigetragen haben, die Anzahl verbotener Inhalte, die in sechs von neun Kategorien solcher Inhalte veröffentlicht wurden, deutlich zu reduzieren.



Source: 3dnews.ru

Kommentar hinzufügen