Anzeige

Anzeige

VERANSTALTUNGEN

Blockchain Summit
26.03.19 - 26.03.19
In Frankfurt, Kap Europa

ELO Solution Day München
27.03.19 - 27.03.19
In Messe München

Hannover Messe 2019
01.04.19 - 05.04.19
In Hannover

SMX München
02.04.19 - 03.04.19
In ICM – Internationales Congress Center München

ACMP Competence Days München
10.04.19 - 10.04.19
In Jochen Schweizer Arena GmbH, Taufkirchen bei München

Anzeige

Anzeige

Facebook

Facebook setzt im Kampf gegen Terror-Propaganda auf Künstliche Intelligenz (KI). Dem Konzern nach werden 99 Prozent der Postings, die mit Terrorgruppen wie dem Islamischen Staat (IS) oder Al-Qaida in Verbindung stehen, mithilfe von automatischen Technologien aufgespürt und gelöscht, noch bevor sie von Usern überhaupt gemeldet werden.

Die neue Methode soll nicht nur bei Texten funktionieren, sondern auch bei Bildern und Videos.

Software übernimmt Kontrolle

"Unsere Bemühungen, gegen extremistische Inhalte auf unserer Website vorzugehen, laufen nun wesentlich systematischer ab als in der Vergangenheit. Wir arbeiten hierfür mit verschiedenen Partnern zusammen und nutzen intern unterschiedliche Techníken", zitiert "BBC News" aus einem Facebook-Statement. Prinzipiell setze man zwar weiterhin auf einen Mix aus menschlichen Prüfern und Software. "Die primäre Kontrolle übernehmen aber zunehmend automatische Systeme", heißt es von Facebook.

Diese greifen dem Online-Netzwerk zufolge auf spezielle KI-Algorithmen zurück, um ungewolltes Propagandamaterial aufzuspüren. "Wir verwenden textbasiertes maschinelles Lernen, bei dem Software über Zeit beigebracht wird, selbst herauszufinden, ob bestimmte Postings ein Problem sein könnten oder nicht." Ähnlich funktioniere das auch mit Bild- und Videomaterial. Jedes Foto oder Video verfügt nämlich über einen eindeutigen "ditigalen Fingerabdruck", der, wenn er einmal als problematisch eingestuft wurde, sofort wiedererkannt werden kann. "So lassen sich betreffende Inhalte rasch löschen", betont Facebook.

KI jedoch noch nicht fehlerfrei

Facebooks KI-Sytem arbeitet aber noch nicht fehlerfrei. "Es braucht noch viele Jahre Entwicklungszeit, um diese automatische Kontrolle zu perfektionieren", räumt Monika Bickert, Facebooks Global Policy Chief, ein. Zum Beispiel konzentriert sich die Software derzeit nur auf den IS und Al-Qaida. "Wir haben diese Gruppen ausgewählt, weil sie global gesehen die größte Gefahr darstellen. Wenn wir auch andere Terrorgruppen miteinbeziehen wollen, ist das gar nicht so leicht, weil es sehr große sprachliche und stilistische Unterschiede in deren Propaganda geben kann", erläutert Bickert.

In Zukunft soll es dann mittels KI-Technik auch möglich sein, nicht nur Content auf der Seite zu kontrollieren, sondern auch das Verhalten zu analysieren und einzustufen, was hinter einzelnen Accounts steht. "Wir wissen aber, dass es ein Katz-und-Maus-Spiel ist. Diejenigen, die einen Vorteil aus der enormen Reichweite von Social-Media-Seiten ziehen wollen, werden alles dafür tun, um auch automatische Kontrollen zu umgehen", so die Facebook-Expertin abschließend.

www.pressetext.com
 

GRID LIST
Handschlag

Samsung und Fuze gehen strategische Partnerschaft ein

Fuze geht eine strategische Partnerschaft mit Samsung Electronics America ein. Die…
Oliver Krebs

Neuer Vice President EMEA bei Cherwell Software

Oliver Krebs ist neuer Vice President (VP) EMEA bei Cherwell Software. Seit Anfang Januar…
Tb W190 H80 Crop Int B01e48c2fd08b45f534604484c7a9179

BSI führt IT-Grundschutz-Testat nach Basis-Absicherung ein

Die Basis-Absicherung der eigenen IT-Systeme ist der erste wichtige Schritt zu einer…
Fake News

Apple investiert in Kampf gegen Fake News

Technologieriese Apple unterstützt im Kampf gegen Fake News im Internet drei…
Mann Lupe Code

E-Spionagegruppe OceanLotus greift gezielt Regierungsbehörden an

ESET-Forscher haben die neuesten Methoden der Spionagegruppe OceanLotus (auch bekannt als…
EU-Urheberrechtsrechtsreform

Upload-Filter sind pluralistischer Demokratie unwürdig

Die EU-Urheberrechtsrechtsreform steht kurz vor dem Abschluss. Am 26. März 2019 soll dazu…