Im Syrienkonflikt wollen Menschenrechtler mit Hilfe künstlicher Intelligenz Kriegsverbrechen und Menschenrechtsverstösse nachweisen.
Im Syrienkonflikt sollen mit Hilfe künstlicher Intelligenz Kriegsverbrechen aufgeklärt werden.
Im Syrienkonflikt sollen mit Hilfe künstlicher Intelligenz Kriegsverbrechen aufgeklärt werden. - dpa
Ad

Das Wichtigste in Kürze

  • Im Syrienkonflikt sollen mit Hilfe künstlicher Intelligenz Kriegsverbrechen nachgewiesen werden.
  • Die Software «VFrame» könne in Videos verdächtige Objekte identifizieren und sogenannte Metadaten auslesen.

Menschenrechtler wollen mit Hilfe künstlicher Intelligenz Kriegsverbrechen und Menschenrechtsverstösse im Syrienkonflikt nachweisen. Die Software namens «VFrame» könne in Videos verdächtige Objekte identifizieren und sogenannte Metadaten auslesen, die bei der Verifikation der Aufnahmen helfen, erklärte Hadi Katib, Gründer des «Syrian Archive». Die Einrichtung sammelt Videos und Bilder des Syrienkonflikts aus öffentlich zugänglichen Quellen wie sozialen Netzwerken sammelt und wertet sie aus. Die Organisation war auch an der Entwicklung des Programms beteiligt. Neben Strafverfolgungsbehörden sei das auch für Investigativjournalisten interessant, betonte der Mitentwickler Adam Harvey bei der Internetkonferenz re:publica Donnerstag.

Täglich landeten Hunderte privater Aufnahmen aus dem Krieg in sozialen Netzwerken, sagte Katib. Alle Aufnahmen einzeln nach Hinweisen auf Menschenrechtsverstösse zu sichten, sei aufgrund der Masse nicht mehr möglich.

Der zugrundeliegende Algorithmus werde unter anderem darauf trainiert, systematisch Munition auf Bildern zu erkennen, auch dann, wenn die abgebildete Munition verdreckt oder beschädigt sei. Auch bei der Verifikation von Aufnahmen helfe das Programm, erklärte Mitentwickler Adam Harvey. In Anwendungsbeispielen zeigten Katib und Harvey unter anderem Belege für den Einsatz von Streumunition durch das russische Militär sowie für Hunderte Einsätze chemischer Waffen im Syrienkonflikt.

Katib und Harvey warfen Plattformen wie Google und Youtube vor, bei dem Versuch, extremistische Inhalte zu löschen auch massenhaft Beweise für Menschenrechtsverstösse zu vernichten. Allein Google habe laut dem jüngsten Transparenzbericht zu diesem Zweck mehr als acht Millionen Videos gelöscht. Viele davon enthielten nachweislich keinen Extremismus, dafür aber Hinweise auf Menschenrechtsverstösse.

Ad
Ad

Mehr zum Thema:

GoogleYoutubeKünstliche Intelligenz