Webseitenbetreiber haben ein natürliches Interesse daran, dass Besucher möglichst lange auf ihrer Seite verweilen. Oftmals wird daher unter oder neben dem eigentlichen Content noch auf ähnliche Inhalte verwiesen. Dies ist beispielsweise auch bei diesem Artikel hier der Fall. Die dort stehenden weiteren Artikel werden automatisiert ausgesucht und präsentiert. Bei Facebook ist genau dies nun aber zum Problem geworden. Wer sich auf den Seiten des sozialen Netzwerks ein Video anschaut, wird anschließend gefragt, ob er noch weitere Videos mit ähnlichen Inhalten anschauen möchte. Hierbei kommt ein spezieller Algorithmus zum Einsatz, der den Inhalt des Videos erfassen soll. Bei einem Video der britischen Tageszeitung „Daily Mail“ lag dieser nun allerdings deutlich daneben. Denn Nutzer, die sich das Video anschauten, wurden anschließend gefragt, ob sie „weiterhin Videos über Primaten sehen möchten“. Facebook spricht von einem „inakzeptablen Fehler“ Das Problem: Der eigentliche Titel des Videos gibt den Inhalt deutlich besser wieder. Er lautet: „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen.“ Und genau dies war auch zu sehen. Primaten oder andere Affenarten kamen hingegen nicht vor. Es liegt daher der Verdacht sehr nahe, dass der Algorithmus die schwarzen Männer fälschlicherweise als Primaten identifizierte. Aufgefallen ist dies unter anderem einer ehemaligen Facebook-Mitarbeiterin, die das Thema anschließend in einem internen Produktfeedback-Forum zur Sprache brachte. Facebook entschuldigte sich daraufhin für den Fehler und deaktivierte den verantwortlichen Algorithmus. Ein Sprecher sprach sogar von einem „inakzeptablen Fehler“. Aktivisten halten dies aber für nicht ausreichend. Denn bei Facebook kommt es regelmäßig zu Problemen mit den Algorithmen. Das soziale Netzwerk entschuldigt sich dann jeweils – scheint die Probleme aber nicht in den Griff zu bekommen. Auch künstliche Intelligenz kann Vorurteile haben Allerdings bewegt sich das Unternehmen hier auch in einem Spannungsfeld. Denn in dem sozialen Netzwerk entstehen so viele Inhalte, dass es für menschliche Mitarbeiter schlicht unmöglich ist, diese vollständig zu überwachen und zu moderieren. Das soziale Netzwerk setzt daher auch bei der Moderation von Inhalten auf künstliche Intelligenz. Auch hier kommt es immer wieder zu Fehleinschätzungen, die dann korrigiert werden müssen. Auch die bei verschiedenen Features zum Einsatz kommende automatisierte Gesichtserkennung funktioniert noch keineswegs einwandfrei. Aus anderen Bereichen ist zudem bereits bekannt, dass künstliche Intelligenz und Algorithmen keineswegs neutral sind. So wurde bereits nachgewiesen, dass die Gesichtserkennung bei nicht-weißen Personen deutlich schlechter funktioniert. Auf künstlicher Intelligenz basierende Systeme, die in den Vereinigten Staaten teilweise über die Bewährung von Strafgefangenen entschieden, benachteiligten zudem systematisch schwarze Gefangene. Via: Der Spiegel Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter