Wenn in Diskussionen von „ethischer KI“ die Rede ist, könnte man mitunter annehmen, dass es neben dem Menschen nun mit der Künstlichen Intelligenz einen weiteren moralischen Akteur gibt. Dem geht der Wunsch voraus, wir Menschen könnten Computer so programmieren, dass sie unsere ethischen Standards besser erfüllen als wir selbst: Maschinen sind schließlich nicht voreingenommen oder auf ihren eigenen Vorteil bedacht. Doch was ist eigentlich das „richtige“ ethische Konzept, mit dem KI arbeiten sollte?
Ist das, welches den größten Nutzen für die Mehrheit verspricht, immer das Beste? Und wie stellen wir sicher, dass die Daten, mit denen KI-Systeme lernen, unseren aktuellen ethischen Standards hinsichtlich Gleichberechtigung und Inklusion entsprechen? Diese und weitere Fragen, ob man ethische Konzepte in Algorithmen fassen kann oder ob Maschinen gar aus Daten „ethisches Verhalten“ erlernen können, werden die beiden Mitglieder des Deutschen Ethikrates Frauke Rostalski und Julian Nida-Rümelin im Gespräch mit Akademiepräsident Christoph Marschkies diskutieren.
Eine Anmeldung ist bis zum 18. April 2021 erforderlich unter: https://bit.ly/3w8eRwC
Akademievorlesung der Interdisziplinären Arbeitsgruppe (IAG) „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz“ der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW)
Reactions to the article
Comment
Damit bilden Zahlen nur die Realität ab. Hat nichts mit Ethik zu tun.