
Ethische KI: Herausforderungen, Interessengruppen, Fallbeispiele und Globale Governance
ProPublica 2016 zeigte, dass das COMPAS-Risikobeurteilungstool schwarze Angeklagte systematisch als Hochrisiko einstufte, obwohl deren Rückfallquote vergleichbar war (45% vs. 23%). Amazon musste sein KI-Rekrutierungstool abbrechen, weil es weibliche Bewerberinnen benachteiligte; es war mit Lebensläufen aus den letzten 10 Jahren trainiert. MIT-Forschung zeigte,