
Etická AI: Výzvy, zainteresované strany, prípady a globálne riadenie
Algoritmus COMPAS používaný v amerických súdoch vykazoval rasovú zaujatost; ProPublica v roku 2016 ukázala, že černošskí obžalovaní, ktorí nespáchali ďalší trestný čin, boli takmer dvakrát častejšie nesprávne označovaní za vysoké riziko (45 %) než belosi (23 %). Amazonov náborový nástroj bol trénovaný