Alexandria Ocasio-Cortez zegt dat algoritmen racistisch kunnen zijn. Hier is waarom ze gelijk heeft.

  • Gyles Lewis
  • 0
  • 3596
  • 337

Vorige week haalde de nieuw gekozen Amerikaanse vertegenwoordiger Alexandria Ocasio-Cortez de krantenkoppen toen ze zei, als onderdeel van het vierde jaarlijkse MLK Now-evenement, dat gezichtsherkenningstechnologieën en -algoritmen 'altijd deze raciale ongelijkheden hebben die worden vertaald, omdat algoritmen nog steeds worden gemaakt. door mensen, en die algoritmen zijn nog steeds gekoppeld aan menselijke basisaannames. Ze zijn gewoon geautomatiseerd. En geautomatiseerde aannames - als je de vooringenomenheid niet corrigeert, automatiseer je de vooringenomenheid gewoon. "

Betekent dit dat algoritmen, die theoretisch gebaseerd zijn op de objectieve waarheden van wiskunde, "racistisch" kunnen zijn? En zo ja, wat kan er worden gedaan om die vooringenomenheid weg te nemen? [De 11 mooiste wiskundige vergelijkingen]

Het blijkt dat de output van algoritmen inderdaad vertekende resultaten kan opleveren. Datawetenschappers zeggen dat computerprogramma's, neurale netwerken, machine learning-algoritmen en kunstmatige intelligentie (AI) werken omdat ze leren hoe ze zich moeten gedragen op basis van de gegevens die ze krijgen. Software is geschreven door mensen die bias hebben, en trainingsgegevens worden ook gegenereerd door mensen met bias.

De twee fasen van machine learning laten zien hoe deze bias in een schijnbaar geautomatiseerd proces kan sluipen. In de eerste fase, de trainingsfase, leert een algoritme op basis van een set gegevens of op bepaalde regels of beperkingen. De tweede fase is de inferentiefase, waarin een algoritme toepast wat het in de praktijk heeft geleerd. Deze tweede fase onthult de vooroordelen van een algoritme. Als een algoritme bijvoorbeeld wordt getraind met afbeeldingen van alleen vrouwen met lang haar, dan denkt het dat iedereen met kort haar een man is..

Google kwam berucht onder vuur te liggen in 2015 toen Google Photos zwarte mensen bestempelde als gorilla's, waarschijnlijk omdat dit de enige wezens met een donkere huidskleur waren in de trainingsset.

En vooringenomenheid kan via vele wegen binnensluipen. "Een veelgemaakte fout is het trainen van een algoritme om voorspellingen te doen op basis van beslissingen uit het verleden van bevooroordeelde mensen", zegt Sophie Searcy, een senior datawetenschapper bij de data-science-training bootcamp Metis. "Als ik een algoritme maak om beslissingen te automatiseren die eerder zijn genomen door een groep leningmedewerkers, zou ik de gemakkelijke weg kunnen kiezen en het algoritme kunnen trainen op eerdere beslissingen van die leningmedewerkers. Maar als die leningmedewerkers dan natuurlijk bevooroordeeld waren, dan het algoritme dat ik bouw, zal die vooroordelen voortzetten. "

Searcy noemde het voorbeeld van COMPAS, een voorspellend instrument dat in het hele Amerikaanse strafrechtsysteem wordt gebruikt voor straffen, dat probeert te voorspellen waar misdaad zal plaatsvinden. ProPublica voerde een analyse uit op COMPAS en ontdekte dat de tool, na controle voor andere statistische verklaringen, het risico op recidive voor zwarte verdachten overschatte en consequent het risico voor blanke verdachten onderschatte..

Om algoritmische vooroordelen te helpen bestrijden, zo vertelde Searcy, zouden ingenieurs en datawetenschappers meer diverse datasets moeten bouwen voor nieuwe problemen, en moeten ze proberen de bias die is ingebouwd in bestaande datasets te begrijpen en te verminderen..

Eerst en vooral, zei Ira Cohen, een datawetenschapper bij het voorspellende analysebedrijf Anodot, zouden ingenieurs een trainingsset moeten hebben met een relatief uniforme vertegenwoordiging van alle bevolkingstypen als ze een algoritme trainen om etnische of geslachtskenmerken te identificeren. "Het is belangrijk om voldoende voorbeelden van elke bevolkingsgroep te vertegenwoordigen, zelfs als ze een minderheid vormen in de totale populatie die wordt onderzocht", vertelde Cohen. Ten slotte raadt Cohen aan om te controleren op vooroordelen op een testset die mensen uit al deze groepen omvat. "Als, voor een bepaalde race, de nauwkeurigheid statistisch significant lager is dan bij de andere categorieën, kan het algoritme een bias hebben en zou ik de trainingsgegevens evalueren die ervoor werden gebruikt", vertelde Cohen WordsSideKick.com. Als het algoritme bijvoorbeeld 900 van de 1000 witte gezichten correct kan identificeren, maar slechts 600 van de 1000 Aziatische gezichten correct detecteert, kan het algoritme een vooroordeel hebben 'tegen' Aziaten, voegde Cohen eraan toe.

Het wegnemen van vooringenomenheid kan een enorme uitdaging zijn voor AI.

Zelfs Google, dat wordt beschouwd als een voorloper op het gebied van commerciële AI, kon blijkbaar vanaf 2015 geen alomvattende oplossing voor zijn gorillaprobleem bedenken. Wired ontdekte dat Google in plaats van een manier te vinden voor zijn algoritmen om onderscheid te maken tussen mensen van kleur en gorilla's, simpelweg blokkeerde zijn algoritmen voor beeldherkenning om überhaupt gorilla's te identificeren.

Het voorbeeld van Google is een goede herinnering dat het trainen van AI-software een moeilijke oefening kan zijn, vooral wanneer software niet wordt getest of getraind door een representatieve en diverse groep mensen..

  • Kunstmatige intelligentie: vriendelijk of beangstigend?
  • Superintelligente machines: 7 robotfutures
  • 10 gekke nieuwe vaardigheden die robots in 2018 hebben opgepikt

Oorspronkelijk gepubliceerd op .




Niemand heeft nog op dit artikel gereageerd.

De meest interessante artikelen over geheimen en ontdekkingen. Veel nuttige informatie over alles
Artikelen over wetenschap, ruimte, technologie, gezondheid, milieu, cultuur en geschiedenis. Duizenden onderwerpen uitleggen, zodat u weet hoe alles werkt