Zo zorgen we dat kunstmatige intelligentie de wereld voor iederéén beter maakt


Original article can be found here


Smartphones, smart cars, smart homes, smart companies en smart cities zijn de algoritmische meewind geworden voor mensen die de wind toch al mee hadden. Maar hoe zit het met de mensen die wind tegen hebben? Zal kunstmatige intelligentie de samenleving ook voor deze mensen ten goede veranderen?


‘Toen ik een paar dagen geleden aankwam op Terschelling,’ vertelde Freek Vielen van het Nieuw Utrechts Toneel / De Nwe Tijd vorig jaar op Oerol tijdens de ‘theatrale denkexercitie’ De Futuristen, ‘moest ik een heel eind fietsen. Het was lang geleden dat ik zo’n eind moest fietsen. En ik dacht: wat heerlijk, wat een vrijheid. Wat gaat het als vanzelf. Wat is fietsen toch fijn. Eigenlijk kan ik best goed fietsen. Ik zou het vaker moeten doen. Toen ik die avond terugreed, had ik tegenwind. En pas toen realiseerde ik me dat ik op de heenweg wind mee had gehad. Toen ik weer thuis was – moe, chagrijnig en uitgeput van dat klote-eind fietsen, tegen die kutwind in, met dat gebeuk op mijn harses – toen dacht ik: wat gek dat ik de wind mee niet heb gevoeld. Dat ik de wind mee gewoon als mijn eigen prestatie heb gezien. En ik dacht ineens een beetje beschaamd: waarschijnlijk gaat het vaker zo in het leven. Als je wind mee hebt, dan tel je die wind op bij je eigen prestaties. Dan zeg je: “Ik heb die studie afgemaakt”, “ik heb die baan gevonden”, “ik ben rijk geworden”, zonder dat omstandigheden en mensen daaraan hebben meegeblazen. En ik dacht: wat zou het fijn zijn als er iets was waardoor we andermans tegenwind zouden kunnen zien. Waardoor we, als we iemand zien ploeteren op zijn fiets terwijl wij fluitend de andere kant op rijden, niet denken: “Jongen, doe het eens wat beter.” Ik droomde over een superbewustzijn, een algoritme dat rekening kan houden met de winden die we mee en tegen krijgen. Hoeveel fijner en eerlijker zou het dan kunnen worden. Vooral voor de mensen met de meeste wind tegen. Tot dat algoritme er is, dacht ik, zou het niet verkeerd zijn dat bewustzijn bij mijzelf wat meer te trainen.’


Menselijke waarden

Het toekomstscenario van De Futuristen is niet ver weg. Artificial Intelligence (AI)-technologieën onthullen allerlei patronen in data die nieuwe inzichten over en nieuwe creatieve oplossingen voor de samenleving bieden. Smartphones, smart cars, smart homes, smart companies en smart cities zijn de algoritmische meewind geworden voor mensen die de wind toch al mee hadden. Maar hoe zit het met de mensen die wind tegen hebben? Zal kunstmatige intelligentie de samenleving ook voor deze mensen ten goede veranderen?


Eind 2018 vroeg het onafhankelijke Amerikaanse Pew Research Center zeshonderd internetpioniers, technologie-experts, activisten en ontwikkelaars over de hele wereld hoe zij denken over AI en de toekomst van de mensheid. Veel deskundigen denken dat AI de samenleving ten goede zal veranderen. Ze wijzen bijvoorbeeld naar het enorme potentieel van AI voor de wereldeconomie, en naar hoe AI nu al boeren helpt bij verbetering van gewassen, dokters bij snellere diagnoses en ouderen bij het verhelpen van eenzaamheid. Maar er zijn ook deskundigen die voorspellen dat AI zal leiden tot massale werkloosheid, groeiende economische verschillen en sociale onrust. Er bestaat zelfs angst voor het verlies van menselijke autonomie, keuzevrijheid en de vrije wil.


Maar of ze nu optimistisch of pessimistisch zijn, de meeste AI-experts zijn over één ding eens: het antwoord op de vraag hoe AI onze samenleving zal beïnvloeden, hangt sterk af van hoe goed ontwikkelaars en gebruikers van AI-technologieën in staat zullen zijn menselijke waarden als gelijkheid, rechtvaardigheid en waardigheid mee te nemen in hun ontwerpen.


Patronen

Er is groeiende bezorgdheid over de mate waarin AI uitsluiting en discriminatie in de samenleving versterkt. Verschillende voorbeelden hiervan hebben veel media-aandacht getrokken: Amazons algoritme voor werving van personeel dat vrouwen discrimineert, het COMPASS-systeem in de VS dat zwarte mensen een hoger risico op recidive toekent in vergelijking met witte mensen met dezelfde criminele geschiedenis, en het Amerikaanse medische risicoprofileringssysteem dat miljoenen zwarte mensen met klinisch exact dezelfde ziekten als witte mensen, minder snel toegang geeft tot gezondheidszorg. Een voorbeeld dichter bij huis is SyRi, het Nederlandse AI-systeem voor het opsporen van fraude met sociale voorzieningen, dat vooral arme mensen en mensen met een migratieachtergrond eruit pikt voor fraudeonderzoek omdat ze in bepaalde wijken wonen.


In al deze voorbeelden gaat het om algoritmes die patronen herkennen in grote hoeveelheden data en op basis daarvan autonoom beslissingen leren nemen. Als die data historische of actuele sociale vooroordelen en ongelijkheden bevatten, dan zullen die vooroordelen en ongelijkheden onvermijdelijk worden overgenomen en gereproduceerd door deze algoritmen. Als algoritmen bijvoorbeeld worden getraind op historische politiedata, dan worden bewuste of onbewuste vooroordelen in arrestaties overgenomen in ‘predictive policing’ systemen. Of als zwarte mensen in het verleden zieker moesten zijn dan witte mensen om toegelaten te worden tot dezelfde gezondheidszorg, dan zullen algoritmen die getraind zijn op basis van historische gezondheidsdossiers, zwarte patiënten ook in de toekomst blijven discrimineren.


Algoritmewaakhond

Instellingen en bedrijven reageren op de groeiende zorgen rondom discriminerende algoritmen met maatregelen die gericht zijn op het controleren en reguleren van algoritmen, maatregelen die AI in toom moeten houden alsof het een wezen is dat getemd moet worden. Zo bevat de ethische richtlijn die de Europese Commissie in 2019 heeft gepubliceerd de volgende aanbeveling: wanneer gegevens worden verzameld, kunnen deze sociale vooroordelen, onnauwkeurigheden, fouten en vergissingen bevatten die vóór de training van een algoritme moeten worden verwijderd. D66 en CDA adviseren zelfs een ‘algoritmewaakhond’ in te stellen die algoritmen voor het publieke domein screent op vooringenomenheid en ongelijkheid.


Hoe goed bedoeld deze maatregelen ook zijn, ze volstaan niet om AI met menselijke waarden en respect voor diversiteit te creëren. Zo is het soms onmogelijk om ervoor te zorgen dat de datasets waarop algoritmen worden getraind onbevooroordeeld zijn, of om algoritmes te ontwikkelen die schadelijke vooroordelen en ongelijkheden opsporen en elimineren. Bovendien maskeert de nadruk op het controleren en reguleren van gegevens en algoritmen, en dus op technische problemen, de hoofdoorzaken van discriminerende algoritmen, namelijk historische en hedendaagse vooroordelen en ongelijkheden in de samenleving en het gebrek aan diversiteit in organisaties.


Volgens het AI NOW instituut in New York is 80% van de universiteitsprofessoren in AI wereldwijd man. Bij Facebook is 85% van de AI-experts man en bij Google 90%. Met de etnische diversiteit is het nog slechter gesteld. Zo is bijvoorbeeld slechts 2,5% van de werknemers van Google zwart, terwijl Facebook en Microsoft elk maar 4% zwarte AI-experts in dienst hebben. Over de Nederlandse situatie zijn te weinig gegevens beschikbaar, maar er is geen reden om aan te nemen dat de diversiteit aan AI-experts in Nederlandse bedrijven en universiteiten veel afwijkt van deze statistieken.


Van het een komt het ander

Gebrek aan diversiteit is problematisch voor elke organisatie die opereert in een diverse samenleving, maar voor organisaties die zich bezighouden met AI is dit gebrek nog veel schadelijker vanwege het grenzeloze bereik en de razendsnelle impact van AI. Miljarden mensen maken gebruik van Facebook, Google en Twitter, en de meesten daarvan lijken niet op de witte mannelijke ontwikkelaars van deze technologieën. De kans dat grote groepen mensen die gebruik maken deze technologieën te maken krijgen met discriminatie, uitsluiting of een oneerlijke behandeling is daarom reëel en wijdverbreid. Uit onderzoek van het Britse Institute for Strategic Dialogue blijkt dat vooral Face- book, Twitter en YouTube worden ingezet om haat en geweld tegen minderheden te propageren. Zo is het aantal tweets dat het woord ‘remigratie’ bevat gestegen van 66.000 in 2014 naar 150.000 in 2018. Het aantal twitterverwijzingen naar ‘omvolking’ – de theorie dat de witte Europese bevolking doelbewust wordt vervangen door mensen uit Afrika en het Midden-Oosten – is in vier jaar tijd verdrievoudigd naar 1,5 miljoen. Deze fenomenen zullen niet alleen negatief uitpakken voor bepaalde bevolkingsgroepen, maar voor complete samenlevingen.


Het gebrek aan diversiteit van mensen in AI en het probleem van uitsluitende en discriminerende algoritmen worden tot nu toe als twee afzonderlijke zaken behandeld, maar het zijn twee kanten van dezelfde medaille: gebrek aan diversiteit op de werkvloer is verweven met discriminerende algoritmen. Van het een komt het ander. Maar van het ander komt ook het een, want om discriminerende algoritmen aan te pakken of te voorkomen, is het van belang dat zulke algoritmen worden ontwikkeld en getoetst in teams van mensen met verschillende achtergronden en expertise.


Illusie van eerlijkheid

Overheidsinstellingen, universiteiten en technologiebedrijven benadrukken voortdurende het belang van diversiteit van data, diversiteit van mensen en perspectieven, diversiteit van processen en platforms. En toch wil het maar niet lukken om diversiteit in AI te realiseren. Het is alsof de nadruk op en aandacht voor diversiteit er is om een illusie van eerlijkheid en betrokkenheid en inclusie te wekken


Google zou bijvoorbeeld zeven principes voor ethische AI in de praktijk brengen door middel van intern onderwijs en ontwikkeling van verantwoordelijke AI. Het bedrijf zou wervings- en selectieprocessen herzien en externe toezichthouders betrekken bij het bedrijf. Zo werd er een externe adviesraad van diverse mensen opgericht om de verantwoorde ontwikkeling van AI te garanderen. Maar een paar weken na de oprichting van de raad werd deze alweer afgeschaft na publieke verontwaardiging over de benoeming in de raad van Kay Coles James, president van de rechtse denktank The Heritage Foundation en openlijk anti-immigratie en anti-LGBTQ. Google wordt nog steeds geconfronteerd met protesten en vertrek- kende werknemers vanwege de manier waarop het bedrijf omgaat met seksuele discriminatie en intimidatie. Vrouwen voelen zich niet veilig in het door mannen gedomineerde bedrijf.


Een ander voorbeeld is het gerenommeerde Stanford Institute for Human-Centered Artificial Intelligence, dat begin dit jaar van start is gegaan met het doel een diverse groep mensen onderzoek te laten doen naar de impact en het potentieel van AI. Kort na de oprichting is het instituut verwikkeld geraakt in onrust over diversiteit: van de 120 stafleden is het overgrote deel man, en niemand zwart.


Uithangboord van diversiteit

Organisaties stellen vaak dat ze niet in staat zijn om divers talent te vinden dat voldoet aan vooraf gestelde functie-eisen. Het probleem blijkt echter keer op keer niet de afwezigheid van divers talent te zijn, maar het onvermogen om een omgeving te creëren waarin divers talent kan worden herkend, aangetrokken en behouden. Talenten met een migratie-achtergrond zeggen vaak dat ze na aanstelling worden behandeld als uithangboord van diversiteit, en dat hun talenten onderbenut, ondergewaardeerd en onderbetaald blijven. Ook in AI. Deze kunstmatige inclusie is het echte probleem dat serieuze aandacht en actie verdient als we ethische en inclusieve AI-systemen willen ontwikkelen.


Nu zijn het vaak AI-deskundigen met een minderheidsachtergrond die de aandacht vestigen op en actie ondernemen tegen het gebrek aan diversiteit in AI. Zo zijn Black in AI, een initiatief van zwarte AI-experts van Stanford, MIT en andere instituten over de hele wereld en soortgelijke initiatieven zoals Queer in AI en Women in Machine Learning begonnen met het delen van hun werk en ervaring op AI-conferenties in het Westen. Als hun visa voor landen als de VS en Canada tenminste niet worden geweigerd, zoals dat vierentwintig onderzoekers uit Afrika en Zuid-Amerika recent is overkomen: zij kregen geen visa om de topconferentie Neural Information Processing Systems in december 2019 in Canada bij te wonen.


Ongelijkheidsatlas

Naast academische uitwisseling hebben deze initiatieven zich een maatschappelijk doel gesteld: het bevorderen van divers AI-talent, het ontwikkelen van AI-technologieën voor opkomende werelddelen zoals Afrika, en het gebruik van algoritmische vooroordelen als middel om sociale ongelijkheid en discriminatie van minderheden te kwantificeren en aan de kaak te stellen. Met andere woorden: ze gebruiken discriminerende algoritmen als een spiegel voor discriminatie en uitsluiting in onze samenleving. Zo getuigde Joy Buolamwini, AI-expert en oprichter van het Algorithmic Justice League, afgelopen zomer nog samen met het Amerikaanse congreslid Alexandria Ocasio-Cortez dat gezichtsherkenningstechnologie sociale ongelijkheden reproduceert: het werkt het beste bij witte mannen en het slechtst bij zwarte vrouwen.


Als ze worden ontwikkeld door mensen met een diverse en interdisciplinaire achter- grond, kunnen algoritmen meer zijn dan alleen een spiegel voor de samenleving. Ze kunnen ook nieuwe wegen creëren naar een eerlijke en meer inclusieve samenleving. De MIT-ongelijkheidsatlas bijvoorbeeld is ontwikkeld door een divers en interdisciplinair team van wetenschappers op basis van geo- locatiedata van 4,5 miljoen mobiele-telefoongebruikers in de Amerikaanse stad Boston. De atlas laat zien waar mensen met verschillende sociaaleconomische achter- gronden elkaar ontmoeten, waar ze wel of niet door de stad bewegen, op weg naar huis, werk, musea, bioscopen, theaters en parken. De atlas kent gebouwen en straten een ongelijkheidsscore toe op basis van de inkomens- diversiteit van mensen die deze plaatsen bezoeken. Een café waarin mensen met allerlei verschillende inkomens elkaar ontmoeten, krijgt een lage ongelijkheidsscore, terwijl een restaurant waarin alleen rijke, welgesteld mensen komen een hoge ongelijkheidsscore krijgt. De atlas geeft hiermee een beeld van de diversiteit van duizenden locaties in Boston, maar ook inzicht in hoe straten en gebouwen aangepast dienen te worden om ruimtelijke diversiteit, vitaliteit en inclusiviteit in de stad te bevorderen.


Wind in de rug

Echte ethische en inclusieve AI begrijpt, waardeert en bouwt voort op verschillen tussen mensen op het gebied van sociaal-culturele waarden, kennis, vaardigheden en levensstijl. Van techbedrijven zoals Facebook, Google en Twitter kan niet worden verwacht dat ze werken aan ethische en inclusieve AI omdat ze hun eigen verdienmodel vooropstellen. Ook kun je geen ethische en inclusieve AI verwachten door controle en regulering van AI zolang publieke organisaties zoals overheden, gemeenten en universiteiten en hun gekozen vertegenwoordigers zelf niet voldoende divers en inclusief zijn. Inclusie leidt op termijn tot ethiek, maar ethiek leidt niet per se tot inclusie.

Om AI ethisch en inclusief te maken, moet voldaan worden aan minimaal twee voorwaarden. Ten eerste moet AI worden onderwezen aan burgers uit alle lagen van de bevolking, ook en misschien vooral aan burgers in de marge van de samenleving. Dit vergroot en verrijkt tegelijkertijd de talentenpool. Initiatieven zoals Codeer College Codam in Amsterdam begrijpen dit en zetten een moedige stap naar gratis en fundamenteel nieuwe vormen van peer-to-peer onderwijs. In de tweede plaats moet publieke AI gecreëerd worden door diverse en inter- disciplinaire AI-teams, in samenwerking met burgers, gemeenschappen en het maat- schappelijk middenveld. Dit maakt AI-technologieën mogelijk die burgers en gemeenschappen beter en eerlijker dienen. Initiatieven zoals Civic AI Lab streven dit na, en ontwikkelen algoritmen die niet alleen burgers helpen die de wind toch al in de rug hebben, maar ook een zetje geven aan mensen die de wind tot nu toe tegen hadden.




Recent Posts

Contact

  • LinkedIn
  • Twitter
  • Facebook
  • YouTube

Sennay Ghebreab, room C3.254

Informatics Institute, University of Amsterdam

Science Park 904, 1098 XH Amsterdam

Email: s.ghebreab@uva.nl  Tel: +31-20-5252270