The Great White Robot God

It may seem improbable at first glance to think that there might be connections between the pursuit of artificial general intelligence (AGI) and white supremacy. Yet the more you examine the question the clearer and more disturbing the links get.

By David Golumbia for David Golumbia on Medium on January 21, 2019

De complexe relatie tussen AI en discriminatie: een kritische blik op algoritmen

Vorige week verwelkomde Dounia Maakor, AI-ethicus en data scientist Oumaima Hajri in Suhoor Stories. De uitzending stond in het teken van kunstmatige intelligentie (AI) en discriminatie, een onderwerp dat steeds urgenter wordt in onze samenleving. Hajri deelde inzichten over algoritmen en hun impact op racisme en discriminatie.

By Dounia Maakor and Oumaima Hajri for NPO Radio 1 on April 2, 2024

Borders and Bytes

So-called “smart” borders are just more sophisticated sites of racialized surveillance and violence. We need abolitionist tools to counter them.

By Ruha Benjamin for Inquest on February 13, 2024

Tech For Palestine

A loose coalition of 4,000+ founders, engineers, product marketers, community builders, investors, and other tech folks working towards Palestinian freedom. We aim to end the dehumanisation of Palestinians within the tech community, and to bring voice to those who speak up.

From Tech For Palestine

Google’s mistake with Gemini

You have probably heard that Google had to suspend it’s Gemini image feature after showing people black Nazis and female popes. Well I have a simple explanation for what happened here. Namely, the folks at Google wanted to avoid an embarrassment that they’d been involved with multiple times, and seen others get involved with, namely the “pale male” dataset problem, that happens especially at tech companies dominated by white men, and ironically, especially especially at tech companies dominated by white men who are careful about privacy, because then they only collect pictures of people who give consent, which is typically people who work there! See for example this webpage, or Safiya Noble’s entire book.

By Cathy O’Neil for mathbabe on March 12, 2024

Nederlanders met algoritmes selecteren voor overheidscontrole is ‘hoogstwaarschijnlijk’ illegaal

Dat de overheid Nederlanders profileert met geheime algoritmes is ‘naar alle waarschijnlijkheid’ in strijd met de privacywet. Dat blijkt uit een advies van de landsadvocaat dat gisteren naar de Tweede Kamer is gestuurd. ‘Deze conclusies hebben in potentie vergaande impact,’ melden de staatssecretarissen van Financiën. Toch zegt de Belastingdienst niet te stoppen met de werkwijze.

By David Davidson and Jan-Hein Strop for Follow the Money on March 14, 2024

Voorvechters aan het woord: Robin Pocornie

Tijdens de Big Brother Awards was er dit jaar extra aandacht voor de positieve impact van voorvechters van onze internetvrijheid. De zogenoemde Felipe Rodriquez Award – naar één van de oprichters van XS4ALL en grondlegger van de digitale burgerrechtenbeweging in Nederland – ging dit jaar naar maar liefst vijf winnaars. Met deze prijs willen we anderen inspireren en motiveren om samen werk te maken van onze digitale rechten. We lichten dan ook graag de winnaars één voor één voor je uit in deze interviewreeks. Deze keer aan het woord: Robin Pocornie. Zij won de prijs voor het aankaarten van racistische anti-spieksoftware op de Vrije Universiteit van Amsterdam.

By Lotje Beek, Lotte Houwing, and Robin Pocornie for Bits of Freedom on March 5, 2024

‘Vergeet de controlestaat, we leven in een controlemaatschappij’

Volgens bijzonder hoogleraar digitale surveillance Marc Schuilenburg hebben wij geen geheimen meer. Bij alles wat we doen kijkt er wel iets of iemand mee die onze gangen registreert. We weten het, maar doen er gewoon aan mee. Zo diep zit digitale surveillance in de haarvaten van onze samenleving: ‘We herkennen het vaak niet eens meer.’

By Marc Schuilenburg and Sebastiaan Brommersma for Follow the Money on February 4, 2024

De Netwerkmaatschappij, deel 48: Joy Buolamwini

Ik zal er geen doekjes om winden: ik ben fan van deze vrouw. Daarom draagt deze blog dan ook haar naam. Hieronder gaat het vooral over een boek dat ze schreef: Unmasking AI, my mission to protect what is human in a world of machines. Ik bewonder haar vooral omdat ze zich, terwijl ze alle mogelijkheden had voor een grootse wetenschappelijke carrière, toch voortdurend ook bekommerde om slachtoffers van gezichtsherkenning: de door haar onderzochte digitale technologie.

By Roeland Smeets for Netwerk Mediawijsheid on January 30, 2024

Hoger onderwijs blijft software inzetten die zwarte studenten minder herkent

Hogescholen en universiteiten blijven tentamensoftware Proctorio gebruiken, ondanks zorgen over discriminatie. Dat blijkt uit een rondgang van RTL Nieuws langs onderwijsinstellingen die het programma hebben ingezet. Acht van de twaalf nemen er geen afstand van. Het College voor de Rechten van de Mens en een stichting die hun zorgen uitspraken over discriminatie, reageren teleurgesteld: “Onbegrijpelijk en roekeloos.”

By Naomi Appelman and Stan Hulsen for RTL Nieuws on February 2, 2024

‘Stoppen met Twitter doet niets tegen racisme’

Veel media en journalisten die de haat op X tegen Slimste mens-deelnemer Akwasi zo ferm veroordelen, spreken met dubbele tong, vindt OneWorld-hoofdredacteur Seada Nourhussen. Jarenlang droegen ze bij aan die haat, zonder het racisme te erkennen dat eraan ten grondslag ligt.

By Seada Nourhussen for OneWorld on January 12, 2024

Landelijk punt discriminatiezaken

Heb jij of iemand uit je omgeving wel eens met discriminatie te maken? Meld het wél. Jouw ervaring telt. Wij luisteren naar jouw verhaal en helpen je. Je staat er niet alleen voor!

From Landelijk meldpunt discriminatie

Belastingdienst blijft wet overtreden met mogelijk discriminerende fraude-algoritmen

Na het toeslagenschandaal kreeg de Belastingdienst het advies om drie mogelijk discriminerende fraude-algoritmen onmiddellijk stop te zetten. Toch besloot de fiscus ermee door te gaan: het organisatiebelang woog zwaarder dan naleving van de wet en bescherming van grondrechten. Dat blijkt uit documenten die twee jaar nadat om openbaring was verzocht aan Follow the Money zijn vrijgegeven. ‘Onbegrijpelijk en verbijsterend.’

By David Davidson and Sebastiaan Brommersma for Follow the Money on December 14, 2023

Raciale data houden de machtsverdeling in stand, maar kunnen haar ook omverwerpen

Het registreren van etniciteit is in Nederland bij wet verboden. Maar het verzamelen van gerelateerde kenmerken, zoals land van herkomst, mag wel. Met als gevolg dat raciale data steeds weer een rol spelen in allerlei discriminatie-affaires, waaronder het toeslagenschandaal. Dit maakt het verleidelijk om tegen dataverzameling te zijn, maar zouden we het ook kunnen omkeren? Kunnen we raciale data ook inzetten om discriminatie en racisme te bestrijden? Lilith-onderzoeker Meike Schipper sprak met verschillende experts en zocht het uit.

By Gerwin van Schie, Jill Toh and Meike Schipper for Lilith on December 5, 2023

Machine Learning and the Reproduction of Inequality

Machine learning is the process behind increasingly pervasive and often proprietary tools like ChatGPT, facial recognition, and predictive policing programs. But these artificial intelligence programs are only as good as their training data. When the data smuggle in a host of racial, gender, and other inequalities, biased outputs become the norm.

By Catherine Yeh and Sharla Alegria for SAGE Journals on November 15, 2023

Late Night Talks: Studenten slepen universiteit voor de rechter vanwege discriminerende AI-software

Vrije Universiteit Amsterdam student Robin Pocornie en Naomi Appelman, co-founder van non-profitorganisatie Racism and Technology Center, gaan met elkaar in gesprek over discriminatie binnen kunstmatige intelligentie (artificial intelligence). Wat zijn de voor- en nadelen van kunstmatige intelligentie en in hoeverre hebben we grip en hoe kunnen we discriminatie tegengaan in de snelle ontwikkelingen van technologie?

By Charisa Chotoe, Naomi Appelman and Robin Pocornie for YouTube on December 3, 2023

This is how AI image generators see the world

Artificial intelligence image tools have a tendency to spin up disturbing clichés: Asian women are hypersexual. Africans are primitive. Europeans are worldly. Leaders are men. Prisoners are Black.

By Kevin Schaul, Nitasha Tiku and Szu Yu Chen for Washington Post on November 20, 2023

Proudly powered by WordPress | Theme: Baskerville 2 by Anders Noren.

Up ↑