Governments’ use of automated decision-making systems reflects systemic issues of injustice and inequality

In 2019, former UN Special Rapporteur Philip Alston said he was worried we were “stumbling zombie-like into a digital welfare dystopia.” He had been researching how government agencies around the world were turning to automated decision-making systems (ADS) to cut costs, increase efficiency and target resources. ADS are technical systems designed to help or replace human decision-making using algorithms.

By Joanna Redden for Parental social licence for data linkage for service intervention on October 5, 2022

De zwarte doos van algoritmes: hoe discriminatie wordt geautomatiseerd

Evelyn dook deze week in de (allesbehalve mannelijke) wereld van glitch art, hebben we het over het algoritme dat jarenlang door de Gemeente Rotterdam is gebruikt om te voorspellen wie van de bijstandsgerechtigden zou kunnen knoeien met hun uitkering en bellen we in met podcast-kopstuk Lieven Heeremans.

By Evely Austin, Inge Wannet, Joran van Apeldoorn, Lieven Heeremans and Nadia Benaissa for Bits of Freedom on April 15, 2023

Hoe AI stigma’s van moslima’s versterkt en verspreidt

Je kunt tegenwoordig niet meer om AI heen. Of het nu om chatGPT gaat of om de app Lensa AI, wie zich in het digitale veld begeeft komt er vroeg of laat mee in aanraking. De balans opmaken op de vraag ‘is AI goed of slecht?’ is lastig, zeker omdat het nog niet zo wijdverbreid gebruikt wordt. Maar als we de experts mogen geloven, gaat dat in de toekomst anders zijn. De hoogste tijd voor de prijswinnende fotograaf Cigdem Yuksel om te onderzoeken wat het gebruik van AI betekent voor de beeldvorming van moslima’s. Lilith Magazine sprak met Yuksel en met Laurens Vreekamp, schrijver van the Art of AI.

By Aimée Dabekaussen, Cigdem Yuksel and Laurens Vreekamp for Lilith on April 6, 2023

Enough is Enough. Tell Congress to Ban Federal Use of Face Recognition

Cities and counties across the country have banned government use of face surveillance technology, and many more are weighing proposals to do so. From Boston to San Francisco, Jackson, Mississippi to Minneapolis, elected officials and activists know that face surveillance gives police the power to track us wherever we go. It also disproportionately impacts people of color, turns us all into perpetual suspects, increases the likelihood of being falsely arrested, and chills people’s willingness to participate in first amendment protected activities. Even Amazon, known for operating one of the largest video surveillance networks in the history of the world, extended its moratorium on selling face recognition to police.

By Matthew Guariglia for Electronic Frontier Foundation (EFF) on April 4, 2023

Racist Technology in Action: You look similar to someone we didn’t like → Dutch visa denied

Ignoring earlier Dutch failures in automated decision making, and ignoring advice from its own experts, the Dutch ministry of Foreign Affairs has decided to cut costs and cut corners through implementing a discriminatory profiling system to process visa applications.

Continue reading “Racist Technology in Action: You look similar to someone we didn’t like → Dutch visa denied”

Procederen tegen de overheid, The Big Lebowski en de strijd tegen digitaal racisme met Hans de Zwart

Hans de Zwart is onderzoeker en docent aan de Hogeschool van Amsterdam en is een van de oprichters van het ‘Racism and Technology Center’. Hij heeft ervaring met juridische strijd met de overheid en helpt anderen deze zo goed mogelijk te voeren. Bijvoorbeeld als een zwarte student moeite heeft examens af te leggen omdat de anti-spieksoftware niet herkent dat er een mens in beeld is.

By Hans de Zwart, Randal Peelen and Ruurd Sanders for Met Nerds om Tafel on April 26, 2023

What problems are AI-systems even solving? “Apparently, too few people ask that question”

In this interview with Felienne Hermans, Professor Computer Science at the Vrije Universiteit Amsterdam, she discusses the sore lack of divesity in the white male-dominated world of programming, the importance of teaching people how to code and, the problematic uses of AI-systems.

Continue reading “What problems are AI-systems even solving? “Apparently, too few people ask that question””

Racist Technology in Action: Racial disparities in the scoring system used for housing allocation in L.A.

In another investigation by The Markup, significant racial disparities were found in the assessment system used by the Los Angeles Homeless Services Authority (LAHSA), the body responsible for coordinating homelessness services in Los Angeles. This assessment system is reliant on a tool, called the Vulnerability Index-Service Prioritisation Decision Assistance Tool, or VI-SPDAT, to score and assess whether people can qualify for subsidised permanent housing.

Continue reading “Racist Technology in Action: Racial disparities in the scoring system used for housing allocation in L.A.”

De strijd van een student tegen discriminerende antispieksoftware van de VU en de tol die het eist

“Het scannen van mijn studentenpas en bureau ging goed, maar bij mijn gezicht kreeg ik de melding dat de ruimte te donker was”, vertelt de 26-jarige Robin Pocornie over het maken van haar eerste examen in september 2020 met – door de Vrije Universiteit (VU) verplichte – online antispieksoftware Proctorio. Wanneer ze een lamp in haar gezicht schijnt, wordt ze wel herkend en toegelaten tot haar examens. Ze vermoedt daarom dat de software discrimineert, maar voelt zich door de VU niet gehoord als ze een klacht indient en klopt daarom aan bij Het College voor de Rechten van de Mens (CvRM). Dat gaf haar op 7 december 2022 in een tussenoordeel gelijk, waarna de VU weer met tegenbewijs kon komen. Deze zaak is een historische gebeurtenis, met alle gevolgen van dien.

By Ariela Slakhorst, Naomi Appelman and Robin Pocornie for Lilith on April 11, 2023

Onze toekomst op de voorwaarden van Big Tech

Deze aflevering staat in het teken van het onderzoek The Public Interest vs. Big Tech. Dit gaat over het gedoe waar maatschappelijke organisaties mee te maken krijgen door de macht van grote techbedrijven over hun communicatie. Inge gaat in gesprek met Evelyn, Lotje en Ramla over dit onderzoek, dat we samen met vier burgerbewegingen en met Pilp (het Public Interest Litigation Project) deden. We bellen in met Oumaima Hajri. Zij heeft, in samenwerking met the Racism and Technology Center, een alliantie opgestart die zich inzet tegen de militarisering van AI.

By Evely Austin, Inge Wannet, Lotje Beek and Oumaima Hajri for Bits of Freedom on March 17, 2023

You Are Not a Parrot

You are not a parrot. And a chatbot is not a human. And a linguist named Emily M. Bender is very worried what will happen when we forget this.

By Elizabeth Weil and Emily M. Bender for New York Magazine on March 1, 2023

Stories of everyday life with AI in the global majority

This collection by the Data & Society Research Institute sheds an intimate and grounded light on what impact AI-systems can have. The guiding question that connects all of the 13 non-fiction pieces in Parables of AI in/from the Majority world: An Anthology is what stories can be told about a world in which solving societal issues is more and more dependent on AI-based and data-driven technologies? The book, edited by Rigoberto Lara Guzmán, Ranjit Singh and Patrick Davison, through narrating ordinary, everyday experiences in the majority world, slowly disentangles the global and unequally distributed impact of digital technologies.

Continue reading “Stories of everyday life with AI in the global majority”

Denmark’s welfare fraud system reflects a deeply racist and exclusionary society

As part of a series of investigative reporting by Lighthouse Reports and WIRED, Gabriel Geiger has revealed some of the findings about the use of welfare fraud algorithms in Denmark. This comes in the trajectory of the increasing use of algorithmic systems to detect welfare fraud across European cities, or at least systems which are currently known.

Continue reading “Denmark’s welfare fraud system reflects a deeply racist and exclusionary society”

Proudly powered by WordPress | Theme: Baskerville 2 by Anders Noren.

Up ↑