Community toolkit for change

Systemic Justice has designed a series of resources to help answer this question and build the knowledge and power of communities and movements fighting for justice: ‘Strategic litigation: A guide for legal action’, ‘Words for justice: A glossary of essential legal terms’, and ‘How can we use the courts: A conversation starter’.

From Systemic Justice on November 13, 2023

Not a solution: Meta’s new AI system to contain discriminatory ads

Meta has deployed a new AI system on Facebook and Instagram to fix its algorithmic bias problem for housing ads in the US. But it’s probably more band-aid than AI fairness solution. Gaps in Meta’s compliance report make it difficult to verify if the system is working as intended, which may preview what’s to come from Big Tech compliance reporting in the EU.

By John Albert for AlgorithmWatch on November 17, 2023

The racial economy of Instagram

This paper explores the mechanisms of white supremacy within digital spaces in relation to the body/embodiment, social justice movements, and the nature and expression of contemporary feminism. New digital political economies work through social media such as Instagram to colonise, disempower and obscure the work of Black feminists in the sphere of fat liberation (re-framed as ‘body positivity’), and in terms of imperatives for self-care, which have been co-opted by an emerging online wellness industry. I call to account the pervasiveness of neoliberal logics which are re-shaping (post)feminism and re-inscribing white supremacy onto bodies online and offline through ‘disciplined whiteness’.

By Sinéad O’Connor for RGS-IBG Publications Hub on September 28, 2023

AI is nog lang geen wondermiddel – zeker niet in het ziekenhuis

Tumoren ontdekken, nieuwe medicijnen ontwikkelen – beloftes genoeg over wat kunstmatige intelligentie kan betekenen voor de medische wereld. Maar voordat je zulk belangrijk werk kunt overlaten aan technologie, moet je precies snappen hoe die werkt. En zover zijn we nog lang niet.

By Maurits Martijn for De Correspondent on November 6, 2023

AI is bevooroordeeld. Wiens schuld is dat?

Ik ga in gesprek met Cynthia Liem. Zij is onderzoeker op het gebied van betrouwbare en verantwoorde kunstmatige intelligentie aan de TU Delft. Cynthia is bekend van haar analyse van de fraudedetectie-algoritmen die de Belastingdienst gebruikte in het toeslagenschandaal.

By Cynthia Liem and Ilyaz Nasrullah for BNR Nieuwsradio on October 20, 2023

Hoeveel genocides zal Meta nog faciliteren?

Al jaren censureert Meta de communicatie van Palestijnen en communicatie over de Palestijnse zaak. Toch is dat niet (alleen) een “Big Tech-probleem”. Het beleid van Meta is onder druk van onder andere overheden tot stand gekomen. Diezelfde overheden kiezen er nu voor om Meta niet te bevragen over haar rol in de mogelijke genocide op Palestijnen.

By Evely Austin and Nadia Benaissa for Bits of Freedom on November 3, 2023

Waarom we zwarte vrouwen meer zouden moeten geloven dan techbedrijven

Stel je voor dat bedrijven technologie bouwen die fundamenteel racistisch is: het is bekend dat die technologie voor zwarte mensen bijna 30 procent vaker niet werkt dan voor witte mensen. Stel je vervolgens voor dat deze technologie wordt ingezet op een cruciaal gebied van je leven: je werk, onderwijs, gezondheidszorg. En stel je tot slot voor dat je een zwarte vrouw bent en dat de technologie werkt zoals verwacht: niet voor jou. Je dient een klacht in. Om vervolgens van de nationale mensenrechteninstantie te horen dat het in dit geval waarschijnlijk geen racisme was.

By Nani Jansen Reventlow for Volkskrant on October 22, 2023

Zwarte mensen vaker niet herkend door antispieksoftware Proctorio

Gezichten van mensen met een zwarte huidskleur worden veel minder goed herkend door tentamensoftware Proctorio, blijkt uit onderzoek van RTL Nieuws. De software, die fraude moet herkennen, zoekt bij online tentamens naar het gezicht van een student. Dat zwarte gezichten beduidend slechter worden herkend, leidt tot discriminatie, zeggen deskundigen die het onderzoek van RTL Nieuws beoordeelden.

By Stan Hulsen for RTL Nieuws on October 7, 2023

Intuit: “Our fraud fights racism”

Today’s key concept is “predatory inclusion”: “a process wherein lenders and financial actors offer needed services to Black households but on exploitative terms that limit or eliminate their long-term benefits”.

By Cory Doctorow for Pluralistic on September 27, 2023

Does AI perpetuate human bias?

AI bias is not new. Rather it is a problem that is escalating as newer AI technologies are being deployed in various parts of our lives. Who does AI discriminate against and why? Dutch student Robin Pocornie tells us why she submitted a claim against her university using an AI exam supervision system. New York-based data reporter Lam Thuy Vo points out insufficient and inadequate datasets that AI is trained on, while Berlin-based tech expert Nakeema Stefflbauer talks about systemic biases entrenched into AI design. When talking about AI chatbots like ChatGPT, Vanderbilt University’s Jules White argues that bias is rather brought out by users themselves. And with the co-founder of Racism and Technology Center in Amsterdam, Naomi Appelman, we discuss the idea of technological objectivity that persists in our society.

By Jules White, Lam Thuy Vo, Nakeema Stefflbauer, Naomi Appelman, Robin Pocornie and Samantha Johnson for YouTube on September 26, 2023

­Data Work and its Layers of (In)visibility

No technology has seemingly steam-rolled through every industry and over every community the way artificial intelligence (AI) has in the past decade. Many speak of the inevitable crisis that AI will bring. Others sing its praises as a new Messiah that will save us from the ails of society. What the public and mainstream media hardly ever discuss is that AI is a technology that takes its cues from humans. Any present or future harms caused by AI are a direct result of deliberate human decisions, with companies prioritizing record profits, in an attempt to concentrate power by convincing the world that technology is the only solution to societal problems.

By Adrienne Williams and Milagros Miceli for Just Tech on September 6, 2023

Technologie raakt sommige groepen mensen in onze samenleving harder dan anderen (en dat zou niet zo mogen zijn)

Bij het gebruik van technologie worden onze maatschappelijke problemen gereflecteerd en soms verergerd. Die maatschappelijke problemen kennen een lange geschiedenis van oneerlijke machtsstructuren, racisme, seksisme en andere vormen van discriminatie. Wij zien het als onze taak om die oneerlijke structuren te herkennen en ons daartegen te verzetten.

By Evely Austin, Ilja Schurink and Nadia Benaissa for Bits of Freedom on September 12, 2023

Verdacht omdat je op een ‘verwonderadres’ woont: ‘Ze bleven aandringen dat ik moest opendoen’

Fraudejagers van de overheid die samenwerken onder de vlag van de Landelijke Stuurgroep Interventieteams selecteren overal in het land ‘verwonderadressen’ waar bewoners misschien wel frauderen. Uit een reconstructie blijkt hoe een familie in Veenendaal in beeld kwam en op drie adressen controleurs aan de deur kreeg. ‘We hoorden van de buren dat ze vanuit de bosjes ons huis in de gaten hielden.’

By David Davidson for Follow the Money on September 6, 2023

Dubieus algoritme van de politie ‘voorspelt’ wie in de toekomst geweld zal plegen

De politie voorspelt al sinds 2015 met een algoritme wie er in de toekomst geweld zal plegen. Van Marokkaanse en Antilliaanse Nederlanders werd die kans vanwege hun achtergrond groter geschat. Dat gebeurt nu volgens de politie niet meer, maar daarmee zijn de gevaren van het model niet opgelost. ‘Aan dit algoritme zitten enorme risico’s.’

By David Davidson and Marc Schuilenburg for Follow the Money on August 23, 2023

Met het Oog op Morgen: Gezichtsherkenning herkent zwarte vrouw niet

Een opmerkelijke zaak in de Verenigde Staten: een vrouw wordt gearresteerd voor beroving en diefstal van een auto. Maar de vrouw is hoogzwanger en heeft het helemaal niet gedaan. Zij komt in beeld omdat een computer haar door gezichtsherkenning eruit pikt. Zij wordt in bijzijn van haar kinderen in de boeien geslagen. Later blijkt dus: zij was het niet.

By Naomi Appelman and Rob Trip for NPO Radio 1 on August 9, 2023

Proudly powered by WordPress | Theme: Baskerville 2 by Anders Noren.

Up ↑