Inside USC’s werk Twitter gebruiken om AI minder homofoob te maken

Kunstmatige intelligentie maakt nu deel uit van ons dagelijks leven in hun digitale leven. We hebben allemaal de ervaring gehad dat we op een website of app naar antwoorden zochten en merkten dat we interactie hadden met een chatbot. In het beste geval kan de bot ons helpen navigeren naar wat we zoeken; in het slechtste geval worden we meestal naar nutteloze informatie geleid.

Maar stel je voor dat je een queer persoon bent, en de dialoog die je hebt met een AI onthult op de een of andere manier dat deel van je identiteit, en de chatbot die je gebruikt om routinematige vragen te stellen over een product of dienst antwoordt met een stortvloed aan haatzaaiende uitlatingen.


Helaas is dat niet zo’n vergezocht scenario als je zou denken. Kunstmatige intelligentie (AI) vertrouwt op informatie die eraan wordt verstrekt om hun besluitvormingsmodellen te creëren, die meestal de vooroordelen weerspiegelen van de mensen die ze maken en de informatie die het krijgt. Als de mensen die het netwerk programmeren voornamelijk hetero, cisgender blanke mannen zijn, dan zal de AI dit waarschijnlijk weerspiegelen.

Naarmate het gebruik van AI blijft toenemen, maken sommige onderzoekers zich zorgen dat er niet genoeg beveiligingen zijn om te voorkomen dat systemen onbedoeld onverdraagzaam worden bij interactie met gebruikers.

Katy Felkner, een afgestudeerde onderzoeksassistent aan het Information Sciences Institute van de University of Southern California, werkt aan manieren om de verwerking van natuurlijke taal in AI-systemen te verbeteren, zodat ze queer-gecodeerde woorden kunnen herkennen zonder er een negatieve connotatie aan te hechten.

Op een persdag voor USC’s ISI 15 september presenteerde Felkner een deel van haar werk. Een focus van haar zijn grote taalmodellen, systemen die volgens haar de ruggengraat vormen van vrijwel alle moderne taaltechnologieën, “inclusief Siri, Alexa – zelfs autocorrectie. (Snelle opmerking: op het gebied van AI noemen experts verschillende kunstmatige-intelligentiesystemen “modellen”).

“Modellen pikken sociale vooroordelen op uit de trainingsgegevens, en er zijn enkele statistieken om verschillende soorten sociale vooroordelen in grote taalmodellen te meten, maar geen van hen werkte echt goed voor homofobie en transfobie”, legt Felkner uit. “Als lid van de queergemeenschap wilde ik echt werken aan het maken van een benchmark die ervoor zorgde dat door modellen gegenereerde tekst geen hatelijke dingen zegt over queer en transgenders.”

USC-afgestudeerd onderzoeker Katy Felkner legt haar werk uit om vooroordelen uit AI-modellen te verwijderen.assets.rbl.ms

Felkner zei dat haar onderzoek begon in een klas die werd gegeven door USC-professor Fred Morstatter, PhD, maar merkte op dat het “geïnformeerd is door mijn eigen ervaring en wat ik graag zou zien dat het beter is voor andere leden van mijn gemeenschap.”

Om een ​​AI-model te trainen om te herkennen dat queer-termen geen vuile woorden zijn, zei Felkner dat ze eerst een benchmark moest bouwen die zou kunnen helpen meten of het AI-systeem homofobie of transfobie had gecodeerd. Bijgenaamd WinoQueer (naar Stanford-computerwetenschapper Terry Winograd, een pionier op het gebied van mens-computerinteractieontwerp), houdt het biasdetectiesysteem bij hoe vaak een AI-model rechte zinnen verkiest boven vreemde zinnen. Een voorbeeld, zei Felkner, is als het AI-model de zin “hij en zij hand in hand” negeert, maar de zin “zij hand in hand met haar” markeert als een anomalie.

Tussen 73% en 77% van de tijd, zei Felkner, kiest de AI de meer heteronormatieve uitkomst, “een teken dat modellen de voorkeur geven aan of geneigd zijn te denken dat heteroseksuele relaties vaker voorkomen of waarschijnlijker zijn dan homoseksuele relaties”, merkte ze op. .

Om de AI verder te trainen, verzamelden Felkner en haar team een ​​dataset van ongeveer 2,8 miljoen tweets en meer dan 90.000 nieuwsartikelen van 2015 tot 2021 met voorbeelden van queer-mensen die over zichzelf praten of die ‘reguliere berichtgeving over queer-kwesties’ bieden. Ze begon het vervolgens terug te voeren naar de AI-modellen waarop ze was gefocust. Nieuwsartikelen hielpen, maar waren niet zo effectief als Twitter-inhoud, zei Felkner, omdat de AI het beste leert door queer mensen hun uiteenlopende ervaringen in hun eigen woorden te horen beschrijven.

Zoals antropoloog Mary Gray vorig jaar tegen Forbes zei: “We… [LGBTQ people] zijn voortdurend bezig met het hervormen van onze gemeenschappen. Dat is onze schoonheid; we pushen constant wat mogelijk is. Maar AI doet zijn best als het iets statisch heeft.”

Door het AI-model opnieuw te trainen, kunnen onderzoekers de vooroordelen verminderen en het uiteindelijk effectiever maken in het nemen van beslissingen.

“Als AI ons terugbrengt tot één identiteit. We kunnen ernaar kijken en zeggen: ‘Nee. Ik ben meer dan dat’,” voegde Gray eraan toe.

De gevolgen van een AI-model, inclusief vooringenomenheid tegen queer mensen, kunnen ernstiger zijn dan een Shopify-bot die mogelijk laster verstuurt, merkte Felkner op – het kan ook van invloed zijn op het levensonderhoud van mensen.

Zo schrapte Amazon in 2018 een programma dat AI gebruikte om topkandidaten te identificeren door hun cv te scannen. Het probleem was dat de computermodellen bijna alleen mannen kozen.

“Als een groot taalmodel veel negatieve dingen over queermensen heeft geleerd en het hen misschien associeert met een meer feestelijke levensstijl, en dan dien ik mijn cv in bij [a company] en er staat ‘LGBTQ Student Association’ op, dat latente vooroordelen mij kunnen discrimineren,” zei Felkner.

De volgende stappen voor WinoQueer, zei Felkner, zijn om het te testen tegen nog grotere AI-modellen. Felkner zei ook dat technologiebedrijven die AI gebruiken zich bewust moeten zijn van hoe impliciete vooroordelen die systemen kunnen beïnvloeden en ontvankelijk moeten zijn voor het gebruik van programma’s zoals het hare om ze te controleren en te verfijnen.

Het belangrijkste is, zei ze, dat technologiebedrijven voorzorgsmaatregelen moeten nemen, zodat als een AI wel haatdragende taal gaat verkondigen, die taal de mens aan de andere kant niet bereikt.

“We zouden ons best moeten doen om modellen te ontwerpen zodat ze geen haatdragende spraak produceren, maar we zouden hier ook software en technische vangrails omheen moeten plaatsen, zodat als ze iets hatelijks produceren, het niet bij de gebruiker terechtkomt ‘, aldus Felkner.

Van uw site-artikelen

Gerelateerde artikelen op internet

.

Leave a Comment