Terwijl Google een project van $ 25 miljoen onthult om zijn AI te concentreren op duurzame ontwikkelingsdoelen van de Verenigde Naties, zegt de nieuwe tsaar voor technologie en samenleving van het bedrijf dat het ontslag van een AI-ethiekonderzoeker ‘ongelukkig’ was

James Manyika, een topmanager van Google die toezicht houdt op de inspanningen van het bedrijf om goed na te denken over de impact die zijn technologie op de samenleving heeft, zegt dat de techgigant in 2020 Timnit Gebru ontsloeg, een prominente onderzoeker die kijkt naar de ethiek van kunstmatige intelligentie en een van de weinig zwarte vrouwen in de onderzoeksafdeling van het bedrijf, was ‘ongelukkig’.

“Ik vind het jammer dat Timnit Gebru onder de gegeven omstandigheden uiteindelijk Google heeft verlaten, weet je, misschien had het anders aangepakt kunnen worden,” zei hij.

Manyika werkte niet bij Google toen het bedrijf Gebru ontsloeg. Google nam hem in januari in dienst voor een nieuwe rol als senior vice-president van technologie en samenleving, waarbij hij rechtstreeks rapporteerde aan Alphabet chief executive officer Sundar Pichai. Manyika, oorspronkelijk afkomstig uit Zimbabwe, is een gerespecteerde computerwetenschapper en roboticus. Hij bracht meer dan twee decennia door als toppartner bij McKinsey & Co. waar hij bedrijven in Silicon Valley adviseerde en was directeur van de interne denktank van het bedrijf, het McKinsey Global Institute. Hij was lid van de Global Development Council van president Barack Obama en is momenteel vicevoorzitter van het Amerikaanse National AI Committee, dat de regering-Biden adviseert over AI-beleid.

Manyika sprak exclusief met Fortune voorafgaand aan de aankondiging van Google vandaag van een toezegging van $ 25 miljoen gericht op het bevorderen van de Duurzame Ontwikkelingsdoelen van de Verenigde Naties door niet-gouvernementele groepen te helpen toegang te krijgen tot AI Het bedrijf lanceerde ook een “AI for the Global Goals”-website die onderzoek omvat , open-source softwaretools en informatie over het aanvragen van subsidie.

Google deed de aankondigingen samen met de opening van de Algemene Vergadering van de VN in New York deze week. Het bedrijf zei dat het naast geld ook organisaties zou ondersteunen die het selecteert voor subsidie-assistentie met ingenieurs en machine learning-onderzoekers van zijn liefdadigheidsafdeling, Google.org, om maximaal zes maanden aan projecten te werken.

Het bedrijf begon in 2018 NGO’s te helpen die werken aan de VN-doelstellingen voor duurzame ontwikkeling. Sindsdien zegt het bedrijf meer dan 50 organisaties in bijna elke regio van de wereld te hebben geholpen. Het heeft groepen geholpen de luchtkwaliteit te bewaken, nieuwe antimicrobiële stoffen te ontwikkelen en te werken aan manieren om de geestelijke gezondheid van LBTQ+-jongeren te verbeteren.

Mayika’s aanwerving komt omdat Google heeft geprobeerd zijn imago bij het grote publiek en zijn eigen werknemers te herstellen rond de toewijding van het bedrijf aan zowel technologie-ethiek als raciale diversiteit. Duizenden Google-medewerkers ondertekenden een open brief waarin ze protesteerden tegen het ontslag van Gebru en Pichai verontschuldigde zich dat de manier waarop het bedrijf de zaak had behandeld “sommigen in onze gemeenschap ertoe bracht hun plaats bij Google in twijfel te trekken.” Desalniettemin ontsloeg het bedrijf maanden later ook Gebru’s collega en co-hoofd van de AI-ethiekgroep, Margaret Mitchell. Destijds zei het dat het zijn teams aan het herstructureren was die werkten aan ethiek en verantwoordelijke AI. Die teams rapporteren nu aan Marian Croak, een Google Vice President of Engineering, die op zijn beurt rapporteert aan Jeff Dean, het hoofd van de onderzoeksafdeling van Google. Croak en Manyika zijn beide zwart.

Sinds hij bij Google aankwam, zegt Manyika onder de indruk te zijn van de ernst waarmee Google zich inzet voor verantwoord AI-onderzoek en de inzet en de processen die het heeft ingesteld om ethische kwesties te bespreken. “Het viel me op om te zien hoeveel angst en gesprekken er zijn over het gebruik van technologie, en hoe ik kan proberen het goed te krijgen,” zei hij. “Ik wou dat de buitenwereld daar meer van wist.”

Manyika zegt dat hoewel het belangrijk is om alert te zijn op ethische zorgen rond AI, er een risico bestaat als je angst voor mogelijke negatieve gevolgen toestaat om mensen blind te maken voor de enorme voordelen, vooral voor kansarme groepen, die AI kan brengen. Hij is in wezen een techno-optimist, zo maakte hij duidelijk. “Er is altijd deze asymmetrie geweest: we komen heel snel voorbij de verbazingwekkende wederzijdse voordelen en het nut hiervan, behalve misschien voor een paar mensen die erover blijven praten, en we concentreren ons op al deze zorgen en nadelen en de complicaties,” zei hij. ‘Nou, de helft daarvan zijn echt complicaties van de samenleving zelf, toch? En ja, sommige zijn in feite te wijten aan het feit dat de technologie niet helemaal werkt zoals bedoeld. Maar we concentreren ons heel snel op die kant van de dingen zonder na te denken, helpen we mensen eigenlijk? Bieden we bruikbare systemen? Ik denk dat het buitengewoon zal zijn hoe behulpzaam deze systemen zullen zijn om aan te vullen en uit te breiden wat mensen doen.”

Hij zei dat een goed voorbeeld hiervan ultragrote taalmodellen zijn, een type AI dat de afgelopen jaren heeft geleid tot verbluffende vooruitgang in de verwerking van natuurlijke taal. Gebru en een aantal andere ethische onderzoekers waren kritisch over deze modellen – waarin Google miljarden dollars heeft geïnvesteerd in het maken en op de markt brengen – en de weigering van Google om haar en haar team toe te staan ​​een onderzoekspaper te publiceren waarin ethische zorgen over deze grote taalmodellen worden belicht. het incident dat leidde tot haar ontslag.

Ultragrote taalmodellen worden getraind op grote hoeveelheden geschreven materiaal dat op internet te vinden is. De modellen kunnen raciale, etnische en genderstereotypen van dit materiaal leren en die vooroordelen vervolgens bestendigen wanneer ze worden gebruikt. Ze kunnen mensen voor de gek houden door te denken dat ze interactie hebben met een persoon in plaats van met een machine, waardoor het risico op misleiding toeneemt. Ze kunnen worden gebruikt om verkeerde informatie naar buiten te brengen. En hoewel sommige computerwetenschappers ultragrote taalmodellen zien als een weg naar meer mensachtige AI, die al lang wordt gezien als de heilige graal van AI-onderzoek, zijn vele anderen sceptisch. De modellen vergen ook veel computerkracht om te trainen, en Gebru en anderen waren kritisch over de betrokken ecologische voetafdruk. Gezien al deze zorgen heeft Emily Bender, een van Gebru’s medewerkers in haar onderzoek naar grote taalmodellen, een computerlinguïst aan de Universiteit van Washington, voorgesteld dat bedrijven moeten stoppen met het bouwen van ultragrote taalmodellen.

Manyika zei dat hij op al deze risico’s was afgestemd en toch was hij het er niet mee eens dat het werk aan dergelijke technologie zou moeten worden gestaakt. Hij zei dat Google veel stappen ondernam om de gevaren van het gebruik van de software te beperken. Hij zei bijvoorbeeld dat het bedrijf filters had die de uitvoer van grote taalmodellen screenen op giftige taal en feitelijke nauwkeurigheid. Hij zei dat in tests tot nu toe deze filters effectief lijken te zijn: in interacties met de meest geavanceerde chatbot van Google, LaMDA, hebben mensen minder dan 0,01% van de reacties van de chatbot gemarkeerd voor het gebruik van giftige taal. Hij zei ook dat Google ook heel voorzichtig is geweest om zijn meest geavanceerde taalmodellen niet openbaar te maken, omdat het bedrijf zich zorgen maakt over mogelijk misbruik. “Als je dingen gaat bouwen die krachtig zijn, doe dan het onderzoek, doe het werk om te proberen te begrijpen hoe deze systemen werken, in plaats van ze de wereld in te gooien en te kijken wat er gebeurt,” zei hij.

Maar hij zei dat het mijden van het werk aan de totale modellen zou betekenen dat mensen, inclusief de meest behoeftigen, essentiële voordelen zouden worden ontnomen. Hij zei bijvoorbeeld dat dergelijke modellen voor het eerst automatische vertaling mogelijk hadden gemaakt van “low-resource”-talen – waarvoor relatief weinig geschreven materiaal in digitale vorm bestaat. (Sommige van deze talen worden alleen gesproken, niet geschreven; andere hebben een geschreven vorm, maar er is weinig materiaal gedigitaliseerd.) Dit zijn onder meer talen als Luganda, gesproken in Oost-Afrika, en Quechua, gesproken in Zuid-Amerika. “Dit zijn talen die door veel mensen worden gesproken, maar het zijn talen met weinig middelen”, zei Manyika. “Vóór deze grote taalmodellen en hun mogelijkheden, zou het buitengewoon moeilijk, zo niet onmogelijk zijn geweest om te vertalen vanuit deze talen met weinig middelen.” Door vertalingen kunnen moedertaalsprekers via internet verbinding maken met de rest van de wereld en wereldwijd communiceren op manieren die ze voorheen nooit konden.

Manyika benadrukte ook veel van de andere manieren waarop Google AI gebruikte ten behoeve van samenlevingen en wereldwijde ontwikkeling. Hij wees op het werk dat het bedrijf in Ghana doet om te proberen sprinkhanenuitbraken nauwkeuriger te voorspellen. In Bangladesh en India werkt het bedrijf samen met de overheid om overstromingen beter te voorspellen en om de mobiele telefoons van mensen te waarschuwen met geavanceerde waarschuwingen die al levens hebben gered. Hij wees ook op DeepMind, het in Londen gevestigde AI-onderzoeksbedrijf dat eigendom is van Alphabet. Het gebruikte onlangs AI om de structuur van bijna alle bekende eiwitten te voorspellen en publiceerde deze in een gratis toegankelijke database. Hij zei dat dergelijke fundamentele vooruitgang in de wetenschap uiteindelijk zou leiden tot een beter begrip van ziekten en betere medicijnen en een grote impact zou kunnen hebben op de mondiale gezondheid.

Schrijf je in voor de Fortune-functies e-maillijst zodat u onze belangrijkste functies, exclusieve interviews en onderzoeken niet mist.

.

Leave a Comment