Hoe 'n bedagsame benadering tot KI bevooroordeelde datastelle verminder

Bevooroordeelde datastelle en etiese AI

KI-aangedrewe oplossings benodig datastelle om effektief te wees. En die skepping van daardie datastelle is belaai met 'n implisiete vooroordeelprobleem op 'n sistematiese vlak. Alle mense ly aan vooroordele (beide bewustelik en onbewustelik). Die vooroordele kan enige aantal vorme aanneem: geografies, linguisties, sosio-ekonomies, seksisties en rassisties. En daardie sistematiese vooroordele word in data gebak, wat kan lei tot KI-produkte wat vooroordeel voortduur en vergroot. Organisasies het 'n bedagsame benadering nodig om vooroordeel wat in datastelle insluip, te versag.

Voorbeelde wat die vooroordeelprobleem illustreer

Een noemenswaardige voorbeeld van hierdie datastel-vooroordeel wat destyds baie negatiewe pers gekry het, was 'n CV-leesoplossing wat manlike kandidate bo vroue bevoordeel het. Dit is omdat die werwingsinstrument se datastelle ontwikkel is met behulp van CV's van die afgelope dekade toe 'n meerderheid aansoekers manlik was. Die data was bevooroordeeld en die resultate het daardie vooroordeel weerspieël. 

Nog 'n voorbeeld wat wyd gerapporteer word: Google het op die jaarlikse Google I/O-ontwikkelaarkonferensie 'n voorskou gedeel van 'n KI-aangedrewe dermatologiehulpmiddel wat mense help om te verstaan ​​wat aangaan met kwessies wat verband hou met hul vel, hare en naels. Die dermatologie-assistent beklemtoon hoe KI ontwikkel om te help met gesondheidsorg - maar dit het ook die potensiaal beklemtoon vir vooroordeel om in KI in te kruip in die nasleep van kritiek dat die instrument nie voldoende is vir mense van kleur nie.

Toe Google die instrument bekend maak, het die onderneming opgemerk:

Om seker te maak ons ​​bou vir almal, maak ons ​​model rekening met faktore soos ouderdom, geslag, ras en veltipes – van bleek vel wat nie bruin word nie tot bruin vel wat selde brand.

Google, gebruik KI om antwoorde op algemene veltoestande te vind

Maar 'n artikel in Vice het gesê dat Google nie 'n inklusiewe datastel gebruik het nie:

Om die taak te bereik, het die navorsers 'n opleidingsdatastel van 64,837 12,399 beelde van 3.5 90 pasiënte in twee state gebruik. Maar van die duisende veltoestande op die foto, het slegs XNUMX persent van pasiënte met Fitzpatrick-veltipes V en VI gekom—dié wat onderskeidelik bruin vel en donkerbruin of swart vel verteenwoordig. Volgens die studie was XNUMX persent van die databasis saamgestel uit mense met 'n ligte vel, 'n donkerder of 'n ligbruin vel. As gevolg van die bevooroordeelde steekproefneming, sê dermatoloë dat die toepassing mense wat nie wit is nie, kan oor- of onderdiagnoseer.

Vice, Google se nuwe dermatologie-app is nie ontwerp vir mense met donkerder vel nie

Google het gereageer deur te sê dat dit die instrument sal verfyn voordat dit formeel vrygestel word:

Ons KI-aangedrewe dermatologiehulpmiddel is die hoogtepunt van meer as drie jaar se navorsing. Sedert ons werk in Nature Medicine verskyn het, het ons voortgegaan om ons tegnologie te ontwikkel en te verfyn met die inkorporering van bykomende datastelle wat data insluit wat deur duisende mense geskenk is, en miljoene meer saamgestelde velsorgbeelde.

Google, gebruik KI om antwoorde op algemene veltoestande te vind

Soveel as wat ons kan hoop dat KI en masjienleerprogramme vir hierdie vooroordele kan regstel, bly die realiteit: hulle is slegs as slim aangesien hul datastelle skoon is. In 'n opdatering van die ou programmeringstaal vullis in/vullis uit, KI-oplossings is net so sterk soos die kwaliteit van hul datastelle van die begin af. Sonder 'n regstelling van programmeerders het hierdie datastelle nie die agtergrondervaring om hulself reg te stel nie – aangesien hulle eenvoudig geen ander verwysingsraamwerk het nie.

Die bou van datastelle verantwoordelik is die kern van alles etiese kunsmatige intelligensie. En mense is die kern van die oplossing. 

Bewuste KI is etiese KI

Vooroordeel gebeur nie in 'n vakuum nie. Onetiese of bevooroordeelde datastelle kom van die verkeerde benadering tydens die ontwikkelingstadium. Die manier om vooroordeelfoute te bekamp, ​​is om 'n verantwoordelike, mensgesentreerde benadering aan te neem wat baie in die bedryf Mindful AI noem. Mindful AI het drie kritieke komponente:

1. Bewuste KI is mensgesentreerd

Vanaf die aanvang van die AI -projek, in die beplanningsfases, moet die behoeftes van mense die middelpunt van elke besluit wees. En dit beteken alle mense - nie net 'n subset nie. Daarom moet ontwikkelaars staatmaak op 'n diverse span wêreldwyd-gebaseerde mense om KI-toepassings op te lei om inklusief en vooroordeelvry te wees.

Deur die datastelle van 'n wêreldwye, diverse span te meng, verseker dat vooroordele vroeg geïdentifiseer en uitgefiltreer word. Diegene van verskillende etnisiteite, ouderdomsgroepe, geslagte, opvoedingsvlakke, sosio-ekonomiese agtergronde en liggings kan datastelle makliker raaksien wat een stel waardes bo 'n ander bevoordeel, en sodoende onbedoelde vooroordeel uitwis.

Kyk na stemtoepassings. Wanneer 'n bewuste KI-benadering toegepas word en die krag van 'n globale talentpoel gebruik word, kan ontwikkelaars rekening hou met taalkundige elemente soos verskillende dialekte en aksente in die datastelle.

Om van die begin af 'n mensgesentreerde ontwerpraamwerk daar te stel, is van kritieke belang. Dit gaan 'n lang pad om te verseker dat die data wat gegenereer, saamgestel en geëtiketteer is, voldoen aan die verwagting van die eindgebruikers. Maar dit is ook belangrik om mense deur die hele produkontwikkelingslewensiklus op hoogte te hou. 

Mense in die lus kan ook masjiene help om 'n beter KI-ervaring vir elke spesifieke gehoor te skep. By Pactera EDGE verstaan ​​ons KI-dataprojekspanne, wat wêreldwyd geleë is, hoe verskillende kulture en kontekste die insameling en samestelling van betroubare KI-opleidingsdata kan beïnvloed. Hulle het die nodige gereedskap wat hulle nodig het om probleme te vlag, dit te monitor en dit reg te stel voordat 'n KI-gebaseerde oplossing in werking tree.

Mens-in-die-lus KI is 'n projek "veiligheidsnet" wat die sterk punte van mense kombineer - en hul uiteenlopende agtergronde met die vinnige rekenaarkrag van masjiene. Hierdie menslike en KI-samewerking moet vanaf die begin van die programme gevestig word sodat bevooroordeelde data nie 'n fondament in die projek vorm nie. 

2. Bewuste KI is verantwoordelik

Om verantwoordelik te wees, is om te verseker dat AI -stelsels vry van vooroordele is en dat dit op etiek gegrond is. Dit gaan daaroor om bedag te wees op hoe, hoekom en waar data geskep word, hoe dit deur KI-stelsels gesintetiseer word, en hoe dit gebruik word om 'n besluit te neem, besluite wat etiese implikasies kan hê. Een manier waarop 'n onderneming dit kan doen, is om saam met onderverteenwoordigde gemeenskappe meer inklusief en minder bevooroordeeld te wees. Op die gebied van data-aantekeninge beklemtoon nuwe navorsing hoe 'n multi-annotator multi-task model wat die etikette van elke annotator as aparte subtaak behandel, kan help om moontlike kwessies wat inherent is aan tipiese grondwaarheidsmetodes, te versag, waar meningsverskille tussen annotateurs te wyte kan wees aan ondervoorstellings en kan geïgnoreer word in die samevoeging van aantekeninge tot 'n enkele grondwaarheid. 

3. Betroubaar

Betroubaarheid kom van 'n besigheid wat deursigtig en verduidelikbaar is in hoe die KI-model opgelei word, hoe dit werk en hoekom hulle die uitkomste aanbeveel. 'n Besigheid benodig kundigheid met KI-lokalisering om dit vir sy kliënte moontlik te maak om hul KI-toepassings meer inklusief en gepersonaliseerd te maak, met respek vir kritieke nuanses in plaaslike taal en gebruikerservarings wat die geloofwaardigheid van 'n KI-oplossing van een land na die volgende kan maak of breek. . Byvoorbeeld, 'n besigheid moet sy toepassings ontwerp vir gepersonaliseerde en gelokaliseerde kontekste, insluitend tale, dialekte en aksente in stemgebaseerde toepassings. Op dié manier bring 'n toepassing dieselfde vlak van stemervaring gesofistikeerdheid na elke taal, van Engels tot onderverteenwoordigde tale.

Regverdigheid en diversiteit

Uiteindelik verseker bewuste KI dat oplossings gebou word op billike en diverse datastelle waar die gevolge en impak van bepaalde uitkomste gemonitor en geëvalueer word voordat die oplossing na die mark gaan. Deur bedag te wees en mense in elke deel van die oplossing se ontwikkeling in te sluit, help ons om te verseker dat AI -modelle skoon, minimaal bevooroordeeld en so eties moontlik bly.

Wat dink jy?

Hierdie webwerf gebruik Akismet om spam te verminder. Leer hoe jou opmerking verwerk is.