Hoe in mindful oanpak foar AI besuniget op foaroardielige datasets

Biased datasets en etyske AI

AI-oandreaune oplossingen hawwe datasets nedich om effektyf te wêzen. En it oanmeitsjen fan dy datasets is beladen mei in ymplisyt biasprobleem op systematysk nivo. Alle minsken lije oan foaroardielen (sawol bewust as ûnbewust). De foaroardielen kinne elk oantal foarmen nimme: geografysk, taalkundich, sosjaal-ekonomysk, seksistysk, en rasistysk. En dy systematyske foaroardielen wurde bakt yn gegevens, wat kin resultearje yn AI -produkten dy't foaroardielen perpetuearje en fergrutsje. Organisaasjes hawwe in mindful oanpak nedich om te ferminderjen tsjin bias dy't yn datasets krûpt.

Foarbylden dy't it foaroardielprobleem yllustrearje

Ien opfallend foarbyld fan dizze foaroardielen fan datasets dy't op it stuit in protte negative parse wûn, wie in oplossing foar opnij lêzen dy't manlike kandidaten favoryt foar froulju. Dit komt om't de datasets fan 'e wervingsynstrumint binne ûntwikkele mei resumens fan' e ôfrûne desennia doe't in mearderheid fan oanfregers manlik wie. De gegevens wiene foaroardielich en de resultaten wjerspegelen dy bias. 

In oar wiidferspraat foarbyld: Op 'e jierlikse Google I/O-ûntwikkelderskonferinsje dielde Google in foarbyld fan in AI-oandreaun ark foar dermatology-assistinsje dat minsken helpt te begripen wat der bart mei problemen yn ferbân mei har hûd, hier en nagels. De dermatology -assistint ûnderstreket hoe't AI evoluearret om te helpen mei sûnenssoarch - mar it markearre ek it potensjeel foar bias om yn AI te krûpen yn 'e nas fan krityk dat it ark net genôch is foar minsken fan kleur.

Doe't Google it ark oankundige, merkte it bedriuw op:

Om derfoar te soargjen dat wy foar elkenien bouwe, rekkent ús model faktoaren lykas leeftyd, seks, ras en hûdtypen - fan bleke hûd dy't net tanet oant brune hûd dy't selden baarnt.

Google, AI brûke om antwurden te finen op mienskiplike hûdbetingsten

Mar in artikel yn Vice sei dat Google mislearre in ynklusive dataset te brûken:

Om de taak út te fieren, brûkten de ûndersikers in trainingsdataset fan 64,837 ôfbyldings fan 12,399 pasjinten yn twa steaten. Mar fan 'e tûzenen ôfbyldings fan hûdsomstannichheden kaam mar 3.5 prosint fan pasjinten mei Fitzpatrick -hûdtypen V en VI -dy respektivelik brune hûd en donkere brune as swarte hûd. 90 persint fan 'e databank wie gearstald út minsken mei earlike hûd, donkere wite hûd, as ljochtbrune hûd, neffens de stúdzje. As gefolch fan 'e foaroardielige sampling, sizze dermatologen dat de app kin einigje mei over- as under-diagnoaze minsken dy't net wyt binne.

Vice, de nije dermatology -app fan Google wie net ûntworpen foar minsken mei in donkere hûd

Google antwurde troch te sizzen dat it it ark soe ferfine foardat it formeel frijlit:

Us AI-oandreaune dermatology-assistint is it hichtepunt fan mear dan trije jier ûndersyk. Sûnt ús wurk waard featured yn Nature Medicine, hawwe wy ús technology trochgean te ûntwikkeljen en te ferfine mei it opnimmen fan ekstra datasets dy't gegevens omfetsje skonken troch tûzenen minsken, en miljoenen mear gearstalde ôfbyldings fan hûdsoarch.

Google, AI brûke om antwurden te finen op mienskiplike hûdbetingsten

Safolle as wy hoopje dat AI- en masinelearprogramma's kinne korrigearje foar dizze foaroardielen, bliuwt de realiteit: se binne allinich lykas tûk om't har datasets skjin binne. Yn in update foar it âlde programmearwurd garbage yn/garbage out, AI-oplossingen binne allinich sa sterk as de kwaliteit fan har datasets fanôf it begjin. Sûnder in korreksje fan programmeurs hawwe dizze datasets gjin eftergrûnûnderfining om harsels op te lossen - om't se gewoan gjin oar referinsjeramme hawwe.

Ferantwurdlik bouwen fan datasets is de kearn fan alles etyske keunstmjittige yntelliginsje. En minsken binne de kearn fan 'e oplossing. 

Mindful AI is etyske AI

Bias bart net yn in fakuüm. Unetyske as foaroardiele datasets komme út it nimmen fan 'e ferkearde oanpak tidens it ûntwikkelingsstadium. De manier om foaroardielflaters te bestriden is it nimmen fan in ferantwurdlike, minske-sintreare, oanpak dy't in protte yn 'e sektor Mindful AI neame. Mindful AI hat trije krityske komponinten:

1. Mindful AI is Human-Centered

Fanôf it begjin fan it AI -projekt, yn 'e planningsstadia, moatte de behoeften fan minsken yn it sintrum stean fan elk beslút. En dat betsjuttet alle minsken - net allinich in subset. Dêrom moatte ûntwikkelers fertrouwe op in ferskaat team fan wrâldwiid basearre minsken om AI-applikaasjes op te trenen om ynklusyf en foaroardielich te wêzen.

Crowdsourcing fan de datasets fan in wrâldwiid, ferskaat team soarget derfoar dat foaroardielen betiid wurde identifisearre en filtere. Dy fan ferskate etnyske groepen, leeftydsgroepen, geslachten, opliedingsnivo's, sosjaal-ekonomyske eftergrûnen, en lokaasjes kinne makliker datasets opspoare dy't de iene set wearden favorearje boppe de oare, en sa ûnbedoelde bias útslute.

Besjoch stimapplikaasjes. By it tapassen fan in mindful AI -oanpak, en gebrûk meitsje fan de krêft fan in wrâldwide talintpool, kinne ûntwikkelers rekken hâlde mei taalkundige eleminten lykas ferskate dialekten en aksinten yn 'e datasets.

It oprjochtsjen fan in minske-sintraal ûntwerkkader fanôf it begjin is kritysk. It giet in lange wei nei it garandearjen dat de gegevens genereare, gearstald en markearre foldogge oan 'e ferwachting fan' e einbrûkers. Mar it is ek wichtich om minsken yn 'e loop te hâlden yn' e heule libbenssyklus fan produktûntwikkeling. 

Minsken yn 'e loop kinne masines ek helpe by it meitsjen fan in bettere AI -ûnderfining foar elk spesifyk publyk. By Pactera EDGE begripe ús AI -dataprojekteams, wrâldwiid lizzend, hoe't ferskate kultueren en konteksten kinne beynfloedzje de kolleksje en kuraasje fan betroubere AI -trainingsgegevens. Se hawwe de nedige ark dy't se nedich binne om problemen te markearjen, te kontrolearjen en te reparearjen foardat in AI-basearre oplossing live giet.

Human-in-the-loop AI is in projekt "feiligensnet" dat de sterke punten fan minsken kombineart-en har ferskate eftergrûnen mei de rappe rekkenkrêft fan masines. Dizze minsklike en AI -gearwurking moat wurde oprjochte fanôf it begjin fan 'e programma's, sadat foaroardielige gegevens gjin stichting foarmje yn it projekt. 

2. Mindful AI is ferantwurdlik

Ferantwurdlik wêze is om te soargjen dat AI -systemen frij binne fan foaroardielen en dat se binne basearre op etyk. It giet oer it bewust wêzen fan hoe, wêrom, en wêr't gegevens wurde oanmakke, hoe't se wurde synthetisearre troch AI -systemen, en hoe't it wurdt brûkt by it nimmen fan in beslút, besluten dy't etyske gefolgen kinne hawwe. Ien manier foar in bedriuw om dat te dwaan is om te wurkjen mei ûnder fertsjintwurdige mienskippen om mear ynklusyf en minder foaroardiel te wêzen. Op it mêd fan gegevensnotaasjes markearret nij ûndersyk hoe't in multi-annotator multi-task model dat de labels fan elke annotator behannelt as aparte subtaak kin helpe potensjele problemen te beheinen dy't inherent binne oan typyske grûnwaarmetoaden, wêryn annotator-ferskillen kinne wêze fanwege ûnder-foarstellingen en kin wurde negeare yn 'e aggregaasje fan annotaasjes nei in ienige grûnwaarheid. 

3. Betrouwber

Betrouwbaarheid komt fan in bedriuw dat transparant en te ferklearjen is yn hoe't it AI -model wurdt traind, hoe't it wurket, en wêrom se de útkomsten oanbefelje. In bedriuw hat ekspertize nedich mei AI -lokalisaasje om it mooglik te meitsjen foar har kliïnten om har AI -tapassingen mear ynklusyf en personaliseare te meitsjen, mei respekt foar krityske nuânses yn lokale taal en brûkersûnderfiningen dy't de leauwensweardigens fan in AI -oplossing fan it iene lân nei it folgjende kinne meitsje of brekke. . Bygelyks, in bedriuw moat har applikaasjes ûntwerpe foar personaliseare en lokalisearre konteksten, ynklusyf talen, dialekten, en aksinten yn spraak-basearre applikaasjes. Op dy manier bringt in app itselde nivo fan ferfining fan stimûnderfining foar elke taal, fan Ingelsk oant talen dy't net fertsjintwurdige binne.

Earlikens en ferskaat

Uteinlik soarget mindful AI foar dat oplossingen wurde boud op earlike en ferskate datasets wêr't de gefolgen en ynfloed fan bepaalde útkomsten wurde kontroleare en evalueare foardat de oplossing op 'e merke giet. Troch bewust te wêzen en minsken op te nimmen yn elk diel fan 'e ûntwikkeling fan' e oplossing, helpe wy derfoar te soargjen dat AI -modellen skjin, minimaal foaroardielich en sa ethysk mooglik bliuwe.

Wat tinksto?

Dizze side brûkt Akismet om spam te ferleegjen. Learje hoe't jo kommentaargegevens ferwurke wurde.