Com adoptar un enfocament conscient de la IA redueix els conjunts de dades esbiaixats

Conjunts de dades esbiaixats i IA ètica

Les solucions basades en la IA necessiten conjunts de dades per ser efectius. I la creació d’aquests conjunts de dades està plena d’un problema de biaix implícit a nivell sistemàtic. Totes les persones pateixen biaixos (tant conscients com inconscients). Els biaixos poden adoptar diferents formes: geogràfics, lingüístics, socioeconòmics, sexistes i racistes. I aquests biaixos sistemàtics es converteixen en dades, cosa que pot donar lloc a productes d’IA que perpetuen i augmenten el biaix. Les organitzacions necessiten un enfocament conscient per mitigar el biaix que s’incorpora als conjunts de dades.

Exemples que il·lustren el problema de biaix

Un exemple notable d'aquest biaix del conjunt de dades que va generar molta premsa negativa en aquell moment va ser una solució de lectura de currículums que afavoria els candidats masculins sobre les dones. Això es deu al fet que els conjunts de dades de l'eina de contractació s'havien desenvolupat utilitzant currículums de l'última dècada, quan la majoria dels sol·licitants eren homes. Les dades estaven esbiaixades i els resultats reflectien aquest biaix. 

Un altre exemple molt difós: a la conferència anual de desenvolupadors de Google I / O, Google va compartir una vista prèvia d’una eina d’assistència en dermatologia impulsada per IA que ajuda les persones a entendre què passa amb problemes relacionats amb la pell, els cabells i les ungles. L’assistent de dermatologia subratlla l’evolució de la IA per ajudar a la salut, però també va destacar el potencial de biaix per introduir-se en la IA després de la crítica que l’eina no és adequada per a les persones de color.

Quan Google va anunciar l'eina, la companyia va assenyalar:

Per assegurar-nos que estem creant per a tothom, el nostre model té en compte factors com l'edat, el sexe, la raça i els tipus de pell, des de la pell pàl·lida que no s'bronzeja fins a la pell marró que rarament es crema.

Google, utilitzant la IA per ajudar a trobar respostes a les condicions comunes de la pell

Però un article de Vice va dir que Google no va utilitzar un conjunt de dades inclusiu:

Per dur a terme la tasca, els investigadors van utilitzar un conjunt de dades d'entrenament de 64,837 imatges de 12,399 pacients situats en dos estats. Però dels milers d'afeccions de la pell que es mostren, només el 3.5 per cent provenien de pacients amb els tipus de pell Fitzpatrick V i VI, els que representen pell marró i pell marró fosca o negra, respectivament. Segons l'estudi, el 90% de la base de dades estava composta per persones amb pell clara, pell blanca més fosca o pell marró clar. Com a resultat del mostreig esbiaixat, els dermatòlegs diuen que l'aplicació podria acabar diagnosticant excessivament o infradiagnosticant persones que no són blanques.

Vice, la nova aplicació de dermatologia de Google no estava dissenyada per a persones amb pell més fosca

Google va respondre dient que refinaria l'eina abans de llançar-la formalment:

La nostra eina d'assistència dermatològica impulsada per IA és la culminació de més de tres anys d'investigació. Des que el nostre treball va aparèixer a Nature Medicine, hem continuat desenvolupant i perfeccionant la nostra tecnologia amb la incorporació de conjunts de dades addicionals que inclouen dades donades per milers de persones i milions d'imatges més curades sobre la pell.

Google, utilitzant la IA per ajudar a trobar respostes a les condicions comunes de la pell

Per molt que esperem que la intel·ligència artificial i els programes d’aprenentatge automàtic puguin corregir aquests biaixos, la realitat continua sent: només són iguals intel · ligent ja que els seus conjunts de dades estan nets. En una actualització de l'antic adagi de la programació escombraries dins/escombraries fora, les solucions d'IA només són tan fortes com la qualitat dels seus conjunts de dades des del primer moment. Sense una correcció dels programadors, aquests conjunts de dades no tenen l'experiència de fons per arreglar-se, ja que simplement no tenen cap altre marc de referència.

La creació de conjunts de dades de manera responsable és el nucli de tot intel·ligència artificial ètica. I la gent és el nucli de la solució. 

Mindful AI és una IA ètica

El biaix no es produeix en el buit. Els conjunts de dades no ètics o esbiaixats provenen d’adoptar un enfocament incorrecte durant l’etapa de desenvolupament. La manera de combatre els errors de biaix és adoptar un enfocament responsable, centrat en l'ésser humà, que molts de la indústria anomenen IA Mindful. Mindful AI té tres components crítics:

1. La intel·ligència artificial conscient està centrada en l'ésser humà

Des de l'inici del projecte d'IA, en les etapes de planificació, les necessitats de les persones han de ser el centre de cada decisió. I això significa totes les persones, no només un subconjunt. És per això que els desenvolupadors han de confiar en un equip divers de persones amb base global per formar aplicacions d'IA perquè siguin inclusives i lliures de biaix.

El crowdsourcing dels conjunts de dades d’un equip global i divers assegura que els biaixos s’identifiquen i es filtren abans. Les persones de diferents ètnies, grups d'edat, gèneres, nivells educatius, orígens socioeconòmics i ubicacions poden detectar més fàcilment conjunts de dades que afavoreixen un conjunt de valors sobre un altre, eliminant així els biaixos no desitjats.

Fes una ullada a les aplicacions de veu. Quan s’aplica un enfocament d’IA conscient i s’aprofita el poder d’un conjunt global de talents, els desenvolupadors poden tenir en compte elements lingüístics com ara diferents dialectes i accents en els conjunts de dades.

Establir un marc de disseny centrat en l'ésser humà des del principi és fonamental. Aconsegueix un llarg camí per garantir que les dades generades, curades i etiquetades compleixin les expectatives dels usuaris finals. Però també és important mantenir els humans al corrent durant tot el cicle de vida del desenvolupament del producte. 

Els humans en el bucle també poden ajudar les màquines a crear una millor experiència d'IA per a cada públic específic. A Pactera EDGE, els nostres equips de projectes de dades d'IA, situats a tot el món, entenen com les diferents cultures i contextos poden afectar la recollida i cura de dades fiables de formació en IA. Tenen les eines necessàries que necessiten per marcar problemes, supervisar-los i solucionar-los abans que s'iniciï una solució basada en IA.

Human-in-the-loop AI és un projecte de "xarxa de seguretat" que combina els punts forts de les persones i els seus diversos orígens amb la potència de càlcul ràpid de les màquines. Aquesta col·laboració humana i IA s'ha d'establir des de l'inici dels programes perquè les dades esbiaixades no constitueixin una base en el projecte. 

2. La IA conscient és responsable

Ser responsable és garantir que els sistemes d'IA estiguin lliures de biaixos i que estiguin basats en l'ètica. Es tracta de tenir en compte com, per què i on es creen les dades, com les sintetitzen els sistemes d'IA i com s'utilitzen per prendre una decisió, decisions que poden tenir implicacions ètiques. Una manera de fer-ho és treballar amb comunitats poc representades per ser més inclusives i menys esbiaixades. En el camp de les anotacions de dades, una nova investigació està posant de manifest com un model multitasca multianotador que tracta les etiquetes de cada anotador com a subtasques separades pot ajudar a mitigar problemes potencials inherents als mètodes típics de veritat terrestre on els desacords dels anotadors poden ser deguts a representacions insuficients i es pot ignorar en l'agregació d'anotacions a una única veritat bàsica. 

3. De confiança

La fiabilitat prové del fet que una empresa sigui transparent i s'explica com s'entrena el model d'IA, com funciona i per què recomanen els resultats. Una empresa necessita experiència en la localització d’IA per fer possible que els seus clients facin les seves aplicacions d’IA més inclusives i personalitzades, respectant els matisos crítics en l’idioma local i les experiències dels usuaris que puguin fer o trencar la credibilitat d’una solució d’IA d’un país a l’altre. . Per exemple, una empresa ha de dissenyar les seves aplicacions per a contextos personalitzats i localitzats, inclosos idiomes, dialectes i accents en aplicacions basades en la veu. D'aquesta manera, una aplicació aporta el mateix nivell de sofisticació de l'experiència de veu a tots els idiomes, des de l'anglès fins als idiomes poc representats.

Equitat i diversitat

En última instància, la intel·ligència artificial assegura que les solucions es basen en conjunts de dades justos i diversos on les conseqüències i l’impacte de resultats particulars es controlen i s’avaluen abans que la solució surti al mercat. En ser conscients i incloure els humans en cada part del desenvolupament de la solució, ajudem a garantir que els models d'IA es mantinguin nets, mínimament esbiaixats i tan ètics com sigui possible.

Què et sembla?

Aquest lloc utilitza Akismet per reduir el correu no desitjat. Esbrineu com es processa el vostre comentari.