La IA i els valors i principis en joc.

Continuo avui un dijous més amb reflexions sobre aquesta nova tecnologia a l’abast de tothom que està revolucionant la nostra manera de treballar. Em vull concentrar avui en alguns dels seus aspectes més negatius. Ho faig precisament aquesta setmana en què s’ha insistit tantíssim en què els usuaris d’Instagram o Facebook que no vulguem que l’algoritme s’alimenti de les nostres imatges per entrenar-se, hem de fer palesa la nostra no conformitat fins un dia en concret d’aquest mes de juny.
I és que repeteixo que la IA, com qualsevol altra tecnologia no té res de bo ni de dolent per si mateixa, tanmateix els humans en podem pervertit el seu ús.
Per evitar aberracions, l’any 2021 la UNESCO ja va generar un marc de recomanacions sobre l’ètica de la IA, és a dir que ja s’està treballant p en allò que és o no correcte a l’hora de desenvolupar i usar aquesta tecnologia. Les recomanacions estan basades en valors que la IA hauria de respectar com la dels drets humans i llibertats fonamentals, la dignitat humana, la prosperitat del medi ambient i els ecosistemes, la diversitat i la inclusió. I en el moment en què fem servir la IA hi ha una sèrie de principis a seguir com el de la proporcionalitat i la innocuïtat, la seguretat i la protecció, l’equitat i la no discriminació, la sostenibilitat i el dret a intimitat i protecció de dades.
Comencem amb el primer principi, el de la proporcionalitat i la innocuïtat. Sabem ja del cert que la IA s’està fent servir en contra d’aquest principi a indrets com la Xina perquè aquest país ha desenvolupat, també amb ajut de l’empresa tecnològica Huawei, una alarma Uigur. Sabeu què és? Els uigurs són una ètnia que pertany a la minoria musulmana a la Xina. L’alarma Uigur és un software que empra IA que ha estat nodrida amb imatges de milions de xinesos no uigurs i de uigurs per tal que l’algoritme pugui preveure segons els patrons que ha après, si el rostre d’una persona pertany a un d’ells. A la regió de Xinjiang quan aquesta alarma detecta un Uigur, la persona pot acabar a la presó i de fet centenars de milers de uigurs són ara a la garjola i se’ls està “reeducant”. La IA que s’aplica només té un percentatge d’encert del 70 % però tot i així el govern xinès no s’ha plantejat si és correcte aplicar-la. I lluny de si l’alarma uigur falla un terç de les vegades, emprar una eina de IA per a perseguir i engarjolar a ciutadans per la seva ètnia va contra els drets humans i viola clarament el principi de la innocuïtat.
Tot i que moltes empreses privades estan en contra de l’ús d’aquest tipus de software amb una IA predictiva que pot servir per discriminar, una altra gran empresa com Alibaba ha aplicat ja la alarma antimusulmana.
No cal però crear un instrument tan malèvol com aquest per incórrer en errors en l’aplicació de la IA perquè sovint la policia fa servir programes que recopilen una pila de dades sobre el lloc, l’hora i les circumstàncies en què succeeixen certs crims per tal de preveure i evitar que es repeteixin en un futur. Òbviament no parlem ara d’un ús no ètic de la IA, però tornaré ara al factor humà i recalcaré que el cervell humà no és ni molt menys tan fàcil de preveure amb la qual cosa mai hem de refiar-nos al 100% de la predicció de la IA i no es pot descartar altres escenaris del crim.
En el camp de l’educació els programes desenvolupats amb IA que intenten predir el futur rendiment acadèmic dels alumnes també poden ser una eina massa esmolada. Si nodrim l’algoritme de milers de dades de l’alumnat actual per exemple, serà obvi que la IA trobarà un patró clar entre “famílies desestructurades”, “famílies amb manca de recursos” i problemes acadèmics dels fills per posar un exemple. Però a aquesta conclusió també hi podem arribar nosaltres a partir de l’experiència. El que s’ha d’evitar amb la IA predictiva és caure en el que s’anomena profecia autocomplida. És a dir que com que ja esperem un determinat rendiment acadèmic d’un alumne, aquest ja queda condicionat pel que la IA o la comunitat acadèmica pensi d’ell. Els humans tenim un cervell plàstic que aprèn contínuament i pot seguir aprenent en edat avançada i un alumne pot desenvolupar les seves capacitats o els seus interessos en tot moment. Hem d’intentar evitar al màxim condicionar-lo negativament.
Però el grau en què la IA causa discriminació no acaba aquí. Malauradament encara no podem esborrar del tot els biaixos que pot arribar a produir la IA en molts sentits. En el camp de la producció, reconeixement i interpretació d’imatges la IA és racista i tot seguit explicaré per quin motiu. La càmera i els nostres equips de filmació van ser desenvolupats amb l’home i la dona blancs com a objectiu de la imatge. Per tant els equips estan adaptats per reflectir la pell blanca. És així mateix. Per això hi ha software que utilitza la IA que encara no és capaç de reconèixer una imatge de per exemple una mà que sosté un aparell concret si la mà és de pell fosca o negra. Sona tan horrorós com és. Hem de pensar que l’algoritme s’ha alimentat d’imatges que ja circulen i que reprodueixen els esquemes de la societat dominant que és la blanca i l’occidental. Així que de moment la IA no té possibilitat de ser equitativa en alguns sentits. Que no ho sigui i que estigui nodrida amb el que ja circula per internet vol dir que de moment reproduirà els paràmetres socials establerts que ja són els que dominen i que ara per ara per si sola no contribuirà pas a la igualtat.
Un altre punt en què la IA de moment va contra un principi que hauria de respectar és el de la sostenibilitat perquè el consum energètic que requereix pel seu funcionament genera una quantitat esgarrifosa de CO2. A la Universitat de Massachusetts Armherst, la científica Emma Strubel ha calculat amb el seu equip que entrenar un model com el chat gpt equival en contaminació a 125 vols de Pequín a Nova York. Algunes estimacions preveuen que el 2030, l’ús de la IA suposarà el 30% de consum d’energia i això és insostenible, no cal que us ho digui.
El darrer tema que cal plantejar ara és el de la privadesa de dades i l’alfabetització de la nostra petja digital. La majoria de nosaltres sabem que les nostres dades i cadascuna de les nostres cerques està sent emmagatzemada i venuda a grans empreses. Si cerco al google “rascador de gat” els deu propers minut comencen a sortir-me pop-ups i anuncis que tenen a veure amb gats. El contingut dels anuncis de les xarxes socials està condicionat a les meves cerques prèvies. Fins a quin punt aquestes dades de navegació no haurien de ser rastrejades és una qüestió d’ètica i de llibertat. El pensament és lliure, solíem dir, però ara el nostre pensament deixa fins i tot petjada a internet. És obvi que hem de ser conscients de l’ús i l’abús que les grans empreses fan de la informació que els donem. I ja no fa gaire que se’ns va advertir que si no volíem que les nostres imatges a instagram o Facebook fossin utilitzades per alimentar l’algoritme, hem de seguir uns passos concrets per fer explícit que no donem el nostre consentiment. Sembla però més lògic pensar que haurien de ser Instagram i Facebook que ens demanessin permís a nosaltres per emprar material propi extret de la nostra vida per alimentar la IA però resulta que no és així.
Per aquest motiu segueixo amb el que deia al principi. La tecnologia en si no és ni bona ni dolenta però l’ús que en fem sempre pot portar conseqüències nefastes i per tant caldria que es vetllés per la bona aplicació de la IA però encara estem en camí de crear marcs de legislació potents i de fer-los complir.
Bon començament d’estiu que ja ens ha arribat pràcticament.

Un pensament sobre “La IA i els valors i principis en joc.

  1. marionamar diu:
    marionamar's avatar

    El següent comentari és d’una seguidora del blog que ha preferit fer-me’l arribar per correu i que l’inclogui aquí a l’apartat. Gràcies Ester Lluís per transmetre els teus pensaments.

    “Benvolguda bloguera,

    Em trec el barret davant la teva perspicàcia.

    Has descrit perfectament les fal·làcies dels suposats drets del consumidor i dels avenços de la tecnologia. Jo reconec que soc potser massa conservadora i que el món ha d’avançar i girar, però de vegades em fa l’efecte que el ritme és tan vertiginós que anem disparats i ens acabarem estimbant. Realment l’ésser humà sap el que fa? Ha previst les conseqüències dels seus ginys?

    Quan en l’article de la setmana passada deies que un visionari havia especulat la possibilitat d’nserir un cervell humà en una computadora, em vaig esglaiar.

    Molt aguda la teva observació sobre les intencions segregacionistes en el control de dades identitàries de la població, com la xinesa. Crec que convindria fer arribar aquests advertiments a les altes esferes que “regulen” el món.”

    M'agrada

Deixa una resposta a marionamar Cancel·la la resposta