La revolució tecnològica ha portat amb si innombrables beneficis, però també ha plantejat interrogants profunds sobre el seu impacte en la societat. En particular, la creixent integració de la intel·ligència artificial (IA) en l’administració pública ha obert un acalorat debat sobre la discriminació i la justícia racial. Poden aquests sistemes automatitzats, dissenyats per a agilitzar processos i analitzar grans volums de dades, perpetuar biaixos inconscients i pràctiques injustes? La resposta, malauradament, és afirmativa, com han demostrat nombrosos estudis.
Un recent informe del Consell d’Europa va revelar un preocupant augment de la discriminació cap a grups vulnerables a causa de l’ús de sistemes de IA en els serveis públics. Des dels processos de contractació fins a avaluació de sol·licituds d’assistència, la presa de decisions automatitzada ha portat, en alguns casos, a resultats profundament injustos i discriminatoris.
Davant aquesta realitat, la Unió Europea ha pres mesures contundents. La recent aprovació de la Llei d’Intel·ligència Artificial estableix normes comunes i obligacions per als proveïdors i usuaris d’aquests sistemes en el mercat intern. A més, el Consell d’Europa ha finalitzat l’esborrany del Conveni Marc sobre Intel·ligència Artificial, que seria el primer instrument jurídicament vinculant a nivell global per a abordar els riscos d’aquesta tecnologia, basant-se en els estàndards de drets humans, democràcia i estat de dret.
Aquests textos marquen una fita en la regulació de la IA i estableixen un marc clar per al seu ús ètic i responsable. Però, què han de tenir en compte els responsables polítics a l’hora de legislar i prendre decisions en aquest àmbit?
Els experts reunits en el recent seminari web “Abordant la injustícia racial, la discriminació i els biaixos en la IA dins de l’administració pública”, en el context dels grups de transferència de coneixements EU-Belong, organitzat per l’Assemblea Europea de les Regions (AER) i la Direcció General de Migració, Asil i Antiracisme del Govern de Catalunya, van oferir valuoses perspectives.
En primer lloc, van destacar la importància de comprendre com s’aborda la injustícia racial, la discriminació i els prejudicis en la IA dins de l’administració pública. Els responsables polítics, els funcionaris públics i els interessats regionals han d’estar atents als canvis que poden donar-se i preparar-se per a ells. A més, els ponents van compartir la seva visió sobre els elements clau per a una elaboració de polítiques efectiva i la participació ciutadana en el tema de la IA i la discriminació.
Una de les claus radica en la transparència i la rendició de comptes. Els sistemes de IA han de ser auditables i les seves decisions, explicables i revisables per éssers humans. A més, és crucial involucrar a grups diversos i històricament marginats en el disseny i la implementació d’aquests sistemes, per a garantir que les seves perspectives i necessitats siguin tingudes en compte.
Una altra consideració fonamental és la formació i l’educació. Els funcionaris públics i els responsables polítics han de rebre capacitació sobre els biaixos algorítmics i les implicacions ètiques de la IA, per a prendre decisions informades i promoure polítiques inclusives.
En última instància, el repte que enfrontem és aconseguir que la IA sigui una eina al servei de la justícia i l’equitat, en lloc d’un vector de discriminació. Això requereix un enfocament multidisciplinari, que combini l’experiència tècnica amb una sòlida comprensió dels drets humans, l’ètica i les implicacions socials d’aquesta tecnologia.
A mesura que avancem en l’era digital, és imperatiu que els líders polítics i els prenedors de decisions abordin aquestes qüestions amb valentia i visió de futur. Només així podrem aprofitar tot el potencial de la IA, al mateix temps que salvaguardem els valors fonamentals de la nostra societat: la igualtat, la dignitat i la justícia per a tots.
Durant el seminari, van participar destacades figures i experts en ètica de la IA i lluita contra la discriminació racial. Laura Sentis Margalef (EU-Belong) va donar la benvinguda, Joan de Lara va presentar la Xarxa de Regions Interculturals, i Sofia Trejo (Barcelona Supercomputing Center) va introduir la IA. Menno Ettema (Consell d’Europa) va aprofundir sobre IA, discriminació i drets humans. Sarah Chander (European Digital Rights) va explorar antiracisme i drets digitals, mentre que Paula Guerra Càceres (Algorace) va abordar el racisme en la intel·ligència digital.