Albert Sabater: “Busquem consideracions ètiques que ens permetin fer servir la IA d’una manera responsable”
L’ètica és molt més que prendre en consideració allò que és bo o dolent. Cal ser conscients del risc potencial de fer un mal ús dels sistemes de IA.
L’ètica és molt més que prendre en consideració allò que és bo o dolent. Cal ser conscients del risc potencial de fer un mal ús dels sistemes de IA.
Albert Sabater és Doctor en Estadística Social, Censos i Enquestes per la Universitat de Manchester. Actualment, és investigador pel projecte AI FORA (Artificial Intelligence for Assessment) i director de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC). L’Albert Sabater també va col·laborar en la confecció de la Càpsula 8. Intel·ligència artificial generativa del nostre projecte educatiu Desfake.
Per què ens cal una ètica per a la intel·ligència artificial?
Nosaltres en realitat el que busquem no és una ètica per a la intel·ligència artificial. El que busquem és prendre una sèrie de consideracions ètiques que ens permetin fer servir la IA d’una manera responsable. Dit d’una altra manera, la IA no necessita una ètica, el que necessita és que hi hagi persones que tinguin consideracions ètiques a l’hora d’usar-la. En realitat la IA com a tal no té agència, no té una moral que li permeti prendre decisions per nosaltres amb ètica. Per tant, hauríem de tenir això en compte des d’un bon principi. Parlem d’usos ètics de la IA més que d’una IA ètica.
L’ètica és molt més que prendre en consideració allò que és bo o dolent. Cal ser conscients del risc potencial de fer un mal ús dels sistemes de IA. Hem de ser, entre altres coses, transparents i poder explicar allò que fem: visibilitzar la cadena de raonaments que prenem en consideració per tal de finalment prendre una decisió amb IA o sense.
Les consideracions ètiques no passen només per ser transparents, també passen per ser responsables d’allò que fem amb els sistemes d’IA i alhora no transferir les responsabilitats en el procés de determinacions automatitzades. No dir, per exemple, “jo no m’he equivocat, s’ha equivocat la IA”. La transparència ens ajuda, entre altres coses, a ser més responsables. No només aquells que desenvolupen les eines sinó també usuaris. Aquí ja entra l’element de responsabilitat compartida.
Hem de prendre en consideració que des del disseny fins a la seva implementació hi ha elements de seguretat i de no maleficència. De prendre consciència que amb les màquines, les nostres mans automatitzades, podem fer mal. Per tant, és molt important tenir en compte que un criteri fonamental més enllà de la prudència —que és el paraigua de tot— és la seguretat i la no maleficència.
S’ha dit que els sistemes d’IA fan servir molta informació, especialment les actuals. I, en conseqüència, per tal que aquests sistemes siguin molt eficaços i eficients processen molta informació que és personal. Cal tenir en compte la privacitat i que les consideracions ètiques passin per aquest dret fonamental.
En aquest conjunt de principis és fonamental l’autonomia. Que tinguem prou llibertat per prendre decisions informades amb IA o sense, que la IA no limiti la nostra presa de decisions, la nostra autodeterminació i llibertat. És evident que sempre estem més o menys afectats per moltes coses a l’hora de prendre decisions, per influències de familiars i amic propers… però aquests no tenen la capacitat de manipulació que tenen les màquines.
Finalment, hi ha un element que no és poca cosa en aquest conjunt de principis: la sostenibilitat. Quan nosaltres fem servir sistemes d’IA, utilitzem més i més màquines per a la nostra vida quotidiana, el sistema acaba sent completament insostenible, per la nostra dependència, però també pel consum que representa. Ara comença a ser ben segur que la petjada energètica és molt elevada. No només el consum energètic sinó les persones involucrades, la part més social, que fan que funcionin aquests sistemes a través d’etiquetatge i moderació de continguts, la majoria amb salaris molt baixos. Les indústries que ja coneixem i que tenen a veure amb l’extracció de recursos de mala obra. La realitat és molt més social i econòmica del que podríem pensar en un primer moment.
Més enllà de la regulació legal, se’ns planteja el dubte de com construir un sistema de valors al voltant de l’ús de la IA. Especialment des dels centres educatius amb els estudiants.
És important distingir que no totes les eines són iguals i no totes cal treballar-les amb totes les edats. Potser no faràs servir la intel·ligència artificial amb nens molt petits perquè han de desenvolupar les habilitats creatives i l’autonomia. Aleshores, farem servir la IA, però quins sistemes i quan? Hem de preguntar quins són els millors per utilitzar a les escoles a cada grau i fer-los servir d’una manera crítica.
Podem començar a incloure sistemes de robòtica que generalment són útils per fer veure de quina manera ens beneficiem de les màquines sense gaire agència, com un braç robòtic. D’aquí, cap a sistemes amb capacitats manipulatives, gestió de dades, que potser demanden una visió més crítica i necessiten una comprensió de les seves limitacions. Cal entendre els riscos d’aquestes tecnologies, tenir consciència que, al marge de la legislació, els alumnes n’han de fer un bon ús i l’han de limitar molt bé. Això és ser conscient dels riscos no només a escala personal, sinó com escola i com a comunitat educativa.
Dialoguem aquesta ètica o posem límits molt clars?
No podem posar els límits allò que l’alumnat farà a casa o a fora amb els amics. L’escola serveix justament per educar, si ha de fer alguna cosa és dirigir i capacitar en la tècnica d’ús d’aquestes eines. El problema generalment és que tenim uns horaris força atapeïts i costa posar-hi competències noves. També, si no hi ha formació, no es pot incloure com a competència en la qual cal educar l’alumnat. Més que posar límits, cal formar la mainada per tal d’utilitzar aquestes eines de la millor manera possible. En alguns casos els límits serà que no hi hagi companyies que abusin de la comunitat educativa per treure’n el màxim profit de les dades que generen els alumnes quan fan servir aquesta mena de sistemes, de fer servir les escoles com si fossin laboratoris. Qui decideix com s’experimenta no han de ser les empreses sinó el professorat, la direcció en acord amb l’alumnat i les famílies. Si les empreses entren d’aquesta manera a les escoles, és un problema.