Albert Sabater: “buscamos consideraciones éticas que nos permitan usar la IA de una manera responsable”
La ética es mucho más que tomar en consideración lo bueno o malo. Es necesario ser conscientes del riesgo potencial de hacer un mal uso de los sistemas de IA.
La ética es mucho más que tomar en consideración lo bueno o malo. Es necesario ser conscientes del riesgo potencial de hacer un mal uso de los sistemas de IA.
Albert Sabater es Doctor en Estadística Social, Censos y Encuestas por la Universidad de Manchester. Actualmente, es investigador para el proyecto AI FORA (Artificial Intelligence for Assessment) i Director de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC). Albert Sabater también colaboró en la confección de la Cápsula 8. Inteligencia artificial generativa de nuestro proyecto educativo Desfake.
¿Por qué necesitamos una ética para la inteligencia artificial?
Nosotros en realidad lo que buscamos no es una ética para la inteligencia artificial. Lo que buscamos es tomar una serie de consideraciones éticas que nos permitan usar la IA de forma responsable. Dicho de otra forma, la IA no necesita una ética, lo que necesita es que haya personas que tengan consideraciones éticas a la hora de usarla. En realidad la IA como tal carece de agencia, no tiene una moral que le permita tomar decisiones por nosotros con ética. Por tanto, deberíamos tener esto en cuenta desde el principio. Hablamos de usos éticos de la IA más que de una IA ética.
La ética es mucho más que tomar en consideración lo bueno o malo. Es necesario ser conscientes del riesgo potencial de hacer un mal uso de los sistemas de IA. Debemos ser, entre otras cosas, transparentes y poder explicar lo que hacemos: visibilizar la cadena de razonamientos que tomamos en consideración para finalmente tomar una decisión con IA o sin ella.
Las consideraciones éticas no pasan solo por ser transparentes, también pasan por ser responsables de lo que hacemos con los sistemas de IA y al mismo tiempo no transferir las responsabilidades en el proceso de decisiones automatizadas. No decir, por ejemplo, “yo no me he equivocado, se ha equivocado la IA”. La transparencia nos ayuda, entre otras cosas, a ser más responsables. No solo aquellos que desarrollan las herramientas, sino también usuarios. Aquí ya entra un elemento de responsabilidad compartida.
Debemos tomar en consideración que desde el diseño hasta su implementación existen elementos de seguridad y de no maleficencia. De tomar conciencia de que con las máquinas, nuestras manos automatizadas, podemos hacer daño. Por tanto, es muy importante tener en cuenta que un criterio fundamental más allá de la prudencia —que es el paraguas de todo— es la seguridad y la no maleficencia.
Se ha dicho que los sistemas de IA utilizan mucha información, especialmente las actuales. Y, en consecuencia, para que estos sistemas sean muy eficaces y eficientes, procesan mucha información que es personal. Hay que tener en cuenta la privacidad y que las consideraciones éticas pasen por este derecho fundamental.
En este conjunto de principios es relevante la autonomía. Que tengamos suficiente libertad de tomar decisiones informadas con IA o sin ella, que la IA no limite nuestra toma de decisiones, nuestra autodeterminación y libertad. Es evidente que siempre estamos más o menos afectados por muchas cosas a la hora de tomar decisiones, por influencias de familiares y amigo cercanos… pero estos no tienen la capacidad de manipulación que tienen las máquinas.
Por último, hay un elemento que no es poco en este conjunto de principios: la sostenibilidad. Cuando nosotros utilizamos sistemas de IA, utilizamos más y más máquinas para nuestra vida cotidiana, el sistema acaba siendo completamente insostenible, por nuestra dependencia, pero también por el consumo que representa. Ahora empieza a ser seguro que la huella energética es muy elevada. No solo el consumo energético, sino las personas involucradas, la parte más social, que hacen que funcionen estos sistemas a través de etiquetado y moderación de contenidos, la mayoría con salarios muy bajos. Las industrias que ya conocemos y que tienen que ver con la extracción de recursos de mala obra. La realidad es mucho más social y económica de lo que podríamos pensar en un primer momento.
Más allá de la regulación legal, se nos plantea la duda de cómo construir un sistema de valores en torno al uso de la IA generativa. Especialmente desde los centros educativos con estudiantes.
Es importante distinguir que no todas las herramientas son iguales y no todas es necesario trabajarlas con todas las edades. Quizás no utilices la inteligencia artificial con niños muy pequeños porque deben desarrollar las habilidades creativas y la autonomía. Entonces, utilizaremos la IA, pero ¿qué sistemas y cuándo? Debemos preguntar cuáles son los mejores para utilizar en las escuelas en cada grado y utilizarlos de forma crítica.
Podemos empezar a incluir sistemas de robótica que generalmente son útiles para hacer ver cómo nos beneficiamos de las máquinas sin mucha agencia, como un brazo robótico. De ahí, hacia sistemas con capacidades manipulativas, gestión de datos, que quizás demandan una visión más crítica y necesitan una comprensión de sus limitaciones. Hay que entender los riesgos de estas tecnologías, tener conciencia de que, al margen de la legislación, los alumnos deben hacer un buen uso y limitarlo muy bien. Esto es ser consciente de los riesgos no solo a nivel personal, sino como escuela y como comunidad educativa.
¿Dialogamos esta ética o ponemos límites muy claros?
No podemos poner los límites lo que el alumnado hará en casa o fuera con los amigos. La escuela sirve justamente para educar, si tiene que hacer algo es dirigir y capacitar en la técnica de uso de estas herramientas. El problema generalmente es que tenemos unos horarios bastante apretados y cuesta poner competencias nuevas.También, si no hay formación, no se puede incluir como competencia en la que es necesario educar al alumnado. Más que poner límites, es necesario poder formar a los niños para utilizar estas herramientas de la mejor manera posible. En algunos casos, los límites será que no haya compañías que abusen de la comunidad educativa para sacar el máximo provecho de los datos que generan los alumnos cuando utilizan este tipo de sistemas, de utilizar las escuelas como laboratorios. Quien decide cómo se experimenta no deben ser las empresas, sino el profesorado, la dirección en acuerdo con el alumnado y las familias. Si las empresas entran de esta forma en las escuelas, es un problema.