Adrián Caraballo: “La ética es clave en el desarrollo de la inteligencia artificial”

Adrián Caraballo González, responsable de Diseño e Innovación educativos en Radio ECCA Fundación, dará, este martes 27 de mayo a las 19.00 horas, la ponencia De qué hablamos cuando decimos inteligencia artificial (IA) en la Escuela de Formación Sociopolítica y Fe Cristiana de la diócesis de Canarias, en la Casa de la Iglesia, pudiéndose seguir también por Zoom. El ponente considera que “otro problema de la IA es el incremento de la desigualdad social”.
¿Cuáles son las ideas centrales de la ponencia?
Voy a abordar qué es la inteligencia artificial y qué no es, porque se habla mucho y hay mucho mito; cuándo surgió, porque parece que es algo nuevo, cuando existe desde los años 50; y a qué la podemos aplicar, y hacia dónde se dirige esa inteligencia artificial, que parece que es el boom ahora.
¿Qué es la inteligencia artificial?
Es una herramienta, basada en una serie de algoritmos, de operaciones matemáticas, que sirve como asistente para operaciones complejas. Operaciones que a una persona le llevarían días, semanas, meses, años, la IA en base a una serie de cálculos que se hacen con ordenadores, es capaz de darlo en segundos o minutos. Realmente es una herramienta de computación creada por humanos, que nos ayuda a resolver problemas humanos. Eso es importante.
¿Cuáles son sus objetivos o sus principales usos?
El principal objetivo de la IA, como nace realmente y como nos gustaría que fuese, es ser un asistente que nos ayuda en los procesos diarios. En el campo del trabajo, a ser más productivos, en el campo de la educación, a personalizar más la enseñanza, porque las personas aprendemos de formas diferentes. En cuanto a la tecnología, ayudarnos a seguir evolucionando.
¿En qué medida es o no una herramienta neutral?
Esa es la gran pregunta, que, dependiendo de quien, unas personas nos dirán que es neutral y otras que no. Tenemos que tener una cosa clara: la IA es una herramienta creada por personas para resolver problemas humanos. La pregunta sería en qué medida el ser humano puede llegar a ser neutral, porque si estamos creando una herramienta, basándose en datos y etiquetándolas en conceptos que tenemos, si no somos neutrales, obviamente no vamos a crear una herramienta neutral. Y ya no es solo reflexión, sino que esto se visualiza, se ve. Si utilizamos un modelo de lenguaje entrenado en una sociedad con una cultura, todas las respuestas que nos va a dar van a ser en base a ese entrenamiento que ha recibido.
Pon un ejemplo.
Si yo entreno una IA indicando que la mejor forma de coexistir o vivir es usando las energías renovables, todas las respuestas que me va a dar van a ir a eso. Si le pregunto si las emisiones de carbonos son malas, me va a decir sí, porque hay que utilizar energías renovables; y, al revés, son buenas porque todas las energías renovables van a tener impactos. Depende del entrenamiento va a ser neutral o no. Cada vez está costando más ser neutral. Las instituciones y los parlamentos están haciendo todo lo posible para que así sea.
¿La ética tiene algo que ver con todo esto?
Muchísimo. Dependiendo de cómo entrenemos los modelos de IA, van a ser las respuestas. Ahora hay grandes modelos que nos permiten crear imágenes en segundos, que una persona tardaría igual un día. Claro, si no somos muy específicos en el mensaje, la respuesta o la imagen va a ser en base al entrenamiento, cayendo en sesgos y estereotipos. Si le decimos que haga la foto de dos personas caminando por la playa, el resultado va a ser sorprendente. No sería la primera vez que un medio de comunicación genera una imagen de una persona por IA, o incluso que recopila una noticia que ha sido creada con IA y luego se tiene que desdecir al comprobar que la noticia no es real.
¿Dónde está ese punto de confiar en los datos obtenidos por la IA?
En la verificación. Es muy importante la verificación, lo que yo llamo la interfaz humana. Luego tenemos otro problema dentro de la ética de la IA, yo le llamo el laberinto de la IA, porque nos ofrece muchas salidas, pero para poder llegar a esa salida tenemos que ir esquivando muros y ver el camino que tenemos que seguir: las cámaras de ecos, la polarización. Gracias a la IA es muy fácil de convencer o autoconvencernos de que el criterio que tenemos es el correcto, de que es riguroso. No olvidemos que la IA está entrenada para satisfacer al usuario, a la usuaria. La respuesta que nos va a dar es en base a una pregunta que queremos que nos dé una respuesta exacta. El sistema está hecho así para que se siga utilizando, porque si me vas a dar una respuesta que no me gusta, me enfado y dejo de usarla. La IA nos permite polarizar nuestro pensamiento, nuestra opinión crítica, incluso la de los demás.
¿Hay algún otro riesgo?
Sí, uno de los más grandes. ¿Estamos dispuestos a que la IA simplifique nuestro día a día, nos ayude a ser más productivos a cambio de un precio más amplio que tenemos que pagar? ¿Cuál es ese precio? Que tenga acceso a todos nuestros datos. Aunque bloqueemos ciertos accesos, lo que estamos haciendo es decirle a la IA cómo somos, le estamos haciendo preguntas que nos preocupan. Si yo le comento que me ayude a resolver un problema, ya le estoy comunicando algo que me preocupa.
¿Qué desventajas puede tener?
Se habla mucho de pérdidas de empleo, y efectivamente es un hecho. La automatización de la IA va a hacer que desaparezcan muchos puestos de trabajo, como ocurrió con la Revolución Industrial. Desaparecen muchos empleos, pero se están demandando otros puestos de trabajo. Uno de los riesgos más importantes es la seguridad de los datos. ¿Dónde están y quiénes los almacenan? ¿Bajo qué regulación se usan? Y eso me lleva a recordar que la regularización europea solo regula el nivel de riesgo que tiene el uso de la IA, no en el uso específico o en su uso ético. La IA puede generar una imagen ofensiva y si la usamos el problema lo tenemos nosotros, pero de quién es la culpa. No puedo decir que la IA me ha dejado publicarla. ¿Dónde está la frontera de quién tiene “la culpa” en este caso?
¿Algún otro problema?
El de la desigualdad social. Desde que han empezado las tecnologías emergentes de la comunicación, la brecha digital entre las personas que tienen y saben utilizarlas y las que no, ha ido aumentando. Y la IA ha hecho que esa brecha aumente más. También se puede utilizar para reducir esa brecha. Otro de los riesgos es su uso indebido en la educación. El alumnado puede estudiar mucho mejor, pero también, como lo hace por mí, hago una copia y pega y ya está. Es necesaria esa alfabetización en IA y adquirir esas competencias. Y, por parte del profesorado, cómo la uso para sacarle provecho, hacerlo más productivo, no puedo dejar que dé la clase por mí, que programe la clase. Sí puedo hacer que, una vez preparada la clase, pedir que me genere diferentes tipos de preguntas para elegir tras supervisarlas.

Periodista y militante de la HOAC de Canarias