El Vaticano publicará un documento sobre la interacción entre el ser humano y la inteligencia artificial
El Vaticano apuesta por establecer un marco regulatorio común en el ámbito de la inteligencia artificial, propone que los algoritmos sean de código abierto y que existan pruebas y análisis continuos para comprender el impacto y corregir posibles efectos dañinos. Alerta sobre los riesgos de concentrar demasiado poder en unos pocos agentes.
El director y asesor del Centro de Cultura Digital del Dicasterio para la Cultura y la Educación del Vaticano, el español Ángel González-Ferrer García, ha anunciado que publicarán un documento sobre el ser humano y su interacción con la inteligencia artificial (IA).
En este sentido, ha explicado que están inmersos en la fase de recopilación y redacción de un documento que recogerá estos tres últimos años de “reflexiones e investigaciones filosóficas y teológicas de lo que significa ser humano en la era digital” y cómo se debe afrontar este reto, “desde el punto de vista antropológico” y de lo que supone “el uso e interacción con estas nuevas tecnologías alrededor de la IA”.
Además, el organismo vaticano colabora con el Institute for Technology Ethics & Culture de Silicon Valley para la redacción de un manual sobre ética aplicada a las nuevas tecnologías digitales.
Apuesta por un marco regulatorio
Gónzalez-Ferrer García apuesta en el ámbito de la IA por un “marco regulatorio común” donde todos los agentes se rijan por unas “mismas bases y directrices éticas” para evitar los riesgos de la evolución tan rápida que ha tenido en los últimos años el desarrollo de la IA, como ha sucedido con ChatGPT.
“Lo importante es que no vaya cada país por su lado, sino que todos los estados miembros sigan una misma directriz, máxime cuando hay un reglamento específico para ello. Lo que hay que analizar es cómo adaptarla y que el gap de velocidades entre el desarrollo tecnológico y normativo sea el menor posible”, asegura en una entrevista con Europa Press, poco después de que esta plataforma esté de nuevo disponible en Italia después de que OpenAI, la empresa matriz estadounidense del chatbot, respondiera a las solicitudes de las autoridades para la protección de datos personales que habían previamente bloqueado su uso.
El experto subraya que ChatGPT es un “gran repositorio de información para consultar, al estilo de la Wikipedia, pero más potente y con un nivel de precisión mayor por la interacción y aprendizaje que tiene con los usuarios”. Pero, a su vez, también considera que se puede considerar como un “colaborador” para “la resolución de problemas y toma de decisiones”.
Por el momento, la plataforma no está conectada a Internet u otras fuentes de información externas, sino que se basa en el procesamiento de un conjunto de datos propios recopilados, –solo llega hasta 2021– que se entrenan para comprender y generar textos sobre una amplia gama de temas y estilos. Por ello, para González-Ferrer García “no se puede considerar que la información que aporta sea 100% exacta, pues suele fallar más en aquellas partes sujetas a interpretaciones”.
Preocupaciones
Sobre sus riesgos, el asesor del Dicasterio para la Cultura y la Educación del Vaticano apunta que son los propios de “toda herramienta basada en IA que estará condicionada por los intereses comerciales de las empresas que desarrollan este software o los posibles sesgos de los desarrolladores”.
“Se debería tomar como una herramienta adicional para conformar o definir una posición, pero no como la única o verdadera”, precisa. En cualquier caso, asegura que es bueno testear las capacidades de estas nuevas tecnologías e interactuar con ellas, pues es “la mejor manera para identificar tanto las oportunidades que aportan como los riesgos”.
Con todo, lo que más preocupa al Dicasterio para la Cultura y la Educación del Vaticano sobre el uso de ChatGPT es que las personas “se entreguen por completo a lo que indique la máquina y no se fomente la cultura del esfuerzo por el aprendizaje, es decir, que no se desarrollen las capacidades cognitivas propias del ser humano como es la de pensar y razonar”.
Así, destaca que estas herramientas se deberían concebir como una manera de volver más eficientes las tareas mediante “la búsqueda de otros puntos de vista y de diversidad en el análisis”, pero asegura que hay otro punto importante que es “definir cuál va a ser el rol del educador”.
Según González-Ferrer García, otro de los grandes riesgos –dado el enorme poder de influencia y manipulación que tiene sobre las personas– es que “se concentra mucho poder en unos pocos agentes (empresas, gobiernos o individuos), con el consiguiente peligro de pérdida de derechos y autonomía para decidir libremente”.
Por ello, además de un marco regulatorio común, para luchar contra ello propone que los algoritmos “sean de código abierto para que esté al alcance de toda la comunidad tecnológica y permita la colaboración entre agentes, que no sea una mera “caja negra” donde no se sepa lo que ocurre dentro”; y, que antes de poner una de estas tecnologías en producción, “exista las interacciones suficientes y de manera continuada en un escenario real, para testear realmente el impacto que puede tener y evitar efectos dañinos pudiendo actuar a tiempo para su corrección”.