Comunicado de www.vaticannews.va —
El religioso agustino recoleto abrió en Lima, Perú, el IV Congreso de CEPROME Latinoamérica con una ponencia en que explicó qué es la inteligencia artificial y cómo esta abre brechas y amenazas para la protección de los menores. Pero advirtió que la misma IA puede ayudar a combatir los excesos y delitos.
Felipe Herrera-Espaliat, desde Lima, Perú
Una mirada profunda al impacto de la inteligencia artificial (IA) en nuestras vidas y también en la misión de prevenir abusos sexuales en el contexto eclesial, fue la que ofreció el padre Antonio Carrón, agustino recoleto. Su ponencia abrió el IV Congreso de Ceprom Latinoamérica, que se lleva a cabo en Lima, Perú, desde el 25 al 27 de febrero. Para este sacerdote español, una formación sólida de agentes para la prevención es un asunto fundamental en la lucha que da la Iglesia en contra de aquello que el Papa Francisco ha llamado “la cultura del abuso y del encubrimiento”. Doctor en Filosofía, Master en Filosofía Contemporánea y Licenciado en Teología Pastoral, este religioso enseña en el Instituto de Antropología de la Pontificia Universidad Gregoriana de Roma.
¿Cuál es una primera clave de aproximación para abordar la complejidad de los desafíos que plantea a toda la sociedad la irrupción de la IA?
Hoy, el reto del mundo digital, y de manera más concreta de la inteligencia artificial, nos dice mucho a los que trabajamos en el ámbito de la prevención, porque lo que la inteligencia artificial está haciendo en todos los campos es potenciar mucho, para bien y para mal, aquello que ya existía. Para mí la aproximación ha de ser muy similar a la que hemos tenido con el contexto digital que, por un lado, supone muchas dificultades y riesgos, pero por otro lado es un entorno en el que también debemos estar y debemos aprovechar. Y quienes trabajamos en prevención debemos conocer todas las herramientas, debemos prevenir, pero también debemos aprovecharlas para hacer buen uso en nuestra misión. Hoy podemos utilizar también la inteligencia artificial mucho y muy bien para prevenir, para anticiparnos a circunstancias que se puedan presentar. Es importante que la utilicemos en la sensibilización, en la formación de las familias, en los ámbitos educativo, pastoral y parroquial, porque estamos haciendo uso cada día de inteligencia artificial, por lo que desconocer qué es lo que está detrás nos hace más vulnerables.
¿Cómo nos afecta en lo cotidiano esta cercanía cada vez más estrecha con todo aquello que proviene de la inteligencia artificial?
Hoy hay un gran impacto. La inteligencia artificial ha llegado a nuestras vidas y no nos hemos enterado. Estamos rodeados de inteligencia artificial, como por ejemplo cuando tenemos un smartphone, cuando utilizamos aplicaciones de algunos dispositivos en casa, como Alexa o Siri. También si vamos en el coche y utilizamos sistemas de guía, o todo lo que tiene que ver con las decisiones que tomamos a la hora de seleccionar contenidos audiovisuales, en las redes sociales de manera especial. Todo eso está impactado por la inteligencia artificial y, cada vez más, las decisiones se están tomando basadas en algoritmos. Conocer lo que está detrás de un algoritmo es importante para que evitemos esos sesgos.
¿Y cómo toca más específicamente a la misión de prevención de abusos?
Para mí un aspecto importante de la inteligencia artificial es el de la verdad, pues nos puede ayudar a fomentar un espíritu crítico, pero si no conocemos lo que está detrás, nos pueden manipular. Entonces, nuestra vida hoy está impactada por la inteligencia artificial y todo ello tiene conexión con nuestra misión, tanto como personas que nos dedicamos a la prevención, como en otros campos en los cuales como Iglesia estamos presentes: en el trato con los jóvenes, en las ámbitos educativo y pastoral. Hay retos y dificultades, pero también posibilidades y oportunidades que eso nos presenta.
¿Cuáles son las amenazas más grandes que la IA plantea a la comunidad eclesial?
En primer lugar, la facilidad que hoy tenemos para crear contenidos de todo tipo. Hay un concepto que se utiliza mucho y es el de las zonas grises. Son zonas en las cuales un contenido no puede ser detectado legalmente porque no está considerado como un contenido ilegal. Por ejemplo, hay contenidos sexualizados como posturas en fotos o mensajes que pueden estar cifrados. Existen herramientas que permiten que todo eso pueda ser filtrado, pero la inteligencia artificial hace que esos contenidos, que son mensajes ocultos, sean más difíciles de identificar por los ámbitos legales. Entonces tenemos que estar más atentos.
Además, hasta hace algunos años uno pensaba que la inteligencia artificial o que crear contenidos era muy difícil, como que eran solamente los expertos, ingenieros o diseñadores quienes trabajaban en la web profundo de modo oculto. Hoy en día hemos conocido a través de testimonios que, incluso, se pueden tomar distintas imágenes y crear una nueva imagen con cuerpos, pornografía, distintos tipos de contenidos, que se distribuyen. Parece que ya no es ciencia ficción, esto está pasando hoy y puede pasar también en el contexto eclesial. Sí, así es. Hasta hace poco, para aprender a programar, había que invertir mucho tiempo, había que conocer un lenguaje de programación, pasar de un lenguaje natural a un lenguaje formal de programación. Hoy día todo lo podemos hacer con lenguaje natural. No hace falta ser un especialista para poder generar un contenido, para duplicarlo o adaptarlo, para modificar un rostro, modificar un color, que eso es lo que hace que luego sea difícil de identificar.
Hay muchos contenidos que ya están indexados, que están filtrados, por ejemplo por instituciones como Internet Watch Foundation, que va haciendo un barrido anual de todos los contenidos de abuso sexual, especialmente con menores que hay en toda la red. Pero si esos contenidos se modifican, tienen que volver otra vez a indexarlos y eso dificulta el estar pesquisando ese tipo de contenidos.
¿En qué áreas se están presentando más problemas relativos a un uso malicioso de la IA?
Ha habido ya muchos casos de generación de imágenes, por ejemplo, en contextos educativos de desnudos. Un alumno en un colegio toma una foto de un compañero o de una compañera, lo pasa por una aplicación de inteligencia artificial y le pone otro cuerpo. Eso es algo ya muy conocido. El problema que tiene todo eso es que no existe la conciencia de que distribuir eso es un delito. Hay situaciones en las cuales la difusión de esos contenidos ha sido considerada distribución de contenidos pornográficos. Entonces, es muy importante también dar a conocer las derivaciones legales que parten de ahí y todo lo que eso supone.
Y más allá de lo legal, una acción de ese tipo impacta profundamente en quien ha sido agredido…
Sí, desde luego, cualquier tipo de ofensa, de maltrato o de abuso que se da en el contexto digital, tiene repercusiones muy similares a las que se pueden dar en el ámbito presencial, en el ámbito físico. No tenemos que hacer la distinción entre lo que ha ocurrido cara a cara respecto de lo que ha ocurrido en el contexto digital, por ejemplo, lo que pasa con el ciberbullying. El bullying es un fenómeno que ha existido en el contexto educativo desde hace mucho tiempo, pero el bullying normal se da cara a cara, mientras que el bullying digital te persigue 24 horas al día. ¡Y todo esto con inteligencia artificial se potencia muchísimo más! Se puede programar un bot para que esté insultando a alguien continuamente, sin necesidad de que haya alguien que intencionalmente lo esté haciendo en ese momento. Hay muchos estudios de casos que se han verificado, en los cuales un abuso digital ha tenido consecuencias iguales o más graves que las que ha podido tener una agresión o un abuso presencial.
¿Cuáles son los principales desafíos que la IA le plantea a la Iglesia de cara a la prevención del abuso?
La sensibilización en la formación es el punto inicial, donde pues podemos hacernos conscientes. Hay que educar a la inteligencia artificial, hay que educar en la inteligencia artificial, hay que educar en la inteligencia artificial. Si hoy los niños, los jóvenes y aquellas personas que quieren hacer daño están utilizando herramientas, la manera de prevenirlos es conociendo también esas herramientas, conociendo qué mecanismos están detrás, cómo se puede generar una imagen, cuán fácil es generar una imagen, cómo puedo también yo identificar qué imágenes han podido ser generadas con inteligencia artificial. Tenemos herramientas que nos lo permiten. Además, hay que establecer pautas y límites. Hay que integrar la inteligencia artificial desde una adecuada formación, desde un adecuado uso y, sobre todo, desde un adecuado acompañamiento.
¿En su experiencia, ha percibido conciencia e interés de la comunidad eclesial respecto de este tema que se vuelve cada vez más urgente?
En los últimos meses he tenido ocasión de compartir talleres de formación con personas responsables de oficinas de comunicación de diócesis. Creo que es algo que hay que abrir a muchos agentes pastorales en los diferentes contextos diocesanos, parroquiales, de comunidades religiosas, etc. Es un tema del que debemos hablar. El Papa nos lo ha dejado muy claro, es un tema central que de alguna forma está presente en nuestras vidas, no podemos girar la cabeza porque estamos lidiando todo el día con esta realidad del entorno digital y de la inteligencia artificial.
Se publicó primero como Padre Carrón: “Desconocer lo que está detrás de la IA nos hace más vulnerables”