Desde la invención de las primeras computadoras, la gente ha soñado con la idea de máquinas capaces de crear obras de arte, escribir música, razonar y explicarse en lenguaje natural: en resumen, máquinas pensantes. En los últimos años, hemos asistido a un rápido desarrollo en el campo de la inteligencia artificial. ¿Qué ha cambiado? ¿Estamos asistiendo a los albores de las máquinas pensantes? ¿Y qué significa esto para la misión, para el cristianismo y para el mundo?
¿»Inteligencia Artificial» o «aprendizaje automático»?
En 1950, Alan Turing escribió un artículo sobre la pregunta «¿Pueden pensar las máquinas?»[1]. Este artículo sentó las bases de la inteligencia artificial (IA), junto con el «Test de Turing”, para saber si una máquina “realmente” estaba pensando. Él propuso varias formas de crear una máquina pensante. El primer enfoque se intentó entre los años 60 y 80: si proporcionamos a una computadora enormes listas de «reglas» sobre cómo funciona el mundo, sería capaz de razonar por sí misma. Un proyecto, Cyc,[2] reunió cientos de miles de relaciones (por ejemplo, “todas las manzanas son frutas») y fue capaz de responder a preguntas sencillas sobre sus conocimientos.
En los años 80, cuando el enfoque basado en reglas llegó a un callejón sin salida, la investigación pasó a la segunda estrategia de Turing, el aprendizaje automático. La idea del aprendizaje automático es que, construyendo programas con una estructura similar a la del cerebro humano («redes neuronales»), las computadoras aprenderían sobre el mundo como lo hacemos nosotros, mediante la observación y la exploración. Pero mientras los cerebros humanos tienen billones de conexiones entre sus neuronas, las redes neuronales artificiales de los años 80 y 90 solo podían sostener cientos o miles de conexiones. Esto no se debía a limitaciones de memoria o hardware, sino a un problema matemático. A medida que aumentaba el número de «capas» de la red, el flujo de información a través de ella se hacía más débil. A principios de la década de 2010 aparecieron diversas soluciones a este problema que permitieron crear redes neuronales «profundas» de varios cientos de capas, y este avance ha sido el que ha conducido directamente a la revolución de la inteligencia artificial que estamos viendo hoy.[3]
La razón por la que la historia de las redes neuronales es importante es que nos ayuda a no perder de vista lo que es la «inteligencia artificial». No es más que una estructura matemática, un modelo de probabilidades. De hecho, el término «aprendizaje automático» es una descripción más precisa, ya que pone de relieve los fundamentos matemáticos, en comparación con «inteligencia artificial», que puede inducirnos a creer erróneamente que de algún modo se está aplicando «pensamiento» e «inteligencia». En realidad, los grandes modelos lingüísticos como ChatGPT y Gemini convierten sus datos de entrenamiento en una secuencia de «tokens» y almacenan la probabilidad de que esos tokens aparezcan en secuencias diferentes. Cuando le hacemos una pregunta a ChatGPT, la computadora no considera la cuestión ni «piensa» una respuesta: simplemente nos devuelve la serie de tokens más probable que vendría a continuación. Del mismo modo, las Redes Adversariales Generativas, la tecnología que hay detrás de herramientas de «arte de IA» como DALL-E y Midjourney, devuelven el conjunto de píxeles más probable en respuesta a la pregunta que les planteamos.
Aplicar la IA a la misión de la iglesia
Aun así, los resultados de estos sistemas de aprendizaje automático son impresionantes y potencialmente muy útiles, y ya se están utilizando para acelerar la misión mundial. Por ejemplo, el equipo de IA de SIL ha desarrollado modelos de traducción de idiomas y modelos de conversión de texto a voz para más de 300 lenguas minoritarias,[4] y es pionero en herramientas de aprendizaje automático para facilitar su misión de traducción de la Biblia, control de calidad y control comunitario.[5] La IA ofrece la posibilidad de automatizar las traducciones en ámbitos como los lenguajes de signos para sordos, en los que la producción es especialmente costosa y requiere mucho tiempo, aunque la generación de vídeos en lenguaje de signos se encuentra todavía en sus primeras fases. Mi propia iglesia utiliza Microsoft Translator durante los cultos para que los miembros de diferentes países puedan acceder al culto en su propio idioma y contribuir a la vida de la iglesia incluso con un inglés limitado; la traducción automática ya nos está haciendo más ricos y más equitativos como comunidad.
Aparte de la traducción automática, otros usos misionales de la IA han buscado formas creativas de explicar y enseñar la Biblia. Por ejemplo, OneBread[6] utiliza ChatGPT y DALL-E para ilustrar un pasaje bíblico con una pintura, un epigrama, sugerencias de aplicaciones prácticas y enlaces a otros temas bíblicos. La Iglesia Episcopal ha lanzado una instancia de ChatGPT «afinada» para responder a preguntas sobre la fe y la doctrina,[7] y las nuevas empresas de IA ya están ofreciendo una serie de productos dirigidos a iglesias y a sus líderes: transcripción y «remezcla» de sermones,[8] chatbots para el discipulado e involucramiento en la iglesia,[9] y muchos más.
Y es imposible saber cómo se desarrollará el uso de la IA en el futuro y cómo afectará a la misión de la iglesia. Una visión «máxima» del potencial de la IA considera que transformará las economías y automatizará muchas de las profesiones actuales, liberando tiempo y recursos para el ministerio. Incluso en una visión moderadamente optimista, la IA proporcionará enormes avances en el desarrollo y la capacitación del personal ministerial a través de programas de aprendizaje asistidos por computadora; transformará la misión médica a través del diagnóstico y la telemedicina asistidos por el aprendizaje automático; seremos capaces de lograr lo mismo, pero mejor, con la ayuda de computadoras. Al mismo tiempo, creo que el aumento de la automatización y la comunicación «similar a la humana, pero no humana» de los chatbots agravará la epidemia de soledad existente y provocará un anhelo de conexión y comunidad humana reales que debe seguir siendo el núcleo de la misión.
Los peligros ocultos de la revolución de la IA
No obstante, aunque soy programador informático a tiempo completo y me dedico a la IA en mi trabajo, personalmente tengo una visión pesimista de la IA, y creo que hay una serie de razones por las que los cristianos deberían ser cautos antes de aceptar incondicionalmente el optimismo imperante sobre la inteligencia artificial.
Los cristianos preocupados por la verdad pueden ser reacios a la inteligencia artificial, porque como los modelos de aprendizaje automático son meros almacenes de probabilidades, están explícitamente diseñados para crear respuestas plausibles, no precisas. Como Timnit Gebru y otros argumentaron (en un artículo que llevó a su despido del Equipo de Inteligencia Artificial Ética de Google), los Modelos de Lenguaje Amplio (LLM) actúan como «loros estocásticos».[10] No tienen ningún concepto de verdadero o falso —y mucho menos ningún concepto moral de correcto o incorrecto—, sino que simplemente responden a la pregunta: «¿Cómo suena una respuesta razonable a esta pregunta?». Por ejemplo, le pedí a ChatGPT que me proporcionara una bibliografía de mis propios artículos sobre la teología de la vergüenza. De la impresionante lista de citas, ni una sola era un artículo real. Además, el hecho de que los LLM se entrenen en los contenidos de Internet, y que no todo lo que hay en Internet sea cierto, hace que los asistentes de IA recomienden comer piedras y cocinar espaguetis con gasolina.[11]
Al mismo tiempo, los datos de entrenamiento suelen llevar un sesgo implícito basado en la visión del mundo dominante que los produjo, por lo que los LLM perpetran el racismo y el sexismo de su contexto. Por ejemplo, el húngaro tiene un pronombre de género neutro, «ö», que debe traducirse por «él» o «ella» en inglés/español. Las herramientas de traducción automática utilizarán las probabilidades integradas en los datos de entrenamiento para elegir un pronombre para los casos ambiguos, prefiriendo «él está investigando» a «ella está investigando», «ella está criando a un niño» en lugar de «él está criando a un niño», etc.[12]
Incluso antes de entrar en los problemas de los deepfakes y la desinformación generada por la IA, en dominios como el discipulado de nuevos creyentes, sería quedarse corto decir que la precisión y la visión del mundo correcta son más importantes que las respuestas que suenan plausibles. Reconfigurar los LLM para que sean precisos es una preocupación acuciante en el sector, pero es un problema que los principales actores no han sido capaces de resolver eficazmente.
Los cristianos preocupados por la ética pueden ser reacios a confiar en la inteligencia artificial por la forma en que se obtienen los datos de entrenamiento. Las redes neuronales profundas necesitan que se les muestre un enorme número de imágenes y textos de ejemplo para lograr resultados coherentes: La IA Llama3 de Meta, por ejemplo, es entrenada con un conjunto de quince billones de tokens «recogidos de fuentes públicas «.[13] Pero existen preocupaciones importantes en cuanto a si esta colección es ética. Consideremos, por ejemplo, el uso de un modelo de IA para generar ilustraciones para la portada de un libro. La Red Generativa Adversarial (GAN) utilizada para generar la imagen se habrá entrenado con muchos millones de obras de arte —a menudo sin tener en cuenta sus derechos de autor o el estado de su licencia—[14] y el arte generado por la IA se utilizará en lugar de encargarlo a un artista humano. En otras palabras, la IA está haciendo redundantes a los artistas mediante la apropiación no acreditada, no compensada y posiblemente poco ética de sus propias obras de arte.
Un aspecto más preocupante de la formación en LLM es la medida oculta en que la inteligencia artificial depende de trabajadores humanos para etiquetar y moderar los contenidos. Una carta de trabajadores de IA keniatas[15] destaca los bajos salarios, las prácticas laborales poco éticas y explotadoras, y la exposición a «asesinatos y decapitaciones, abusos y violaciones de menores, pornografía y zoofilia, a menudo durante más de 8 horas al día», que sustentan la revolución de la IA. Quizá merezca la pena recordar el movimiento ludita, que se resistió a la Revolución Industrial no porque tuviera miedo del avance tecnológico, sino porque consideraba que su costo humano era demasiado elevado.[16]
Por último, los cristianos preocupados por el cuidado de la creación pueden mostrarse reticentes ante la inteligencia artificial por el impacto medioambiental del entrenamiento y el uso de redes neuronales profundas. El entrenamiento de GPT-3, un único modelo que se consideraría pequeño según los estándares actuales, requirió 1287 MWh de electricidad, suficiente para abastecer a 1500 hogares durante un mes, y generó 500 toneladas de emisiones de CO2.[17] Además de electricidad, los centros de datos utilizados por los grandes modelos requieren enormes cantidades de agua para proporcionar refrigeración por evaporación; se calcula que GPT-3 necesitó 700.000 litros de agua para su entrenamiento, y requiere medio litro de agua para impulsar una breve conversación con un usuario. A medida que el cambio climático conduce a un aumento de la sequía y la escasez de agua, debemos preguntarnos si podemos justificar contribuir a los 5.000 millones de metros cúbicos de agua —la mitad del consumo anual del Reino Unido— que se calcula que utilizarán las herramientas de IA para el año 2027.[18]
Hacia una IA responsable
El uso responsable de la IA representa una oportunidad para quienes tenemos habilidades y dones tecnológicos para expandirnos hacia nuevas áreas de ministerio, pero debemos mantenernos lúcidos. Creo que es demasiado pronto para saber qué tipo de impacto tendrá la IA. Por un lado, la aplicación exitosa de la IA tiene el potencial de transformar casi todas las áreas del ministerio y la vida personal; por otro, hay serios indicios de una burbuja en la que el bombo publicitario que rodea a la IA no se ha traducido en el tipo de aplicaciones que la industria ha prometido.[19]
¿Qué es un uso «responsable» de la IA? La «Declaración Ética de la IA» del SIL[20] ofrece un marco útil: el uso de la IA debe promover el florecimiento humano, ser «justo, amable y humilde», mantener la privacidad y la seguridad de los datos, garantizar la responsabilidad y la supervisión humanas generales, supervisar de cerca el tipo y la calidad de los resultados que se generan e implicar a las comunidades locales como partes interesadas.
En los próximos años, los cristianos tendrán que evaluar críticamente las cuestiones que he planteado anteriormente mientras exploran el uso de la IA, equilibrando las oportunidades que ofrece con los peligros y costos muy reales que representa: en otras palabras, «sométanlo todo a prueba, aférrense a lo bueno, eviten toda clase de mal».
Notas
- A. Turing, ‘Computing machinery and intelligence,’ Mind, 59(236),1950: 435-60.
- D. Lenat et. al., ‘CYC: Using Common Sense Knowledge to Overcome Brittleness and Knowledge Acquisition Bottlenecks,’ AI Magazine, 6(4), 1986: 65–85.
- See ‘The Vanishing/Exploding Gradients Problem’ in A. Géron, Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow (Sebastopol, CA: O’Reilly Media, 2022), ch 11.
- C. Leong, et. al., ‘Bloom library: Multimodal datasets in 300+ languages for a variety of downstream tasks,’ arXiv preprint arXiv:2210.14712, 2022; see also https://www.ai.sil.org/projects/acts2.
- ‘SIL AI & NLP Projects,’ SIL International, accessed 19 August 2024, https://www.ai.sil.org/projects.
- ‘The Bible according to OpenAI,’ OneBread, accessed 19 August 2024,
- Michael Gryboski, ‘Episcopal Church launches AI chatbot ‘AskCathy’,’ 12 August 2024,
- ‘Helping busy pastors turn sermons into content,’ Pulpit AI, accessed 19 August 2024,
- ‘What is truth? Use AI to spread the Gospel,’ Biblebots, accessed 19 August 2024,
- E. M. Bender et al., ‘On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜’, in FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency: 610-23, 1 March 2021,
- Toby Walsh, ‘Eat a rock a day, put glue on your pizza: how Google’s AI is losing touch with reality,’ The Conversation, 27 May 2024, https://theconversation.com/eat-a-rock-a-day-put-glue-on-your-pizza-how-googles-ai-is-losing-touch-with-reality-230953.
- E. Vanmassenhove, (2024). ‘Gender Bias in Machine Translation and the Era of Large Language Models,’ Gendered Technology in Translation and Interpreting: Centering Rights in the Development of Language Technology, ch 9, 18 January 2024, https://arxiv.org/html/2401.10016v1.
- ‘Introducing Meta Llama 3: The most capable openly available LLM to date,’ Meta, 18 April 2024, https://ai.meta.com/blog/meta-llama-3/.
- G. Appel et al., ‘Generative AI Has an Intellectual Property Problem,’ Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem.
- Caroline Hskins, ‘The Low-Paid Humans Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery,’ WIRED, 22 May 2024, https://www.wired.com/story/low-paid-humans-ai-biden-modern-day-slavery/.
- Richard Conniff, ‘What the Luddites Really Fought Against,’ Smithsonian, March 2011, https://www.smithsonianmag.com/history/what-the-luddites-really-fought-against-264412/.
- Nestor Maslej et al., ‘The AI Index 2023 Annual Report,’ AI Index Steering Committee, Institute for Human-Centered AI, Stanford University (Stanford, CA: April 2023),120-23.
- P. Li, P, J. Yang, M. A. Islam, & S. Ren, ‘Making AI less ‘thirsty’ Uncovering and addressing the secret water footprint of AI models,’ ArXiv preprint, 29 October 2023, https://arxiv.org/pdf/2304.03271.
- Chris Taylor, ‘The AI bubble has burst. Here’s how we know,’ Marshable, 6 August 2024,
- ‘AI Ethics Statement,’ SIL, accessed 19 August 2024, https://www.sil.org/ai-ethics-statement.