Global Analysis

Un marco ético para la IA

Quintin McGrath Oct 2025

Overview

In evangelical circles, responses to artificial intelligence (AI) range from outright resistance to enthusiastic adoption. Some see it as a tool of the enemy; others regard it as a providential gift for our time—an ‘idolatrous threat’, a ‘divine tool’, or something in between. Modern AI tools are designed to be intuitive and easily adopted, yet uncritical use without ethical grounding can lead to unintended and harmful consequences. Conversely, fear and misunderstanding may prevent engagement, even when biblically responsible use could offer tangible benefits. Regardless of one’s initial posture, AI’s influence and impact will only continue to grow in the decades ahead.

, el uso de la IA en iglesias y organizaciones misioneras conlleva un uso de aplicación distinto situado dentro de consideraciones teológicas y éticas que requieren un discernimiento cuidadoso y en oración.

Instituciones de todos los sectores se apresuran a incorporar estas tecnologías para seguir siendo pertinentes y eficaces, al tiempo que intentan dar forma a directrices éticas. Aunque gran parte de este avance está impulsado por prioridades empresariales, el uso de la IA en iglesias y organizaciones misioneras conlleva un uso de aplicación distinto situado dentro de consideraciones teológicas y éticas que requieren un discernimiento cuidadoso y en oración.

A medida que la IA, en particular la IA Generativa (GenAI), avanza en capacidad y accesibilidad, se hace cada vez más urgente que los cristianos la aborden a través de una lente ética bíblicamente fundamentada. Este Informe LIGHT examina las implicaciones éticas de la IA y destaca las preguntas y conversaciones clave en torno a su uso en todo el espectro de la práctica misionera. Comenzamos presentando un marco ético que sirve de base a las subsecciones siguientes.

Un marco ético para la IA en las misiones

Existen muchos marcos utilizados para evaluar el uso ético y responsable de la IA, tanto fuera como dentro de la iglesia. Mientras que algunos tienen su origen en los campos de la medicina, la política pública o la ética tecnológica, otros han surgido en el seno de tradiciones religiosas que buscan responder fielmente a la creciente influencia de la IA. El cuadro comparativo que figura a continuación destaca los principios éticos clave de una serie de modelos representativos, revelando ámbitos de preocupación compartida.

    MarcoPrincipios basados en la autonomíaPrincipios basados en la no maleficenciaPrincipios basados en la beneficenciaPrincipios basados en la justiciaDominios adicionales
IEEE EAD (2019)1Derechos humanos Agencia de datosTransparenciaConciencia de uso indebidoCompetenciaBienestarEficaciaRendición de cuentasTres pilares: Valores humanos universalesAutodeterminación políticaFiabilidad técnica
OECD (20192/20243)Derechos humanos y valores democráticosTransparencia y explicabilidadRobustez, seguridad y protecciónCrecimiento inclusivo y bienestarDesarrollo sostenibleRendición de cuentasNo discriminaciónConsideraciones económicas
EU (2019)4Actividad humana y supervisiónPrivacidad y gobernanza de datosTransparenciaSolidez técnica y seguridadPrevención de dañosBienestar social y ambientalDiversidad, no discriminación y equidadRendición de cuentasCumplimiento de la leyAdhesión ética
UNESCO (2021)5Autonomía humanaPrivacidadTransparenciaPrevención de dañosBeneficio socialSostenibilidadNo discriminaciónInclusiónRendición de cuentasResponsabilidadDiversidad Derechos humanos y dignidadSociedades pacíficas
Unión Africana (2024)6Dignidad humanaCultura y valores africanosSeguridad y protecciónDesarrollo centrado en las personasUbuntu (bienestar colectivo)Diversidad e inclusiónÉtica y transparenciaContextualización culturalAlineación con la Agenda 2063
Instituto Alan Turing7Respetar (dignidad)Conectar (interacción)ExplicabilidadProtección (contra daños)SeguridadMayordomía de datosCuidado (bienestar)SostenibilidadEquidadRendición de cuentasMarco de valores SUMPrincipios SSAFE-D

Además de estos marcos, un número creciente de tradiciones religiosas han desarrollado sus propios enfoques éticos de la IA, cada uno de ellos basado en convicciones teológicas y visiones morales distintas. En el cuadro siguiente se compara la forma en que las principales comunidades religiosas articulan las prioridades éticas en respuesta a los retos y oportunidades que plantea la IA.

MarcoPrincipios basados en la autonomíaPrincipios basados en la no maleficenciaPrincipios basados en la beneficenciaPrincipios basados en la justicia  Elementos religiosos únicos
ERLC (2019)8Imagen de Dios (dignidad)Actividad moral humanaPrivacidad y derechos de los datosResponsabilidad individualLa IA no es moralmente neutraPrevención de prejuicios/dañosLas aplicaciones de seguridad no deben deshumanizar, despersonalizar ni dañarTecnología para defender la dignidad humanaLos avances médicos como gracia comúnInnovación para la gloria de Dios, el florecimiento humano y el amor al prójimo.Igualdad de valor y dignidad humanosPrincipios de guerra justaMayordomía  bíblicaTeología de la imagen de DiosRestricciones de la ética sexualEl trabajo como vocación divina
Alianza Evangélica Suiza (2025)9Responsabilidad individualUso consciente y autocontrolado de la tecnología.Protección frente a dependencias malsanas (problemas de adicción).Evitar la manipulaciónInvolucramiento constructivoServir a Dios y al prójimoMaximizar los potenciales positivos para la humanidad y el planetaEvitar los prejuicios y la marginaciónAcceso equitativoBienestar de la comunidadModelo de involucramiento de DanielEquilibrio entre la reflexión y la acciónInvolucramiento vocacional de los profesionales cristianos de la IA
Católico (2025)10La dignidad humana como valor supremoLa actividad humana en las decisiones sobre IALa responsabilidad moral no puede delegarseSupervisión humanaPrevención del daño a la dignidad y de la amenaza a la santidad de la vidaProtección de las personas vulnerablesPromoción del bien comúnTecnología para la vocación humanaJusticia socialDistribución equitativa de los beneficiosSeguridad internacional y promoción de la pazDoctrina social católicaBien comúnMayordomía de la creación
Pensamiento judío11La actividad moral humanaResponsabilidad individual (razonamiento del halajá).Los objetos nunca pueden ser sustitutos de seres humanosSe aplican marcos de responsabilidad (por ejemplo, bajo y alto riesgo). Patrones de evaluación de riesgosBeneficio para la comunidadInnovación constructivaTrato equitativoResponsabilidad comunalProtección de los vulnerablesRazonamiento halájicoLiteratura responsaTradición del GolemPreservación de la singularidad divinaLímites a la innovación humana
Islámico (coránico) (2025)12Humanos como mayordomos responsables (kalifa).Rendición de cuentas individual por las actividades en las que interviene la IAEvitar el dañoProhibición de causar corrupción en la tierraUso de la IA para facilitar la tarea humana, promover la asistencia mutua.Principio de beneficio públicoBienestar de la humanidadJusticia en el usoEquidad y aplicación no arbitraria.Orientación coránicaResponsabilidad de la mayordomía

Al comparar los dos cuadros, observamos que principios como la autonomía, la actividad humana y la alineación entre el ser humano y la inteligencia artificial en los marcos seculares se amplían a menudo en la ética religiosa para incluir la actividad moral y la alineación teológica. Al concepto de bienestar se añaden con frecuencia la mayordomía, la formación espiritual y la centralidad de la comunidad y el florecimiento relacional. De manera similar, los conceptos de justicia y rendición de cuentas se profundizan en el contexto de la ética religiosa para abarcar expresiones de la dignidad humana, el carácter sagrado de la vida y nuestra responsabilidad moral ante Dios.

SECULAREXTENSIONES RELIGIOSAS
Autonomía (por ejemplo, actividad humana) 
Supervisión humana+ Actividad moral
Transparencia y explicabilidad 
Alineación entre humanos e IA+ Alineación teológica
Beneficencia (por ejemplo, bienestar) 
Sostenibilidad y medio ambiente+ Cuidado de la creación
Beneficio público y bien común+ Florecimiento comunitario y relacional
 + Formación espiritual
No maleficencia (por ejemplo, no hacer daño) 
Privacidad y protección de datos 
Justicia (por ejemplo, imparcialidad y equidad) 
Rendición de cuentas y supervisión humana+ Responsabilidad moral
Inclusión y no discriminación+ Dignidad humana y santidad de la vida

Sobre esta base, ofrecemos un marco misional con fundamento bíblico para evaluar la IA a través de los siguientes temas rectores: (1) Alineación con la Comisión, (2) Alineación relacional, (3) Alineación con la utilidad y la equidad, y (4) Alineación moral. En conjunto, estas categorías proporcionan una lente para un involucramiento fiel con la IA al servicio de la Gran Comisión.

Marco ético cristiano y alineamientos clave

Alineación con la Comisión

El primer paso para pensar en una IA bíblicamente responsable es centrarnos en nuestra relación única con Dios, como portadores de su imagen, junto con las funciones de mayordomía y dominio de la tierra que Dios nos ha otorgado. Génesis 1:26-27 deja claro que hemos sido creados a imagen de Dios. Él insufló su vida en nosotros (Gn 2:7). Génesis 1:28 establece nuestro propósito: llenar, someter y gobernar la tierra, y cuidar de ella (Gn 2:15). Miqueas 6:8 refuerza nuestra actividad moral como seres humanos y representantes de Dios para actuar con justicia, amar la misericordia y caminar humildemente con nuestro Dios. Jesús, reiterando los mandamientos más importantes de Dios, nos remite a la Shemá (Dt 6:4-5), que nos exige amar a Dios por completo, y también amar a nuestro prójimo como a nosotros mismos (Lv 19:18).

Los sistemas de IA deben honrar la dignidad humana como portadores únicos de la imagen de Dios. También deben apoyar los principios bíblicos de justicia, verdad y amor, y servir a los propósitos del reino de shalom y florecimiento humano.

Para ayudarnos a aplicar estos conceptos en la práctica, sugerimos preguntarnos: ¿Honra esta aplicación de la IA nuestra dignidad humana como portadores de la imagen de Dios? ¿Influye en nuestra actividad moral? ¿En qué medida se ajusta a los principios bíblicos de justicia, verdad y amor, y los refuerza?

Alineación relacional

Parte de nuestra singularidad humana reside en nuestra capacidad de relación, arraigada en nuestra comunión con Dios y con los demás (Jn 17:20-26; 1Jn 4:7-21). Jesús vino a la tierra como Dios encarnado, Emanuel (Is 7:14; Mt 1:20-23), encarnando la presencia divina en la relación humana. En el centro de este diseño relacional está la Trinidad misma: Padre, Hijo y Espíritu Santo en comunión perfecta y eterna. Hechos a imagen de este Dios trino, somos relacionales por naturaleza, creados no solo para la fe individual, sino para el amor mutuo, la comunión encarnada y la interdependencia.

AI must not be allowed to interfere with these essential relationships; neither our communion with God nor our connection with others. Rather, it should be leveraged to reinforce and enable them: strengthening authentic human connection inside and outside the church, within the family, between generations, and across cultures.

Core questions to ask include: Does this technology strengthen or weaken authentic human relationships? Does the AI application foster communal trust, or substitute artificial connection in place of real community? How does it shape the way we love, listen to, and serve one another? How does AI foster or hinder our relationship with God?

Utility & Equity Alignment

Jesus instructed us to love our neighbors as ourselves (Matt 22:39), calling us to a life of active, sacrificial service. When evaluating the utility of AI, we must ask whether it genuinely serves human need and enhances, not diminishes, our capacity to love and serve others. This aligns with the prophetic call in Micah 6:8 to act justly, love mercy, and walk humbly with God. Scripture consistently reminds us to uphold the cause of the poor, the marginalized, and the voiceless, making equity and justice non-negotiable priorities in any ethical evaluation of technology.

Justice and utility are also inseparable from questions of sustainability. From the opening chapters of Genesis, we are reminded that the earth belongs to the Lord and that humanity has been entrusted with its care—not for exploitation but for faithful stewardship. The development and use of AI often require significant energy consumption, computing infrastructure, and resource allocation. These environmental and social costs frequently fall most heavily on the poor and underserved. Ethical AI must therefore be evaluated not only in terms of who benefits and who is harmed, but also by how it affects our shared world, especially for future generations.

We must ask: Do our AI tools address genuine human needs, or do they create artificial dependencies? Do they close or widen the digital divide? Are they deployed in ways that prioritize long-term justice and sustainability over efficiency? True stewardship means cultivating both expertise and discernment so that these technologies are used wisely, equitably, and faithfully.

No debe permitirse que la IA interfiera en estas relaciones esenciales; ni en nuestra comunión con Dios ni en nuestra conexión con los demás. Al contrario, debe ser aprovechada para reforzarlas y posibilitarlas: fortaleciendo la auténtica conexión humana dentro y fuera de la iglesia, dentro de la familia, entre generaciones y entre culturas.

Algunas de las preguntas básicas que debemos hacernos son: ¿Esta tecnología refuerza o debilita las relaciones humanas auténticas? ¿La aplicación de la IA fomenta la confianza comunitaria o sustituye la comunidad real por una conexión artificial? ¿De qué manera determina la forma en que nos amamos, escuchamos y servimos los unos a los otros? ¿De qué manera fomenta o dificulta la IA nuestra relación con Dios?

Alineación con la utilidad y la equidad

Jesús nos ordenó amar al prójimo como a nosotros mismos (Mt 22:39), llamándonos a una vida de servicio activo y sacrificado. A la hora de evaluar la utilidad de la IA, debemos preguntarnos si sirve realmente a las necesidades humanas y si aumenta, y no disminuye, nuestra capacidad de amar y servir a los demás. Esto concuerda con el llamado profético de Miqueas 6:8 a actuar con justicia, amar la misericordia y caminar humildemente con Dios. Las Escrituras nos recuerdan constantemente que debemos defender la causa de los pobres, los marginados y los que no tienen voz, haciendo de la equidad y la justicia prioridades no negociables en cualquier evaluación ética de la tecnología.

La justicia y la utilidad son también inseparables de las cuestiones de sostenibilidad. Desde los primeros capítulos del Génesis, se nos recuerda que la tierra pertenece al Señor y que se ha confiado a la humanidad su cuidado, no para explotarla, sino para ejercer una mayordomía fiel. El desarrollo y la utilización de la inteligencia artificial requieren a menudo un importante consumo de energía, infraestructuras informáticas y asignación de recursos. Con frecuencia, estos costos medioambientales y sociales recaen sobre todo en los pobres y desatendidos. Por lo tanto, la IA ética debe evaluarse no solo en términos de quién se beneficia y quién se perjudica, sino también por cómo afecta a nuestro mundo compartido, especialmente para las generaciones futuras.

Debemos preguntarnos: ¿Abordan nuestras herramientas de IA necesidades humanas genuinas o crean dependencias artificiales? ¿Cierran o amplían la brecha digital? ¿Se despliegan de forma que prioricen la justicia y la sostenibilidad a largo plazo sobre la eficiencia? La verdadera mayordomía implica cultivar tanto la experiencia como el discernimiento para que estas tecnologías se utilicen de forma inteligente, equitativa y fiel.

Alineación moral

Para ejercer bien nuestra responsabilidad de mayordomía, debemos ser conscientes de cómo se utiliza la IA y asegurarnos de que entendemos y mantenemos el control sobre sus sistemas. Las Escrituras dejan claro que Dios nos hace responsables de lo que decimos y hacemos. También somos responsables los unos ante los otros como pueblo de Dios, y estamos llamados a amarnos, servirnos y protegernos mutuamente en la verdad.

Como seres moralmente responsables ante Dios, nunca podemos asignar actividad moral a las máquinas. No se debe permitir que la IA se presente como humana, ya sea en la interacción escrita o verbal. Es esencial una transparencia clara sobre cómo y cuándo se utiliza la IA, junto con explicaciones comprensibles de sus decisiones, conocimiento de cómo funciona y claridad sobre quién es responsable de sus resultados.

Como seres moralmente responsables ante Dios, nunca podemos asignar actividad moral a las máquinas.

Esto exige que tanto los desarrolladores como los líderes ministeriales se pregunten: ¿Se identifica claramente nuestra solución de IA como no humana? ¿Está claro quién es responsable de la IA y de sus resultados? ¿Se utilizan nuestros sistemas de IA con integridad, transparencia y con la debida supervisión humana? ¿Existen salvaguardias que identifiquen y aborden los errores, los daños y las consecuencias imprevistas? En última instancia, debemos asumir la responsabilidad de las tecnologías que utilizamos y compartimos con los demás.

Conclusión

Si bien este marco ético de la IA sirve como punto de partida, no pretende ser un enfoque exhaustivo. Más bien, ofrece una perspectiva fundacional y una herramienta de alto nivel para evaluar el diseño y el uso de la IA en consonancia con la ética bíblica. La evaluación completa de cualquier sistema requerirá un mayor escrutinio, incluida la evaluación técnica y, en su caso, la verificación por parte de auditores independientes.

Sin embargo, la ética en abstracto no es suficiente. La aplicación en el mundo real importa. La verdadera prueba de cualquier marco reside en cómo determina decisiones en contextos específicos. Por esta razón, el resto de este informe explora una serie de casos de uso, examinando cómo la IA ya se está aplicando en diversos aspectos de los esfuerzos de la Gran Comisión, desde el discipulado y la traducción de la Biblia hasta la evangelización, el ministerio de la iglesia y la misión integral. Nuestra esperanza es equipar a la iglesia mundial con discernimiento y también imaginación para un involucramiento fiel en esta nueva frontera tecnológica.

Notas finales

  1. Institute of Electrical and Electronics Engineers. Ethically Aligned Design: A Vision for Prioritizing Human Well-Being with Autonomous and Intelligent Systems. 1 ed., 2019. standards.ieee.org/content/ieee-standards/en/industry-connections/ec/autonomous-systems.html.
  2. OECD. ‘Scoping the OECD AI Principles.’ (2019). https://doi.org/10.1787/d62f618a-en.
  3. OECD. Recommendation of the Council on Artificial Intelligence: OECD/LEGAL/0449, 2025.
  4. European Union. Ethics Guidelines for Trustworthy AI, 2019.
  5. UNESCO. Recommendation on the Ethics of Artificial Intelligence, 2021.
  6. African Union. Continental Artificial Intelligence Strategy: Harnessing AI for Africa’s Development and Prosperity, 2024.
  7. Leslie, David, Cami Rincón, Morgan Briggs, Antonella Perini, Smera Jayadeva, Ann Borda, S. J. Bennett, et al. AI Ethics and Governance in Practice: An Introduction. The Alan Turing Institute, 2023. www.turing.ac.uk/news/publications/ai-ethics-and-governance-practice-introduction.
  8. ERLC. ‘Artificial Intelligence: An Evangelical Statement of Principles.’ (2019). Accessed 19 August 2025. https://erlc.com/policy-content/artificial-intelligence-an-evangelical-statement-of-principles/.
  9. Swiss Evangelical Alliance. ‘Gemeinde & Digitalisierung: KüNstliche Intelligenz (KI) in Der Kirche.’ (2025). Accessed 19 August 2025. www.each.ch/wp-content/uploads/2025/05/250522_Arbeitspapier_KI_und_Kirche_25_web.pdf.
  10. 1Vatican. ‘Antiqua Et Nova: Note on the Relationship between Artificial Intelligence and Human Intelligence.’ Updated 28 January 2025, 2025, accessed 19 August 2025, press.vatican.va/content/salastampa/it/bollettino/pubblico/2025/01/28/0083/01166.html#ing.
  11. Kalman, David Zvi. ‘Artificial Intelligence and Jewish Thought.’ Chap. 5 In The Cambridge Companion to Religion and AI, (Cambridge,UK: Cambridge University Press, 2024),69-87.
  12. Fauzi, Muhammad Rifqi, and Kharis Nugroho. ‘The Ethics of AI Usage from Perspective of the Qur’an.’ Proceeding ISETH (International Summit on Science, Technology, and Humanity) (2025-01-21 2025): 819-25. doi.org/10.23917/iseth.5467.

Biografía del autor

Quintin McGrath

Quintin McGrath (D.B.A., University of South Florida) es un ejecutivo de informática mundial retirado de Deloitte y fundador de QplusAI LLC, que ayuda a impulsar la transformación ética de la IA en organizaciones de todo el mundo. Como consultor, educador e investigador y asesor en AI & Faith, con un doctorado en IA, ética y gestión de riesgos, aporta más de 24 años de experiencia ejecutiva en tecnología internacional para ayudar a las empresas a transitar la implementación responsable de la IA, al tiempo que extiende la influencia del Reino de Dios en el ámbito comercial. Su trabajo ha sido publicado en IEEE Transactions on Engineering Management, la revista AI and Ethics y MIS Quarterly Executive.