Overview
In evangelical circles, responses to artificial intelligence (AI) range from outright resistance to enthusiastic adoption. Some see it as a tool of the enemy; others regard it as a providential gift for our time—an ‘idolatrous threat’, a ‘divine tool’, or something in between. Modern AI tools are designed to be intuitive and easily adopted, yet uncritical use without ethical grounding can lead to unintended and harmful consequences. Conversely, fear and misunderstanding may prevent engagement, even when biblically responsible use could offer tangible benefits. Regardless of one’s initial posture, AI’s influence and impact will only continue to grow in the decades ahead.
, el uso de la IA en iglesias y organizaciones misioneras conlleva un uso de aplicación distinto situado dentro de consideraciones teológicas y éticas que requieren un discernimiento cuidadoso y en oración.
Instituciones de todos los sectores se apresuran a incorporar estas tecnologías para seguir siendo pertinentes y eficaces, al tiempo que intentan dar forma a directrices éticas. Aunque gran parte de este avance está impulsado por prioridades empresariales, el uso de la IA en iglesias y organizaciones misioneras conlleva un uso de aplicación distinto situado dentro de consideraciones teológicas y éticas que requieren un discernimiento cuidadoso y en oración.
A medida que la IA, en particular la IA Generativa (GenAI), avanza en capacidad y accesibilidad, se hace cada vez más urgente que los cristianos la aborden a través de una lente ética bíblicamente fundamentada. Este Informe LIGHT examina las implicaciones éticas de la IA y destaca las preguntas y conversaciones clave en torno a su uso en todo el espectro de la práctica misionera. Comenzamos presentando un marco ético que sirve de base a las subsecciones siguientes.

Un marco ético para la IA en las misiones
Existen muchos marcos utilizados para evaluar el uso ético y responsable de la IA, tanto fuera como dentro de la iglesia. Mientras que algunos tienen su origen en los campos de la medicina, la política pública o la ética tecnológica, otros han surgido en el seno de tradiciones religiosas que buscan responder fielmente a la creciente influencia de la IA. El cuadro comparativo que figura a continuación destaca los principios éticos clave de una serie de modelos representativos, revelando ámbitos de preocupación compartida.
| Marco | Principios basados en la autonomía | Principios basados en la no maleficencia | Principios basados en la beneficencia | Principios basados en la justicia | Dominios adicionales |
| IEEE EAD (2019)1 | Derechos humanos Agencia de datosTransparencia | Conciencia de uso indebidoCompetencia | BienestarEficacia | Rendición de cuentas | Tres pilares: Valores humanos universalesAutodeterminación políticaFiabilidad técnica |
| OECD (20192/20243) | Derechos humanos y valores democráticosTransparencia y explicabilidad | Robustez, seguridad y protección | Crecimiento inclusivo y bienestarDesarrollo sostenible | Rendición de cuentasNo discriminación | Consideraciones económicas |
| EU (2019)4 | Actividad humana y supervisiónPrivacidad y gobernanza de datosTransparencia | Solidez técnica y seguridadPrevención de daños | Bienestar social y ambiental | Diversidad, no discriminación y equidadRendición de cuentas | Cumplimiento de la leyAdhesión ética |
| UNESCO (2021)5 | Autonomía humanaPrivacidadTransparencia | Prevención de daños | Beneficio socialSostenibilidad | No discriminaciónInclusiónRendición de cuentasResponsabilidadDiversidad | Derechos humanos y dignidadSociedades pacíficas |
| Unión Africana (2024)6 | Dignidad humanaCultura y valores africanos | Seguridad y protección | Desarrollo centrado en las personasUbuntu (bienestar colectivo) | Diversidad e inclusiónÉtica y transparencia | Contextualización culturalAlineación con la Agenda 2063 |
| Instituto Alan Turing7 | Respetar (dignidad)Conectar (interacción)Explicabilidad | Protección (contra daños)SeguridadMayordomía de datos | Cuidado (bienestar)Sostenibilidad | EquidadRendición de cuentas | Marco de valores SUMPrincipios SSAFE-D |
Además de estos marcos, un número creciente de tradiciones religiosas han desarrollado sus propios enfoques éticos de la IA, cada uno de ellos basado en convicciones teológicas y visiones morales distintas. En el cuadro siguiente se compara la forma en que las principales comunidades religiosas articulan las prioridades éticas en respuesta a los retos y oportunidades que plantea la IA.
| Marco | Principios basados en la autonomía | Principios basados en la no maleficencia | Principios basados en la beneficencia | Principios basados en la justicia | Elementos religiosos únicos |
| ERLC (2019)8 | Imagen de Dios (dignidad)Actividad moral humanaPrivacidad y derechos de los datosResponsabilidad individual | La IA no es moralmente neutraPrevención de prejuicios/dañosLas aplicaciones de seguridad no deben deshumanizar, despersonalizar ni dañar | Tecnología para defender la dignidad humanaLos avances médicos como gracia comúnInnovación para la gloria de Dios, el florecimiento humano y el amor al prójimo. | Igualdad de valor y dignidad humanosPrincipios de guerra justa | Mayordomía bíblicaTeología de la imagen de DiosRestricciones de la ética sexualEl trabajo como vocación divina |
| Alianza Evangélica Suiza (2025)9 | Responsabilidad individualUso consciente y autocontrolado de la tecnología. | Protección frente a dependencias malsanas (problemas de adicción).Evitar la manipulación | Involucramiento constructivoServir a Dios y al prójimoMaximizar los potenciales positivos para la humanidad y el planeta | Evitar los prejuicios y la marginaciónAcceso equitativoBienestar de la comunidad | Modelo de involucramiento de DanielEquilibrio entre la reflexión y la acciónInvolucramiento vocacional de los profesionales cristianos de la IA |
| Católico (2025)10 | La dignidad humana como valor supremoLa actividad humana en las decisiones sobre IALa responsabilidad moral no puede delegarseSupervisión humana | Prevención del daño a la dignidad y de la amenaza a la santidad de la vidaProtección de las personas vulnerables | Promoción del bien comúnTecnología para la vocación humana | Justicia socialDistribución equitativa de los beneficiosSeguridad internacional y promoción de la paz | Doctrina social católicaBien comúnMayordomía de la creación |
| Pensamiento judío11 | La actividad moral humanaResponsabilidad individual (razonamiento del halajá).Los objetos nunca pueden ser sustitutos de seres humanos | Se aplican marcos de responsabilidad (por ejemplo, bajo y alto riesgo). Patrones de evaluación de riesgos | Beneficio para la comunidadInnovación constructiva | Trato equitativoResponsabilidad comunalProtección de los vulnerables | Razonamiento halájicoLiteratura responsaTradición del GolemPreservación de la singularidad divinaLímites a la innovación humana |
| Islámico (coránico) (2025)12 | Humanos como mayordomos responsables (kalifa).Rendición de cuentas individual por las actividades en las que interviene la IA | Evitar el dañoProhibición de causar corrupción en la tierra | Uso de la IA para facilitar la tarea humana, promover la asistencia mutua.Principio de beneficio públicoBienestar de la humanidad | Justicia en el usoEquidad y aplicación no arbitraria. | Orientación coránicaResponsabilidad de la mayordomía |
Al comparar los dos cuadros, observamos que principios como la autonomía, la actividad humana y la alineación entre el ser humano y la inteligencia artificial en los marcos seculares se amplían a menudo en la ética religiosa para incluir la actividad moral y la alineación teológica. Al concepto de bienestar se añaden con frecuencia la mayordomía, la formación espiritual y la centralidad de la comunidad y el florecimiento relacional. De manera similar, los conceptos de justicia y rendición de cuentas se profundizan en el contexto de la ética religiosa para abarcar expresiones de la dignidad humana, el carácter sagrado de la vida y nuestra responsabilidad moral ante Dios.
| SECULAR | EXTENSIONES RELIGIOSAS |
| Autonomía (por ejemplo, actividad humana) | |
| Supervisión humana | + Actividad moral |
| Transparencia y explicabilidad | |
| Alineación entre humanos e IA | + Alineación teológica |
| Beneficencia (por ejemplo, bienestar) | |
| Sostenibilidad y medio ambiente | + Cuidado de la creación |
| Beneficio público y bien común | + Florecimiento comunitario y relacional |
| + Formación espiritual | |
| No maleficencia (por ejemplo, no hacer daño) | |
| Privacidad y protección de datos | |
| Justicia (por ejemplo, imparcialidad y equidad) | |
| Rendición de cuentas y supervisión humana | + Responsabilidad moral |
| Inclusión y no discriminación | + Dignidad humana y santidad de la vida |
Sobre esta base, ofrecemos un marco misional con fundamento bíblico para evaluar la IA a través de los siguientes temas rectores: (1) Alineación con la Comisión, (2) Alineación relacional, (3) Alineación con la utilidad y la equidad, y (4) Alineación moral. En conjunto, estas categorías proporcionan una lente para un involucramiento fiel con la IA al servicio de la Gran Comisión.

Marco ético cristiano y alineamientos clave
Alineación con la Comisión
El primer paso para pensar en una IA bíblicamente responsable es centrarnos en nuestra relación única con Dios, como portadores de su imagen, junto con las funciones de mayordomía y dominio de la tierra que Dios nos ha otorgado. Génesis 1:26-27 deja claro que hemos sido creados a imagen de Dios. Él insufló su vida en nosotros (Gn 2:7). Génesis 1:28 establece nuestro propósito: llenar, someter y gobernar la tierra, y cuidar de ella (Gn 2:15). Miqueas 6:8 refuerza nuestra actividad moral como seres humanos y representantes de Dios para actuar con justicia, amar la misericordia y caminar humildemente con nuestro Dios. Jesús, reiterando los mandamientos más importantes de Dios, nos remite a la Shemá (Dt 6:4-5), que nos exige amar a Dios por completo, y también amar a nuestro prójimo como a nosotros mismos (Lv 19:18).
Los sistemas de IA deben honrar la dignidad humana como portadores únicos de la imagen de Dios. También deben apoyar los principios bíblicos de justicia, verdad y amor, y servir a los propósitos del reino de shalom y florecimiento humano.
Para ayudarnos a aplicar estos conceptos en la práctica, sugerimos preguntarnos: ¿Honra esta aplicación de la IA nuestra dignidad humana como portadores de la imagen de Dios? ¿Influye en nuestra actividad moral? ¿En qué medida se ajusta a los principios bíblicos de justicia, verdad y amor, y los refuerza?
Alineación relacional
Parte de nuestra singularidad humana reside en nuestra capacidad de relación, arraigada en nuestra comunión con Dios y con los demás (Jn 17:20-26; 1Jn 4:7-21). Jesús vino a la tierra como Dios encarnado, Emanuel (Is 7:14; Mt 1:20-23), encarnando la presencia divina en la relación humana. En el centro de este diseño relacional está la Trinidad misma: Padre, Hijo y Espíritu Santo en comunión perfecta y eterna. Hechos a imagen de este Dios trino, somos relacionales por naturaleza, creados no solo para la fe individual, sino para el amor mutuo, la comunión encarnada y la interdependencia.
AI must not be allowed to interfere with these essential relationships; neither our communion with God nor our connection with others. Rather, it should be leveraged to reinforce and enable them: strengthening authentic human connection inside and outside the church, within the family, between generations, and across cultures.
Core questions to ask include: Does this technology strengthen or weaken authentic human relationships? Does the AI application foster communal trust, or substitute artificial connection in place of real community? How does it shape the way we love, listen to, and serve one another? How does AI foster or hinder our relationship with God?
Utility & Equity Alignment
Jesus instructed us to love our neighbors as ourselves (Matt 22:39), calling us to a life of active, sacrificial service. When evaluating the utility of AI, we must ask whether it genuinely serves human need and enhances, not diminishes, our capacity to love and serve others. This aligns with the prophetic call in Micah 6:8 to act justly, love mercy, and walk humbly with God. Scripture consistently reminds us to uphold the cause of the poor, the marginalized, and the voiceless, making equity and justice non-negotiable priorities in any ethical evaluation of technology.
Justice and utility are also inseparable from questions of sustainability. From the opening chapters of Genesis, we are reminded that the earth belongs to the Lord and that humanity has been entrusted with its care—not for exploitation but for faithful stewardship. The development and use of AI often require significant energy consumption, computing infrastructure, and resource allocation. These environmental and social costs frequently fall most heavily on the poor and underserved. Ethical AI must therefore be evaluated not only in terms of who benefits and who is harmed, but also by how it affects our shared world, especially for future generations.
We must ask: Do our AI tools address genuine human needs, or do they create artificial dependencies? Do they close or widen the digital divide? Are they deployed in ways that prioritize long-term justice and sustainability over efficiency? True stewardship means cultivating both expertise and discernment so that these technologies are used wisely, equitably, and faithfully.
No debe permitirse que la IA interfiera en estas relaciones esenciales; ni en nuestra comunión con Dios ni en nuestra conexión con los demás. Al contrario, debe ser aprovechada para reforzarlas y posibilitarlas: fortaleciendo la auténtica conexión humana dentro y fuera de la iglesia, dentro de la familia, entre generaciones y entre culturas.
Algunas de las preguntas básicas que debemos hacernos son: ¿Esta tecnología refuerza o debilita las relaciones humanas auténticas? ¿La aplicación de la IA fomenta la confianza comunitaria o sustituye la comunidad real por una conexión artificial? ¿De qué manera determina la forma en que nos amamos, escuchamos y servimos los unos a los otros? ¿De qué manera fomenta o dificulta la IA nuestra relación con Dios?
Alineación con la utilidad y la equidad
Jesús nos ordenó amar al prójimo como a nosotros mismos (Mt 22:39), llamándonos a una vida de servicio activo y sacrificado. A la hora de evaluar la utilidad de la IA, debemos preguntarnos si sirve realmente a las necesidades humanas y si aumenta, y no disminuye, nuestra capacidad de amar y servir a los demás. Esto concuerda con el llamado profético de Miqueas 6:8 a actuar con justicia, amar la misericordia y caminar humildemente con Dios. Las Escrituras nos recuerdan constantemente que debemos defender la causa de los pobres, los marginados y los que no tienen voz, haciendo de la equidad y la justicia prioridades no negociables en cualquier evaluación ética de la tecnología.
La justicia y la utilidad son también inseparables de las cuestiones de sostenibilidad. Desde los primeros capítulos del Génesis, se nos recuerda que la tierra pertenece al Señor y que se ha confiado a la humanidad su cuidado, no para explotarla, sino para ejercer una mayordomía fiel. El desarrollo y la utilización de la inteligencia artificial requieren a menudo un importante consumo de energía, infraestructuras informáticas y asignación de recursos. Con frecuencia, estos costos medioambientales y sociales recaen sobre todo en los pobres y desatendidos. Por lo tanto, la IA ética debe evaluarse no solo en términos de quién se beneficia y quién se perjudica, sino también por cómo afecta a nuestro mundo compartido, especialmente para las generaciones futuras.
Debemos preguntarnos: ¿Abordan nuestras herramientas de IA necesidades humanas genuinas o crean dependencias artificiales? ¿Cierran o amplían la brecha digital? ¿Se despliegan de forma que prioricen la justicia y la sostenibilidad a largo plazo sobre la eficiencia? La verdadera mayordomía implica cultivar tanto la experiencia como el discernimiento para que estas tecnologías se utilicen de forma inteligente, equitativa y fiel.
Alineación moral
Para ejercer bien nuestra responsabilidad de mayordomía, debemos ser conscientes de cómo se utiliza la IA y asegurarnos de que entendemos y mantenemos el control sobre sus sistemas. Las Escrituras dejan claro que Dios nos hace responsables de lo que decimos y hacemos. También somos responsables los unos ante los otros como pueblo de Dios, y estamos llamados a amarnos, servirnos y protegernos mutuamente en la verdad.
Como seres moralmente responsables ante Dios, nunca podemos asignar actividad moral a las máquinas. No se debe permitir que la IA se presente como humana, ya sea en la interacción escrita o verbal. Es esencial una transparencia clara sobre cómo y cuándo se utiliza la IA, junto con explicaciones comprensibles de sus decisiones, conocimiento de cómo funciona y claridad sobre quién es responsable de sus resultados.
Como seres moralmente responsables ante Dios, nunca podemos asignar actividad moral a las máquinas.
Esto exige que tanto los desarrolladores como los líderes ministeriales se pregunten: ¿Se identifica claramente nuestra solución de IA como no humana? ¿Está claro quién es responsable de la IA y de sus resultados? ¿Se utilizan nuestros sistemas de IA con integridad, transparencia y con la debida supervisión humana? ¿Existen salvaguardias que identifiquen y aborden los errores, los daños y las consecuencias imprevistas? En última instancia, debemos asumir la responsabilidad de las tecnologías que utilizamos y compartimos con los demás.
Conclusión
Si bien este marco ético de la IA sirve como punto de partida, no pretende ser un enfoque exhaustivo. Más bien, ofrece una perspectiva fundacional y una herramienta de alto nivel para evaluar el diseño y el uso de la IA en consonancia con la ética bíblica. La evaluación completa de cualquier sistema requerirá un mayor escrutinio, incluida la evaluación técnica y, en su caso, la verificación por parte de auditores independientes.
Sin embargo, la ética en abstracto no es suficiente. La aplicación en el mundo real importa. La verdadera prueba de cualquier marco reside en cómo determina decisiones en contextos específicos. Por esta razón, el resto de este informe explora una serie de casos de uso, examinando cómo la IA ya se está aplicando en diversos aspectos de los esfuerzos de la Gran Comisión, desde el discipulado y la traducción de la Biblia hasta la evangelización, el ministerio de la iglesia y la misión integral. Nuestra esperanza es equipar a la iglesia mundial con discernimiento y también imaginación para un involucramiento fiel en esta nueva frontera tecnológica.
Notas finales
- Institute of Electrical and Electronics Engineers. Ethically Aligned Design: A Vision for Prioritizing Human Well-Being with Autonomous and Intelligent Systems. 1 ed., 2019. standards.ieee.org/content/ieee-standards/en/industry-connections/ec/autonomous-systems.html.
- OECD. ‘Scoping the OECD AI Principles.’ (2019). https://doi.org/10.1787/d62f618a-en.
- OECD. Recommendation of the Council on Artificial Intelligence: OECD/LEGAL/0449, 2025.
- European Union. Ethics Guidelines for Trustworthy AI, 2019.
- UNESCO. Recommendation on the Ethics of Artificial Intelligence, 2021.
- African Union. Continental Artificial Intelligence Strategy: Harnessing AI for Africa’s Development and Prosperity, 2024.
- Leslie, David, Cami Rincón, Morgan Briggs, Antonella Perini, Smera Jayadeva, Ann Borda, S. J. Bennett, et al. AI Ethics and Governance in Practice: An Introduction. The Alan Turing Institute, 2023. www.turing.ac.uk/news/publications/ai-ethics-and-governance-practice-introduction.
- ERLC. ‘Artificial Intelligence: An Evangelical Statement of Principles.’ (2019). Accessed 19 August 2025. https://erlc.com/policy-content/artificial-intelligence-an-evangelical-statement-of-principles/.
- Swiss Evangelical Alliance. ‘Gemeinde & Digitalisierung: KüNstliche Intelligenz (KI) in Der Kirche.’ (2025). Accessed 19 August 2025. www.each.ch/wp-content/uploads/2025/05/250522_Arbeitspapier_KI_und_Kirche_25_web.pdf.
- 1Vatican. ‘Antiqua Et Nova: Note on the Relationship between Artificial Intelligence and Human Intelligence.’ Updated 28 January 2025, 2025, accessed 19 August 2025, press.vatican.va/content/salastampa/it/bollettino/pubblico/2025/01/28/0083/01166.html#ing.
- Kalman, David Zvi. ‘Artificial Intelligence and Jewish Thought.’ Chap. 5 In The Cambridge Companion to Religion and AI, (Cambridge,UK: Cambridge University Press, 2024),69-87.
- Fauzi, Muhammad Rifqi, and Kharis Nugroho. ‘The Ethics of AI Usage from Perspective of the Qur’an.’ Proceeding ISETH (International Summit on Science, Technology, and Humanity) (2025-01-21 2025): 819-25. doi.org/10.23917/iseth.5467.
