Desde a invenção dos primeiros computadores, as pessoas sonham com máquinas que possam criar obras de arte, compor música, raciocinar e explicar-se em linguagem natural: ou seja, máquinas pensantes. Nos últimos anos, vimos um rápido desenvolvimento no campo da inteligência artificial. O que mudou? Estamos testemunhando o nascimento de máquinas pensantes? E o que isso significa para a obra missionária, para o cristianismo e para o mundo?
“Inteligência artificial” ou “Aprendizado de máquina”?
Em 1950, Alan Turing escreveu um artigo sobre a pergunta “As máquinas podem pensar?”.1 Este artigo estabeleceu as bases da inteligência artificial (IA), além do “Teste de Turing”, para determinar se uma máquina estava “realmente” pensando. Turing propôs uma série de maneiras pelas quais poderíamos fazer uma máquina pensar. A primeira abordagem foi feita entre as décadas de 1960 e 1980: se fornecermos a um computador longas listas de “regras” sobre como o mundo opera, o computador seria capaz de raciocinar por si mesmo. O projeto Cyc2 reuniu centenas de milhares de correlações (por exemplo, “Todas as maçãs são frutas”) e conseguia responder a perguntas simples sobre o seu conhecimento.
Nos anos 80, quando a abordagem baseada em regras chegou a um beco sem saída, a pesquisa foi direcionada para a segunda estratégia de Turing, o aprendizado de máquina. A ideia do aprendizado de máquina é que a criação de programas com uma estrutura semelhante à do cérebro humano (“redes neurais”) levaria os computadores a aprender sobre o mundo assim como fazemos, por meio de observação e exploração. Mas enquanto os cérebros humanos têm trilhões de conexões entre seus neurônios, as redes neurais artificiais das décadas de 1980 e 1990 só conseguiam sustentar centenas ou milhares de conexões. Isto não se devia a limitações de memória ou hardware, mas sim a uma questão matemática. Conforme aumentava o número de “camadas” na rede, o fluxo de informações através da rede se enfraquecia. Na década de 2010, tornou-se disponível uma variedade de soluções para este problema, permitindo redes neurais “profundas” com muitas centenas de camadas, um avanço que resultou diretamente na revolução da inteligência artificial que testemunhamos hoje.3
A história das redes neurais é importante porque nos ajuda a permanecer fundamentados no que é a “inteligência artificial”. Trata-se simplesmente de uma estrutura matemática, um modelo de probabilidades. Na verdade, o termo “aprendizado de máquina” é uma descrição mais precisa que destaca os fundamentos matemáticos se comparado ao termo “inteligência artificial”, que, de alguma forma, pode nos induzir a crer que estão sendo aplicados “pensamento” e “inteligência”. Na realidade, Grandes Modelos de Linguagem (LLM), como ChatGPT e Gemini, convertem os seus dados de treino numa sequência de “tokens” e armazenam as probabilidades de ocorrências desses tokens em sequências diferentes. Quando fazemos uma pergunta ao ChatGPT, o computador não avalia o problema e “pensa” por meio de uma reação – ele simplesmente retorna à série mais provável de tokens que viria a seguir. Da mesma forma, a rede adversarial generativa, a tecnologia por trás das ferramentas de “arte de IA”, como DALL-E e MidJourney, devolvem o conjunto mais provável de pixels em resposta ao prompt que fornecemos.
Aplicando a IA à missão da igreja
Mesmo assim, os resultados desses sistemas de aprendizado de máquina são impressionantes e potencialmente muito úteis, e já estão sendo usados para acelerar a missão global. Por exemplo, a equipe de IA da SIL desenvolveu modelos de tradução linguística e de conversão de texto em áudio para mais de 300 línguas minoritárias4 e é pioneira na criação de ferramentas de aprendizado de máquina para facilitar a sua tarefa de tradução da Bíblia, a garantia de qualidade, e a verificação da comunidade.5 A Inteligência Artificial oferece o potencial de automatizar traduções em domínios como as linguagens de sinais para surdos, onde a produção é particularmente cara e demorada, embora a geração de vídeo com a linguagem de sinais ainda esteja em seus estágios iniciais. A minha própria igreja usa o Microsoft Translator durante os cultos para que pessoas de outros países possam acompanhar o culto em sua própria língua e contribuir para a vida da igreja mesmo com limitado conhecimento da língua inglesa; a tradução automática já está nos tornando mais ricos e equitativos enquanto comunidade.
Além da tradução automática, outros usos missionais da IA têm buscado formas criativas de explicar e ensinar a Bíblia. Por exemplo, o OneBread6 usa o ChatGPT e o DALL-E para ilustrar uma passagem bíblica com uma pintura, um limerique, sugestões de aplicações práticas e links para outros temas bíblicos. A Igreja Episcopal lançou um exemplo de ChatGPT “aperfeiçoado” para responder a perguntas sobre fé e doutrina,7 e startups de IA já estão oferecendo uma gama de produtos destinados a igrejas e líderes da igreja – transcrição de sermões e “remixagem”,8 chatbots para discipulado e envolvimento da igreja,9 e muito mais.
É impossível saber de que forma o uso da IA se desenvolverá no futuro e como isso afetará a missão da igreja. Uma visão “maximizada” do potencial da IA a vê transformando economias e automatizando e eliminando muitas carreiras de hoje, e assim liberando tempo e recursos para o ministério. Mesmo em uma visão moderadamente otimista, a IA proporcionará enormes avanços no desenvolvimento e treinamento da equipe ministerial por meio de programas de aprendizagem assistida por computador; transformará a missão médica através do diagnóstico assistido pelo aprendizado de máquina e da telemedicina; seremos capazes de alcançar esses objetivos, mas ainda melhor se auxiliados pelo computador. Ao mesmo tempo, creio que o aumento da automação e a comunicação “semelhante à humana, porém não-humana” dos chatbots aprofundarão uma epidemia existente de solidão e provocarão um anseio por uma verdadeira conexão e comunidade humanas que devem permanecer no cerne da obra missionária”.
Os perigos ocultos da revolução da IA
No entanto, embora eu seja um programador de computador em tempo integral e esteja envolvido com a IA no meu trabalho, pessoalmente tenho uma visão pessimista da IA, e acredito, por uma série de razões, que os cristãos devem ter cautela antes de aceitar de coração aberto o otimismo prevalecente da inteligência artificial.
Os cristãos preocupados com a verdade podem estar relutantes em relação à inteligência artificial, porque como os modelos de aprendizado de máquina são puramente armazenamento de probabilidades, eles são explicitamente projetados para criar respostas plausíveis, mas não precisas. Como Timnit Gebru e outros argumentaram (num artigo que levou à eliminação de Timnit da Equipe de Ética para a Inteligência Artificial do Google), os Grandes Modelos de Línguas (LLM) agem como “papagaios estocásticos”.10 Eles não têm conceito de verdadeiro ou falso – muito menos quaisquer conceitos morais de certo ou errado – mas simplesmente respondem à pergunta: “Como seria uma resposta razoável a esta pergunta?” Por exemplo, pedi ao ChatGPT uma bibliografia de meus próprios artigos sobre a teologia da vergonha. Nenhuma das citações apresentadas em uma lista impressionante era de um artigo real. Além disso, o fato de que os Grandes Modelos de Linguagem (LLM) são treinados com base no conteúdo da Internet, e de que nem tudo na Internet é verdade, faz com que assistentes de IA recomendem comer pedras e cozinhar esparguete com gasolina.11
Ao mesmo tempo, os dados de treinamento muitas vezes carregam um viés implícito com base na cosmovisão dominante que os produziu, e assim as LLM incorrem no racismo e no sexismo de seu contexto. Por exemplo, a língua húngara tem o pronome de gênero neutro “Ö” que precisa ser traduzido para “ele” ou “ela” em inglês. As ferramentas de tradução automática usarão as probabilidades incorporadas nos dados de treinamento para escolher um pronome para casos ambíguos, dando preferência a “ele está pesquisando” em vez de “ela está pesquisando”, “ela está cuidando do filho” em lugar de “ele está cuidando do filho”, e assim por diante.12
Mesmo antes de entrarmos nos problemas das deepfakes e da desinformação gerada pela IA em domínios como o discipulado de novos crentes, seria eufemismo afirmar que a precisão e uma visão correta do mundo são mais importantes do que respostas plausíveis. Reconfigurar as LLM para a precisão é uma preocupação urgente na indústria, mas é um problema que os atores principais ainda não conseguiram resolver de forma eficaz.
Os cristãos que se preocupam com a ética podem relutar em confiar na inteligência artificial devido à maneira como são obtidos os dados de treinamento. Redes neurais profundas precisam ver um vasto número de imagens de e textos de exemplo para atingir resultados coerentes: A IA Llama3 da Meta, por exemplo, é treinada em um conjunto de quinze trilhões de tokens “que foram todos coletados de fontes disponíveis publicamente”.13 Mas é significativo o questionamento sobre a ética dessa coleção. Considere, por exemplo, usar um modelo de IA para a arte da capa de um livro. A Rede Adversarial Generativa (GAN) usada para gerar a imagem terá sido treinada em muitos milhões de obras de arte – muitas vezes com pouca consideração a direitos autorais ou status da licença14– e a arte gerada pela IA será usada em lugar da contratação de um artista humano. Em outras palavras, a IA está tornando os artistas redundantes por meio da apropriação não creditada, não remunerada e, sem dúvida, antiética de suas obras de arte.
Um aspeto mais preocupante do treinamento LLM é o nível oculto de dependência que a inteligência artificial tem de trabalhadores humanos para classificar e moderar conteúdo. Uma carta de trabalhadores da IA no Quênia 15 destaca as práticas laborais mal remuneradas, antiéticas e exploratórias, e a exposição a “assassinatos e decapitações, abuso de crianças e estupro, pornografia e bestialidade, muitas vezes por mais de 8 horas por dia”, que sustentam a revolução da IA. Talvez seja válido recordar o movimento ludita, que resistiu à Revolução Industrial não porque temia o avanço tecnológico, mas porque considerava seu custo humano elevado demais.16
Finalmente, os cristãos preocupados com os cuidados com a criação podem estar relutantes em relação à inteligência artificial por causa do impacto ambiental do treinamento e do uso de redes neurais profundas. O treinamento GPT-3, um modelo único que seria considerado pequeno pelos padrões atuais, exigiu 1287MWh de eletricidade, o suficiente para alimentar 1500 casas por um mês, e criou 500 toneladas de emissões de CO2.17 Assim como a eletricidade, os centros de dados usados por grandes modelos exigem enormes quantidades de água para fornecer resfriamento evaporativo; estima-se que o GPT-3 precisava de 700 mil litros de água para treinar, e requer meio litro de água para alimentar uma breve conversa com um usuário. À medida que as mudanças climáticas resultam em mais regiões de seca e em escassez de água, devemos perguntar a nós mesmos se podemos justificar a contribuição dos estimados 5 bilhões de metros cúbicos de água – metade do consumo anual do Reino Unido – que serão usados pelas ferramentas de IA até 2027.18
Rumo à IA responsável
O uso responsável da IA representa uma oportunidade para que aqueles de nós que têm habilidades e dons tecnológicos possam se expandir para novas áreas do ministério, mas nossos olhos devem permanecer abertos. Creio que seja cedo demais para saber que tipo de impactos a IA causará. Por um lado, a aplicação bem-sucedida da IA tem o potencial de transformar quase todas as áreas do ministério e da vida pessoal; por outro, há significativos indícios de uma bolha na qual o entusiasmo em torno da IA não se traduza nos tipos de aplicações que a indústria tem prometido.19
O que é um uso “responsável” da IA? A “Declaração de Ética na IA”20 da SIL fornece uma estrutura útil: O uso da IA deve promover o florescimento humano, ser “justo, gentil e humilde”, manter a privacidade e segurança dos dados, garantir a responsabilidade e supervisão humanas em geral, monitorar de perto o tipo e a qualidade da produção que está sendo gerada e envolver as comunidades locais como partes interessadas..
Nos próximos anos, os cristãos precisarão avaliar de forma crítica as questões que apresentei acima à medida que navegam no uso da IA, equilibrando as oportunidades que ela oferece com os perigos e custos muito reais que ela representa: Em outras palavras, “pôr à prova todas as coisas, ficar com o que é bom, rejeitar todo tipo de mal”.
Notas finais
- A. Turing, ‘Computing machinery and intelligence,’ Mind, 59(236),1950: 435-60.
- D. Lenat et. al., ‘CYC: Using Common Sense Knowledge to Overcome Brittleness and Knowledge Acquisition Bottlenecks,’ AI Magazine, 6(4), 1986: 65–85.
- See ‘The Vanishing/Exploding Gradients Problem’ in A. Géron, Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow (Sebastopol, CA: O’Reilly Media, 2022), ch 11.
- C. Leong, et. al., ‘Bloom library: Multimodal datasets in 300+ languages for a variety of downstream tasks,’ arXiv preprint arXiv:2210.14712, 2022; see also https://www.ai.sil.org/projects/acts2.
- ‘SIL AI & NLP Projects,’ SIL International, accessed 19 August 2024, https://www.ai.sil.org/projects.
- ‘The Bible according to OpenAI,’ OneBread, accessed 19 August 2024,
- Michael Gryboski, ‘Episcopal Church launches AI chatbot ‘AskCathy’,’ 12 August 2024,
- ‘Helping busy pastors turn sermons into content,’ Pulpit AI, accessed 19 August 2024,
- ‘What is truth? Use AI to spread the Gospel,’ Biblebots, accessed 19 August 2024,
- E. M. Bender et al., ‘On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜’, in FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency: 610-23, 1 March 2021,
- Toby Walsh, ‘Eat a rock a day, put glue on your pizza: how Google’s AI is losing touch with reality,’ The Conversation, 27 May 2024, https://theconversation.com/eat-a-rock-a-day-put-glue-on-your-pizza-how-googles-ai-is-losing-touch-with-reality-230953.
- E. Vanmassenhove, (2024). ‘Gender Bias in Machine Translation and the Era of Large Language Models,’ Gendered Technology in Translation and Interpreting: Centering Rights in the Development of Language Technology, ch 9, 18 January 2024, https://arxiv.org/html/2401.10016v1.
- ‘Introducing Meta Llama 3: The most capable openly available LLM to date,’ Meta, 18 April 2024, https://ai.meta.com/blog/meta-llama-3/.
- G. Appel et al., ‘Generative AI Has an Intellectual Property Problem,’ Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem.
- Caroline Hskins, ‘The Low-Paid Humans Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery,’ WIRED, 22 May 2024, https://www.wired.com/story/low-paid-humans-ai-biden-modern-day-slavery/.
- Richard Conniff, ‘What the Luddites Really Fought Against,’ Smithsonian, March 2011, https://www.smithsonianmag.com/history/what-the-luddites-really-fought-against-264412/.
- Nestor Maslej et al., ‘The AI Index 2023 Annual Report,’ AI Index Steering Committee, Institute for Human-Centered AI, Stanford University (Stanford, CA: April 2023),120-23.
- P. Li, P, J. Yang, M. A. Islam, & S. Ren, ‘Making AI less ‘thirsty’ Uncovering and addressing the secret water footprint of AI models,’ ArXiv preprint, 29 October 2023, https://arxiv.org/pdf/2304.03271.
- Chris Taylor, ‘The AI bubble has burst. Here’s how we know,’ Marshable, 6 August 2024,
- ‘AI Ethics Statement,’ SIL, accessed 19 August 2024, https://www.sil.org/ai-ethics-statement.