Depuis l’invention des premiers ordinateurs, on rêve de machines capables de créer des œuvres d’art, d’écrire de la musique, de raisonner et de s’expliquer en utilisant un langage naturel : bref, des machines pensantes. Ces dernières années, nous avons assisté à un développement rapide dans le domaine de l’intelligence artificielle. Qu’est-ce qui a changé ? Sommes-nous à l’aube des machines pensantes ? Qu’est-ce que cela signifie pour la mission, pour le christianisme et pour le monde ?
Intelligence artificielle ou apprentissage automatique ?
En 1950, Alan Turing a écrit un article portant sur la question « Les machines peuvent-elles penser ? »1 Cet article a jeté les bases de l’intelligence artificielle (IA) et du « test de Turing », qui permet de déterminer si une machine pense « vraiment ». Il a proposé un certain nombre de solutions pour créer une machine à penser. La première approche a été tentée entre les années 1960 et 1980 : si nous fournissons à un ordinateur d’énormes listes de « règles » sur le fonctionnement du monde, l’ordinateur sera capable de raisonner par lui-même. Un projet, Cyc,2 a rassemblé des centaines de milliers de relations (par exemple « Toutes les pommes sont des fruits ») et a pu répondre à des questions simples sur ses propres connaissances.
Dans les années 1980, après l’impasse de l’approche fondée sur les règles, la recherche s’est tournée vers la deuxième stratégie de Turing : l’apprentissage automatique. L’idée de l’apprentissage automatique est qu’en construisant des programmes ayant une structure similaire à celle du cerveau humain (« réseaux neuronaux »), les ordinateurs apprendraient à connaître le monde comme nous le faisons, par l’observation et l’exploration. Cependant alors que le cerveau humain possède des milliards de connexions entre ses neurones, les réseaux neuronaux artificiels des années 1980 et 1990 ne pouvaient supporter que des centaines ou des milliers de connexions. Ce n’était pas dû à des limitations de mémoire ou de matériel, mais à un problème mathématique. Plus le nombre de « couches » du réseau augmente, plus le flux d’informations à travers le réseau s’affaiblit. Diverses solutions à ce problème sont apparues au début des années 2010, permettant de créer des réseaux neuronaux « profonds » de plusieurs centaines de couches, et c’est cette avancée qui a directement conduit à la révolution de l’intelligence artificielle dont nous sommes témoins aujourd’hui.3
La raison pour laquelle l’histoire des réseaux neuronaux est importante, est qu’elle nous aide à ne pas perdre de vue ce qu’est l’« intelligence artificielle ». L’intelligence artificielle n’est qu’une structure mathématique, un modèle de probabilités. En effet, le terme « apprentissage automatique » est une description plus exacte, car il met en évidence les fondements mathématiques de ce processus, contrairement au terme « intelligence artificielle » qui peut nous induire en erreur en nous faisant croire que, d’une manière ou d’une autre, une « pensée » et une « intelligence » sont à l’œuvre. En réalité, ce qu’on appelle les « grands modèles de langage » (souvent désignés par leur acronyme anglais LLM) tels que ChatGPT et Gemini convertissent leurs données d’apprentissage en une séquence de « jetons » et enregistrent la probabilité que ces jetons se produisent dans différentes séquences. Lorsque nous posons une question à ChatGPT, l’ordinateur n’étudie pas le problème et ne « réfléchit » pas à une réponse – il renvoie simplement la série de jetons la plus probable. De même, les Réseaux antagonistes génératifs – la technologie qui sous-tend les outils à l’origine de l’ « art IA », tels que DALL-E et Midjourney – ne font que renvoyer l’ensemble de pixels le plus probable en réponse au message que nous leur fournissons.
Appliquer l’IA à la mission de l’Église
Néanmoins, les résultats de ces systèmes d’apprentissage automatique sont impressionnants et potentiellement très utiles. Ils sont déjà utilisés pour étendre plus rapidement la mission mondiale. Par exemple, l’équipe de SIL spécialisée en intelligence artificielle a développé des modèles de traduction et de synthèse vocale pour plus de 300 langues minoritaires,4 et est à l’origine d’outils d’apprentissage automatique pour faciliter leur mission de traduction de la Bible, d’assurance qualité et de contrôle de la communauté.5 L’IA offre la possibilité d’automatiser les traductions dans des domaines tels que les langues des signes utilisées pas les personnes atteintes d’une déficience auditive, dont la production est particulièrement coûteuse et chronophage, bien que la génération de vidéos en langue des signes n’en soit qu’à ses débuts. Ma propre Église utilise Microsoft Translator pendant les réunions afin que les membres de différents pays puissent accéder à ce qui est dit dans leur propre langue et contribuer à la vie de l’Église même s’ils ont un niveau d’anglais limité ; la traduction automatique rend déjà notre communauté plus riche et plus équitable.
Outre la traduction automatique, d’autres utilisations missionnelles de l’IA ont cherché à fournir des moyens créatifs d’expliquer et d’enseigner la Bible. Par exemple, OneBread6 utilise ChatGPT et DALL-E pour illustrer un passage de la Bible avec une peinture, un poème, des suggestions d’applications pratiques et des liens vers d’autres thèmes bibliques. L’Église épiscopale a lancé une application ChatGPT « affinée » pour répondre aux questions sur la foi et la doctrine,7 et des start-ups spécialisées dans l’IA proposent déjà une gamme de produits destinés aux Églises et à leurs responsables – transcription et « remixage » de sermons,8 chatbots, ou dialogueurs, pour le discipulat et l’implication ecclésiale,9 et bien d’autres choses encore.
Il est de fait impossible de dire comment l’utilisation de l’IA se développera à l’avenir et comment elle affectera la mission de l’Église. Selon une vision « maximale » du potentiel de l’IA, celle-ci pourrait transformer les économies et automatiser de nombreuses carrières actuelles, libérant ainsi du temps et des ressources pour les services chrétiens. Même dans une perspective modérément optimiste, l’IA permettra des avancées considérables dans le développement et la formation du personnel des divers services chrétiens grâce à des programmes d’apprentissage assistés par ordinateur ; elle transformera les missions médicales grâce au diagnostic et à la télémédecine assistés par l’apprentissage automatique ; nous serons en mesure de faire la même chose, mais en mieux, avec l’aide de l’ordinateur. Parallèlement, je pense que l’augmentation de l’automatisation et de la communication « humaine mais non humaine » des chatbots aggravera l’épidémie de solitude existante et provoquera une aspiration à une véritable connexion humaine et à une communauté qui doit rester au cœur de la mission.
Les dangers cachés de la révolution de l’IA
Bien que je sois programmeur informatique à plein temps et que je travaille avec l’IA, j’ai personnellement une vision pessimiste de l’IA, et je pense qu’il y a un certain nombre de raisons pour lesquelles les chrétiens devraient être prudents avant d’accepter sans réserve l’optimisme général qui prévaut en matière d’intelligence artificielle.
Les chrétiens qui se préoccupent de la vérité peuvent être réticents à l’égard de l’intelligence artificielle, car les modèles d’apprentissage automatique étant de simples réserves de probabilités, ils sont explicitement conçus pour créer des réponses plausibles, et non des réponses exactes. Comme Timnit Gebru et d’autres l’ont affirmé (dans un article qui a valu à la première d’être licenciée de l’équipe intelligence artificielle éthique de Google), les Grands modèles de langage (LLM) agissent comme des « perroquets stochastiques ».10 Ils n’ont aucune notion de vrai ou de faux – et encore moins de concepts moraux de bien ou de mal – mais ils se contentent de répondre à la question : Quelle est la réponse raisonnable à cette question ? J’ai par exemple demandé à ChatGPT de fournir une bibliographie de mes propres articles sur la théologie de la honte. Sur la liste impressionnante de citations, pas une seule n’était un véritable article. En outre, le fait que les LLM soient formés au contenu de l’internet et que tout ce qui s’y trouve ne soit pas vrai, conduit les assistants d’IA à recommander de manger des cailloux et de cuire des spaghettis à l’essence.11
En même temps, les données ayant trait à la formation comportent souvent un biais implicite reposant sur la vision dominante du monde qui les a produites, et les LLM perpétuent donc le racisme et le sexisme de leur contexte. Par exemple, le hongrois possède un pronom neutre « ö » qui doit être traduit par « il » ou « elle » en français. Les outils de traduction automatique utiliseront les probabilités intégrées dans les données de formation pour choisir un pronom dans les cas ambigus, en préférant « il fait des recherches » à « elle fait des recherches », « elle élève un enfant » à « il élève un enfant », etc.12
Avant même d’aborder les problèmes des « deepfakes » (ou hypertrucage) et de la désinformation générée par l’IA, dans des domaines tels que le discipulat des nouveaux croyants, ce serait un euphémisme de dire que l’exactitude et une vision du monde correcte sont plus importantes que des réponses à consonance plausible. La reconfiguration des LLM pour la précision est une préoccupation urgente dans l’industrie, mais c’est un problème que les principaux acteurs n’ont pas été en mesure de résoudre efficacement.
Les chrétiens soucieux d’éthique peuvent hésiter à se fier à l’intelligence artificielle en raison de la manière dont les données de formation sont obtenues. Pour obtenir des résultats cohérents, les réseaux neuronaux profonds doivent se voir présenter un très grand nombre d’exemples d’images et de textes : L’IA Llama3 de Meta, par exemple, est entraînée sur un ensemble de quinze milliards de jetons « tous collectés à partir de sources accessibles au public ».13 Mais la question de l’éthique de cette collecte suscite de vives inquiétudes. Prenons l’exemple de l’utilisation d’un modèle d’IA pour générer une illustration pour la couverture d’un livre. Le réseau antagoniste génératif (GAN) utilisé pour générer l’image aura été entraîné sur plusieurs millions d’œuvres d’art, souvent sans tenir compte de leur droit d’auteur ou des conditions de leur utilisation,14 et l’art généré par l’IA sera utilisé au lieu de passer commande à un artiste humain. En d’autres termes, l’IA rend les artistes superflus en s’appropriant leurs propres œuvres d’art sans les créditer, sans les rémunérer et sans doute sans respecter l’éthique.
Un aspect encore plus troublant de la formation des LLM, et dont les statistiques sont soigneusement occultées, est la mesure dans laquelle l’intelligence artificielle s’appuie sur des travailleurs humains pour étiqueter et modérer le contenu. Une lettre écrite par des travailleurs kenyans travaillant pour l’IA15 souligne les bas salaires, les pratiques de travail contraires à l’éthique et l’exploitation, ainsi que l’exposition « au meurtre et à la décapitation, à la maltraitance et au viol des enfants, à la pornographie et à la bestialité, souvent pendant plus de 8 heures par jour », qui sont à la base de la révolution de l’intelligence artificielle. Il convient peut-être ici de rappeler le mouvement anglais des Luddites qui se sont opposés à la révolution industrielle non pas parce qu’ils étaient effrayés par le progrès technologique, mais parce qu’ils considéraient que son coût humain était trop lourd à porter.16
Enfin, les chrétiens qui se préoccupent de la protection de l’environnement peuvent être réticents à l’égard de l’intelligence artificielle en raison de l’impact environnemental de la formation et de l’utilisation des réseaux neuronaux profonds. La formation de GPT-3, un modèle unique qui serait considéré comme petit selon les normes d’aujourd’hui, a nécessité 1287 MWh d’électricité, soit assez pour alimenter 1500 foyers pendant un mois, et a généré 500 tonnes d’émissions de CO2.17 Outre l’électricité, les centres de données utilisés par les grands modèles nécessitent d’énormes quantités d’eau pour assurer le refroidissement par évaporation. On estime que GPT-3 a eu besoin de 700 000 litres d’eau pour s’entraîner et qu’il faut un demi-litre d’eau pour alimenter une brève conversation avec un utilisateur. Alors que le changement climatique entraîne une augmentation des sécheresses et de la pénurie d’eau, nous devons nous demander si nous pouvons justifier notre contribution au montant estimé de 5 milliards de mètres cubes d’eau, utilisés par les outils d’IA d’ici à 2027, soit la moitié de la consommation annuelle du Royaume-Uni.18
Vers une IA responsable
Pour ceux d’entre nous qui ont des compétences et des dons technologiques, l’utilisation responsable de l’IA représente une opportunité de se développer dans de nouveaux domaines de service chrétien, mais nous devons rester lucides. Je pense qu’il est encore trop tôt pour savoir quel sera l’impact de l’IA. D’une part, l’application réussie de l’IA a le potentiel de transformer presque tous les domaines de la vie tant personnelle que de service chrétien ; d’autre part, des signes sérieux laissent apparaître l’existence d’une bulle dans laquelle le battage médiatique autour de l’IA ne s’est pas traduit par les types d’applications promises par l’industrie.19
Qu’est-ce qu’une utilisation « responsable » de l’IA ? La « Déclaration de SIL sur l’éthique de l’IA »20 fournit un cadre utile : l’utilisation de l’IA doit promouvoir l’épanouissement humain, être « juste, aimable et humble », préserver la confidentialité et la sécurité des données, assurer la responsabilité et la surveillance humaines générales, surveiller de près le type et la qualité des résultats générés et impliquer les communautés locales en tant que parties prenantes.
Dans les années à venir, les chrétiens devront évaluer de manière critique les questions que j’ai posées ici, lorsqu’ils navigueront dans l’utilisation de l’IA, en équilibrant les opportunités qu’elle offre avec les dangers et les coûts très réels qu’elle représente : en d’autres termes, « examinez tout, retenez ce qui est bien, abstenez-vous du mal sous toutes ses formes. »
Notes
- A. Turing, ‘Computing machinery and intelligence,’ Mind, 59(236),1950: 435-60.
- D. Lenat et. al., ‘CYC: Using Common Sense Knowledge to Overcome Brittleness and Knowledge Acquisition Bottlenecks,’ AI Magazine, 6(4), 1986: 65–85.
- See ‘The Vanishing/Exploding Gradients Problem’ in A. Géron, Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow (Sebastopol, CA: O’Reilly Media, 2022), ch 11.
- C. Leong, et. al., ‘Bloom library: Multimodal datasets in 300+ languages for a variety of downstream tasks,’ arXiv preprint arXiv:2210.14712, 2022; see also https://www.ai.sil.org/projects/acts2.
- ‘SIL AI & NLP Projects,’ SIL International, accessed 19 August 2024, https://www.ai.sil.org/projects.
- ‘The Bible according to OpenAI,’ OneBread, accessed 19 August 2024,
- Michael Gryboski, ‘Episcopal Church launches AI chatbot ‘AskCathy’,’ 12 August 2024,
- ‘Helping busy pastors turn sermons into content,’ Pulpit AI, accessed 19 August 2024,
- ‘What is truth? Use AI to spread the Gospel,’ Biblebots, accessed 19 August 2024,
- E. M. Bender et al., ‘On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜’, in FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency: 610-23, 1 March 2021,
- Toby Walsh, ‘Eat a rock a day, put glue on your pizza: how Google’s AI is losing touch with reality,’ The Conversation, 27 May 2024, https://theconversation.com/eat-a-rock-a-day-put-glue-on-your-pizza-how-googles-ai-is-losing-touch-with-reality-230953.
- E. Vanmassenhove, (2024). ‘Gender Bias in Machine Translation and the Era of Large Language Models,’ Gendered Technology in Translation and Interpreting: Centering Rights in the Development of Language Technology, ch 9, 18 January 2024, https://arxiv.org/html/2401.10016v1.
- ‘Introducing Meta Llama 3: The most capable openly available LLM to date,’ Meta, 18 April 2024, https://ai.meta.com/blog/meta-llama-3/.
- G. Appel et al., ‘Generative AI Has an Intellectual Property Problem,’ Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem.
- Caroline Hskins, ‘The Low-Paid Humans Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery,’ WIRED, 22 May 2024, https://www.wired.com/story/low-paid-humans-ai-biden-modern-day-slavery/.
- Richard Conniff, ‘What the Luddites Really Fought Against,’ Smithsonian, March 2011, https://www.smithsonianmag.com/history/what-the-luddites-really-fought-against-264412/.
- Nestor Maslej et al., ‘The AI Index 2023 Annual Report,’ AI Index Steering Committee, Institute for Human-Centered AI, Stanford University (Stanford, CA: April 2023),120-23.
- P. Li, P, J. Yang, M. A. Islam, & S. Ren, ‘Making AI less ‘thirsty’ Uncovering and addressing the secret water footprint of AI models,’ ArXiv preprint, 29 October 2023, https://arxiv.org/pdf/2304.03271.
- Chris Taylor, ‘The AI bubble has burst. Here’s how we know,’ Marshable, 6 August 2024,
- ‘AI Ethics Statement,’ SIL, accessed 19 August 2024, https://www.sil.org/ai-ethics-statement.