최초의 컴퓨터가 발명된 이후, 사람들은 기계가 예술 작품을 만들어내고, 작곡하며, 자연어로 추론하고 설명하는, 즉 생각하는 기계에 대한 꿈을 꾸어왔다. 최근 몇 년간 인공지능 분야는 급속한 발전을 이루었다. 무엇이 변한 것일까? 우리가 진정으로 생각하는 기계의 새벽을 맞이하고 있는가? 그리고 이것이 선교, 기독교, 그리고 세상에 어떤 의미를 가지는가?
‘인공지능’인가, 아니면 ‘기계 학습’인가
1950년, 앨런 튜링(Alan Turing)은 “기계가 생각할 수 있는가?”라는 질문을 다룬 글을 썼다.1 이 글은 인공지능(AI)의 기초를 다졌으며, 기계가 ‘진짜로’ 생각하는지 여부를 판단하는 튜링(Turing) 테스트를 제안했다. 튜링은 기계를 생각하게 만들 수 있는 몇 가지 방법을 제시했는데, 그 중 첫 번째 시도는 1960년대에서 1980년대 사이에 이루어졌다. 이 방법은 컴퓨터에 세상이 돌아가는 방식에 대한 방대한 ‘규칙’ 목록을 제공하면, 컴퓨터가 스스로 추론할 수 있을 것이라는 아이디어에 기반했다. 예를 들어, Cyc2라는 프로젝트는 수십만 개의 관계(예: ‘모든 사과는 과일이다’)를 수집하여, 그 지식에 관련된 간단한 질문에 답할 수 있었다.
1980년대, 규칙 기반 접근 방식이 한계에 부딪히자, 튜링의 두 번째 전략인 기계 학습으로 연구 방향이 바뀌었다. 기계 학습의 개념은 인간의 뇌 구조와 유사한 프로그램[‘신경망(neural networks’)]을 구축함으로써, 컴퓨터는 우리가 세상을 배우는 방식과 비슷하게 관찰과 탐구를 통해 학습할 수 있다는 아이디어였다. 그러나 인간의 뇌는 수조 개의 뉴런 연결을 가지고 있는 반면, 1980년대와 1990년대의 인공 신경망은 수백 또는 수천 개의 연결만을 유지할 수 있었다. 이는 메모리나 하드웨어의 한계 때문이 아니라 수학적 문제 때문이었다. 네트워크의 ‘층’이 많아질수록 네트워크를 통해 흐르는 정보의 흐름이 약해졌다. 이러한 문제에 대한 다양한 해결책이 2010년대 초반에 등장하면서 수백 개의 층을 가진 ‘심층’ 신경망의 구현이 가능해졌고, 이 돌파구는 오늘날 우리가 목격하는 인공지능 혁명의 직접적인 원인이 되었다.3
신경망의 역사가 중요한 이유는 ‘인공지능’이 무엇인지에 대한 현실적인 이해를 돕기 때문이다. 인공지능은 단순히 수학적 구조, 즉 확률 모델일 뿐이다. 사실 ‘인공지능’이라는 용어는 ‘기계 학습’보다 덜 정확한 표현일 수 있는데, 후자는 수학적 기초를 강조하는 반면, 전자는 ‘사고’나 ‘지능’이 적용되고 있다는 오해를 불러일으킬 수 있기 때문이다. 실제로, ChatGPT와 같은 대규모 언어 모델(Large Language Models, LLM)이나 Gemini는 학습 데이터를 일련의 ‘토큰’으로 변환한 뒤, 각 토큰이 다른 시퀀스에서 나타날 가능성을 저장한다. 우리가 ChatGPT에 질문하면, 컴퓨터는 문제를 고려하고 ‘생각’해서 응답을 내놓는 것이 아니라, 그저 다음에 올 가능성이 가장 높은 토큰의 시퀀스를 반환하는 것이다. 마찬가지로, DALL-E나 Midjourney 같은 ‘AI 예술’ 도구의 기술인 생성적 적대 신경망(Generative Adversarial Networks, GAN)은 우리가 제공한 프롬프트(요청 문구)에 대해 가장 가능성 높은 픽셀의 모음을 반환하는 방식으로 작동한다.
교회 선교를 위한 인공지능 활용
그럼에도 불구하고 이러한 기계 학습 시스템의 결과는 인상적이고 매우 유용할 수 있으며, 이미 세계 선교를 가속화하는 데 사용되고 있다. 예를 들어, SIL의 인공지능 팀은 300개 이상의 소수 언어를 위한 언어 번역 모델과4 텍스트와 음성 간 변환 모델을 개발했으며, 성경 번역, 품질 보증, 커뮤니티 검토를 촉진하는 기계 학습 도구를 만들어냈다.5 인공지능은 특히 제작 비용과 시간이 많이 드는 농인 수어 번역 같은 분야에서 자동 번역을 가능하게 할 잠재력을 가지고 있는데, 수어 영상 생성 기술은 아직 초기 단계에 있다. 내가 참석하는 교회도 예배 중 마이크로소프트 번역기(Microsoft Translator)를 사용하여 다양한 국가 출신의 성도들이 자신의 언어로 예배드리고 영어가 제한된 상태에서도 교회 생활에 참여할 수 있도록 하고 있다. 기계 번역은 이미 우리를 더 풍성하고 공평한 공동체로 만들고 있다.
기계 번역 외에도, 인공지능을 선교에 활용하여 성경을 설명하고 가르치는 창의적인 방법을 제공하려는 노력이 있다. 예를 들어, OneBread6는 ChatGPT와 DALL-E를 사용하여 성경 구절을 그림, 짧은 시, 실질적인 적용 제안, 그리고 다른 성경 주제와의 연관 링크로 설명한다. 미국 성공회는 신앙과 교리에 대한 질문에 답변하는 ‘미세 조정된(fine-tuned)’ ChatGPT 활용 프로그램을 출시했으며,7 인공지능 스타트업들은 이미 교회와 교회 지도자를 위한 다양한 제품들을 제공하고 있다. 그 예로, 설교 기록 및 ‘리믹스(remix)’8 서비스, 제자 훈련과 교회 참여를 위한 챗봇9이 있으며 그 외에도 다양한 도구들이 등장하고 있다.
인공지능의 사용이 미래에 어떻게 발전할지, 그리고 교회의 선교에 어떤 영향을 미칠지는 예측하기 어렵다. 인공지능의 잠재력이 극대화되는 상황에서는 인공지능이 경제를 변혁하고, 현재의 많은 직업을 자동화하여 사라지게 만들 수 있는데, 이는 사역을 위한 시간과 자원이 더 여유로워지는 데 일조할 것으로 보인다. 인공지능을 지나치지 않게 적당히 활용한다고 하더라도, 인공지능은 컴퓨터 기반 학습 프로그램을 통해 사역자 개발과 훈련에 큰 진전을 가져올 것이며, 기계 학습을 활용한 진단과 원격 의료를 통해 의료 선교를 혁신할 것이다. 우리는 인공지능의 도움으로 더 나은 사역을 할 수 있을 것이다. 그러나 동시에, 자동화의 증가와 챗봇의 ‘인간처럼 보이지만 실제 인간이 아닌’ 소통 방식은 이미 존재하는 외로움의 문제를 더욱 심화시킬 것이며, 실제 인간적인 연결과 공동체에 대한 갈망을 불러일으킬 것이다. 이는 선교의 중심에 반드시 남아 있어야 할 요소다.
AI 혁명에 숨겨진 위험
하지만 나는 풀타임 컴퓨터 프로그래머로서 인공지능과 관련된 일을 하고 있음에도 불구하고, 개인적으로 인공지능에 대해 비관적인 견해를 가지고 있다. 그리고 기독교인들이 인공지능에 대한 낙관론을 분별없이 받아들이기 전에 신중해야 할 여러 이유가 있다고 생각한다.
진리를 중요시하는 기독교인들은 인공지능에 대해 신중할 수 있다. 왜냐하면 기계 학습 모델은 순전히 확률을 기반으로 작동하며, 정확한 답변을 제공하기 위해 설계된 것이 아니라 그럴듯한 답변을 만들어내도록 설계되었기 때문이다. 팀닛 게브루(Timnit Gebru)가 주장했듯이(이 논문으로 인해 그녀는 구글 윤리적 인공지능 팀에서 해고되었다), 대규모 언어 모델은 ‘확률적 앵무새(stochastic parrots)’10 처럼 행동한다. 이들은 참과 거짓의 개념이 없으며, 도덕적 옳고 그름에 대한 개념은커녕, 단순히 ‘이 질문에 대한 합리적인 답변은 무엇처럼 들리는가?’라는 질문에 답한다. 예를 들어, 내가 ChatGPT에게 내 자신이 쓴 수치심의 신학에 대한 논문 목록을 요청했을 때, ChatGPT는 꽤 인상적인 인용 목록을 제공했다. 하지만, 그중 실제 논문은 단 하나도 존재하지 않았다. 더 나아가, 대규모 언어 모델이 인터넷의 내용을 학습하는데, 인터넷의 모든 정보가 진실은 아니기 때문에 인공지능 어시스턴트가 바위를 먹으라고 하거나 휘발유로 스파게티를 요리하라고 추천하는 상황이 발생할 수 있다.11
동시에, 훈련 데이터는 그것을 만든 지배적인 세계관에 기반한 암묵적인 편견을 포함하는 경우가 많아, 대규모 언어 모델은 자신이 속한 맥락의 인종차별과 성차별을 그대로 재생산할 수 있다. 예를 들어, 헝가리어에는 성별을 구분하지 않는 대명사 ‘ö’가 있는데, 이를 영어로 번역할 때 ‘he’나 ‘she’로 번역해야 한다. 기계 번역 도구는 훈련 데이터에 내재된 확률을 사용하여 모호한 경우에 대명사를 선택하며, ‘그가 연구 중이다’를 ‘그녀가 연구 중이다’보다 선호하고, ‘그녀가 아이를 기르고 있다’를 ‘그가 아이를 기르고 있다’보다 더 많이 선택하는 식으로 편향된 결과를 낳는다.12
딥페이크와 인공지능이 생성하는 허위 정보 문제를 논의하기에 앞서, 새 신자를 제자로 훈련하는 데 있어 그럴듯하게 들리는 답변이 아닌 정확성과 올바른 세계관이 훨씬 중요하다는 것은 생각보다 매우 중요하다. 대규모 언어 모델의 정확성을 높이는 것은 업계에서 시급한 과제이지만, 주요 기술 선두 주자들조차도 이 문제를 효과적으로 해결하지 못하고 있다.
윤리를 중시하는 기독교인들은 인공지능 훈련 데이터가 수집되는 방식을 이해하고 인공지능에 의존하는 것에 대해 신중하게 접근할 수 있다. 심층 신경망(Deep neural networks)은 일관된 결과를 얻기 위해 수많은 이미지와 텍스트 예시를 학습해야 한다. 예를 들어, 메타의 Llama3 인공지능은 15조 개의 토큰을 학습했는데, 이 데이터는 모두 공공에서 이용 가능한 자료들로 수집되었다.13 하지만 이러한 수집이 과연 윤리적인가에 대한 우려가 크다. 예를 들어, 책 표지 이미지를 생성하는 인공지능 모델을 생각해 보자. 이 이미지를 생성하는 생성적 적대 신경망(GAN)은 수백만 개의 예술 작품을 학습했을 것으로 예상되는데, 그 과정에서 저작권이나 라이선스 상태를 제대로 고려하지 않은 경우가 많다.14 그리고 예술가에게 의뢰하는 대신 인공지능이 생성한 작품이 대신 사용될 것이다. 즉, AI는 예술가들의 작품을 무단으로 사용하고, 보상 없이 이를 이용함으로써 예술가들을 도태시키고 있다. 이는 윤리적으로 문제가 될 수 있다.
대규모 언어 모델 훈련에서 더욱 우려스러운 점은 인공지능이 콘텐츠를 검수하고 조정하는 데 인간 노동자들에게 얼마나 크게 의존하고 있는지, 그 실태가 거의 드러나지 않는다는 것이다. 케냐의 인공지능 관련 노동자들이 쓴 편지15에서는 저임금, 비윤리적이고 착취적인 노동 관행, 그리고 ‘살인 및 참수, 아동 학대 및 강간, 포르노 및 수간 등의 콘텐츠에 하루 8시간 이상 노출되는’ 현실을 지적하며, 이것이 인공지능 혁명의 기초를 이루고 있다고 경고한다. 아마도 우리는 러다이트 운동(Luddite movement)을 기억할 필요가 있을 것이다. 이들은 기술 진보를 두려워해서가 아니라, 산업 혁명의 인간적 대가가 너무 크다고 판단했기 때문에 이에 대해 저항했다.16
마지막으로, 창조세계 돌봄에 관심을 가지고있는 기독교인들은 인공지능이 환경에 미치는 영향 때문에 그 사용에 신중할 수 있다. 현재의 기준으로는 작은 모델로 간주할 수 있는 GPT-3를 훈련하는 데만 1,287MWh의 전기가 필요했으며, 이는 1,500가구가 한 달 동안 사용할 수 있는 양에 해당하고, 500톤의 이산화탄소 배출을 발생시켰다.17 전기 외에도 대규모 모델을 사용하는 데이터 센터는 증발 냉각을 위해 막대한 양의 물을 필요로 한다. GPT-3를 훈련하는 데는 약 70만 리터의 물이 사용되었으며, 사용자와의 짧은 대화를 지원하는 데만 반 리터의 물이 필요하다. 기후 변화로 인해 가뭄과 물 부족이 심화되는 상황에서, 2027년까지 인공지능 도구들이 사용할 것으로 추정되는 (영국의 연간 물 사용량의 절반에 해당하는) 50억 입방미터의 물을 사용하는 것이 합당한지 스스로에게 물어야한다.18
책임감 있는 인공지능 사용을 위하여
책임감 있는 인공지능 사용은 기술적 역량과 은사를 가진 사람들이 새로운 사역 분야로 확장할 기회를 제공한다. 하지만 이를 냉철하게 바라봐야 한다. 현재로서는 인공지능이 어떤 영향을 미칠지 판단하기에는 이르다고 생각한다. 인공지능의 성공적인 응용은 거의 모든 사역과 개인 생활을 변혁할 잠재력이 있다. 그러나 다른 한편으로는, 인공지능에 대한 과대 광고가 실제로 산업이 약속했던 수준의 응용 프로그램으로 이어지지 않았다는 심각한 징후도 보인다.19
책임감 있는 인공지능 사용이란 무엇인가? SIL의 ‘인공지능 윤리 선언문’20은 유용한 틀을 제공한다. 인공지능 사용은 인간의 번영을 증진하고, 공정하고 친절하며 겸손해야 하며, 데이터의 프라이버시와 보안을 유지하고, 인간의 책임성과 감독을 보장해야 한다. 또한, 생성되는 출력물의 종류와 질을 면밀히 감시하고, 지역 사회를 이해관계자로서 적극적으로 참여시켜야 한다.
’앞으로 다가올 몇 년 동안, 기독교인들은 인공지능 사용을 둘러싸고 제기한 질문들을 비판적으로 평가해야 할 것이다. 인공지능이 제공하는 기회를 최대한 활용하는 동시에, 그것이 내포하는 실질적인 위험과 비용을 신중히 고려해야 한다. 즉, “범사에 헤아려, 좋은 것은 취하고, 악은 어떤 모양이라도 버리라’는 말씀을 실천해야 한다”
Endnotes
- A. Turing, ‘Computing machinery and intelligence,’ Mind, 59(236),1950: 435-60.
- D. Lenat et. al., ‘CYC: Using Common Sense Knowledge to Overcome Brittleness and Knowledge Acquisition Bottlenecks,’ AI Magazine, 6(4), 1986: 65–85.
- See ‘The Vanishing/Exploding Gradients Problem’ in A. Géron, Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow (Sebastopol, CA: O’Reilly Media, 2022), ch 11.
- C. Leong, et. al., ‘Bloom library: Multimodal datasets in 300+ languages for a variety of downstream tasks,’ arXiv preprint arXiv:2210.14712, 2022; see also https://www.ai.sil.org/projects/acts2.
- ‘SIL AI & NLP Projects,’ SIL International, accessed 19 August 2024, https://www.ai.sil.org/projects.
- ‘The Bible according to OpenAI,’ OneBread, accessed 19 August 2024,
- Michael Gryboski, ‘Episcopal Church launches AI chatbot ‘AskCathy’,’ 12 August 2024,
- ‘Helping busy pastors turn sermons into content,’ Pulpit AI, accessed 19 August 2024,
- ‘What is truth? Use AI to spread the Gospel,’ Biblebots, accessed 19 August 2024,
- E. M. Bender et al., ‘On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜’, in FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency: 610-23, 1 March 2021,
- Toby Walsh, ‘Eat a rock a day, put glue on your pizza: how Google’s AI is losing touch with reality,’ The Conversation, 27 May 2024, https://theconversation.com/eat-a-rock-a-day-put-glue-on-your-pizza-how-googles-ai-is-losing-touch-with-reality-230953.
- E. Vanmassenhove, (2024). ‘Gender Bias in Machine Translation and the Era of Large Language Models,’ Gendered Technology in Translation and Interpreting: Centering Rights in the Development of Language Technology, ch 9, 18 January 2024, https://arxiv.org/html/2401.10016v1.
- ‘Introducing Meta Llama 3: The most capable openly available LLM to date,’ Meta, 18 April 2024, https://ai.meta.com/blog/meta-llama-3/.
- G. Appel et al., ‘Generative AI Has an Intellectual Property Problem,’ Harvard Business Review, 7 April 2023, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem.
- Caroline Hskins, ‘The Low-Paid Humans Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery,’ WIRED, 22 May 2024, https://www.wired.com/story/low-paid-humans-ai-biden-modern-day-slavery/.
- Richard Conniff, ‘What the Luddites Really Fought Against,’ Smithsonian, March 2011, https://www.smithsonianmag.com/history/what-the-luddites-really-fought-against-264412/.
- Nestor Maslej et al., ‘The AI Index 2023 Annual Report,’ AI Index Steering Committee, Institute for Human-Centered AI, Stanford University (Stanford, CA: April 2023),120-23.
- P. Li, P, J. Yang, M. A. Islam, & S. Ren, ‘Making AI less ‘thirsty’ Uncovering and addressing the secret water footprint of AI models,’ ArXiv preprint, 29 October 2023, https://arxiv.org/pdf/2304.03271.
- Chris Taylor, ‘The AI bubble has burst. Here’s how we know,’ Marshable, 6 August 2024,
- ‘AI Ethics Statement,’ SIL, accessed 19 August 2024, https://www.sil.org/ai-ethics-statement.