Skip to main content

I. 챗GPT의 과거, 현재, 그리고 이미 일어난 미래!

   2022년 11월 30일에 무료 베타버전으로 출시된 생성형 AI인 챗GPT는 단 두 달 만에 사용자가 1억 명에 도달하면서 ‘역사상 가장 빠르게 보급된 기술’이 되었다(비교, 페이스북이 3년 2개월, 유튜브가 2년 10개월). <네이처>는 ‘2023년 과학계 최고의 인물 10명’ 중 1명(?)으로 챗GPT를 꼽을 정도로, 챗GPT는 새로운 차원의 인공지능(AI) 시대의 도래를 알렸다.

   전통적 AI로는 1943년 자신의 논문에서 AI를 ‘인간의 말을 이해하는 기계’로 처음 언급한 앨런 튜링(Alan Turing), 1961년 영국 과학자 요제프 바이젠하움이 발병한 챗봇 Eliza가 있었지만, 우리의 뇌리에 각인된 사건은 해외 1996년 2월 IBM이 만든 딥 블루(Deep Blue)와 체스 그랜드마스터(Garry Kasparov)와의 대국과 국내 2016년 3월 이세돌과 알파고의 대국 정도였다. 이때까지만 해도 AI가 방대한 데이터를 활용하지만, 거대 컴퓨터를 통한 개인 차원의 활용과는 거리가 멀었다. 이런 전통적 AI와 달리 생성형 AI는 1980년대 말 머신러닝 알고리즘이 발전하며 그 성능이 향상되었고, 1990년, “현대 인공지능과 딥 러닝의 아버지”로 불리는 유르겐 슈미트후버의 연구에 기반하여 언어 모델이 발전하며, 챗GPT가 AI의 새로운 시대를 알렸다. 이처럼 챗GPT가 큰 관심과 급속도로 사용되고 있는 이유는 1) 개인 접근성의 확보, 2) 질문을 통한 대화의 방식으로 빠른 시간에 필요한 정보를 얻는 성능의 차별성, 3) 위의 두가지의 결과로 활용 범위의 확장성 때문이다.

    챗GPT는 그 첫머리 글자에서도 알 수 있듯, 1) 인간과의 대화 방식(Chat)을 통해 AI가 언어를 생성한다는 점에서 두드러진 차이가 있다. 2) ‘GPT’라는 말은 “Generative Pre-Trained Transformer”의 약자로서, 사전에 학습된 방대한 데이터를 가지고, 언어 처리를 위한 알고리즘을 활용하여 단어나 문장의 관계를 파악하여, 새로운 정보와 결과를 스스로 생성할 수 있다는 것을 의미한다. 즉, 챗GPT는 일상언어를 사용하는 대화 방식을 통해서 검색, 분석, 예측을 학습된 자료를 바탕으로 사용자의 질문(과 재질문)에 마치 사람이 대답하는 것처럼 답변을 생성하고 제시하는 성능을 갖춘 대규모 언어모델(LLM, Large Language Model)의 생성형 AI이다. 

   현재는 오픈AI사는 2022년 GPT-3.5 모델에 이어 2023년 3월 14일에는 텍스트와 더불어, 음성, 이미지를 인식하고 처리하며 더욱 정교한 언어 이해와 처리 능력을 지닌 GPT-4 모델을 내어놓았다. 2024년 7월 18일 GPT-4o버전이 출시되어다. 현재 GPT-4 모델은 GPT 3.5 모델보다 언어능력이 좋아져서 변호사 시험, 상법, 형법에 상위 10% 안에 합격하고, SAT도 상위 10% 안에 들게 할 정도로 3.5 버전의 몇몇 문제점을 개선하고 기능도 향상되었다. 챗GPT와 더불어 최근 다수가 활용하는 생성형 AI 모델들로, 마이크로소프트(Microsoft)의 코파일럿(Copilot), 구글(Google)은 그간 자체 개발해 온 대화 알고리즘 ‘람다(LaMDA)’를 바탕으로 2024년 2월 11일에는 기존의 바드(Bard)에서 제미니(Gemini)로 이름을 변경하여 GPT-4 모델을 능가하는 생성 AI 애플리케이션 확장에 집중하고 있다. 기타 클로드 3(Claude 3)도 주목을 받고 있다. 달리(DALL-E), 미드저니(Midjourney), 스테이블 디퓨전(Stable Diffusion)은 등은 텍스트 입력값을 기반으로 시각 콘텐츠를 생성하고 편집하는 고급 생성형 AI 모델이며, 최근 GPTs를 통해서 GPT를 활용한 다양한 모듈을 제공하고 있다.

   특별히 챗GPT가 특별히 주목받는 배경에는, 과거 인간 고유의 창작 영역이라고 여겨졌던 부분에서 다양하게 활용되고 있기 때문이다. 산업과 기업에서 사람이 직접해야 한다고 생각했던 영역(HR 콘텐츠, 인력 개발과 평가 등)만이 아니라, 각종 예술의 영역(음악, 미술, 문학과 출판, 교육과 연구 등)을 포함한 인간 삶의 여러 국면으로 그 활용 범위가 빠르게 확장되어 가고 있다. 한 마디로 챗GPT가 인간의 창의성의 영역들도 넘보는 시대가 된 것이다. 우리가 살아가는 시대를 4차 산업혁명의 시대라고 하든, ‘IT 혁명의 제3의 물결’의 시대라 부르든, 우리는 ‘데이터 에이지(Data Age)’라는 이미 일어난 미래의 시대를 살아가고 있음(대학생들 98%는 사용 중)을 부정하기 힘들다.

   이런 챗GPT의 열풍은 목회자들 사이에도 이미 일어난 미래이다. 예배, 설교, 상담, 교육의 영역에서 많은 영향을 미치고 있기에, 활용의 측면이나 저항의 측면에서나 목회자들은 많은 과제와 도전에 직면해 있다. 특별히 설교는 목회자의 고유한 영역으로 여겨져 왔으나, 현재 비판보다는 챗GPT와의 협업을 통한 시너지 효과(우려와 기대의 혼재 속에서도)를 추구하는 경향이 강하다. 이런 맥락에서 오늘날 교회 강단을 지켜야 할 설교자에게는 챗GPT 사용에 대한 균형 있는 평가와 진단, 그리고 나아갈 방향과 구체적 가이드가 절실히 필요한 시점이다.

 

II. 챗GPT의 한계성 인식과 설교 활용 방향

1. 챗GPT의 내재적 한계와 설교 활용의 잠재적 위험성

불변의 복음을 가변의 시대에 전하는 설교자가 시대의 변화의 민감성 없이 복음을 전하는 것은 시대착오적 시도이다. 동시에 아무리 기술의 발전을 선용한다고 해도, 설교가 지닌 본질과 그에 기반한 방법, 그리고 설교자의 정체성을 기준으로 비판적 검증 역시 필수적이다. 이런 점에서 활용을 논하기 전에, 챗GPT의 한계와 잠재적 위험성을 먼저 살펴보자. 

1.1 챗GPT가 지닌 일반적 한계

1) 챗GPT 활용의 내재적 문제는 “환각 현상(Hallucination)”이다. 기본적으로 챗GPT가 기존의 데이터를 활용하는 알고리즘으로 정보를 제공하는 이상, 이 환각 현상을 완벽하게 막기는 어렵다. 따라서 챗GPT의 활용에는 언제나 신뢰성의 문제가 언제나 도사리고 있다.

2) 챗GPT는 데이터를 연결하는 알고리즘의 정보 생성의 세부 과정은 이해할 수 없는 ‘블랙박스화’ 문제가 있다. 챗GPT가 제공하는 자료는 일목요연하게 정리된 것으로 보이지만, 이는 더 좋은 알고리즘이 개발된 것이 아니라, 데이터가 많아졌기 때문이다. 수많은 출처 미상의 정보를 데이터베이스화해 정보를 생성하지만, 정확하게 어떻게 취합하는지를 모르는 치명적인 취약점이 있다. 

3) 챗GPT는 편향된 정보를 제공할 수 있다. 정보 생성의 세부 과정을 모르는 상태에서 챗GPT가 활용하는 기존의 정보는 이미 편견이나 편향된 내용이 들어가 있을 수 있다. 따라서 챗GPT가 생성하는 정보에 의해서 사용자가 편향적 지식을 가질 수 있고, 특정 성향의 사고 형태를 형성하게 될 수도 있다는 위험이 있다.

4) 챗GPT는 저작권과 프라이버시 등의 보안과 윤리의 문제를 초래한다. 기업의 문서와 라이센스가 걸려 있는 정보를 함부로 사용하게 되면서 법적인 문제를 일으킬 수 있고, 예술과 문학 등에서 저작권의 이슈가 실제로 제기되고 있다. 챗GPT가 매우 다양한 자료를 미리 학습하지만, 거기에 대한 정당한 저작권을 부여하고 있지 않다. 

5) 챗GPT는 여러 문화적, 사회적 맥락과 정황에 대한 이해가 여전히 능숙하지 않고, 최근에 일어난 일에 대한 정보와 사용자의 주변에 일어난 최근의 이슈를 모른다. 사용자가 프롬프트 엔지니어링(prompt engineering)을 통해 챗GPT의 특정 역할을 어느 정도 설정하거나, 맞춤형 데이터를 활용하여 더욱 정교한 대답을 유도하는 질문을 하는 것도 가능하다. 하지만 실제 사용자가 관계하는 특정 맥락이나, 지역 사회와 공동체, 개인에게 일어난 일에 관한 내용을 제공할 수가 없다.

결국 챗GPT는 주어진 데이터의 활용이지(부정적 표현으로는 노엄 촘스키의 “하이테크 표절” 에밀리 벤더의 “확률적 앵무새”), 사람이 지닌 영혼, 감정, 직관과 더불어 사람과 문화 간의 관계적이고 정황적이고 경험적 지식을 제공하는 것에는 매우 큰 한계가 있다.

1.2 챗GPT의 부분별한 활용이 설교에 가져다줄 잠재적 위험성

1) 무분별한 챗GPT의 활용(환각 현상)은 설교에 잘못된 내용이 포함될 위험이 생긴다. 이는 설교와 설교자의 신뢰에 문제, 강단의 신뢰도와 직결된다. 따라서 챗GPT가 제공하는 정보에는 언제나 설교자의 검증 작업이 요구된다. 

2) 챗GPT의 활용은 제공되는 편향적 지식으로 신학적 일관성이 없는 문제가 생긴다(신학적 뼈대가 없는 설교). 여전히 온라인 상에는 기독교 핵심 교리를 왜곡하는 이단적인 사상, 종교 혼합주의적 자료들이 건전한 정통신학의 자료들보다 압도적으로 많다. 챗GPT의 부분별한 활용은 설교자와 청중 모두에게 신학적 기조가 오락가락하는 혼란과 갈등을 낳는 결과를 초래할 수도 있다. 

3) Big Data(정보 공유 시스템)와 Deep-Learning(데이터 활용의 자가 학습 능력) 기반의 챗GPT의 활용은 비의도적 설교 표절의 이슈가 야기될 수 있다. 챗GPT가 제공하는 자료는 이미 학습된 자료이기에 마음대로 사용하다가는 특정인이 한 설교를 은연중에 표절하게 된다. 챗GPT가 제공한 내용을 그대로 사용한 설교자에게 그 책임이 돌아간다. 출처를 명확히 하기 위해서 설교자의 검증(주석, 신학 서적, Logos를 통해)이 필요한데, 연구만큼의 시간이 필요하다.

4) 챗GPT가 제공하는 정보는 실제 설교에서 속한 공동체와 개인의 감정, 정서적 연결, 공감 능력, 공동체적 참여를 반영하는 것에는 분명한 한계가 있다. 챗GPT는 설교자와 청중 사이의 인격적 소통을 도울 수는 없다. 설교는 성경의 진리를 설교자와 청중이 모두 특정한 문화적 내러티브 가운데 살아가며 ‘맛보아’ 아는 진리의 험증적 차원과 구체적인 삶의 정황에서 그 진리를 살아내도록 하는 실천을 지향한다. 즉 설교에 반드시 포함되는 설교자와 청중의 정서와 경험, 공동체의 역동적 참여라는 차원과 설교자가 청중과의 삶의 교감과 동감과 더불어 설교자의 목회적 마음에 녹아드는 영역이 있기에, 챗GPT의 활용으로는 이 부분을 올바로 다룰 수 없다.

5) 위의 위험성은 결국 설교의 본질과 설교자의 역할에 대한 환각 현상, 그리고 설교자의 기능화로 점철된다. 설교는 정의와 목적상 진리의 정보의 전달이 아니다. 설교의 주체는 언제나 하나님이시다. 그 하나님의 말씀인 본문이 우리의 기준이어야 하며, 설교는 단순히 진리 정보가 아니라, 당시와 지금도 여전히 유효한 살아계신 하나님의 소통 행위다. 

결국, 챗GPT의 활용에 언제나 ‘인간다움’에 대한 질문이 뒤따른다면, 설교에서 챗GPT의 활용은 언제나 ‘설교(자)다움’을 줄 수 있다는 차원을 기억해야 한다. 1) 설교는 확률적 지식이 아닌 하나님의 진리를 전달하는 것이다. 2) 설교자는 설교를 준비하며 본문과 청중, 그리고 신학과 복음을 더 깊이 알아가는 과정을 거친다. 3) 설교자는 단순히 신학적 정보가 아니라 현실을 살아가는 청중을 향한 인격을 통한 생생한 진리를 선포한다. 4) 빠른 시간의 효과적이고 실용주의적 설교 작성에 함몰된 기능화된 설교(자)가 아니라, 진리를 살아내며 진리를 인격적으로 전하는 자로 교회 공동체에 세워주신 하나님의 대사임을 기억해야 한다. 따라서 부지런히 본문과 청중 사이를 오가면서 성령의 인도하심을 분별하는 영적 분별력과 민감성을 설교 연구와 수행에 중심이 되도록 하는 것에 챗GPT가 자칫 유혹의 걸림돌이 되지 않도록 해야 한다.

2. 설교 작성 전체 과정에서 챗GPT 활용의 범위와 효율성

앞선 챗GPT의 한계와 위험성을 먼저 분명히 한 것은 활용법에 치우친 교계의 경향과 더불어 챗GPT를 조심해서 사용할 것을 강조하기 위함이다. 그렇다면, 활용해 볼 수 있는 영역도 있다.

1) [설교 준비 과정]에서 개략적인 설교 주제에 대한 빠른 검색을 통한 설교자의 브레인스토밍에 도움을 줄 수 있다. 설교자가 주제와 관련된 성경 구절들에 대한 자료를 수집하고, 전체 설교 계획을 기초적으로 설정하는 데 사용될 수 있다. 챗GPT는 많은 설교 자료, 신학 논문 등을 빠르고 정확하게 검색하고 분석하고, 일반적인 설교 주제들과 그것과 관련된 신학적 용어, 개념에 대해 다양한 자료들을 효율적으로 조사하고 분석하여 설교에 필요한 정보를 얻는 것에 활용도가 가장 큰 영역이라 할 수 있다. 여기에도 개괄적 보편적 자료에 머물지 않고 보다 효과적인 제안을 받기 위해서는 질문을 잘하는 프롬프트 엔지니어링의 기술이 요구되며, 검증이 필요하다.

2) [본문의 주해 과정]에서도 챗GPT를 활용하여 주해를 위한 연구 지원 차원에서 도움을 얻을 수 있다. 실제 본문에 등장하는 역사적 배경과 관련된 내용, 즉 인물, 지리, 사건에 대한 정보를 빠른 시간에 찾는 것에 도움을 줄 수 있다. 아울러 문법적-문학적 연구에 도움이 되는 본문에 등장하는 언어의 해석과 용법, 외국어로 된 자료 번역을 위해서도 챗GPT를 유용하게 활용할 수 있다. 

=> 본문 주해의 목적이 진리 정보의 차원이 아니라 당시 청중을 향한 ‘성경 저자의 의도성(의도한 의미)’을 파악하는 것이라는 점을 분명히 해야 한다. 즉, 성경 저자의 의도를 파악하는 더 깊은 묵상을 향해 가는 주해의 목적에 맞게 활용해야 한다. 챗GPT가 제공하는 대지나 설교문을 있는 그대로 활용하는 것은 성경 본문에 대한 더 깊은 이해와 설교자의 본문 해석 능력, 본문에 걸맞은 설교 형식과 목적을 발견하는 능력을 함양하는 것에는 궁극적으로 도움이 되지 못한다는 점(오히려 사색과 묵상을 방해할 수 있)을 분명히 해야 한다.

3) [설교의 신학화 과정(원리화와 맥락화의 과정)]에서 챗GPT는 본문의 주제와 목적에 기초한 다양한 신학적 관점을 연구하는 것에 도움을 줄 수 있다. 하지만 앞서 주해의 과정보다는 더욱 챗GPT 활용에 있어서 신중을 더해야 한다. 설교는 신학적 행위로서, 설교자는 본문과 정경 전체에 기반한 신학적 진리를 파악하되, 오늘날 자신에게 맡기신 청중을 향해서 그 진리를 표현해야 한다. 즉, 성경신학과 조직신학적 기초가 없고, 문화와 청중에 대한 이해도가 없으면, 더 많은 데이터가 오히려 재앙이 된다. 

4) [설교 작성의 과정]은 챗GPT가 활용되지 않아야 할 영역이라 할 수 있다. 설교자가 특정 정황을 챗GPT에 명령하여, 특정 청중의 필요에 관한 통계나 정보는 얻을 수 있지만, 이것 역시도 설교자가 직접 대상으로 청중은 아니기에 활용도는 매우 떨어진다. 초보자에게는 설교의 논리적 개요에 대한 실례나 예화의 자료를 얻을 수 있지만, 그것이 본문과 설교자의 청중에게 걸맞은 방식이지 않을 때가 더 많다. 설교 내용 작성은 설교자 자신이 섬기는 청중을 향한 인격적인 소통이기에 설교를 작성하는 과정에서는 되도록 챗GPT 활용을 지양하는 것이 권한다. 

5) [설교 전달과 피드백, 그리고 설교 이후 자료 데이터화와 영상 작성]에 도움을 줄 수 있다. 설교문에 기반한 설교의 시각적 자료(이미지, 차트 등) 제작이나 챗GPT를 상대로 연습을 통한 설교 언어 교정이나 피드백을 제공받을 수 있다. 

챗GPT는 인간의 질문에 더 좋은 답을 찾는 영혼 없는 기계에 불과하다. 챗GPT가 복잡한 사고를 하는 것처럼 보이지만, 사실은 기존의 학습된 자료를 활용하는 것이지 통합적으로 평가하는 것이 아니다. 반면 설교자는 하나님과 본문, 신학, 청중을 향한 거룩한 질문들 품고 살아가는 인격체이다. 설교 전체 과정에서 성령의 인도하심, 주해의 신실함, 신학적 민감함, 청중에 대한 영적 감수성, 인격적 감동이 설교자를 통해서 전달되도록 해야 한다.

3. 챗GPT 시대 속에서 설교가 나아갈 방향

부분별한 활용만큼이나 배제와 고립도 문제가 된다. 챗GPT가 이미 도래한 이 시대 속에서 설교자의 책임감 있도 도덕적인 활요이 필요하다. 

3.1. 인식론적 관점에서의 제안

1) 설교의 정의와 목적, 설교자의 정체성 확인, “설교다움”이 우선이다. 설교는 하나님에 대한 정보와 지식 전달이 아니라, 그분의 본성과 아름다움과 청중을 향한 삶의 진선미를 담아내는 것이다. 이 설교의 본질을 회복할 때, 오히려 설교의 권위와 지평이 넓어질 수 있다. 정보를 아주 쉽게 얻는 것은 설교에 신뢰와 설교자의 실력 함양을 희생시킨다. 이는 결국 설교의 권위를 훼손한다. 설교자는 챗GPT를 설교 본질을 강화하는 방향의 도구로 사용해야 한다. 챗GPT가 설교가 지닌 인격적인 차원을 대체하는 것 아니라, 설교의 인격성에 집중하도록 보완하는 데 사용되어야 할 것이다. 

2) 이미 시대적 변화 속에 있다는 점을 설교자가 자각해야 한다. 챗GPT는 핸드폰처럼 이미 상용화가 되었다. 설교자가 알고 있는 지식을 찾고 최적화하는 것(챗GPT 활용이 가능한 영역)과 하나님께서 인도해 가시는 미래의 계획과 창의성을 발휘하는 것(설교자의 책임과 의무)에 대한 차이점을 바르게 인식해야 한다. 주어진 지식의 최적화나 혼자 지식을 찾는 것에는 AI가 잘할 수 있는 영역이지만, 다른 사람과의 공감과 전략적 창의성을 발휘하는 것은 사람이 주도할 수밖에 없음을 깊이 인식해야 한다. 청중은 진정성 있는 설교자를 갈망하며, 자기 삶에 생생하게 때로는 엄중하게 다가가는 하나님의 말씀에 목말라하고 여전히 기다리고 있다.

3) 챗GPT의 활용이 현대 자유, 실용, 소비주의를 부추길 수 있다는 점을 깊이 이해할 필요가 있다. 자유, 효능, 쓸모의 논리에 설교자가 함몰되지 않고, 빠른 정보의 활용보다는 더욱 바른 정보를 제공해야 할 시대적 과제가 주어져 있다. 참과 거짓의 진리 분별과 아울러, 진리의 선하고 아름다움이 드러나느 설교에 더 많은 관심을 가질 필요가 있다. 답정너 방식이 아닌, 메타인지 활용, 공동체와의 공감, 지역과 각 개인의 문제에 민감한 성경적 대안을 제시하는 설교가 필요하다. 

4) 위의 내용과 관련하여 오늘날 문화의 영향 속에서 한국교회가 빠질 수 있는 ‘신상증후군’에 대한 자각이 절실해 보인다. 한국교회는 신기술에 관심과 세상의 트랜드를 알아가려는 노력은 뛰어나다. 하지만, 실제적으로 어떤 영향을 미칠지에 대한 깊은 사고와 성찰이 없이, 선점 효과를 노리는 경향이 많이 보인다. 우리의 새로운 시도와 돌파구를 향한 열정이 설교가 설교답게 하는 데 얼마나 공헌하는지 항상 점검해 보아야 한다. 

5) 본문에도 충실하고 신학적으로 건전한 설교와 설교에 관련된 자료를 축적하고 제공해야 할 시대적 사명이 있다. 챗GPT가 기존의 자료를 학습하여 사용자에게 자료를 제공하며, 아울러 기존의 자료에 대한 신뢰도를 고려할 때, 설교자가 매주 텍스트나 영상으로 내어놓는 설교 자료들에 그 사실성과 신학적 건전성에 더욱 주의를 기울일 필요가 있다. 이는 현재 설교자의 오프라인과 온라인상의 설교 사역 보이고 들려지는 설교 권위와 신뢰를 높일 뿐만 아니라, 장기적인 측면에서 사람이 알지 못하는 영역에서 알고리즘의 작동으로 챗GPT가 활용하는 기본 설교 관련 자료에 건전성을 높일 수 있는 방식이라 할 수 있다. 이를 통해 양질의 신학적 내용이 담긴 설교와 건전한 신학적 정보들이 딥러닝의 데이터 체계 속에서 더 큰 영향력을 발휘하도록 해야 할 것이다.

6) 한국교회를 넘어 사회적, 윤리적 가치와 공공의 이익도 생각해 보아야 한다. 챗GPT의 활용에는 표면적으로 보이지 않는 가려진 부분이 있다. 대규모 언어모델을 학습하기 위해서는 많은 에너지를 사용하게 된다. 아울러 챗GPT가 제공하는 외설적이거나 부적절한 답을 내어놓은 것을 걸러내는 작업을 하기 위해서 “유령 노동자(Ghost Workers)”를 고용하는데, 온라인으로 하청업을 하는 그들은 부적절하고 불편하고, 끔찍한 일을 지속해서 고통을 감내해야 하는 일이다. 즉 챗GPT의 활용은 결코 친환경적이지도 노동친화적이지 않다. 기타 정보의 부익부 빈인빈 현상과 쓸모를 위해서 만든 기계가 인간의 쓸모를 결정하여, 쓸모의 논리가 도덕적인 윤리적인 이슈를 덮어버리는 상황을 초래할 수도 있다. 

3.2 설교 실천적 관점에서의 제안

챗GPT의 위험성과 유용성을 기반으로 실제 설교 준비의 과정에서 다음과 같은 실천을 제안한다.

1) 설교 준비와 설교 후에 챗GPT의 활용은 권장해 볼 만하다. 설교 전에 다양한 청중의 필요와 관련된 자료 정리, 특정 주제와 관련된 개괄적 정보 지식에 대한 이해, 그리고 그와 관련된 성경 본문과 관련 자료를 취합하는 과정에서 매우 도움이 된다. 아울러 작성된 설교에 기초한 이미지 작성이나 온라인 영상이나 자료를 만드는 것에도 챗GPT의 활용은 유용해 보인다. 즉, 실제 설교 전이나 설교 이후나, 이미 주어진 자료들을 확인하고 수정하고 활용하는 차원에서 가장 챗GPT가 활발하게 활용될 수 있는 영역이라 보인다.

2) 설교자는 주해의 과정에서 본문과 본문 앞의 세계에 충실하되, 다양한 정보에 함몰되는 것이 아니라, 본문의 내용을 가지고 본문 앞에 살아가는 정황과 청중 읽기가 더욱 필요하다. 

설교는 정보의 조합이 아니라, 전인격과 영혼을 향한 하나님의 말씀이다. 말씀이 지닌 의미의 자리는 정보를 넘어 사람의 인격을 향한 변화를 향한 것임을 잊지 말아야 한다. 말씀이 오늘날 우리에게 주시는 삶의 동력으로서 어떻게 상호연결되는지를 이해하지 못하면 힘이 없다. 아무리 유용한 정보라 할 지라도 정확과 맥락에서 나오는 목적이 없이는 그 활용할 잣대가 사라지고 만다. 이를 위해 설교자는 본문 앞에 머무는 시간과 깊은 묵상을 통해 연마된 실천적 지식, 지혜를 구해야 한다. 명제적 진술을 구사하는 차원이 아니라 청중을 향한 생생한 적용이 일어나도록 해야 한다.

3) 설교를 위한 신학적 사고 과정(원리화와 맥락화)이 반영된 든든한 설교를 지향해야 한다. 설교자가 지닌 신학적 틀로 다양한 정보를 필터링하면서, 동시에 자신이 살아가는 오늘날 시대적 읽기가 필요하다. 즉, 설교자는 성경 전체의 정경적 맥락과 문화적 맥락에 대한 이해를 더욱 넓혀야 할 필요가 있다. 여기에는 설교자가 지닌 신학적 체계에 대한 확립과 확신 아래에서 동시에 자신이 살아가는 오늘날 시대를 향한 점검의 과정이 필요하다. 특별히 성경을 단편적인 하나의 진리 진술과 윤리적 조언의 차원을 넘어서, 거대 담론을 지닌 하나님의 언약과 구속 성취의 관점으로 바라보는 것이 중요하다. 아울러 설교가 향하는 개인과 공동체는 언제나 우리를 향한 하나님의 언약과 구속의 맥락 속에 있다는 점을 기억하고, 설교자는 하나님과 공동체와 개인의 인격적인 관계를 염두에 둔 신학적 사고와 맥락화의 훈련을 더욱 연마할 필요가 있다.

4) 설교화 과정에서 청중에 대한 공감과 공유, 그리고 저항과 도전이 있는 적용이 살아있는 설교가 있어야 한다. 데이터주의 시대에 정말 데이터의 활용 가치를 높이는 길은 목회자로서 우리가 관계하는 하나님과 섬겨야 할 대상을 더 깊이 알아가는 질문을 던져야 한다. 설교자는 설교 작성의 설교화 과정에서 더 현장 지향적, 청중의 마음을 겨냥한 설교가 되도록 노력해야 한다. 

 

III. 딥리딩(Deep-Reading)과 딥프리칭(Deep-Preaching) 설교 수행이 우선!

챗GPT의 활용이 설교다움을 지향하는지 점검해야 한다. 더불어 챗GPT를 올바르게 활용하기 위해서 설교자가 수행하는 설교 과정과 설교자의 품새를 먼저 가다듬어야 한다. 또한 딥러닝(Deep Learning) 기반의 챗GPT 올바른 활용과 테이타 시대 속에서 쏟아지는 다량의 정보를 ‘skimming’, ‘scanning’, ‘scrolling’하며 이를 제대로 활용하기 위해서라도, 오늘날 설교자는 본문 앞에 오래 머물러 본문을 깊이 이해하고 청중의 경험과 정서에 깊이 공감할 수 있는 딥 리딩(Deep Reading)이 필요하다. 또한 오늘날 설교자는 챗GPT 시대의 빠른 변화 속에서도 유구하고 그리고 지금도 유효하게 이루어지고 있는 하나님 나라와 세상을 더욱 깊이 품고 현대의 청중의 삶을 복음으로 관통하는 신학적 성찰이 있는 딥프리칭을 실천해야 할 시대적 과제를 안고 있다.

김대혁 교수는 총신대에서 실천신학/설교학 부교수로 섬기고 있으며, 2024년 8월 26일에 열린 한국기독교윤리연구원 하계 컨퍼런스에서 강사로 섬겼다.