[비전추진단뉴스레터]

ChatGPT를 이용한 발표 및 강의 슬라이드 만들기


임상교수님들의 건의사항/의견은 아래 메일을 통하여 비전추진단에서 수렴하고 있습니다.

임상교수는 서울의대의 가장 중요한 비전입니다.

서울의대의 가장 중요한 비전은 후속 세대이고, 서울의대 후속 세대의 가장 중요한 구성원은 임상교수님들이십니다. 김정은 학장님 이하 현 학장단에서는 비전추진단을 통해, 병원 임상교수와의 소통을 증진시키고 대학에서의 역할을 확대하고자 합니다. 비전추진단은 카카오톡 채널 [新서임당: 새로운 울의대-상교수 소통마]을 개설하여 의과대학에서의 소식을 임상교수님들께 전달하고, snuh@snu.ac.kr 메일 계정을 통해 임상교수님들의 건의와 질문을 받을 계획입니다. 임상교수님들의 적극적인 참여가 있어야 서울의대는 최고가 될 수 있습니다. 많은 관심과 제언 부탁드립니다.

비전추진단 올림

ChatGPT를 이용한 발표 및 강의 슬라이드 만들기


이요한 교수(서울특별시보라매병원 정형외과)
이요한 교수(서울특별시보라매병원 정형외과)
발표 준비의 힘듦과 LLM의 가능성

의학 분야에서 발표와 강의는 단순한 정보 전달이 아니라, 청중의 수준에 맞는 메시지를 구조화하고 핵심을 설득력 있게 제시해야 하는 작업이다. 그러나 실제 발표 준비 과정은 쉽지 않다. 학술대회나 병원 내 컨퍼런스에서 흔히 맡게 되는 10분짜리 발표를 예로 들어보자. 단순히 10분간 말하는 것으로 끝나는 것이 아니라, 그 뒤에는 보이지 않는 방대한 준비 과정이 필요하다. 발표 주제를 정하고, 관련 문헌을 검색해 수십 편의 논문을 읽어야 하며, 최신 연구 결과를 정리해 발표 목적에 맞게 추려내야 한다. 이어서 핵심 메시지를 정리하고, 이를 시각적으로 설득력 있게 보여줄 슬라이드를 구성하는 과정이 뒤따른다. 마지막으로 발표 스크립트를 준비하고, 실제로 여러 번 연습을 거쳐야 비로소 청중 앞에 설 수 있다. 짧은 발표라 하더라도 이 모든 과정에는 보통 수일에서 수주까지 걸리는 경우가 많다. 특히 임상의들은 바쁜 진료와 수술 일정 속에서 이 같은 시간을 따로 마련하기가 쉽지 않다. 이 때문에 많은 연구자와 발표자가 “발표 준비는 늘 시간과의 싸움”이라고 표현하곤 한다.

이 지점에서 ChatGPT와 같은 대규모 언어모델(large language model, LLM)은 매우 유용하다. 방대한 문헌을 일차적으로 요약해 주거나, 발표 주제에 맞는 개요를 자동으로 구성해 주며, 심지어 발표 스크립트 초안까지 제공할 수 있다. 물론 그대로 사용할 수 있는 완성품은 아니지만, 초안을 빠르게 생성해 주는 도구로 활용한다면 발표 준비 시간을 획기적으로 단축할 수 있다. 발표자가 자료를 직접 탐색하고 정리하는 노고를 덜어주고, 보다 핵심적인 검증과 다듬기에 시간을 집중할 수 있게 해 준다. 그러나 LLM도 잘 사용하지 않으면 오히려 더 불편할 수 있다. 프롬프트가 모호하면 결과물이 애매하고, 청중의 수준과 맞지 않는 불일치가 발생할 수 있다. 때로는 존재하지 않는 논문이나 잘못된 통계를 인용하는 환각(hallucination) 문제가 나타나기도 하며, 발표 슬라이드임에도 장황한 문장만 가득 채워 산만해지기도 한다. 즉, LLM은 발표 준비 시간을 단축할 수 있는 도구이지만, 제대로 다루지 못하면 오히려 발표자의 부담을 늘릴 수 있다는 점을 반드시 기억해야 한다.


효과적인 프롬프트: 발표 준비의 성패를 좌우하는 핵심

ChatGPT를 발표 준비에 성공적으로 활용하기 위해서는 프롬프트 설계가 핵심이다. 프롬프트란 AI에게 던지는 지시문으로, 얼마나 구체적이고 정교하게 작성하느냐에 따라 결과물이 완전히 달라진다.

좋은 프롬프트는 네 가지 요소를 갖춰야 한다. 첫째, 발표용 역할을 지정하는 것이다. “너는 정형외과 교수다.”라고 설정하면 답변의 어조와 깊이가 달라진다. 둘째, 청중의 수준을 명시해야 한다. “의대 본과생에게 설명하듯” 혹은 “정형외과 전문의 수준으로”라는 단서를 주면 난이도를 자동으로 조절한다. 셋째, 형식을 분명히 제시해야 한다. “표로 정리해줘.” 혹은 “3문장 요약” 같은 지시는 결과물의 구조를 통제한다. 넷째, 맥락을 함께 알려 줘야 한다. “5분”, “슬라이드 3장 구성”과 같이 목적과 조건을 지정하면 모델이 추측에 의존하지 않고 정확한 결과를 낸다. 예를 들어 “정형외과 전공의가 고관절 골절 수술을 주제로 발표할 예정이다. 발표 시간은 10분이고, 슬라이드는 3장으로 구성해 달라. 청중은 본과생이다.”라는 프롬프트는 매우 구체적이며, 이 경우 ChatGPT는 발표자의 상황에 맞는 아웃라인을 정확히 제안할 수 있다.

또한 프롬프트를 활용하는 대표적인 방법으로는 Few-shot과 Chain of Thought(CoT)가 있다. Few-shot 방식은 몇 가지 예시를 먼저 제시하고 같은 패턴을 따르도록 유도하는 기법이다. 예를 들어 “고관절 골절 슬라이드: 병태생리/수술법/예후”와 “인공관절 수술 슬라이드: 적응증/수술 과정/합병증”이라는 예시를 먼저 보여주면, ChatGPT는 회전근개 파열 발표에서도 “적응증/치료 과정/예후”라는 유사한 구조를 제안한다. 이처럼 Few-shot 방식은 학술 발표에서 일관된 구조를 재현하는 데 유용하다.

Chain of Thought (CoT)는 단순한 답변이 아니라 사고 과정을 단계적으로 드러내도록 하는 기법이다. 예컨대 “회전근개 파열 치료 결정을 환자의 나이 → 증상 지속 기간 → MRI 소견 순서로 설명해 달라.”라고 요청하면, ChatGPT는 조건을 하나씩 검토하며 결정을 전개한다. “고령이면 보존적 치료 우선, 6주 이상 증상 지속 시 수술 고려, 완전 파열은 봉합술 우선”과 같은 단계별 설명이 이어지는 것이다. 이러한 방식은 복잡한 치료 전략이나 연구 설계를 설명할 때 청중이 자연스럽게 따라올 수 있는 논리적 사고의 흐름을 제공한다. 특히 의학 강의에서 의사결정 과정을 설명할 때 CoT는 단순 요약보다 훨씬 설득력 있고 교육적이다.

그러나 아무리 잘 짜인 프롬프트라도 LLM이 가진 근본적 한계는 남아 있다. 모델은 자신 있게 ‘그럴듯한 오류’를 생성할 수 있고, 존재하지 않는 논문을 인용할 수도 있다. 이를 보완하는 전략이 바로 RAG (Retrieval-Augmented Generation)이다. RAG는 사용자가 직접 선별한 자료(논문, 가이드라인, 데이터 등)를 AI에 제공하여, 모델이 자체 지식이 아니라 실제 근거를 기반으로 답변하도록 유도하는 방식이다.

예를 들어 원위 요골 골절의 수술적 치료를 주제로 발표를 준비한다고 가정해 보자. 단순히 “원위 요골 골절 수술적 치료의 결과를 정리해 줘.”라고 묻는 대신, 최근 5년간 발표된 메타분석 논문 PDF를 모델에 업로드하고 “이 논문에서 보고된 수술 방법별 예후와 재수술률을 요약해 달라.”고 요청할 수 있다. 이렇게 하면 ChatGPT는 일반 지식이 아니라 실제 논문의 근거를 바탕으로 답변을 생성한다. 발표자는 해당 내용을 슬라이드에 직접 반영할 수 있으며, 이 발표는 근거 기반으로 구성되었다는 신뢰성을 확보할 수 있다.

정형외과 사례를 들어 보면, ‘관절 인공관절 수술의 최신 기법’ 발표를 준비할 때 다음과 같은 프롬프트를 활용할 수 있다. “너는 정형외과 교수다. 청중은 의대 본과생이다. 10분 발표로 슬라이드를 3장 구성해 달라. 각 장에는 핵심 제목과 2~3개의 주요 문장을 포함해 달라. 그리고 첨부한 대한정형외과학회 2022년 가이드라인 PDF를 참고해 수술적 치료 부분은 해당 자료의 수치와 권고를 반영해 달라.” 이처럼 프롬프트와 RAG를 결합하면 발표 준비의 속도뿐 아니라 신뢰성까지 확보할 수 있다.


AI 발표 준비의 위험성과 검증의 필요성

ChatGPT는 발표 준비 시간을 줄이고 발표자의 사고를 구조화하는 데 강력한 도구가 될 수 있다. 그러나 이러한 편의성 이면에는 반드시 인식해야 할 위험이 존재한다. 대표적인 것이 환각(hallucination)이다. 존재하지 않는 논문을 인용하거나 실제와 다른 통계를 제시하는 경우는 드물지 않다. 발표자가 이를 걸러내지 못하면 학술적 신뢰를 크게 훼손할 수 있으며, 발표 현장에서 질문을 받았을 때 단번에 허점이 드러날 수 있다.

이러한 문제를 예방하기 위해서는 사전 조사와 세세한 확인, 교차 검증이 필수적이다. AI가 제시한 요약이나 통계 수치를 그대로 믿지 말고 반드시 PubMed, Google Scholar 등에서 원 논문을 확인해야 한다. 특히 수치와 근거 자료는 직접 검증하지 않으면 위험하다. ChatGPT가 요약한 문장이 원문의 의미를 단순화하거나 왜곡했을 가능성도 있기 때문에 원문을 다시 읽고 맥락을 확인하는 과정이 필요하다. 경우에 따라서는 다른 LLM을 활용하여 교차 검증하는 것도 유용하다.

무엇보다 중요한 점은 발표의 최종 책임은 발표자 본인에게 있다는 사실이다. 발표자가 AI가 만든 자료를 제대로 이해하지 못하고 그대로 사용한다면, 그것은 곧 거짓말의 향연이 될 수밖에 없다. 발표자가 스스로 내용의 논리와 근거를 꿰뚫고 있지 않으면, 발표는 단지 AI가 생성한 문장을 읽는 자리에 지나지 않으며, 청중 앞에서 신뢰를 잃는 순간이 될 것이다. 따라서 LLM은 어디까지나 보조 수단이며, 발표자는 최종 편집자이자 검증자, 그리고 책임자이다.

ChatGPT가 제시한 아이디어와 구조는 강력한 도우미가 될 수 있다. 하지만 발표자가 철저히 검증하고, 잘못된 부분은 바로잡으며, 자신의 언어와 이해로 재구성할 때에만 비로소 의미 있는 도구가 된다. 발표 현장에서 청중을 설득하는 힘은 결국 AI의 문장이 아니라 발표자의 목소리와 책임에서 나온다.

TOP