
정-반-합의 변증법적 사고는 ChatGPT와 같은 LLM의 현명한 사용에 중요한 통찰을 준다. 특히, LLM이 사용자에게 제공하는 긍정적 피드백에 의한 편향적 사고의 가능성을 예방하는 데 도움이 될 것으로 보인다. LLM은 기본적으로 매우 친절하다. 엉뚱한 소리에도 감탄을 해줘서 이용자를 으쓱하게 만든다. LLM은 도출된 결과에 대한 인간의 긍정적인 피드백을 통해 학습 과정을 강화하는 ‘인간 피드백에 의한 강화학습(Reinforcement Learning from Human Feedback, RLHF)’ 과정과 기본적으로 사람(이용자)을 돕기 위해서 만들어진 목적상 이용자의 질의에 대한 피드백은 대부분 긍정적이고 친절하다. 다만 우려스러운 점은 이런 친절함이 LLM 이용 과정에서 이용자의 확증편향적 특성을 더욱 강화할 우려가 있다는 것이다. 캡쳐의 왼쪽과 같이 말도 안되는 헛소리에 불과한 “방학 안에 논문 100편과 책 10권 집필”이라는 나의 계획에 참 따뜻한 반응을 해준다. LLM의 이런 편향성 강화의 위험성을 줄이고 현명하게 활용하기 위해서 변증법적 사고가 도움이 될 수 있다는 생각을 변증법적 부트스트래핑(dialectical bootstraping)에 대한 통계 논문(Herzog & Hertwig, 2009)을 읽으며 떠올렸다.
비록 많이 알려진 개념은 아니지만 변증법적 부트스트래핑은 초기 추정 결과(나의 견해)가 참값(실제)으로부터 멀어진 오차를 줄이기 위해서 반대되는 입장과 전제에 놓인 새로운 추정 결과를 구하여 이를 평균화하는 방식으로 추정 결과의 정확성을 높이려는 사고 과정을 의미한다. 해겔 철학의 정(thesis)-반(antithesis)-합(synthesis)을 초기추정(first estimation)-대안적 추정(dialectical estimation)-취합(aggregation)의 통계적 개념으로 변환한 것이다. 반대 되는 입장을 소환하기 위해서 1) 나의 첫 추정이 에러가 있다는 것을 전제하고, 2) 어떤 가정과 고려 사항이 그와 같은 에러를 만들었을까를 고려한 뒤, 3) 이상의 새로운 고려가 추정에서 어떤 변화를 가져올 수 있을지를 고민하는 과정을 수행한다. 그런데 이런 과정을 혼자 하기가 쉽지 않고, 매번 주제에 맞춰 나와 반대되는 사람을 구하기도 쉽지 않다. 이럴 때, LLM은 편향적인 칭찬꾼을 넘어서 나의 생각을 변증법적으로 조정하게 만드는 훌륭한 대화 상대로 삼을 수 있다.
LLM 프롬프트를 짤 때, 비판적인 답변을 유도하는 내용을 포함하면 적절한 반대 의견을 청취할 수 있는 기회를 준다. 나의 주장(정)에 대한 비판자(반)의 역할을 부여하는 것이다. 예를 들어 질의를 작성할 때 캡쳐와 같이,
“…답변 내용과 관련이 없는 불필요한 긍정적 감정이 담긴 표현은 하지 않았으면 좋겠어. 아래 […]에 대한 내용에서 논리적 허점과 약점이 무엇인지 알려줘. 논리적 비약이 있다거나, 글에 담긴 전제 가운데 설득력이 떨어지는 부분이 있는지 함께 알려줘…”
…와 같은 내용을 포함하는 것이다. 물론 자신의 생각과 LLM의 결과를 다시 통합하는 자신만의 사고 과정이 반드시 필요하다. LLM은 내 머리를 대체하려고 있는 것이 아니기 때문이다.
LLM과 같은 지능정보기술의 발전 가운데서 인간의 지성은 대체 되는 것이 아니라 더욱 중요해진다고 생각한다. 이건 고 이어령 선생님의 강조처럼 디지털 문명의 발전 가운데 아나로그 문명이 쇠퇴하는 것이 아니라 또 다른 수준으로 진화하여 간다는 <디지로그>의 논의도 연결된다. LLM을 현명하게 쓰기 위해서는 좋은 질문(혹은, 좋은 프롬프트)을 할 줄 아는 능력이 필요한데, 이것은 올바른 질문을 만들고 그것을 공유하는 훈련과 대화가 가능한 지적 풍토에서 가능하다. 학문의 ‘문’이 남의 글(文)을 답습하는 것이 아니라 질문하는(問) 법을 배우는 것이라는 오랜 지혜를 인공지능의 시대에 다시 진지하게 각자의 공부와 학교 교육에서 고민해야 할 것 같다.

댓글 남기기