뉴스 AI / IT

LLM 챗봇의 정확도 향상을 위한 검증 프롬프트 활용법

AI 챗봇 응답의 환각 현상 문제를 해결하기 위해 답변을 교차 확인하고, 추론 과정을 요청하여 신뢰도를 높이는 방법을 제시합니다.

모든 AI 챗봇은 환각(hallucination) 현상을 내포하고 있으며, 이를 신뢰하지 않는 습관을 기르는 것이 중요합니다. Reddit 사용자 'OptimismNeeded'는 더 나은 답변을 얻거나 답변 도출 과정을 파악하여 신뢰성을 판단하기 위한 간단한 방법 두 가지를 소개했습니다. 중요한 정보에 대해서는 AI를 맹신해서는 안 됩니다.

첫 번째 방법은 "답변을 다시 확인해 주세요"라는 간단한 프롬프트를 사용하는 것입니다. 놀랍게도 Claude와 같은 LLM이 스스로 오류를 발견하고 개선된 답변을 제공하는 경우가 많습니다. 특히, 실수로 인한 비용이 클 경우 “확신하십니까?” 또는 “심호흡을 하고 다시 생각해 보세요”라는 반복적인 질문을 추가하면 요청에 대한 답변의 정확도가 향상된다는 연구 결과가 있습니다(출처: https://arstechnica.com/information-technology/2023/09/telling-ai-model-to-take-a-deep-breath-causes-math-scores-to-soar-in-study/).

두 번째 방법은 "사고 과정을 보여주세요(Use chain of thought)"라는 프롬프트를 사용하는 것입니다. 이 방법을 사용하면 Claude가 답변의 논리적 근거를 상세하게 설명합니다. 답변 품질 향상뿐만 아니라, LLM이 올바른 방식으로 추론하고 있는지 판단할 수 있는 중요한 지표를 제공합니다. 예를 들어 "맨해튼에 창문이 몇 개 있습니까? 사고 과정을 보여주세요" 또는 “제 이력서에는 문제가 무엇이 있을까요? 면접 제안을 받지 못하고 있습니다. 사고 과정을 보여주세요”와 같이 질문할 수 있습니다.

원문 제목

Validation prompts - getting more accurate responses from LLM chats

원문 보기 뒤로가기