AI가 엉뚱한 추천만 하는 이유: MAPLE 논문으로 본 설명 가능한 추천의 모든 것
“이런 메뉴는 주문한 적도 없는데…” 혹시 배달 앱이나 쇼핑몰에서 황당한 추천을 받아본 적 없으신가요? AI 비서가 내 말을 못 알아듣는 것보다, 나를 잘 안다고 생각했던 추천 시스템이 엉뚱한 제안을 할 때 우리는 더 큰 배신감을 느낍니다. “AI가 똑똑해졌다는데, 왜 아직도 이러는 걸까요?”
이유는 AI가 다양성-사실성 딜레마(diversity-factuality dilemma)라는 고질적인 문제에 빠져있기 때문입니다. 오늘은 이 문제를 해결하기 위해 등장한 구원투수, MAPLE 모델에 대한 최신 연구 [arXiv 논문] 를 통해 사용자가 “바로 이거야!” 하고 무릎을 탁 칠만한 추천의 비밀을 파헤쳐 보겠습니다.
추천 AI의 두 얼굴: ‘영혼 없는 답변’과 ‘그럴싸한 거짓말’
우리가 마주하는 AI 추천의 문제는 크게 두 가지입니다.
- 정보는 없는데 안전하기만 한 추천 (Uninformative Generation): “이 식당 음식 맛있어요.” 같은 영혼 없는 추천입니다. 틀린 말은 아니지만, 그래서 뭘 먹어야 할지 전혀 도움이 되지 않죠. 실패는 피하지만, 만족도 주지 못하는 추천입니다.
- 그럴싸해서 더 문제인 환각 (Hallucination): “이 집 파스타가 맛있는데, 소스 간이 좀 더 필요해요.”라는 추천을 받았다고 해보죠. 아주 구체적이라 솔깃합니다. 하지만 막상 가보니 그 식당은 파스타를 팔지 않습니다. AI가 사실이 아닌 정보를 그럴싸하게 꾸며낸 ‘환각’ 현상입니다.
이처럼 너무 일반적인 추천은 무의미하고, 너무 창의적인 추천은 거짓말이 될 위험이 있습니다. 이것이 바로 AI 추천 시스템이 겪는 다양성-사실성 딜레마입니다.
딜레마 해결사, MAPLE의 등장
이 딜레마를 해결하기 위해 칭쿵대학교와 구글 연구진은 MAPLE(Multi-Aspect Prompt LEarner) 이라는 새로운 모델을 제안했습니다. MAPLE의 핵심 아이디어는 간단합니다. 사용자에게 추천할 때, 두루뭉술한 ‘음식’이나 ‘분위기’가 아니라, 훨씬 더 세분화된 ‘관점(Aspect)’ 을 활용하는 것이죠.
마치 단골 레스토랑의 노련한 매니저를 생각하면 쉽습니다. 이 매니저는 손님의 과거 주문 기록과 표정만 보고도 “오늘은 해산물 말고 스테이크가 당기시나 봐요? 와인 페어링은 어떻게 해드릴까요?“라고 묻습니다. 여기서 ‘해산물’, ‘스테이크’, ‘와인 페어링’이 바로 ‘관점’입니다.
MAPLE은 ‘음식의 질’, ‘서비스’, ‘가성비’와 같은 여러 관점을 미리 학습하고, 특정 사용자(User)와 상품(Item)이 주어졌을 때 어떤 관점을 가장 중요하게 생각할지 예측합니다. 그리고 그 관점에 맞춰 구체적이고 사실에 기반한 추천 이유를 생성합니다.
MAPLE은 어떻게 작동할까? (2단계 학습 전략)
MAPLE은 영리한 매니저처럼 되기 위해 2단계에 걸쳐 훈련합니다.
-
1단계: 설명 생성 훈련 (Explanation Generation)
사용자, 아이템 정보와 함께 ‘관점’을 입력받아, 그 관점에 맞는 설명문을 생성하는 연습을 반복합니다. 예를 들어 (사용자 A, 레스토랑 B, 관점: 해산물)이라는 정보가 주어지면, “이곳의 관자 요리는 신선하고 식감이 훌륭합니다“와 같은 문장을 만드는 훈련을 합니다. -
2단계: 관점 추천 훈련 (Aspect Recommendation)
이제는 ‘관점’ 정보 없이, 오직 사용자와 아이템 정보만으로 “이 사용자는 이 레스토랑의 어떤 ‘관점’에 가장 관심 있을까?“를 예측하는 훈련을 합니다. 사용자 A가 평소 해산물 요리에 좋은 리뷰를 남겼다면, 레스토랑 B에 대해서도 ‘해산물’ 관점을 추천할 확률이 높다고 판단하는 능력을 기릅니다.
이 두 단계를 거치면, MAPLE은 실제 상황에서 사용자 정보만으로도 가장 적절한 관점을 스스로 찾아내고, 그에 맞는 설득력 있는 추천사를 만들어낼 수 있습니다.
그래서, 얼마나 똑똑해졌을까?
- 사실성 (Factuality): 생성한 추천 내용이 실제 리뷰에 존재하는 사실과 일치하는 비율(iFMR)이 약 80%에 달해, ‘그럴싸한 거짓말’을 할 확률이 크게 줄었습니다.
- 다양성 (Diversity): 앵무새처럼 똑같은 문장을 반복하는 비율(USR)이 현저히 낮아지고, 문장 전체의 창의성을 나타내는 지표(ENTR)는 크게 향상되었습니다.
- 정밀성 (Precision): 식당의 핵심 메뉴나 특징을 정확히 짚어내는 능력(FCR) 또한 기존 모델들을 압도했습니다.
결론적으로 MAPLE은 “이 식당의 솔티드 카라멜 아이스크림이 맛있어요“처럼, 사용자가 실제로 경험할 수 있고 의사결정에 도움이 되는 구체적인 정보를 제공하는 데 성공했습니다.
‘설명 가능한 AI’가 중요한 이유
MAPLE의 성공은 단순한 기술의 발전을 넘어, 우리가 AI와 상호작용하는 방식에 중요한 시사점을 던집니다. AI가 왜 그런 추천을 했는지 이해할 수 있을 때, 우리는 그 결과를 더 신뢰하고 적극적으로 활용하게 됩니다.
단순히 “이거 사세요”가 아니라 “고객님은 평소 이런 특징을 선호하셨으니, 이런 점 때문에 이 상품이 만족스러우실 겁니다“라고 말해주는 AI야말로 진정한 의미의 ‘개인 비서’가 아닐까요?
물론 아직 과제는 남아있습니다. 다양한 ‘관점’ 데이터를 정교하게 구축하는 작업은 여전히 사람의 노력이 필요하며, AI가 만들어낸 정보의 사실 여부를 검증하는 기술도 계속 발전해야 합니다. 하지만 MAPLE과 같은 ‘설명 가능한 추천’ 연구는 AI가 좀 더 똑똑하고, 신뢰할 수 있으며, 궁극적으로 우리에게 더 나은 경험을 제공하는 방향으로 나아가고 있음을 보여주는 중요한 이정표입니다.
ProB AI 연구소에서 2025년 최신 프롬프트 엔지니어링 연구 동향을 확인하세요.