Graph of Thoughts 분석: ToT를 넘어선 AI ‘집단 지성’ 구현법
지난 편에서 우리는 Tree of Thoughts(ToT)를 통해 AI의 정답률을 4%에서 74%로 끌어올리는 결과를 확인했습니다. 생각이 막히면 되돌아가고, 여러 가지를 펼쳐보는 것만으로도 엄청난 발전이었죠.
하지만 여기엔 한 가지 맹점이 있습니다. 여러분이 회의할 때를 떠올려 보세요. A안과 B안이 나왔을 때, 반드시 둘 중 하나만 선택하나요? 보통은 “A안의 논리와 B안의 창의성을 합치면 어떨까?”라고 생각합니다.
ToT는 이게 안 됩니다. 한 번 갈라진 가지는 다시 만날 수 없기 때문이죠. 오늘은 이 한계를 넘어, AI의 사고방식을 인간의 뇌 구조인 ‘네트워크’로 발전시킨 Graph of Thoughts(GoT)를 분석해 드립니다.
ToT의 한계: 만나지 못하는 평행선
ToT는 생각을 나무(Tree)처럼 뻗어 나갑니다. 훌륭하지만 구조적 결함이 명확합니다.
- 고립된 가지: 왼쪽 가지에서 좋은 아이디어가 나와도, 오른쪽 가지는 그걸 모릅니다.
- 협업 불가: 서로 다른 생각들을 ‘융합’해서 제3의 결론을 도출할 수 없습니다.
“왜 AI의 생각은 지하철 노선도처럼 연결되면 안 되는가?” 그래서 나온 것이 GoT입니다.
GoT: 생각의 인터넷을 구축하다
GoT는 LLM의 추론 과정을 ‘그래프(Graph)’로 만듭니다. 생각(점)과 생각 사이의 연결(선)을 자유자재로 설계하는 것이죠. 이 구조가 가져온 혁신은 크게 3가지입니다.
① 집계 (Aggregation): “장점들의 합체” ⭐
가장 강력한 차별점입니다. 여러 개의 생각을 하나로 합칩니다.
- ToT: A요약본 vs B요약본 → 둘 중 하나 선택.
- GoT: A요약본 + B요약본 → 장점만 합친 ‘통합 요약본’ 생성.
② 정제 (Refining): “퇴고의 과정”
그래프는 원(Loop)을 그릴 수 있습니다. 같은 생각을 다시 입력으로 넣어 스스로 개선하는 ‘자기 순환(Self-loop)’이 가능합니다. 글을 쓰고 나서 다시 읽고 고치는 과정과 똑같습니다.
③ 유연성 (Flexibility)
GoT는 상위 개념입니다. 필요하면 선(CoT)이 될 수도, 나무(ToT)가 될 수도, 복잡한 거미줄이 될 수도 있는 만능 프레임워크입니다.
더 똑똑한데, 비용은 더 싸다?
보통 성능이 좋아지면 돈(토큰)이 많이 듭니다. 하지만 GoT는 이 상식을 깼습니다. 숫자 정렬(Sorting) 실험 결과를 보시죠.
- 품질 향상: ToT 대비 에러율 감소, 정렬 품질 62% 향상.
- 비용 절감: 불필요한 탐색을 줄이고 효율적으로 합쳐서 비용 31% 절감.
이게 가능한 이유는 ‘분할 정복(Divide and Conquer)’ 때문입니다. 문제를 잘게 쪼개서 각각 해결한 뒤, 나중에 합치는(Merge) 방식이 무작정 깊게 파고드는 것보다 훨씬 효율적입니다.
실전: 언제 써야 할까요?
다음과 같은 상황에서 GoT는 압도적인 성능을 발휘합니다.
- 문서 병합 (Document Merging): 여러 개의 법률 문서나 보고서를 분석해 중복은 빼고 핵심만 합쳐야 할 때. (ToT는 이걸 못 합니다.)
- 복잡한 코딩 & 디버깅: 여러 해결책을 동시에 돌려보고, 각 코드의 잘된 부분만 따와서(Merging) 최적의 코드를 조립할 때.
결론: 연결의 힘
연구진은 “생각의 부피(Volume of a Thought)”라는 개념을 제시합니다. 하나의 결론을 내기 위해 얼마나 많은 이전 생각들이 연결되고 기여했는지를 뜻합니다.
CoT: 선 (1차원)
ToT: 평면 (2차원)
GoT: 입체 (3차원)
여러분의 AI 에이전트가 단순히 정답을 찾는 것을 넘어, 흩어진 정보들을 종합하고 통찰력을 발휘하길 원하신다면 이제는 그래프를 그려야 할 때입니다.
