혼란스러운 입력 정보가 중앙의 집중 과정을 거쳐 정돈된 결과물로 변하는 추상화. LLM의 System 2 Attention (S2A)이 노이즈를 걸러내고 팩트를 정제하는 프로세스를 시각적으로 나타냅니다.

System 2 Attention(S2A) 완벽 해설: LLM의 ‘아부’와 할루시네이션 잡는 법

Meta의 System 2 Attention(S2A) 논문을 통해 LLM의 고질적인 ‘아부’와 할루시네이션을 해결하는 프롬프트 엔지니어링 비법을 공개합니다. AI에게 이성적인 사고 능력을 부여하여 팩트 정확도를 80%까지 높이는 구체적인 방법을 확인하세요.