새로운 연구는 추론 모델이 문제를 통해 실제로 "생각"할 수 있다는 생각에 도전합니다. 출처: ChatGPT로 만들어졌습니다.
**번역본뉴스입니다. 오역이 있을수 있습니다.
작년에는 전통적인 LLM이 마침내 성능의 벽에 부딪히는 것처럼 보였던 짧은 순간이 있었습니다. 그러다 OpenAI의 o1과 딥시크의 R1과 같은 추론 모델이 등장했습니다. 문제를 작은 단계로 세분화하여 더 복잡한 프롬프트에 대처할 수 있었습니다.
추론 모델은 더 많은 컴퓨팅을 투입할수록 점점 더 나아질 것이라는 생각이 들었습니다. 결국 그들은 한 번도 훈련된 적이 없는 것에 대한 질문에 답하고 새로운 발견을 할 수 있게 될 것입니다. 하지만 한 그룹의 Apple 연구진이 이 이론을 시험해 보았습니다.
연구: 연구자들은 추론 모델과 비이성적 모델 모두 일련의 퍼즐을 풀 수 있는 기회를 제공했습니다. 가장 간단한 퍼즐을 사용하면 과도한 생각을 덜 할 수 있기 때문에 비이성적 모델이 가장 잘 작동했습니다. 한편, 예상대로 추론 모델은 더 복잡하고 중간 단계의 퍼즐에서 더 나은 성능을 보였습니다.
하지만 중요한 점은 다음과 같습니다: 가장 어려운 최상위 퍼즐을 사용하면 추론 모델의 '생각' 능력이 완전히 떨어졌습니다. 사실 그들은 평소보다 일찍 포기했고, 정답을 생각해내려고 하지도 않았습니다. 더 많은 계산 능력을 제공하는 것도 도움이 되지 않는 것 같았습니다.
그 의미: 이 연구는 추론 모델이 근본적으로 고유한 것이 아니라 이미 학습된 데이터에서 패턴을 찾아 비이성적 모델과 동일하게 작동한다고 제안합니다. 단일 연구에서 너무 많은 것을 읽어서는 안 되지만, AGI가 생각보다 멀리 떨어져 있을 수 있으며 AI를 진정으로 한 단계 더 발전시키기 위해 다양한 접근 방식과 아키텍처를 마련해야 할 것임을 시사합니다.
--------------------------------------------------------------------------------------광고(Advertising)--------------------------------------------------------------------------------------------------------