본문 바로가기

IT/AI

🤖 오픈AI가 6년 만에 오픈소스 터뜨렸다! 진짜 최강자는 누구일까?

 

2025년 8월 5일, AI 업계에 진짜 폭탄 소식이 터졌어요. 오픈AI가 무려 6년 만에 오픈소스 언어모델을 공개한 거예요! 2019년 GPT-2 이후로 완전히 닫힌 서비스만 제공했던 오픈AI가 말이죠.

GPT-OSS-120B와 GPT-OSS-20B라는 두 모델로 선보인 이번 출시는 정말 화제가 됐어요. 샘 알트만 CEO는 이걸 "세계 최고이자 가장 유용한 오픈 모델"이라고 자신있게 말했거든요. 과연 진짜일까요?

기본 스펙부터 확인해보자

GPT-OSS의 특징

GPT-OSS는 두 가지 모델로 구성되어 있어요. GPT-OSS-120B는 120억 개의 총 파라미터를 가진 MoE(Mixture-of-Experts) 모델이고, GPT-OSS-20B는 21억 개의 파라미터를 가지고 있어요. 각 층마다 128개의 전문가가 있고, 토큰마다 4개만 활성화되는 구조죠.

특히 놀라운 점은 하드웨어 최적화예요. MXFP4라는 4비트 양자화 방식을 적용해서 120B 모델이 단일 H100 GPU(80GB)에서 돌아가고, 20B 모델은 16GB 메모리만 있으면 소비자용 하드웨어에서도 실행할 수 있거든요.

그리고 알트만 CEO는 "수십억 달러의 연구 결과를 세상에 제공한다"고 했는데, 실제로 GPT-4의 훈련 비용이 7,900만 달러(약 1,093억 원)였다는 점을 생각하면 정말 어마어마한 투자인 셈이죠.

Qwen3의 강점

Qwen3는 정말 다양한 크기로 출시됐어요. 0.6B부터 235B까지 8개의 서로 다른 모델이 있고, 그 중에서도 Qwen3-235B-A22B가 플래그십 모델이에요.

특히 주목할 점은 36조 개의 토큰으로 훈련됐고, 119개 언어와 방언을 지원한다는 거예요. 이는 국제적인 활용도 면에서 엄청난 장점이죠.

게다가 Qwen3의 효율성도 인상적이에요. 예를 들어 Qwen3-4B는 Qwen2.5-72B와 비슷한 성능을 내면서도 18배나 작은 크기거든요.

아키텍처 전쟁: 깊이 vs 넓이

두 모델의 가장 흥미로운 차이점 중 하나는 아키텍처 설계 철학이에요.

GPT-OSS는 36개의 레이어를 가진 MoE 구조로 "넓이" 중심으로 설계됐어요. 반면 Qwen3는 "깊이"를 선택했죠.

이런 차이가 실제로 어떤 의미일까요?

넓은 모델(GPT-OSS)의 장점:

  • 더 빠른 추론 속도 (병렬 처리 유리)
  • 토큰당 처리량이 높음

깊은 모델(Qwen3)의 장점:

  • 더 복잡한 추론 가능
  • 더 유연한 문제 해결

성능 비교: 숫자로 보는 현실

벤치마크 결과를 보면, GPT-OSS-120B는 오픈AI의 자체 o4-mini 모델과 거의 동등한 성능을 보여주고, GPT-OSS-20B도 o3-mini와 유사한 결과를 달성했어요.

코딩 능력에서는 특히 인상적인데, 벤치마크에서 GPT-OSS가 다른 모델들을 앞서는 결과를 보여주고 있어요.

반면 Qwen3는 DeepSeek-R1, o1, o3-mini, Grok-3, Gemini-2.5-Pro 같은 최상급 모델들과 경쟁할 수 있는 수준으로 평가받고 있어요.

실용성 면에서는 어떨까?

GPT-OSS의 실용적 장점

  1. 하드웨어 접근성: 개인용 GPU에서도 실행 가능
  2. 도구 사용: 웹 검색, API 호출, 파이썬 코드 실행 등이 가능
  3. 추론 노력 조절: "low/medium/high" 설정으로 응답의 깊이 조절 가능
  4. 라이선스: Apache 2.0으로 상업적 사용 자유

Qwen3의 강력한 특징

  1. 다국어 지원: 119개 언어 지원으로 글로벌 활용도 높음
  2. 사고 모드: /think와 /no_think 명령어로 추론 과정 제어
  3. 다양한 크기: 용도에 따라 적절한 모델 선택 가능
  4. MCP 지원: 모델 컨텍스트 프로토콜을 처음으로 훈련에 적용

비용 효율성은?

실제 사용 측면에서 보면, GPT-OSS-120B는 5.1B 파라미터만 활성화되고, GPT-OSS-20B는 3.6B만 활성화돼요. 이는 추론 비용을 크게 줄여주죠.

현재 환율 기준(1달러 = 1,388원)으로 계산하면, GPT-4의 훈련 비용 7,900만 달러는 약 1,097억 원에 해당해요. 이걸 생각하면 오픈AI가 얼마나 큰 투자를 했는지 알 수 있어요.

실제 업계 반응은?

마이크로소프트는 Azure AI Foundry를 통해 GPT-OSS를 즉시 지원하기 시작했고, Northflank 같은 클라우드 제공업체들도 원클릭 배포 템플릿을 제공하고 있어요.

심지어 퀄컴은 GPT-OSS-20B가 스냅드래곤에서 실행될 수 있다고 발표했어요. 이는 모바일 기기에서도 사용 가능하다는 뜻이죠!

한계점도 있어요

물론 완벽한 모델은 없죠.

GPT-OSS의 경우 할루시네이션(잘못된 정보 생성) 경향이 상당히 높다는 피드백이 있어요. 한 개발자는 "Qwen3보다 창의적인 작업에서 여러 번의 수정이 필요했다"고 언급했어요.

Qwen3의 경우에는 여전히 중국 기업의 모델이라는 지정학적 고려사항이 있을 수 있어요.

결론: 누가 승자일까?

솔직히 말하면, 이건 "승부"보다는 "선택"의 문제인 것 같아요.

GPT-OSS를 선택해야 하는 경우:

  • 개인용 하드웨어에서 실행하고 싶을 때
  • 오픈AI 생태계와의 호환성이 중요할 때
  • 도구 사용과 에이전트 기능이 핵심일 때
  • 코딩과 수학 문제 해결이 주요 용도일 때

Qwen3를 선택해야 하는 경우:

  • 다국어 지원이 필수적일 때
  • 더 큰 모델로 복잡한 추론이 필요할 때
  • 다양한 크기 옵션 중에서 선택하고 싶을 때
  • 아시아 시장 중심의 서비스를 개발할 때

앞으로의 전망

2025년은 정말 오픈소스 AI 모델의 황금기인 것 같아요.

GPT-OSS의 등장으로 오픈AI가 다시 오픈소스 경쟁에 뛰어들었고, 이는 전체 생태계에 긍정적인 영향을 줄 거예요. 앞으로 더 많은 혁신과 경쟁을 기대할 수 있겠어요.

특히 최근 독립적인 평가에서 GPT-OSS-120B가 미국의 오픈소스 모델 중 가장 지능적이라는 결과가 나왔어요. DeepSeek R1이나 Qwen3 235B보다는 약간 뒤처지지만, 훨씬 작은 크기로 상당한 성능을 달성했다는 점에서 주목받고 있어요.

결국 개발자와 기업들에게는 더 많은 선택지가 생긴 셈이고, 이는 분명히 좋은 일이겠죠?

여러분은 어떤 모델이 더 매력적이라고 생각하시나요?

 

300x250
반응형