GLM-5
복잡한 시스템 엔지니어링과 장기 에이전트 작업을 목표로 하는 모델
About
- 인공지능 효율성과 장기적 작업 수행 능력을 강화한 대규모 언어모델
- 전작 대비 매개변수 7440억 개(활성 400억) 로 확장되고, 사전학습 데이터 28.5조 토큰으로 증가
- DeepSeek Sparse Attention(DSA) 통합으로 긴 문맥 처리 능력을 유지하면서 배포 비용을 절감
- 새로운 비동기 강화학습 인프라 ‘slime’ 을 통해 훈련 효율을 높이고, 다양한 벤치마크에서 최고 수준의 성능을 기록
- 오픈소스로 공개되어 Hugging Face, ModelScope, Z.ai 플랫폼 등에서 접근 가능하며, Claude Code 및 OpenClaw와 호환
GLM-5 개요
- GLM-5는 복잡한 시스템 엔지니어링과 장기 에이전트 작업 수행을 목표로 설계된 모델
- GLM-4.5 대비 매개변수가 3550억(활성 320억)에서 7440억(활성 400억)으로 증가
- 사전학습 데이터는 23조에서 28.5조 토큰으로 확대
성능 향상 및 벤치마크 결과
- GLM-5는 GLM-4.7 대비 전반적인 성능 향상을 보이며, Claude Opus 4.5 수준에 근접
- 내부 평가 세트 CC-Bench-V2에서 프런트엔드, 백엔드, 장기 작업 모두에서 우수한 결과
- Vending Bench 2에서 오픈소스 모델 중 1위를 기록, 1년간 자판기 비즈니스 시뮬레이션에서 최종 잔액 4,432달러 달성
- 추론, 코딩, 에이전트 작업 전반에서 세계 최고 수준의 오픈소스 성능을 보유
- 예: SWE-bench Verified 77.8점, BrowseComp 62.0점, τ²-Bench 89.7점 등
오픈소스 공개 및 접근 경로
- GLM-5는 MIT 라이선스로 공개되어 Hugging Face와 ModelScope에서 모델 가중치 다운로드 가능
- Z.ai, BigModel.cn, api.z.ai 등에서 API 형태로 사용 가능
- Claude Code 및 OpenClaw와 호환되어, 다양한 개발 환경에서 통합 사용 가능
- Z.ai 플랫폼에서는 무료 체험 제공
오피스 및 문서 생성 기능
- GLM-5는 “채팅에서 일(work)로”의 전환을 지향하며, 지식 노동자와 엔지니어를 위한 오피스 도구 역할 수행
- 텍스트나 소스 자료를 직접 .docx, .pdf, .xlsx 형식으로 변환해 PRD, 시험지, 재무 보고서, 메뉴 등 완성 문서 생성
- Z.ai 애플리케이션은 PDF/Word/Excel 생성을 지원하는 Agent 모드를 제공, 다중 회차 협업 가능
개발자 및 배포 지원
- GLM Coding Plan 구독자는 단계적으로 GLM-5 접근 가능
- Max 요금제 사용자는 즉시 "GLM-5" 모델명으로 활성화 가능
- GLM-5 요청은 GLM-4.7보다 더 많은 쿼터를 소모
로컬 배포 및 하드웨어 호환성
- GLM-5는 vLLM, SGLang 등 추론 프레임워크를 지원하며, 공식 GitHub에서 배포 지침 제공
- NVIDIA 외 칩셋(Huawei Ascend, Moore Threads, Cambricon, Kunlun, MetaX, Enflame, Hygon 등)에서도 실행 가능
- 커널 최적화와 모델 양자화를 통해 합리적 처리량 확보