研究
关于 GLM 大模型家族
全部
基座模型
多模态
推理模型
Agent
代码模型
时间排序
基座模型
2026/04/01
GLM-5V-Turbo发布:多模态Coding基座模型
基座模型
2026/03/15
GLM-5-Turbo:龙虾增强的基座模型
基座模型
2026/02/21
GLM-5技术报告
基座模型
2026/02/11
GLM-5开源:从代码到工程,Agentic Engineering时代最好的开源模型
多模态
2026/02/02
GLM-OCR发布:性能SOTA,搞定复杂文档
小而强
语言模型
2026/01/19
GLM-4.7-Flash开源、免费
小而强。
基座模型
2025/12/21
GLM-4.7:更强的 Coding
GLM-4.7,您的新编程搭档,带来了以下功能:
多模态
2025/12/10
GLM-TTS:基于多奖励融合强化学习,实现工业级语音合成
3秒复刻,情绪万变。
多模态
2025/12/09
GLM-ASR-Nano:面向真实世界的高鲁棒性语音识别
一个仅1.5B大小的强大开源语音识别模型
Agent
2025/12/07
AutoGLM:每台手机,都可以成为 AI 手机
智谱 AutoGLM 的诞生,是 GLM 技术团队在语言模型、多模态模型和工具使用等多方面深耕的成果。作为全球首个手机 Agent,它突破传统 AI 局限,以 “能说更能做” 的核心优势,开创了 Agent + 云手机 / 云电脑的新技术范式,重新定义了人机协同的全新可能。
多模态
2025/12/07
GLM-4.6V:支持原生工具调用的开源多模态模型
我们发布并开源 GLM-4.6V 系列,这是我们在多模态大语言模型(MLLM)领域的最新成果,包括两个版本:GLM-4.6V(106B-A12B):面向云端与高性能集群场景的基础版本;GLM-4.6V-Flash(9B):面向本地部署与低延迟应用的轻量版本。GLM-4.6V 在训练阶段将上下文窗口扩展至 128k tokens,在视觉理解与推理精度上达到同参数规模 SOTA 性能,并首次将 Function Call(工具调用)能力原生融入视觉模型,有效弥合了“视觉感知”与“可执行动作”之间的鸿沟,为真实业务场景中的多模态 Agent 提供统一的技术底座。
没有更多...