-
dots.llm1:小红书开源的 MoE 架构大语言模型
dots.llm1是小红书开源的 MoE 架构大语言模型,拥有 1420 亿参数,推理仅激活 140 亿,兼顾性能与效率。模型基于 11.2 万亿非合成高质量数据训练,支持中英文,具备 32K 长上下文处理能力,并开放中间训练 checkpoint,适合问答、内容生成、语义理解等多种应用场景。 -
Speech 02:MiniMax 推出的新一代语音TTS模型,支持高质量多语种语音合成
MiniMax-Speech-02 支持多语言、高拟真语音生成,广泛应用于配音制作、虚拟人、教育、语音定制与无障碍沟通等场景,助力个性化语音内容高效生成与全球化传播。 -
Wan2.1-VACE:阿里开源的AI视频生成和编辑模型
通义万相 Wan2.1-VACE是阿里巴巴开源的AI视频生成与编辑模型,单一模型可同时支持文生视频、图像参考视频生成、视频重绘、视频局部编辑、视频背景延展以及视频时长延展等全系列基础生成和编辑能力。 -
Step1X-3D:阶跃星辰开源的3D大模型,支持生成高保真可控的3D内容
Step1X-3D 是由阶跃星辰正式发布并开源的一款3D大模型。该模型是继图像、视频、语音、音乐等模态后,阶跃星辰在多模态AI方向的最新成果,专注于生成高保真、可控的3D内容。 -
Seed1.5-VL:字节跳动推出的视觉-语言多模态基础模型
Seed1.5-VL 是字节跳动推出的视觉-语言多模态基础模型,结合图像编码器与200亿激活参数的大语言模型,具备出色的图像、视频理解与推理能力。在60项基准测试中获得38项SOTA,广泛应用于视频问答、图表理解、GUI智能体等任务,表现稳定、推理强大。 -
Matrix-Game:昆仑万维开源的交互式世界基础模型
Matrix-Game是由昆仑万维开源的交互式世界基础模型,能够生成完整可交互的游戏世界,能够对人类输入的操作指令进行正确响应,保留了游戏世界的空间结构与物理特性,画面也更加精致,超越了以往所有类似开源世界模型。 -
Seed-Coder:字节跳动最新推出的开源代码模型
Seed-Coder 是字节跳动开源的 8B(80亿参数)级代码大模型,它包括 Base、Instruct 和 Reasoning 三个版本,具备强大的代码生成、理解和推理能力。其最大亮点是采用“模型自助式”数据管道,利用大模型自动筛选和构建高质量训练数据,减少人工规则依赖。 -
HunyuanCustom:腾讯混元开源的多模态定制化视频生成工具
HunyuanCustom是腾讯混元推出的一款多模态定制化视频生成工具,它基于混元视频生成大模型(HunyuanVideo)打造,融合了文本、图像、音频、视频等多模态输入,能够生成高质量的定制化视频。该工具在主体一致性效果上超越了现有的开源方案,具备高度控制力和生成质量。 -
ACE-Step:阶跃星辰和ACE Studio联合发布的开源音乐基础模型
ACE-Step 是由阶跃星辰与 ACE Studio 联合开源的音乐大模型,旨在为音乐爱好者提供高效、灵活且高质量的音乐创作工具。该模型参数量为 3.5B,具备多语言支持、快速生成、强可控性及易于拓展等特点,支持多种音乐创作场景,如音频编辑、人声合成、伴奏生成等。 -
DeepSeek-Prover-V2:DeepSeek最新开源的数学定理证明模型,参数量高达6710亿
DeepSeek-Prover-V2 是由 DeepSeek 最新开源的超大规模数学定理证明模型,参数量高达 6710 亿(671B),相比前代 Prover-V1.5(约 7B)提升近百倍,成为目前开源中最大规模的数学推理模型之一。该模型专为形式化数学证明设计,能够生成兼容 Lean 4 等主流证明助手的高质量证明步骤,支持复杂逻辑验证、定理发现与教学应用。 -
Xiaomi MiMo:小米推出的首个开源推理模型
MiMo 是小米推出的首个开源大语言模型,参数规模为 7B,聚焦于数学推理与代码生成任务。该模型通过高推理密度的预训练数据(总计 25 万亿 tokens)与强化学习后训练(包括奖励机制优化、样本再采样策略等),实现了在 AIME、LiveCodeBench 等多个权威基准上的领先表现。 -
Qwen3:阿里巴巴最新开源的混合推理大模型
Qwen3 是阿里巴巴推出的新一代大语言模型,支持119种语言,具备强大的推理、编码和智能体能力。它引入了“思考模式”和“快速响应模式”双模式切换,能根据任务灵活调节推理深度。Qwen3发布了多种规模的开源模型,旗舰版Qwen3-235B-A22B在多个领域性能达到业界顶尖,广泛应用于自然语言理解、复杂推理、代码生成等场景。 -
-
Kimi-Audio:Kimi开源的通用音频基础模型,支持语音识别、音频理解等多种任务
Kimi-Audio是kimi开源的全新通用音频基础模型,支持语音识别、音频理解、音频转文本、语音对话等多种任务,在十多个音频基准测试中实现了最先进的 (SOTA) 性能。 -
SkyReels-V2:昆仑万维开源的无限时长电影生成模型
SkyReels-V2 是由昆仑万维开源的一款视频生成大模型,首创“扩散强迫(Diffusion-forcing)”训练框架,具备生成高保真、连贯、长时长(30s 以上)的影视级视频的能力。模型融合了多模态大语言模型(MLLM)、强化学习、视频理解与扩散优化等多项技术,适用于故事生成、图像到视频(I2V)、运镜控制和多元素一致性生成等丰富场景。 -
InstantCharacter:腾讯混元开源的定制化图像生成插件,支持角色一致性生成
InstantCharacter 是腾讯混元开源的一个定制化图像生成插件,能够通过简单的文字描述和一张图片生成各种角色的图像。它实现了对开源文生图模型 Flux 的兼容,用户只需要提供一张图片和一句话的描述,就可以让角色以想要的姿势出现在任何场景中。 -
Gemini 2.5 Flash:Google 推出的首个完全混合推理模型
Gemini 2.5 Flash 是 Google 推出的首个完全混合推理模型,允许开发人员灵活控制模型的思考功能,可开启或关闭。它还支持设置思考预算,帮助开发者在质量、成本和延迟之间找到最佳平衡。即使关闭思考功能,模型仍能保持 2.0 Flash 的高速度,并进一步提升性能,兼具高效推理和成本效益。目前处于预览阶段,支持通过 API 在 Google AI Studio 和 Vertex AI … -
豆包1.5·深度思考模型:火山引擎推出的AI推理模型
在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。 -
OpenAI o4-mini:OpenAI最新推出的经济高效的推理模型
o4-mini 是OpenAI 发布的一款高效推理模型,专为快速、低成本的任务设计。它在数学、编程和视觉任务上表现出色,尤其适合高吞吐量场景。o4-mini 能自主使用 ChatGPT 的工具,如搜索、文件分析和代码执行,以快速生成答案。它还支持多模态输入,能处理图像和文本,对话自然且相关。其性价比高,是处理复杂问题的理想选择。 -
OpenAI o3:OpenAI推出的最新推理模型,支持工具调用和图像理解
OpenAI o3 是 OpenAI 发布的最新推理模型,代表了其在智能推理领域的最高水平。它能够自主使用 ChatGPT 内的所有工具,包括网络搜索、文件分析、代码执行和图像生成。 -
Seedream 3.0:字节推出的双语AI图像生成模型,支持原生 2K 分辨率
Seedream 3.0 是豆包大模型团队推出的下一代全场景文生图模型,支持原生 2K 分辨率图像生成,并具有显著提升的文本渲染、图像美学、结构优化能力。 -
林龙大模型:中国林科院推出的国内首个林草行业大模型
林龙大模型是中国林科院推出的国内首个林草行业大模型,基于DeepSeek大模型构建。它专为林草行业设计,融合多模态数据与行业知识,具备高效处理时空数据、低资源适配、高扩展性等优势,可应用于树种识别、病虫害监测、生态系统评估等八大场景,助力林草行业智能化转型与高质量发展。 -
GPT-4.1:OpenAI 推出的新一代语言模型,支持百万上下文
GPT-4.1 是 OpenAI 推出的新一代语言模型,包含 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 三个版本。它在编码能力、指令遵循和长文本处理等方面有显著提升,支持高达 100 万个 token 的上下文窗口。 -
SYMPLEX:北大推出的功能基因深度挖掘大模型
SYMPLEX 是由北京大学钱珑团队发布的功能基因深度挖掘大模型平台,专为生物制造和合成生物元件设计服务。平台结合大语言模型能力与结构化生物知识,能够从海量文献中自动提取与标注功能基因,并提供基因功能推荐、结构分析与知识图谱生成等功能,推动从序列到应用的基因资源发现。 -
Skywork-OR1:昆仑万维开源的数学代码推理系列模型
Skywork-OR1是由昆仑万维推出的开源高性能推理模型系列,该系列在同等参数规模下实现了业界领先的推理性能,进一步突破了大模型在逻辑理解与复杂任务求解方面的能力瓶颈。同时,Skywork-OR1全面开放、免费使用。 -
-
LHM - 阿里通义开源的单张照片生成可驱动3D数字人模型
LHM 是阿里通义开源的单张照片生成可驱动 3D 数字人模型,具备高质量建模与动作还原能力。用户仅需上传一张照片,即可生成具备骨骼结构的 3D 人物,并可绑定跳舞、打篮球等复杂动作,实现流畅自然的动态表现。该模型适用于虚拟人制作、游戏角色生成、XR 场景构建等应用,具备开源可用、可部署、可交互的特点。 -
-
Llama 4:Meta 推出的新一代原生多模态开源大模型
Llama 4 是 Meta 发布的最新一代开源大模型,具备原生多模态能力,可处理文本和图像的联合输入,支持图文问答、多图理解等复杂任务。模型采用高效的 MoE(混合专家)架构,推理速度更快、成本更低,且上下文窗口长达 1000 万 tokens,远超同类模型。 -
Gen-4:Runway推出的新一代AI视频生成模型
Runway Gen-4 是由 Runway 推出的第四代视频生成模型,具备高度一致性、多视角控制、风格保持和镜头构图能力。该模型支持通过文字描述或图像参考,生成高质量、连续性强的视频内容。 -
QVQ-Max:阿里通义推出的视觉推理模型,能分析图片和视频内容
QVQ-Max 是阿里巴巴通义团队推出的AI视觉推理模型,能够分析图片和视频内容,进行推理和解决问题。它具备细致的观察能力,能识别图像中的关键元素,并结合背景知识进行深度推理。 -
Qwen2.5-Omni:阿里推出的新一代端到端多模态模型
Qwen2.5-Omni是阿里巴巴通义团队推出的一款全模态大语言模型。它能够处理多种输入形式,包括文本、音频、图像和视频,并生成相应的输出。 -
Mureka O1 - 昆仑万维推出的AI音乐推理大模型
Mureka O1是昆仑万维发布的全球首款音乐推理大模型,基于Mureka V6升级,引入CoT技术,支持纯音乐及10种语言创作,涵盖多种曲风和情感。用户可通过简单模式输入风格或高级模式输入歌词等创作。它还提供歌曲参考、音色克隆功能,支持API服务与模型微调。 -
Gemini 2.5 Pro:谷歌推出的最新多模态AI模型,具备高级推理能力
Gemini 2.5 Pro是谷歌推出的一款具备高级推理能力的人工智能模型,支持文本、图像、音频和视频等多种输入形式,上下文窗口达100万token。用户可以通过Google AI Studio和Gemini Advanced免费使用,Vertex AI集成即将推出 -
Qwen2.5-VL-32B-Instruct:阿里开源的最新多模态模型,主打视觉语言理解和推理
Qwen2.5-VL-32B-Instruct 是阿里开源的多模态大模型(32B参数),支持 视觉+语言+数学推理,在 图像理解(如地理特征识别、多轮视觉问答)和 复杂数学推理(几何、数列等)方面表现突出。通过强化学习优化,其输出更符合人类偏好,回答更详细、结构化。 -
DeepSeek-V3-0324:深度求索推出的新版本DeepSeek V3模型
DeepSeek-V3-0324 是 DeepSeek 团队发布的小版本升级模型,参数约 660B,上下文长度 128K。该版本在推理任务、前端开发、中文写作、中文搜索等方面显著提升,特别是在数学、代码和百科知识评测中表现优异。 -
减单 - 安徽医科大学等推出的体重管理大模型智能助手
“减单”是由安徽医科大学联合中国科学技术大学附属第一医院和健康科技企业共同发布的体重管理大模型智能助手。它基于国内外多个AI大模型技术,结合超过40万名肥胖相关慢性疾病患者的管理数据训练而成,旨在借助AI技术提高减重的个性化干预质量和诊疗效率。 -
Step-Video-TI2V:阶跃星辰开源的AI图生视频模型
Step-Video-TI2V是阶跃星辰开源的AI图生视频模型,基于30B参数训练,支持生成102帧、5秒、540P分辨率的视频。它具备运动幅度和镜头运动可控性,适合动画和短视频制作,尤其在动漫效果上表现突出。 -
Stable Virtual Camera:Stability AI等推出的AI模型 ,2D图像轻松转3D视频
Stable Virtual Camera是由Stability AI推出的多视图扩散模型,能够将2D图像转化为具有真实深度和透视效果的3D视频。该模型支持用户自定义相机轨迹和多种动态路径,可从单个或多达32个输入图像生成3D视频,并支持多种宽高比和长达1000帧的长视频生成。 -
Skywork R1V:昆仑万维开源的多模态视觉思维链推理模型
Skywork R1V 是昆仑万维开源的多模态视觉思维链推理模型,专注于通过多步逻辑推理解决复杂的视觉任务。它结合了强大的文本推理能力和视觉理解能力,能够处理视觉逻辑推理、数学问题、科学现象分析等任务。