AI工具集AI大模型

MiniMind

MiniMind项目旨在从零开始训练一个轻量级语言模型(LLM),并提供完整的训练、微调、推理和部署流程。

标签:
资源问小白豆包AI

MiniMind 是一个开源的大语言模型(LLM)项目,旨在从零开始,以极低的成本(仅需3块钱)和极短的时间(2小时)训练出一个轻量级的语言模型。该项目由开发者 Jingyao Gong 发起,旨在降低大模型的学习门槛,让更多人能够从零开始训练和理解大模型的原理。

MiniMind插图

MiniMind 的核心特点是其极小的模型体积,最小模型体积仅为 GPT-3 的 1/7000,适合个人 GPU 快速训练。项目提供了完整的训练流程,包括预训练、监督微调(SFT)、LoRA 微调、强化学习(RLHF)等全过程代码,并且所有代码均从零开始用 PyTorch 重构,不依赖第三方库。

MiniMind 提供了多种模型版本,包括 MiniMind2 系列和 MiniMind-V(多模态扩展),支持多种训练和推理框架,如 llama.cpp、vllm、ollama 等。项目还提供了丰富的数据集和训练脚本,支持从零开始训练模型,并提供了详细的训练和评估工具。

MiniMind 的目标是推动 AI 社区的进步,让更多人能够理解和参与大模型的开发与训练。通过 MiniMind,用户可以体验从零开始训练一个语言模型的全过程,感受创造的乐趣。

相关导航

暂无评论

暂无评论...