[C++]LLama实战本地CPU推理大语言模型-C++开发实战
后端开发
bb25958a2a87d07635e6f8abef77d866.jpg
(41.98 KB, 下载次数: 88)
下载附件
2025-9-22 09:03 上传
1-1.课程介绍.mp4
1-2.推演程序演示,基于130亿参数模型.mp4
2-1.llama模型分析和训练数据分析.mp4
2-2.git和msys2安装和llama模型下载.mp4
2-3.llama推理测试程序演示.mp4
3-1.llama.cpp构建环境说明.mp4
3-2.visutal_studio_2022安装.mp4
3-3.llama.cpp构建和项目分析.mp4
3-4.cmake windows安装二进制版本.mp4
4-1.ggml格式介绍.mp4
4-2.conda在windows中的安装和使用.mp4
4-3.conda的python环境安装.mp4
4-4.llama的pth格式转换为ggml的bin.mp4
4-5.llama量化模型到Q4_0.mp4
5-1.Chinese-LLaMA-Alpaca 中文模型分析和下载.mp4
5-2.Transformers安装和llama模型格式转换.mp4
5-3.合并中文LoRA权重和llama生成全量模型权重.mp4
5-4.使用Transformer和Web图形界面实现推理.mp4
5-5.使用llama.cpp量化和推理中文模型.mp4
6-1.llama参数ctx-size上下文大小相关代码分析.mp4
6-2.predict和batch-size
![[衡天云]爆款云服务器 低至12元/月](/hty.png)