百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

Ollama如何制作自己的大模型?

wptr33 2025-05-24 17:32 26 浏览

背景

Llama3发布了,这次用了24000块gpu,训练了15T的数据,提供了8B70B的预训练和指令微调版本。

小团队玩玩推理就好了。

阿里云今天也推出了针对Llama3的限时免费训练、部署、推理服务。

我们在本地,运行以下命令,即可下载模型Llama3

ollama run llama3

即可实现和Llama3对话。

ollama只能使用自己官网发布的,如何制作并使用自己的模型呢?

导入模型

本指南逐步介绍如何导入 GGUF、PyTorch 或 Safetensors 模型。

导入 (GGUF)

第 1 步:编写 Modelfile

首先创建一个 Modelfile 。这个文件是模型的蓝图,指定了权重、参数、提示模板等内容。

FROM ./mistral-7b-v0.1.Q4_0.gguf

(可选项)许多聊天模型需要提示模板才能正确回答。

可以使用 Modelfile 中的 TEMPLATE 指令指定默认提示模板:

FROM ./mistral-7b-v0.1.Q4_0.gguf
TEMPLATE "[INST] {{ .Prompt }} [/INST]"

第 2 步:创建 Ollama 模型

最后,从我们的 Modelfile 创建一个模型:

ollama create example -f Modelfile

第 3 步:运行模型

接下来,使用 ollama run 测试模型:

ollama run example "你最喜欢的吃啥?"

导入(PyTorch 和 Safetensors)

从 PyTorch 和 Safetensors 导入的过程比从 GGUF 导入的过程更长。

Setup 设置

首先,克隆 ollama/ollama 存储库:

git clone git@github.com:ollama/ollama.git ollama
cd ollama

然后获取其 llama.cpp 子模块:

git submodule init
git submodule update llm/llama.cpp

接下来,安装 Python 依赖项:

python3 -m venv llm/llama.cpp/.venv
source llm/llama.cpp/.venv/bin/activate
pip install -r llm/llama.cpp/requirements.txt

然后构建 quantize 工具:

make -C llm/llama.cpp quantize

克隆 HuggingFace 存储库(可选)

如果模型当前托管在 HuggingFace 存储库中,请首先克隆该存储库以下载原始模型。

安装 Git LFS,,验证其已安装,然后克隆模型的存储库:

git lfs install
git clone https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.1 model

转换模型

注意:某些模型架构需要使用特定的转换脚本。例如,Qwen 模型需要运行 convert-hf-to-gguf.py 而不是 convert.py

python llm/llama.cpp/convert.py ./model --outtype f16 --outfile converted.bin

量化模型

llm/llama.cpp/quantize converted.bin quantized.bin q4_0

第三步:写一个 Modelfile

接下来,为我们的模型创建一个 Modelfile

FROM quantized.bin
TEMPLATE "[INST] {{ .Prompt }} [/INST]"

第 4 步:创建 Ollama 模型

最后,从 Modelfile 创建一个模型:

ollama create example -f Modelfile

第 5 步:运行模型

接下来,使用 ollama run 测试模型:

ollama run example "你最爱的人是谁?"

发布我们的模型(可选 - alpha)

发布模型处于早期 alpha 阶段。如果想发布模型以与其他人共享,请按照以下步骤操作:

1、创建一个帐户

2、复制Ollama 公钥:

  • macOS:cat ~/.ollama/id_ed25519.pub
  • Windows: type %USERPROFILE%\.ollama\id_ed25519.pub
  • Linux: cat /usr/share/ollama/.ollama/id_ed25519.pub

3、将公钥添加到你的 Ollama 帐户

接下来,将模型复制到用户名的命名空间:

ollama cp example <your username>/example

然后推送模型:

ollama push <your username>/example

发布后,模型将在 https://ollama.com/<your username>/example 中提供。

相关推荐

redis的八种使用场景

前言:redis是我们工作开发中,经常要打交道的,下面对redis的使用场景做总结介绍也是对redis举报的功能做梳理。缓存Redis最常见的用途是作为缓存,用于加速应用程序的响应速度。...

基于Redis的3种分布式ID生成策略

在分布式系统设计中,全局唯一ID是一个基础而关键的组件。随着业务规模扩大和系统架构向微服务演进,传统的单机自增ID已无法满足需求。高并发、高可用的分布式ID生成方案成为构建可靠分布式系统的必要条件。R...

基于OpenWrt系统路由器的模式切换与网页设计

摘要:目前商用WiFi路由器已应用到多个领域,商家通过给用户提供一个稳定免费WiFi热点达到吸引客户、提升服务的目标。传统路由器自带的Luci界面提供了工厂模式的Web界面,用户可通过该界面配置路...

这篇文章教你看明白 nginx-ingress 控制器

主机nginx一般nginx做主机反向代理(网关)有以下配置...

如何用redis实现注册中心

一句话总结使用Redis实现注册中心:服务注册...

爱可可老师24小时热门分享(2020.5.10)

No1.看自己以前写的代码是种什么体验?No2.DooM-chip!国外网友SylvainLefebvre自制的无CPU、无操作码、无指令计数器...No3.我认为CS学位可以更好,如...

Apportable:拯救程序员,IOS一秒变安卓

摘要:还在为了跨平台使用cocos2d-x吗,拯救objc程序员的奇葩来了,ApportableSDK:FreeAndroidsupportforcocos2d-iPhone。App...

JAVA实现超买超卖方案汇总,那个最适合你,一篇文章彻底讲透

以下是几种Java实现超买超卖问题的核心解决方案及代码示例,针对高并发场景下的库存扣减问题:方案一:Redis原子操作+Lua脚本(推荐)//使用Redis+Lua保证原子性publicbo...

3月26日更新 快速施法自动施法可独立设置

2016年3月26日DOTA2有一个79.6MB的更新主要是针对自动施法和快速施法的调整本来内容不多不少朋友都有自动施法和快速施法的困扰英文更新日志一些视觉BUG修复就不翻译了主要翻译自动施...

Redis 是如何提供服务的

在刚刚接触Redis的时候,最想要知道的是一个’setnameJhon’命令到达Redis服务器的时候,它是如何返回’OK’的?里面命令处理的流程如何,具体细节怎么样?你一定有问过自己...

lua _G、_VERSION使用

到这里我们已经把lua基础库中的函数介绍完了,除了函数外基础库中还有两个常量,一个是_G,另一个是_VERSION。_G是基础库本身,指向自己,这个变量很有意思,可以无限引用自己,最后得到的还是自己,...

China&#39;s top diplomat to chair third China-Pacific Island countries foreign ministers&#39; meeting

BEIJING,May21(Xinhua)--ChineseForeignMinisterWangYi,alsoamemberofthePoliticalBureau...

移动工作交流工具Lua推出Insights数据分析产品

Lua是一个适用于各种职业人士的移动交流平台,它在今天推出了一项叫做Insights的全新功能。Insights是一个数据平台,客户可以在上面实时看到员工之间的交流情况,并分析这些情况对公司发展的影响...

Redis 7新武器:用Redis Stack实现向量搜索的极限压测

当传统关系型数据库还在为向量相似度搜索的性能挣扎时,Redis7的RedisStack...

Nginx/OpenResty详解,Nginx Lua编程,重定向与内部子请求

重定向与内部子请求Nginx的rewrite指令不仅可以在Nginx内部的server、location之间进行跳转,还可以进行外部链接的重定向。通过ngx_lua模块的Lua函数除了能实现Nginx...