工具导航快速上手大型语言模型。
Ollama是一款功能强大的开源命令行工具,专为在本地计算机上运行大型语言模型(LLM)而设计。通过Ollama,开发者可以轻松下载并运行Llama 2、Code Llama等40+热门开源模型,无需依赖云服务,确保数据隐私安全。
✅ 完全本地运行 - 所有模型交互都在本地完成,无需将敏感数据发送至第三方服务器 ✅ 多平台支持 - 目前支持macOS和Linux系统,Windows版本即将推出 ✅ GPU加速 - 在macOS和Linux上支持GPU加速,提升模型运行效率 ✅ 简单易用 - 提供直观的命令行界面(CLI)和REST API,便于集成到各类应用中 ✅ Docker支持 - 官方提供Docker镜像,简化部署流程 ✅ 模型自定义 - 支持用户自定义和创建专属模型

获取Ollama安装包,扫码关注回复:Ollama
Ollama提供丰富的开源模型库,持续更新中,以下是部分热门模型:
| 模型名称 | 参数规模 | 文件大小 | 运行命令 |
|---|---|---|---|
| DeepSeek-R1 | 1.5B-32B | 12-320GB | ollama run deepseek-r1 |
| Neural Chat | 7B | 4.1GB | ollama run neural-chat |
| Starling | 7B | 4.1GB | ollama run starling-lm |
| Mistral | 7B | 4.1GB | ollama run mistral |
| Llama 2 | 7B/13B/70B | 3.8-39GB | ollama run llama2 |
| Code Llama | 7B | 3.8GB | ollama run codellama |
| Vicuna | 7B | 3.8GB | ollama run vicuna |
| Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Ollama让大型语言模型的本地部署变得前所未有的简单,是开发者探索AI潜能的理想工具。立即下载体验,开启您的本地AI之旅!
月访问量
15.44K
平均访问时长
00:00:19
每次访问页数
3.12
跳出率
48.63%
直接访问
44.95%
自然搜索
35.82%
外链引荐
11.14%
社交媒体
7.33%
邮件
0.13%
展示广告
0.54%
🇷🇺 Russia
35.44%
🇮🇳 India
20.55%
🇨🇳 China
15.13%
🇩🇪 Germany
8.06%
🇰🇷 Korea, Republic of
6.42%
关键词
每次点击费用
ollama thinking and searching models
$0.00
ollama.ai
$0.00
qwen3 1.7b function calling
$0.00
qwen3 8b
$0.00
qwen3 4b
$0.00