摘要:简介Ollama 是一个轻量级、可扩展的框架,旨在帮助用户在本地机器上构建和运行大型语言模型。它提供了一个简单的 API 用于创建、运行和管理模型,并附带了一个,仅需10分钟 10分钟到

简介</p>n<p>Ollama 一个轻量级、可扩展的框架,旨在帮助用户在本地机器上构建和运行大型语言模型。它提供了壹个简单的 API 用于创建、运行和管理模型,并附带了壹个预建模型库,这些模型可以轻松地应用于各种应用程序中。</p>n<p>体系标准</p>n<p>在开始之前,请确保你的体系满足下面内容标准:</p>n<p>至少 8 GB 的 内存来运行 7B 模型</p>n<p>16 GB 的 内存 来运行 13B 模型</p>n<p>32 GB 的 内存 来运行 33B 模型</p>n<p>无需GPU标准,能跑起来,可以玩玩</p>n<p>配置流程</p>n<p>macOS 和 Windows</p>n<p>对于 macOS 和 Windows 用户,可以直接从 Ollama GitHub 页面 下载预构建的配置程序。</p>n<p>Linux</p>n<p>Linux 用户可以通过运行下面内容命令来配置 Ollama:</p>n<p>curl -fsSL https://ollama.com/install.sh | sh</p>n<p>Docker</p>n<p>如果你更喜爱运用 Docker,可以从 Docker Hub 获取官方的 Ollama Docker 镜像:</p>n<p>ollama/ollama</p>n<p>快速开始</p>n<p>配置完成后,你可以通过下面内容命令运行并和 Llama 3 模型进行对话:</p>n<p>ollama run llama3</p>n<p>模型库</p>n<p>Ollama 支持多种模型,你可以从 ollama.com/library 下载所需的模型。下面内容是一些示例模型及其参数和大致:</p>n<p>Model</p>n<p>Parameters</p>n<p>Size</p>n<p>Download</p>n<p>Llama 3</p>n<p>8B</p>n<p>4.7GB</p>n<p>ollama run llama3</p>n<p>Llama 3</p>n<p>70B</p>n<p>40GB</p>n<p>ollama run llama3:70b</p>n<p>Mistral</p>n<p>7B</p>n<p>4.1GB</p>n<p>ollama run mistral</p>n<p>Dolphin Phi</p>n<p>2.7B</p>n<p>1.6GB</p>n<p>ollama run dolphin-phi</p>n<p>Phi-2</p>n<p>2.7B</p>n<p>1.7GB</p>n<p>ollama run phi</p>n<p>Neural Chat</p>n<p>7B</p>n<p>4.1GB</p>n<p>ollama run neural-chat</p>n<p style=\"text-align:center;\"></p>n<p>Starling</p>n<p>7B</p>n<p>4.1GB</p>n<p>ollama run starling-lm</p>n<p>Code Llama</p>n<p>7B</p>n<p>3.8GB</p>n<p>ollama run codellama</p>n<p>Llama 2 Uncensored</p>n<p>7B</p>n<p>3.8GB</p>n<p>ollama run llama2-uncensored</p>n<p>Llama 2 13B</p>n<p>13B</p>n<p>7.3GB</p>n<p>ollama run llama2:13b</p>n<p>Llama 2 70B</p>n<p>70B</p>n<p>39GB</p>n<p>ollama run llama2:70b</p>n<p>Orca Mini</p>n<p>3B</p>n<p>1.9GB</p>n<p>ollama run orca-mini</p>n<p>LLaVA</p>n<p>7B</p>n<p>4.5GB</p>n<p>ollama run llava</p>n<p>Gemma</p>n<p>2B</p>n<p>1.4GB</p>n<p>ollama run gemma:2b</p>n<p>Gemma</p>n<p>7B</p>n<p>4.8GB</p>n<p>ollama run gemma:7b</p>n<p>Solar</p>n<p>10.7B</p>n<p>6.1GB</p>n<p>ollama run solar</p>n<p>操作开始配置Llama 3</p>n<p>1.下载Ollama</p>n<p>2.下载和运行llama3</p>n<p>打开命令窗口cmd</p>n<p>ollama run llama3</p>n<p>第一次需要等会下载模型文件到本地,接着就可以输入对话:</p>n<p>我的笔记本配置很一般,好多年的,也能跑起来,回答速度还算可以接收</p>n<p>小编归纳一下</p>n<p>Ollama 提供了壹个强大而灵活的平台,用于在本地运行大型语言模型。无论是研究人员、开发者还是普通用户,都可以利用这个工具来寻觅和实现各种语言处理任务。通过上述流程,你可以轻松地在你的机器上配置和运行大型语言模型,开始你的 AI 之旅。