安装 Ollama
https://ollama.com/download
目前ollama只支持macOS和Linux, Windows平台。ollama。
要运行Llama2,只需在终端中执行命令 ollama run llama2 。执行此命令后,Llama2模型将被自动下载:
除了Llama2模型,Ollama还支持多种模型。您可以通过访问模型存储库来探索模型的全面列表。
模型库
https://ollama.com/library
注意:运行3B机型至少应该有8gb内存,运行7B机型至少应该有16gb内存,运行13B机型至少应该有32gb内存。
成功下载模型后,您可以与llama2模型进行交互:
如果不希望直接在终端中与大型语言模型交互,可以使用命令 ollama serve 启动本地服务器。一旦这个命令成功运行,你就可以通过REST API与本地语言模型进行交互: 启动本地服务器 ollama serve curl http://localhost:11434/api/generate -d '{ "model": "llama2", "prompt":"Why is the sky blue?"
}'
|