Ollama&llama

Ollama&llama

    正在检查是否收录...

Olllama

直接下载ollama程序,安装后可在cmd里直接运行大模型;

llama 3

meta 开源的最新llama大模型;

下载运行

1 ollama

ollama run llama3

2 github

下载仓库,需要linux环境,windows可使用wsl;

接受许可协议。获取下载链接
仓库运行download.sh

3.quickstart
3 huggingface

meta
接受协议,访问模型文件,(不知道是不是affiliation填none被拒绝了)

补充

1.windows访问wsl文件

\\wsl$ 

查看文件

2. wsl访问windows
lwsl文件系统mnt已挂载windows盘符,不过需要在linux 里(terminal)访问,使用cp复制等。

3. 使用ip网络传输文件

#wsl terminal #查看IP地址 ip addr # 复制windows文件至wsl scp [-r] file/dir hostname@ip_addr:/home/ # windows terminal scp [-r] hostname@ip_addr:/home/ D:\rev 
wsl nvidia cuda
似乎默认能直接访问gpu,但cuda还需安装nvidia-cuda-toolkit

5.模型后缀

Instruct is fine-tuned for chat/dialogue use cases.
Example: ollama run llama3 / ollama run llama3:70b
Pre-trained is the base model.
Example: ollama run llama3:text / ollama run llama3:70b-text

llamawindows大模型linuxgithubgpuchatgithuggingface
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-17865.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

文心一言对GPT-4o的评价与分析

上一篇

创意生图搭配酷炫特效,AIGC直播礼物多元玩法助力平台互动再升级

下一篇
  • 复制图片
按住ctrl可打开默认菜单