用 7 行代码在本地运行 Llama 2!(苹果silicon-mac m1 m2)项目源码含模型

用 7 行代码在本地运行 Llama 2!(苹果silicon-mac m1 m2)项目源码含模型

    正在检查是否收录...


总而言之:

xcode-select --install # Make sure git & clang are installed git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp curl -L https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/resolve/main/llama-2-7b-chat.ggmlv3.q4_K_M.bin --output ./models/llama-2-7b-chat.ggmlv3.q4_K_M.bin LLAMA_METAL=1 make ./main -m ./models/llama-2-7b-chat.ggmlv3.q4_K_M.bin -n 1024 -ngl 1 -p "Give me a list of things to do in NYC" 

注意:7B 型号重量约为 4GB,请确保您的机器上有足够的空间。

这是在做什么?

这是使用 Georgi Gerganov 令人惊叹的llama.cpp项目来运行 Llama 2。它通过TheBloke的 Huggingface 存储库为 Llama 7B Chat 下载一组 4 位优化的权重,将其放入 llama.cpp 中的模型目录中,然后使用 Apple 的 Metal 优化构建 llama.cpp。

这允许您以最少的工作在本地运行 Llama 2。7B 权重应该适用于具有 8GB RAM 的机器(如果您有 16GB 则更好)。13B 或 70B 等较大型号将需要更多的 RAM。

请注意,Llama 2

llamachatgitllama 2codeganhuggingfaceurlgithubappapple本地运行tpuclone
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-985.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

ChatGPT + MidJourney 提示词工具收集

上一篇

【云上探索实验室】活动小记-《使用 Amazon SageMaker 构建机器学习应用》《基于 Amazon SageMaker 构建细粒度情感分析应用》《基于Stable Diffusion模》

下一篇
  • 复制图片
按住ctrl可打开默认菜单