LLM-20230225:LLaMA(大羊驼)【参数量: 70 亿、130 亿、330 亿、650 亿】【旨在推动 LLM 领域的小型化、平民化研究】【Meta】

LLM-20230225:LLaMA(大羊驼)【参数量: 70 亿、130 亿、330 亿、650 亿】【旨在推动 LLM 领域的小型化、平民化研究】【Meta】

    正在检查是否收录...

Meta AI 同时在其官方发布了论文《LLaMA: Open and Efficient Foundation Language Models》

 源码:https://github.com/facebookresearch/llama 论文:https://research.facebook.com/file/1574548786327032/LLaMA--Open-and-Efficient-Foundation-Language-Models.pdf

官方代码地址:

llamafacebookokrpdfgithubgiturl
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-1197.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

Github学生包申请秒过经验并使用Copilot

上一篇

【AIGC】如何在使用stable-diffusion-webui生成图片时看到完整请求参数

下一篇
  • 复制图片
按住ctrl可打开默认菜单