Llama 3.1:开源语言模型的新里程碑

Llama 3.1:开源语言模型的新里程碑

    正在检查是否收录...
大家好,最近AI领域的新闻接踵而至,让人目不暇接。就在7月(23号)晚上,Meta发布了Llama 3.1系列模型,包括8B、70B参数的版本,以及此前提到过的400B参数模型(实际上是405B)。根据Meta官方公布的数据,Llama 3.1 405B参数模型在某些测试数据集上甚至略微胜过了GPT-4。今天,让我们一起来了解Llama 3.1的更新内容,以及如何免费使用这个令人期待的模型。

https://ai.meta.com/blog/meta-llama-3-1/https://ai.meta.com/blog/meta-llama-3-1/我测试了它写代码能力,让它用python写个贪吃蛇游戏,写代码速度很慢,但是一次成功,下面是它写的代码和,代码运行的效果。

import pygame import sys import random # Initialize Pygame pygame.init() # Set up some constants WIDTH, HEIGHT = 800, 600 BLOCK_SIZE = 20 SPEED = 10 # Set up some colors BLACK = (0, 0, 0) WHITE = (255, 255, 255) RED = (255, 0, 0) GREEN = (0, 255, 0) # Set up the display screen = pygame.display.set_mode((WIDTH, HEIGHT)) pygame.display.set_caption("Snake") # Set up the font font = pygame.font.Font(None, 36) # Set up the snake and food snake = [(200, 200), (220, 200), (240, 200)] food = (400, 300) # Set up the direction direction = "RIGHT" # Game loop while True: # Event handling for event in pygame.event.get(): if event.type == pygame.QUIT: pygame.quit() sys.exit() elif event.type == pygame.KEYDOWN: if event.key == pygame.K_UP and direction!= "DOWN": direction = "UP" elif event.key == pygame.K_DOWN and direction!= "UP": direction = "DOWN" elif event.key == pygame.K_LEFT and direction!= "RIGHT": direction = "LEFT" elif event.key == pygame.K_RIGHT and direction!= "LEFT": direction = "RIGHT" # Move the snake head = snake[-1] if direction == "UP": new_head = (head[0], head[1] - BLOCK_SIZE) elif direction == "DOWN": new_head = (head[0], head[1] + BLOCK_SIZE) elif direction == "LEFT": new_head = (head[0] - BLOCK_SIZE, head[1]) elif direction == "RIGHT": new_head = (head[0] + BLOCK_SIZE, head[1]) snake.append(new_head) # Check for collision with food if snake[-1] == food: food = (random.randint(0, WIDTH - BLOCK_SIZE) // BLOCK_SIZE * BLOCK_SIZE, random.randint(0, HEIGHT - BLOCK_SIZE) // BLOCK_SIZE * BLOCK_SIZE) else: snake.pop(0) # Check for collision with self or wall if (snake[-1] in snake[:-1] or snake[-1][0] < 0 or snake[-1][0] >= WIDTH or snake[-1][1] < 0 or snake[-1][1] >= HEIGHT): pygame.quit() sys.exit() # Draw everything screen.fill(BLACK) for pos in snake: pygame.draw.rect(screen, GREEN, (pos[0], pos[1], BLOCK_SIZE, BLOCK_SIZE)) pygame.draw.rect(screen, RED, (food[0], food[1], BLOCK_SIZE, BLOCK_SIZE)) text = font.render(f"Score: {len(snake)}", True, WHITE) screen.blit(text, (10, 10)) pygame.display.flip() # Cap the frame rate pygame.time.delay(1000 // SPEED)

运行效果如下:

Llama 3.1的主要更新

Context Window扩展:Llama 3.1将模型的Context Window从原来的8K tokens扩展到了128K tokens,极大地提升了处理长文和长对话的能力。

模型架构:Llama 3.1沿用了Llama 3的基础架构,即使是405B参数的模型也采用标准的decoder-only transformer架构,而非混合专家模型。同时继续使用GQA(分组查询注意力)技术,提高了长文处理能力。

性能表现:

Llama 3.1 405B模型在多个测试数据集上超越了GPT-4o和Claude 3.5 Sonnet等顶级商业闭源模型。 8B参数版本优于参数相近的Gemma 2 9B IT和Mistral 7B Instruct。 70B参数版本不仅胜过开源模型Mixtral 8x22B,还在多项测试中大幅领先GPT-3.5 Turbo。

许可证更新:Meta更新了Llama 3.1的许可条款,允许使用模型输出来改进其他语言模型,但要求训练出的新模型名称必须以"Llama"开头,并标注"Built with Llama"。

指令微调:Llama 3.1的Instruct版本根据工具调用进行了微调,并引入了新的iPython角色来接收和记录工具调用返回的数据。

如何免费使用Llama 3.1

在线使用

HuggingChat:

提供Llama 3.1 405B和70B参数模型的免费使用。 用户友好的对话界面,支持对话历史记录和工具调用选择。 访问地址:https://huggingface.co/chat/https://huggingface.co/chat/

Groq:

使用自研LPU进行推理,注册简单(仅需Google账号)。 生成速度快,提供免费的OpenAI兼容API。 目前对API调用有每日Token限制。api地址:https://console.groq.com/https://console.groq.com/ groq网址:https://groq.com/https://www.youtube.com/redirect?event=video_description&redir_token=QUFFLUhqa05JR19rSmF3Wm9fZE50YUktZU9QNWw1aVJOUXxBQ3Jtc0tteWRHOVl2WF9lM0FzS1J2eGtnc2hLQ3k5ZkRUZlFJczRNOWV0NTFsQ013MGFlTktyMTV1bTdqbW1OSFRPbW5zUXo4cTRUb043UUt4TEtXZEJxcml4T0dvbkRKVkFqOXBDMk9hTlpWTmJxWnBXRDFiUQ&q=https%3A%2F%2Fgroq.com%2F&v=4oUG_CRmjGY

本地运行

推荐使用LM Studio程序:LM Studio - Discover, download, and run local LLMsLM Studio is an easy to use desktop app for experimenting with local and open-source Large Language Models (LLMs). The LM Studio cross platform desktop app allows you to download and run any ggml-compatible model from Hugging Face, and provides a simple yet powerful model configuration and inferencing UI. The app leverages your GPU when possible.https://lmstudio.ai/

提供便捷的模型下载界面和对话窗口。 使用llama.cpp进行模型推理,适合无独立显卡的设备。 支持不同程度量化的模型版本,如Q4_K_M(推荐),平衡大小和性能。

结语

Llama 3.1的发布无疑是开源语言模型发展的一个重要里程碑。405B参数模型与顶级商业闭源模型的竞争力,以及8B参数模型超越Google Gemma 2 9B的表现,都展示了开源社区的巨大潜力。Meta允许将Llama 3.1用于知识蒸馏,这一决定将进一步推动开源AI社区的蓬勃发展。

让我们一起期待AI技术的持续进步,为更开放、更强大的语言模型贡献力量。

如果您喜欢这篇文章,欢迎点赞订阅我的频道。下期再见,各位兄弟朋友们请多保重!

总结

**Llama 3.1发布详解:性能飞跃与免费畅玩**
最近,Meta在AI领域再次发力,正式推出了Llama 3.1系列模型,包括8B、70B和令人震撼的405B三种参数版本。令人瞩目的是,这款模型在多项测试中展现出了超越顶级商业模型GPT-4的实力,为开源AI世界带来了新的曙光。
**性能显著提升,长文处理更从容**
Llama 3.1的一大亮点在于其Context Window的大幅扩展,从原先的8K tokens跃升至128K tokens,极大地增强了处理长文和复杂对话的能力。延续Llama 3的坚实架构,405B版本依然采用标准的decoder-only transformer架构,并借助GQA技术进一步优化长文处理效率,展现了不凡的竞争力。
在多项基准测试中,Llama 3.1表现不俗:405B参数版本在某些数据集上甚至微胜GPT-4,而70B和8B版本也分别在各自领域内超越了多款知名模型,如Gemma 2 9B和Mixtral 8x22B。这一连串的出色表现,无疑巩固了Llama系列在开源AI领域的领先地位。
**免费试用渠道多样,门槛大幅降低**
更让人兴奋的是,Llama 3.1系列模型提供了多种免费试用方式,无论是AI爱好者还是科研人员,都能轻松上手体验。HuggingChat和Groq等平台纷纷推出在线服务,让用户能够在云端轻松调用405B和70B等高性能模型。其中,HuggingChat以其用户友好的界面和有趣的对话功能受到广泛好评;而Groq则凭借其自研的LPU架构和OpenAI兼容的API,为用户提供了极致的生成速度和便捷的API调用体验。
除了在线服务外,本地运行也成为了可能。LM Studio等桌面应用程序的推出,使得用户能够在本地设备上自由安装和运行Llama 3.1系列模型。这不仅降低了使用门槛和成本,还为用户提供了更加灵活和个性化的实验平台。
**结语与展望**
Llama 3.1的发布不仅仅是Meta在AI领域的一项重要成果,更是开源AI社区发展的一次重要推动力。这款模型凭借其卓越的性能和开放的许可证政策,为业界树立了新的标杆。未来,我们有理由相信,随着AI技术的不断进步和开源社区的持续发展,将会有更多类似Llama 3.1的开源语言模型涌现出来,为人类的进步和发展贡献更大的力量。
让我们共同期待AI技术的美好未来吧!如果你对这篇文章感兴趣或想了解更多关于AI的最新动态,请点赞并订阅我的频道。我们下期再见! llamatokengptapichatgpt-4app语言模型ai技术lmsemma数据集免费使用llmsideai社区huggingfaceapi调用许可证测试数据


  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-18993.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.6W+
5
0
1
WAP站长官方

入职一年半,这个AI员工晋升为了国内首位AI架构师

上一篇

Llama 3.1:Meta迄今为止规模最大、质量最高的开源模型

下一篇
  • 复制图片
按住ctrl可打开默认菜单