首页 >科技周边 >人工智能 >本地使用Groq Llama 3 70B的逐步指南

本地使用Groq Llama 3 70B的逐步指南

WBOY
WBOY原创
2024-06-10 09:16:581080浏览

本地使用Groq Llama 3 70B的逐步指南

译者 | 布加迪

审校 | 重楼

本文介绍了如何使用Groq LPU推理引擎在Jan AI和VSCode中生成超快速响应。

本地使用Groq Llama 3 70B的逐步指南

每个人都致力于构建更好的大语言模型(LLM),例如Groq专注于AI的基础设施方面。这些大模型的快速响应是确保这些大模型更快捷地响应的关键。

本教程将介绍Groq LPU解析引擎以及如何在笔记本电脑上使用API和Jan AI本地访问它。本文还将把它整合到VSCode中,以帮助我们生成代码、重构代码、输入文档并生成测试单元。本文将免费创建我们自己的人工智能编程助手。

Groq LPU推理引擎简介

Groq LPU(语言处理单元)推理引擎旨在为拥有顺序组件的计算密集型应用程序(比如LLM)生成快速响应。

与CPU和GPU相比,LPU拥有更强大的算力,这减少了预测单词所需的时间,大大加快了生成文本序列的速度。此外,与GPU相比,LPU还可以处理内存瓶颈,从而在LLM上提供更好的性能。

简而言之,Groq LPU技术使你的LLM超级快速,实现实时AI应用。不妨阅读Groq ISCA 2022论文(https://wow.groq.com/isca-2022-paper/),以了解关于LPU架构的详细信息。

安装Jan AI

Jan AI是一个桌面应用程序,在本地运行开源和专有的大语言模型。它提供Linux、macOS和Windows版本供人下载。我们将下载Jan AI并安装在Windows中,为此进入到https://github.com/janhq/jan/releases,点击扩展名为“.exe”的文件。

本地使用Groq Llama 3 70B的逐步指南

如果你想在本地使用LLM以增强隐私,请阅读《在笔记本电脑上使用LLM的5种方法》博文(https://www.kdnuggets.com/5-ways-to-use-llms-on-your-laptop),开始使用最先进的开源语言模型。

创建Groq Cloud API

要在Jan AI中使用Grog Llama 3,我们需要一个API。为此,我们将进入到https://console.groq.com/,创建一个Groq Cloud帐户。

如果你想要测试Groq提供的各种模型,无需任何设置就能做到这一点,只需进入到Playground选项卡,选择模型,并添加用户输入。

在本文这个例子中,它非常快,每秒生成310个token,这是我迄今见过的最快速度。连Azure AI或OpenAI也无法获得这种类型的结果。

本地使用Groq Llama 3 70B的逐步指南

要生成API密钥,点击左侧面板上的“API密钥”按钮,然后点击“创建API密钥”按钮,创建并复制API密钥。

本地使用Groq Llama 3 70B的逐步指南

在Jan AI中使用Groq

在下一步中,我们将把Groq Cloud API密钥粘贴到Jan AI应用程序中。

启动Jan AI应用程序,进入到设置,在扩展部分选择“Groq推理引擎”选项,并添加API密钥。

本地使用Groq Llama 3 70B的逐步指南

然后,返回到线程窗口。在模型部分,在“Remote”部分选择Groq Llama 370B,开始输入提示。

本地使用Groq Llama 3 70B的逐步指南

响应生成的速度太快了,我都跟不上了。

本地使用Groq Llama 3 70B的逐步指南

注意:该API的免费版本有一些限制。请访问https://console.groq.com/settings/limits,了解有关它们的更多信息。

在VSCode中使用Groq

接下来,我们将尝试将相同的API密钥粘贴到CodeGPT VSCode扩展中,并构建自己的免费AI编程助手。

在扩展选项卡中搜索CodeGPT扩展,安装它。

本地使用Groq Llama 3 70B的逐步指南

CodeGPT选项卡将出现,以便你选择模型提供方。

本地使用Groq Llama 3 70B的逐步指南

当你选择Groq作为模型提供方时,它将要求你提供API密钥。只需粘贴相同的API密钥,我们就可以开始了。你甚至可以为CodeGPT生成另一个API密钥。

本地使用Groq Llama 3 70B的逐步指南

现在我们将要求它为蛇游戏编写代码。生成并运行代码只花了10秒钟。

本地使用Groq Llama 3 70B的逐步指南

下面演示了我们的蛇游戏。

本地使用Groq Llama 3 70B的逐步指南

不妨了解五大AI编程助手(https://www.kdnuggets.com/top-5-ai-coding-assistants-you-must-try),成为AI驱动的开发人员和数据科学家。记住,人工智能旨在帮助我们,而不是取代我们,所以不妨对它持开放的心态,用它来提高代码编写水平。

结论

我们在本教程中了解了Groq推理引擎以及如何使用Jan AI Windows应用程序在本地访问它。最后,我们通过使用CodeGPT VSCode扩展,将其整合到我们的工作流中,这真是太棒了。它实时生成响应,以获得更好的开发体验。

原文标题:Using Groq Llama 3 70B Locally: Step by Step Guide,作者:Abid Ali Awan

链接:https://www.kdnuggets.com/using-groq-llama-3-70b-locally-step-by-step-guide。

想了解更多AIGC的内容,请访问:

51CTO AI.x社区

https://www.51cto.com/aigc/

以上是本地使用Groq Llama 3 70B的逐步指南的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn