LLaMA 2 是 Meta 开发的大型语言模型,是 LLaMA 1 的后继者。LLaMA 2 可通过 AWS、Hugging Face 等提供商免费用于研究和商业用途。LLaMA 2 预训练模型接受了 2 万亿个标记的训练,上下文长度是 LLaMA 1 的两倍。其微调模型已经接受了超过 100 万个人工注释的训练。
本文包含 LLama 2 所有相关资源,可帮助您快速入门。它包括以下链接:
LLaMA 2 是什么?
Lllama 2在线体验
Llama2 背后的研究
Llama 2 基准测试有多好
如何正确使用Prompt与Llama 2聊天
如何使用 PEFT 训练Llama 2
如何部署 LLama 2 进行推理
LLama 2 在线API接口
Meta 发布了 LLaMA 2,这是一种最先进的新型开放大语言模型 (LLM)。LLaMA 2 代表 LLaMA 的下一代版本,并附带商业许可。LLaMA 2 有 3 种不同的尺寸 - 7B、13B 和 70B 参数。与原始 LLaMA 相比,新的改进包括:
使用 2 万亿个文本数据进行训练
允许商业用途
使用 4096 个默认上下文窗口(可以扩展)
使用 RoPE 缩放4 位量化超越 4k token限制
70B模型采用分组查询注意力(GQA)
https://huggingface.co/models?other=llama-2
有几个不同的游乐场可用于测试与 LLaMA 2 Chat 的交互:
HuggingChat允许您通过 Hugging Face 的对话界面与 LLaMA 2 70B 模型聊天。这提供了一种查看聊天机器人运行情况的简单方法。
https://huggingface.co/chat/
Hugging Face Spaces有7B、13B和70B尺寸的 LLaMA 2 模型可供测试。交互式演示可让您比较不同的模型尺寸。
https://huggingface.co/spaces/huggingface-projects/llama-2-7b-chat
https://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
https://huggingface.co/spaces/ysharma/Explorellamav2with_TGI
Perplexity拥有 7B 和 13B LLaMA 2 模型,可通过其对话式 AI 演示进行访问。您可以与模特聊天并针对回复提供反馈。
https://labs.perplexity.ai/
由 a16z Infra 和 Replication 提供的 7B-chat, 13B-chat and 70B-chat,与 Meta Platforms无关。
如果你正在寻找特定的开源LLM,你会发现有很多变体。GPTQ 版本、GGML 版本、HF/基本版本。我们应该选择使用哪个版本?按一般规则:如果你有很多 VRAM,请使用 GPTQ,如果你的 VRAM 最小,请使用 GGML,如果你想要原始模型,则使用基本的 HuggingFace 模型,而量化造成的智能损失可以忽略不计。
通常,量化模型速度更快,需要的 VRAM 更少,但它们的智能度可能略低。(1)4 位、5 位或 6 位似乎是许多用例的最佳点。
SuperHOT允许8K上下文大小而不是2K。
7B GGML 版本:
13B GGML 版本:
70B GPTQ 版本:
LLaMA 2 是一个基本的 LLM 模型,并根据在线公开数据进行了预训练。此外,Meta 还发布了 CHAT 版本。CHAT模型的第一个版本是SFT(监督微调)模型。之后,LLaMA-2-chat 通过人类反馈强化学习(RLHF)进行迭代改进。RLHF 流程涉及拒绝采样和近端策略优化 (PPO) 等技术,以进一步完善聊天机器人。Meta仅发布了该模型的最新RLHF(v5)版本。如果您好奇结账过程是如何进行的:
https://arxiv.org/abs/2307.09288
https://www.interconnects.ai/p/llama-2-from-meta
Meta 声称“Llama 2 在许多外部基准测试上都优于其他开源语言模型,包括推理、编码、熟练程度和知识测试”。您可以在以下位置找到有关性能的更多见解:
https://huggingface.co/spaces/HuggingFaceH4/openllmleaderboard
https://ai.meta.com/llama/
LLaMA 2 Chat 是一种开放的对话模型。与 LLaMA 2 Chat 有效互动需要提供正确的提示和问题,以产生连贯且有用的响应。Meta没有选择最简单的提示。以下是单轮和多轮对话的提示模板。该模板遵循模型的训练过程,如LLaMA 2 论文中所述。您还可以查看LLaMA 2 提示模板。
单轮提示模板
<s>[INST] <<SYS>>
{
{ system_prompt }}
<</SYS>>
{
{ user_message }} [/INST]
多轮提示模板
<s>[INST] <<SYS>>
{
{ system_prompt }}
<</SYS>>
{
{ user_msg_1 }} [/INST] {
{ model_answer_1 }} </s><s>[INST] {
{ user_msg_2 }} [/INST] {
{ model_answer_2 }} </s><s>[INST] {
{ user_msg_3 }} [/INST]
LLaMA 2 是公开可用的,因此可以轻松使用 PEFT 等技术进行微调。有大量资源可用于训练您自己的 LLaMA 2 版本:
https://huggingface.co/blog/llama2#fine-tuning-with-peft
https://github.com/facebookresearch/llama-recipes/tree/main
LLaMA 2 可以使用Hugging Face Inference Endpoints等托管服务或通过 AWS、Google Cloud 和 Microsoft Azure 等云平台部署在本地环境 ( llama.cpp ) 中。
使用文本生成推理和推理端点部署 LLaMa 2
https://huggingface.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
Llama-2-13B-在 M1/M2 Mac 上使用 GPU 推理进行本地聊天
https://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129
https://replicate.com/blog/run-llama-locally
https://mlc.ai/mlc-llm/docs/getstarted/tryout.html
在 Runpod 上运行 Llama 2(70B GPTQ version required 35-40 GB VRAM)
https://gpus.llm-utils.org/running-llama-2-on-runpod-with-oobaboogas-text-generation-webui/
replicate 提供了基于Llama 2 Chat在线微调的API接口
https://replicate.com/blog/run-llama-2-with-an-api
Llama-2-70B 聊天模型
Llama-2-13B 聊天模型
LLama 2 官方公告
LLaMA 2 论文
https://huggingface.co/papers/2307.09288
LLaMA 2 提示模板
https://gpus.llm-utils.org/llama-2-prompt-template/
Hugging Face Inference Endpoints
https://ui.endpoints.huggingface.co/
llama.cpp
https://github.com/ggerganov/llama.cpp
文章浏览阅读2.5w次,点赞6次,收藏50次。官方解释是,docker 容器是机器上的沙盒进程,它与主机上的所有其他进程隔离。所以容器只是操作系统中被隔离开来的一个进程,所谓的容器化,其实也只是对操作系统进行欺骗的一种语法糖。_docker菜鸟教程
文章浏览阅读5.7k次,点赞3次,收藏14次。该如何避免的,今天小编给大家推荐两个下载Windows系统官方软件的资源网站,可以杜绝软件捆绑等行为。该站提供了丰富的Windows官方技术资源,比较重要的有MSDN技术资源文档库、官方工具和资源、应用程序、开发人员工具(Visual Studio 、SQLServer等等)、系统镜像、设计人员工具等。总的来说,这两个都是非常优秀的Windows系统镜像资源站,提供了丰富的Windows系统镜像资源,并且保证了资源的纯净和安全性,有需要的朋友可以去了解一下。这个非常实用的资源网站的创建者是国内的一个网友。_msdn我告诉你
文章浏览阅读1.2k次。vue2封装对话框el-dialog组件_
文章浏览阅读4.7k次,点赞5次,收藏6次。MFC 文本框换行 标签: it mfc 文本框1.将Multiline属性设置为True2.换行是使用"\r\n" (宽字符串为L"\r\n")3.如果需要编辑并且按Enter键换行,还要将 Want Return 设置为 True4.如果需要垂直滚动条的话将Vertical Scroll属性设置为True,需要水平滚动条的话将Horizontal Scroll属性设_c++ mfc同一框内输入二行怎么换行
文章浏览阅读832次。检查Linux是否是否开启所需端口,默认为6379,若未打开,将其开启:以root用户执行iptables -I INPUT -p tcp --dport 6379 -j ACCEPT如果还是未能解决,修改redis.conf,修改主机地址:bind 192.168.85.**;然后使用该配置文件,重新启动Redis服务./redis-server redis.conf..._redis-server doesn't support auth command or ismisconfigured. try
文章浏览阅读4.9k次。济大数电实验报告_数据选择器及其应用
文章浏览阅读236次。1研究内容消费在生产中占据十分重要的地位,是生产的最终目的和动力,是保持省内经济稳定快速发展的核心要素。预测河南省社会消费品零售总额,是进行宏观经济调控和消费体制改变创新的基础,是河南省内人民对美好的全面和谐社会的追求的要求,保持河南省经济稳定和可持续发展具有重要意义。本文建立灰色预测模型,利用MATLAB软件,预测出2019年~2023年河南省社会消费品零售总额预测值分别为21881...._灰色预测模型用什么软件
文章浏览阅读1.2k次。12.4-在Qt中使用Log4Qt输出Log文件,看这一篇就足够了一、为啥要使用第三方Log库,而不用平台自带的Log库二、Log4j系列库的功能介绍与基本概念三、Log4Qt库的基本介绍四、将Log4qt组装成为一个单独模块五、使用配置文件的方式配置Log4Qt六、使用代码的方式配置Log4Qt七、在Qt工程中引入Log4Qt库模块的方法八、获取示例中的源代码一、为啥要使用第三方Log库,而不用平台自带的Log库首先要说明的是,在平时开发和调试中开发平台自带的“打印输出”已经足够了。但_log4qt
文章浏览阅读786次。全局观思维模型,一个教我们由点到线,由线到面,再由面到体,不断的放大格局去思考问题的思维模型。_计算机中对于全局观的
文章浏览阅读330次。一、CountDownLatch介绍CountDownLatch采用减法计算;是一个同步辅助工具类和CyclicBarrier类功能类似,允许一个或多个线程等待,直到在其他线程中执行的一组操作完成。二、CountDownLatch俩种应用场景: 场景一:所有线程在等待开始信号(startSignal.await()),主流程发出开始信号通知,既执行startSignal.countDown()方法后;所有线程才开始执行;每个线程执行完发出做完信号,既执行do..._countdownluach于cyclicbarrier的用法
文章浏览阅读508次。Prometheus 算是一个全能型选手,原生支持容器监控,当然监控传统应用也不是吃干饭的,所以就是容器和非容器他都支持,所有的监控系统都具备这个流程,_-自动化监控系统prometheus&grafana实战
文章浏览阅读4.7k次。输入关键字,可以通过键盘的搜索按钮完成搜索功能。_react search