介绍

科技巨头 Meta 于 2023 年 7 月 18 日发布了 LLaMA 2,这是他们最新版本的大型语言模型 (LLM),成为头条新闻。我相信 Llama2 在进一步推动人工智能技术方面取得了巨大飞跃,人们将关注私人领域未来对聊天机器人的微调将超过一般聊天机器人。1

这些尖端模型从 2023 年 1 月到 2023 年 7 月在大量 2 万亿代币上进行了训练,在推理、编码、熟练程度和知识测试等各种基准测试中表现出了卓越的性能。这些模型提供三种不同的选项,参数大小为 7B、13B 和惊人的 70B,可免费用于商业和研究用途(英语)。

为了满足不同的文本生成需求并促进对这些模型的有效微调,Meta 采用了 QLoRA(量化 LLM 的高效微调),这是一种创新且高效的技术。QLoRA 涉及将预训练的 LLM 量化为仅 4 位并合并小型“低阶适配器”。这种突破性的方法允许使用单个 GPU 来微调 LLM,并得到 PEFT 库的支持。

对于我们的模型微调过程,我们将使用配备单个 GPU 的基于云的笔记本,确保平稳高效的操作。 强制性要求 为了有效地对 LLaMA 2 模型进行微调过程,需要满足以下先决条件:

请求访问 LLaMA 2:在下载模型权重和分词器之前,请填写 Meta 的表格以请求访问下一版本的 LLaMA。请记住,使用 LLaMA 2 须遵守 Meta 许可协议,您必须接受该协议。

Hugging Face 帐户:您需要拥有一个 Hugging Face 帐户,该帐户的电子邮件地址与您在 Meta 表单中提供的电子邮件地址相同。

Hugging Face Token:获取 Hugging Face 令牌,这是身份验证所需的。

好文阅读

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: