万网注册域名查询官方网站营销型网站建设作用

张小明 2025/12/29 16:36:07
万网注册域名查询官方网站,营销型网站建设作用,成都网站建设网站制作,中国现在哪里建设最多好的#xff0c;这是对您提供的博客文章《A Gentle Introduction to LoRA》的全文翻译。 原文链接: https://thinkingmachines.ai/blog/lora/ 原文标题: A Gentle Introduction to LoRA 译文标题: LoRA 简明入门 正文翻译 当我第一次进入大型语言模型#xff08;LLM#xf…好的这是对您提供的博客文章《A Gentle Introduction to LoRA》的全文翻译。原文链接:https://thinkingmachines.ai/blog/lora/原文标题:A Gentle Introduction to LoRA译文标题:LoRA 简明入门正文翻译当我第一次进入大型语言模型LLM的世界时我感到有些不知所措。有太多的模型、技术和论文需要跟上。但最让我困扰的是微调fine-tuning这些庞然大物的成本。我只是一个爱好者没有成千上万的美元可以花在 GPU 上。我如何才能让这些模型适应我自己的用例呢正是在那时我发现了 LoRA这是一种彻底改变了我们微调 LLM 方式的技术。LoRA 使得在消费级硬件上微调 LLM 成为可能从而为爱好者和研究人员打开了一个充满可能性的新世界。它帮助实现了对 AI 的大众化访问。在这篇文章中我们将深入探讨 LoRA 是什么它是如何工作的以及为什么它如此强大。LoRALow-Rank Adaptation of Large Language Models——大型语言模型的低秩自适应。问题所在全量微调的挑战 (The Problem: The Challenge of Full Fine-Tuning)在 LoRA 出现之前微调 LLM 的标准方法是“全量微调”。这意味着要更新模型的所有权重。对于像 GPT-3 这样拥有 1750 亿参数的模型来说这是一个巨大的计算挑战。想象一下你有一个巨大的、已经硬化成形的粘土雕塑。这个雕塑代表了你的预训练 LLM。现在你想要对它做一些小小的改动——也许是给它加上一顶帽子。通过全量微调你必须重塑整个雕塑这是一个既缓慢又昂贵的过程。除了计算成本全量微调还有其他一些缺点灾难性遗忘 (Catastrophic Forgetting):当你微调整个模型时你可能会丢失一些在预训练期间学到的宝贵知识。存储成本:每个微调后的模型都是一个全新的、巨大的文件副本。如果你想为不同的任务微调多个模型存储成本会迅速增加。解决方案参数高效微调 (The Solution: Parameter-Efficient Fine-Tuning - PEFT)为了解决全量微调的这些问题研究人员开始探索“参数高效微调”PEFT方法。PEFT 的核心思想是我们不需要更新所有的模型权重。相反我们可以冻结预训练模型的绝大部分参数只微调一小部分新增的或特定的参数。LoRA 的登场大型语言模型的低秩自适应 (Enter LoRA: Low-Rank Adaptation of Large Language Models)LoRA 是 PEFT 家族中最受欢迎和最有效的技术之一。它由微软的研究人员在论文 LoRA: Low-Rank Adaptation of Large Language Models 中提出。LoRA 的关键思想非常巧妙它并没有直接修改原始模型的权重而是在模型的特定层旁边注入两个更小的、可训练的“低秩”矩阵我们称之为A和B。在微调过程中只有这些新增的矩阵会被更新而原始的、庞大的权重矩阵保持不变。回到我们的雕塑比喻LoRA 就像是在你那座巨大的、已硬化的雕塑上添加一小层可塑造的粘土。你可以在这层新粘土上雕刻你的帽子而无需改动下面的原始雕塑。这不仅更快、更容易而且如果你不喜欢这顶帽子你随时可以把它拿掉恢复到原始的雕塑状态。从技术上讲LoRA 的工作原理基于一个叫做“秩分解”rank decomposition的线性代数概念。其思想是任何大的矩阵都可以被近似为两个或多个更小的矩阵的乘积。在 LoRA 中我们将权重更新ΔW分解为两个低秩矩阵A和B的乘积。因此如果原始权重矩阵是W那么更新后的权重W就是W W ΔW W B * A这里A和B的“秩”rankr是一个远小于原始矩阵维度的超参数。这个r越小我们训练的参数就越少计算效率就越高。LoRA 的工作原理原始的、冻结的权重矩阵W₀与低秩矩阵A和B的乘积相加。只有A和B在训练期间被更新。为什么这能行得通(Why does this work?)LoRA 的有效性背后有一个迷人的假设即大型语言模型具有一个很低的“内在维度”low intrinsic dimension。这意味着即使模型生活在一个拥有数十亿参数的高维空间中但使它适应新任务所需的权重变化实际上可以被一个更小的、低维度的子空间所描述。LoRA 正是利用了这一点。通过只在这些低维子空间中进行优化我们可以在不牺牲太多性能的情况下大幅降低微调的计算成本。在实践中如何使用 LoRA (How do you use LoRA in practice?)多亏了像 Hugging Face 的PEFT库这样的工具在实践中使用 LoRA 变得异常简单。下面是一个如何将 LoRA 应用于mistralai/Mistral-7B-v0.1模型的例子importtorchfromtransformersimportAutoModelForCausalLM,AutoTokenizerfrompeftimportget_peft_model,LoraConfig# 加载基础模型base_modelAutoModelForCausalLM.from_pretrained(mistralai/Mistral-7B-v0.1,device_mapauto,torch_dtypetorch.bfloat16,)# 定义 LoRA 配置configLoraConfig(r32,# LoRA 秩lora_alpha64,# LoRA 缩放因子target_modules[q_proj,v_proj],# 将 LoRA 应用于哪些模块lora_dropout0.05,biasnone,task_typeCAUSAL_LM,)# 应用 LoRApeft_modelget_peft_model(base_model,config)# 打印可训练参数的数量peft_model.print_trainable_parameters()# trainable params: 16,777,216 || all params: 7,258,402,048 || trainable%: 0.2311正如你所看到的我们只训练了总参数的0.23%这是一个巨大的缩减它使得在单个 GPU 上微调大型模型成为可能。对于 LoRA什么最重要 (What matters for LoRA?)LoRA 论文介绍了一系列我们可以调整的超参数hyperparameters。作为参数高效微调Parameter-Efficient Fine-Tuning, PEFT库的一部分Hugging Face 的LoraConfig类公开了这些参数例如r、lora_alpha和target_modules。在本文中我们决定研究哪些参数对模型的性能影响最大。学习率 (Learning Rate)在所有超参数中学习率无疑是最重要的一个。一个好的学习率可以带来平滑的损失曲线而一个差的学习率则可能导致模型性能停滞不前甚至发散即损失值变得非常大。上图我们 LoRA 实验的训练损失。绿色曲线代表一个合适的学习率它使损失能够平滑地下降。红色曲线则代表一个糟糕的学习率它导致了不稳定的训练和最终的损失发散。一个好的经验法则是在全量微调full fine-tuning时学习率通常设置在1e-5到5e-5的范围内。对于 LoRA 微调学习率可以设置得更高一些通常在1e-4到5e-4之间。r参数 (Therparameter)r参数决定了用于微调的低秩矩阵的秩rank。简单来说r控制着可训练参数的数量。r的值越高意味着可训练的参数越多这可能带来更好的性能但代价是训练时间更长并且生成的模型检查点checkpoint文件也更大。相反r的值越低可训练参数越少训练速度更快模型文件也更小但可能会牺牲一些性能。上图不同r值对应的验证损失。正如预期的那样随着r值的增加验证损失validation loss趋于下降。然而当r超过 64 后性能提升的幅度开始减小这表明在某个点之后继续增加r带来的收益会递减。目标模块 (Target Modules)target_modules参数决定了我们将 LoRA 应用于基础模型的哪些模块或层。通常的做法是将 LoRA 应用于注意力机制attention mechanism的层例如query和value投影。选择更多的目标模块通常会带来更好的性能但同样会增加可训练参数的数量。一些实验表明将 LoRA 应用于尽可能多的模块可以获得最佳结果。上图不同目标模块对应的验证损失。可以看出当我们将 LoRA 应用于更多的模块时验证损失往往会降低。例如同时将query、key、value和output层作为目标通常会比仅将query和value层作为目标取得更好的结果。Alpha 参数alpha参数是 LoRA 的缩放因子。权重更新的最终效果由lora_alpha / r决定。通常的做法是将其设置为与r相等或r的两倍例如alpha 2 * r。你可以将alpha视为一个类似于学习率的参数它专门用于调整 LoRA 层的权重。因此如果你发现通过调整学习率无法使模型收敛如上文第一张图所示你也可以尝试调整alpha的值。正如你所看到的有多个超参数可以调整。在这些参数中找到一个好的学习率是最重要的。其次你应该决定将 LoRA 应用于哪些模块target_modules这通常取决于你的性能需求和计算预算之间的权衡。r的值也遵循同样的权衡逻辑。最后alpha参数可以作为调整 LoRA 层权重的额外工具。结论 (Conclusion)LoRA 是一项强大的技术它改变了我们与大型语言模型互动的方式。通过显著降低微调的计算成本LoRA 使得更广泛的受众能够使用和定制这些模型。总结一下 LoRA 的主要优势减少 VRAM 需求:由于我们只训练一小部分参数所需的 GPU 显存大幅减少。更小的检查点:微调后的 LoRA 权重通常只有几百兆字节而不是数十吉字节。更快的训练:训练更少的参数意味着训练过程更快。无灾难性遗忘:由于原始模型权重被冻结模型不会忘记它在预训练中学到的知识。在我们 Thinking Machines Data Science我们已经广泛使用 LoRA 来为我们的客户构建定制的 LLM 解决方案。如果你有兴趣了解更多关于我们如何利用 AI 来解决现实世界问题的信息请随时与我们联系
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

老李网站建设怎样加盟网站建设

在现代网络浏览体验中,我们经常遇到需要完整保存网页内容的情况。无论是精彩的长篇文章、重要的参考资料,还是精美的网页设计,传统截图方式总是让人头疼不已。Full Page Screen Capture作为专为Chrome浏览器设计的扩展工具,彻底解…

张小明 2025/12/28 4:58:47 网站建设

公司用wordpress建站用花钱长鳖春遇网站开发

2024年的年前年后对于互联网人都不是一个太平的时间,互联网大厂的“裁员潮”愈演愈烈。京东裁员横跨多个板块,比例在 10-30%。有赞两轮裁员近七成,腾讯也不例外。虽已春暖花开,大厂却仍“寒冬正至”。 互联网行业迎来寒冬&#xf…

张小明 2025/12/28 7:06:22 网站建设

网站建设文化策划书网站做文件检查

这篇文章介绍了8个大模型相关的实用工具与框架,包括微调代码库、可视化界面Langflow、声纹处理工具3D-Speaker、高性能推理引擎KsanaLLM、零成本搜索训练框架ZeroSearch、音频生成框架ThinkSound、搜索能力提升框架MaskSearch以及推理优化扩展LMCache。这些工具覆盖…

张小明 2025/12/27 17:35:37 网站建设

《高性能网站建设》wordpress文章怎么分页

生成式人工智能的浪潮正引发各领域的颠覆性变革,在学术研究这一知识生产的前沿阵地,其影响尤为显著。文献检索作为科研工作的基石,在AI技术的赋能下各大学术数据库已实现智能化升级。小编特别策划"AI科研导航"系列专题,…

张小明 2025/12/28 5:12:30 网站建设

从事网站类网站建设的做直播的网站

Dify平台的角色性格塑造能力分析 在企业纷纷布局AI智能体的今天,一个现实问题摆在面前:如何让大语言模型不只是“能回答问题”,而是真正“像一个人”那样持续、稳定、有温度地与用户互动?尤其是在客服、教育、心理健康等对人格一致…

张小明 2025/12/28 5:51:41 网站建设

免费黄页营销网站网站首页没有收录

STM32-S354-太阳能时钟定时USB灯光照锂电池电压电量充电电压自动手动升压声光提醒OLED屏阈值按键(无线方式选择) 产品功能描述: 本系统由STM32F103C8T6单片机核心板、OLED屏、(无线蓝牙/无线WIFI/无线视频监控/联网云平台模块-可选)、纽扣电…

张小明 2025/12/27 20:11:14 网站建设