搜索引擎及门户网站介绍总结旅游网站需求分析

张小明 2025/12/28 20:31:46
搜索引擎及门户网站介绍总结,旅游网站需求分析,福州专业网站建设价格,国内搜索引擎网站简介 文章详细介绍了Transformer架构的工作原理#xff0c;这是当前大语言模型的基础。通过文字接龙的比喻#xff0c;解释了词嵌入、多头自注意力机制和概率计算等核心概念。Transformer通过分析输入文本中各词语之间的关系#xff0c;预测最可能的下一个词语…简介文章详细介绍了Transformer架构的工作原理这是当前大语言模型的基础。通过文字接龙的比喻解释了词嵌入、多头自注意力机制和概率计算等核心概念。Transformer通过分析输入文本中各词语之间的关系预测最可能的下一个词语从而生成连贯内容。理解这一原理有助于掌握AI模型工作机制、解决AI幻觉问题并优化AI项目为学习大模型技术奠定基础。在2017年之前工程师们还在讨论如何让Siri、Alexa这些智能助手更“听得懂人话”。在2017年后一个深度学习架构的提出改变了世界。可以说这个架构的出现改变了AI的格局让AI真正拥有了与人类“自然交流”的能力。这个架构就是**Transformer**2017年由Google Brain团队提出。数年后在Transformer的基础上诞生了一个叫GPTGenerative Process Transformer的模型并通过ChatGPT、Gemini、Claude、Deepseek、Kimi、Qwen……等AI模型和应用广泛传播。Transformer的提出掀开了不可逆转的全球AI竞争的帷幕。无论你是一个开发者还是用户只有理解了Transformer的原理才能理解当前流行的AI模型的工作机制本质才能理解什么是“AI幻觉”为什么AI生成的内容不一定可信以及在工程实践中如何优化你的AI项目。但是我们要面对的是一个机器学习的技术架构要完全理解它谈何容易今天我借助“Transformer Explainer”这个工具用尽量显浅的语言向大家介绍Transformer的工作原理。一、 Transformer基本原理文字接龙游戏如果要用一句话来描述Transformer的工作原理那就是在输出文字的过程中不断重复计算同一个问题“根据前面的文字最有可能的下一个字词是什么呢”没错基于Transformer架构所生成的内容它的特征就是基于前面的文字去预测下一个字词然后再将生成的字词和此前的文字再次组合再预测下一个字词或者标点符号如此往复直至预测出“结束”的标签为止。所谓预测其实就是一个概率游戏。已经被训练过的模型会根据输入的内容计算出所有字词的概率分布然后从中抽取一个字词作为接龙。模型每一次计算概率的时候大概的感觉是这样的我们发现在询问AI同一个问题的时候它回答的内容并非一成不变的。当中的最重要原因就是“概率”问题。AI生成每一个字都是根据概率抽取的也就是说哪怕面对同一个输入内容结果在多次抽取中也可能出现变化。我们回到Transformer的介绍。Transformer主要由三个部分组成词嵌入 Embedding将文字转化为数组使每个字词都变成“可计算”的向量。Transformer转换模块通过“多头自注意力”机制将向量进行组合和计算并通过多层运算逐步修正数据并输出概率分布。概率抽样 Probabilities Sampling根据输出的概率分布数据进行抽样最终确定输出的字词。如果你也想通过学大模型技术去帮助自己升职和加薪可以扫描下方链接​​我们以基于Transformer的文字推理模型GPT-2为例ChatGPT的前身相对简单方便解说现实使用的大模型的工作机制更加复杂。现在我给出以下三个词make America great让模型接下来猜下一个词。熟知时事的我们当然会脱口而出“again”但计算机只会计算。我们知道文字是不能进行直接“计算”的于是计算机模型会把每个词语此处以英语为例有时还会拆分词根转化为一个可以计算的数字。得益于计算机的超强计算能力我们可以把任意词语转化为一个包含很多个“坐标”的数组以表示它在一个高维空间中的位置。这就是“词嵌入”embedding的过程。词嵌入首先模型会将make“America”great三个词语分别拆开把它变成一个个Token。Token是大模型计算的最小的单位一般是一个单词/常用词组英语、西班牙语等或者一个汉字/词组汉语、日语等。此前有人问AI“单词Strawberry里有多少个R”AI基本都答错那是因为对于AI来说“Strawberry”是它处理数据的最小单位而不是拼写它的每个字母。为什么要这么设计呢因为针对单个字母的讨论在大部分的语言环境中都是没有意义的绝大部分的AI的最小处理单元就是一个单词。在词嵌入的过程中每个词语都会被赋予一个特定长度的数组。在以上的GPT-2例子中这个长度就是768。也就是说每个词语都会被转化成一个包含768个数的数组并赋予一个特定的ID。这个映射关系是在使用大规模语言材料训练模型的时候被习得的目的是为了通过计算两个数组在高维空间中的位置远近来表示任意两个单词之间的关系。词语之间越接近说明它们之间一起出现的概率越高。在嵌入向量的同时模型还会对输入的词语进行位置编码以确定他们在一个句子中的正确位置。这两组向量相加形成了一个完整的输入向量进行下一步的多层运算。多头自注意力机制“注意力机制”Attention是Transformer的核心技术特征。它通过计算输入向量之间的特征来判断每个词语在句子中和其他词语的关系以确定每个词语在句子中的含义。在Transformer中每个Token在被重新计算的时候都会被赋予一组“注意力得分”就是这个token与输入的所有token之间分别进行向量点积运算向量点积运算两个向量数组之间对应的位置相乘再求和。点积运算的结果越大说明这两个向量的距离越近——注意力得分便越高。这样我们就得出了每个token相对于句子中的所有token的注意力得分/权重。在实际计算中为了表示概率/权重会将注意力得分进行“归一化”处理以保证所有注意力得分的总和为1。接下来按照权重对原嵌入的向量进行加权求和得出一个新的token向量数组——这个新的token向量“捕捉”到了句子中所有token的注意力。一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】我们把句子中的所有token按照这个方法计算得到每两个token之间的注意力权重。在上述例子中注意力权重未归一化时可表示为→makeAmericagreatmake-4.21-15.23-15.43America-1.85-21.36-18.16great1.54-6.14-13.04表格的读法按行从左到右表示以某个token为中心相对于当前所有token的向量点积。但是这种计算方法有问题我们知道Transformer是一个预测模型因此在捕捉注意力的时候我们不能把在这个token之后出现的token计算在内——否则这个token便相当于“预知”了答案。在训练模型的过程中如果模型“预知”了答案那么它就会选择把注意力权重集中在下一个token作为最优解。所以我们在归一化前要进行“掩码”操作就是把图表中在第一列token之后出现的token的注意力权重都变成近似于0再重新计算点积。→makeAmericagreatmake-0.53//America-0.23-2.67/great0.19-0.77-1.63最后进行归一化softmax计算确保每一行的总和为1→makeAmericagreatmake1//America0.920.08/great0.650.250.10这样我们就完成了一次注意力的捕捉得到的每个注意力参数都分别与原向量进行加权求和最后得到新的向量。Query, Key 和 Value在这里我们可以发现每个token在这个过程中要做三件事发起查询、被查询、被求和。在注意力机制中我们使用Query发起查询即表格第一列、Key键即表格第一行、Value值即原向量数组的值这也就是Transformer的QKV机制。同一个向量被赋予不同职责各司其职。为了让它们负责不同的工作我们对每一个token的原向量分别乘以一个Q/K/V的参数矩阵Q/K/V weights通过大规模数据训练得出得到一式三份新的Q/K/V向量。后续计算过程和前面一致通过Q、K向量组成注意力矩阵、计算向量点积、掩盖未来token、归一化参数。得出注意力参数后与V向量进行加权运算得出对于每个token的新向量完成这一层的计算。深度学习会设置多次重复计算利用不同的QKV参数矩阵来表示不同的任务例如指令**、知识、语法、推理……我们称之为“头”heads对同一个token进行多次运算。**Token经过多层的计算后在这个例子中GPT-2一共有12层再把这12个向量“压缩”成一个新的向量——新的向量和原嵌入向量的长度相等1,768数值不同。概率计算得到新的向量后模型将进入预测阶段目标就是预测出下一个token的出现概率。每一个大语言模型都有一个“词汇表”也就是我们在词嵌入过程中给每个token分配的ID的根据。这个词汇表在GPT-2里有50257个token经过训练被表示为一个参数矩阵。把这个矩阵与新嵌入向量相乘得到一个新的向量——这个过程一般称为“logit”对数几率。这个向量表示输出向量和词汇表里的每一个token的关联度——也就是预测出最有可能与原token在这里例子里是great连接的token。光是向量表示并不容易计算我们为了更直观了解预测概率我们再次通过“归一化”把向量的值表示为0-1的概率并确保所有概率的总和为1。得到这个概率后模型会在候选token中按概率抽取下一个token并输出。在这个例子中通过归一化后模型得出了最有可能出现的词语是again96.31%其次是输出一个句号和双引号1.14%其他的选项都几乎不可能出现。因此在大部分情况下“again”会紧接着“make America great”出现。这就是我们现在使用的生成式AI的工作原理——它并没有高深的魔法也没有原生智能它所有的是数学家、计算机学家们对统计学、概率学、机器学习和深度学习的长期研究和实践。我们现在所谓的“AI玄学”和“抽卡论”其实就是统计学和概率的外在体现。调节概率我们可以通过调节归一化的方式来调节输出的概率。对于AI工程师来说我们主要可以调节三个参数Temperature温度Top_k和Top_p。温度影响归一化后概率的分布。温度越高概率的分布越平整——本来较低概率的选项会有更高概率被抽中。例如我把温度从0.8调成3后后四个选项的概率得到了显著提升这也让我们的输出内容变得更有“创造性”——有更高的机会选到原来低概率的token。但是创造性也是一把双刃剑——AI胡言乱语的几率也更高。以下的参数和候选token的数量有关。Top_k参数规定了从多少个候选token当中抽取例如把top_k调整到10则候选名单从前5个token延展到前10个。Top_p参数指的是从累计概率不高于p值0到1名单中抽取。这两种方法从另一个角度赋予了大模型“创造性”。我认为Transformer技术是每个希望用好AI的用户必须理解的一项基础技术。只有理解了Transformer的原理才能理解在我们应用实践中出现的各种问题例如AI幻觉的产生、提示词的优化、预训练技巧等等。实际上基于Transformer的大模型训练和推理要更加复杂作为初级和中级的学习者并不一定要完全掌握我认为只要理解Transformer的运作机制便足以应对日常的工作任务了。这也是我创作这篇文章的初衷——把复杂的技术资料通过浅白、有趣的方式向大家普及。如何系统的学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】01.大模型风口已至月薪30K的AI岗正在批量诞生2025年大模型应用呈现爆发式增长根据工信部最新数据国内大模型相关岗位缺口达47万初级工程师平均薪资28K数据来源BOSS直聘报告70%企业存在能用模型不会调优的痛点真实案例某二本机械专业学员通过4个月系统学习成功拿到某AI医疗公司大模型优化岗offer薪资直接翻3倍02.大模型 AI 学习和面试资料1️⃣ 提示词工程把ChatGPT从玩具变成生产工具2️⃣ RAG系统让大模型精准输出行业知识3️⃣ 智能体开发用AutoGPT打造24小时数字员工熬了三个大夜整理的《AI进化工具包》送你✔️ 大厂内部LLM落地手册含58个真实案例✔️ 提示词设计模板库覆盖12大应用场景✔️ 私藏学习路径图0基础到项目实战仅需90天第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

做优化网站多少钱如何知道网站用什么程序做的

在移动应用开发中,数据可视化已成为提升用户体验的重要手段。然而,当图表数据量庞大或动画效果复杂时,性能问题往往成为开发者的噩梦。本文将深入探讨如何利用 React Native Reanimated 库优化移动端图表动画性能,帮助开发者打造既…

张小明 2025/12/27 5:40:50 网站建设

天津网站建设托管网站站开发 流量

Kotaemon镜像发布:高性能RAG智能体框架助力企业级AI应用 在金融、医疗和法律等行业,对高精度智能问答系统的需求正以前所未有的速度增长。通用大语言模型虽然能流畅生成文本,但在面对专业领域问题时,常常“自信地胡说八道”——比…

张小明 2025/12/27 5:40:49 网站建设

网站建设中 切片指什么网络营销方式与工具有哪些

Wan2.2-T2V-A14B在消防逃生演练视频中的紧急情境构建 🔥 想象一下:一栋写字楼突然起火,浓烟滚滚,警报拉响——但这场“灾难”其实从未真实发生。它是由一段文字描述自动生成的高清视频,逼真到连逃生人群的脚步节奏、弯…

张小明 2025/12/27 5:40:51 网站建设

建设部或国土资源管理局的网站做本地分类信息网站赚钱吗

一文搞懂工控设备USB转串口驱动安装:从识别到部署的实战指南 在工业自动化现场,你是否曾遇到这样的场景——手握PLC编程电缆、调试HMI面板或读取传感器数据时,电脑却提示“ 找不到串口 ”?设备管理器里赫然显示一个带黄色感叹号…

张小明 2025/12/26 19:53:05 网站建设

新手怎么做自己网站广告做网站 好苦逼

第一章:医疗数据导出的安全挑战与合规要求在数字化转型加速的背景下,医疗机构频繁进行数据导出操作以支持科研分析、系统迁移和第三方协作。然而,医疗数据包含大量敏感信息,如患者身份、诊断记录和基因数据,其导出过程…

张小明 2025/12/27 5:40:50 网站建设

建行移动门户网站首页贵州城乡建设网站

优化措施总览 培训视频压缩 ​ 培训视频,多为PPT讲解的MP4视频,画面长时间静止,变化很慢,即“低动态”特性,本可以进行极限压缩,但目前没有极限压缩,50分钟的视频高达2.2G,理论上可压…

张小明 2025/12/27 5:40:52 网站建设