Transformer中的位置编码(Positional Encoding)

news/2024/10/19 13:18:13

Transformer中的位置编码(Positional Encoding)

标准位置编码

原理上Transformer是无法隐式学到序列的位置信息的,为了可以处理序列问题,Transformer提出者的解决方案是使用位置编码(Position Encode/Embedding,PE)[1][2] . 大致的处理方法是使用sin和cos函数交替来创建位置编码PE, 计算公式如下:

\[PE_{t,2i}=\sin(t/10000^{2i/d}),\\PE_{t,2i+1}=\cos(t/10000^{2i/d}), \]

在这个公式中, \(t\) 表示的是token的位置, \(i\) 表示的是位置编码的维度

他的最终可视化效果长这样

img

位置编码的作用, 就简而言之就是将每个位置编号,从而每个编号对应一个向量,最终通过结合位置向量和词向量,作为输入embedding,就给每个词都引入了一定的位置信息,这样Attention就可以分辨出不同位置的词了[3],这篇文章[3:1]有标准位置编码的具体实现.

旋转位置编码(RoPE)


reference


  1. [1706.03762] Attention Is All You Need (arxiv.org) ↩︎

  2. Transformer改进之相对位置编码(RPE) - 知乎 (zhihu.com) ↩︎

  3. 一文通透位置编码:从标准位置编码、旋转位置编码RoPE到ALiBi、LLaMA 2 Long(含NTK-aware简介)-CSDN博客 ↩︎ ↩︎

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.ryyt.cn/news/73420.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈,一经查实,立即删除!

相关文章

虚拟歌姬列传

前言:纵观歌姬历史,初为Vocaloid一匡天下,然今群雄竞起,UTAU,SV群英荟萃,大有百花齐放之态也,今当尽绵薄之力,浅修其史,以说心也 啊啊啊 初音ミク重音テト(SV)重音テト(UTAU)(v)FlowerGUMI镜音レン,镜音リン巡音ルカ可不(KAFU)歌爱雪IAVY1MEIKOKAITO花隈千冬

virtualBox环境Ubuntu升级后太卡,转debian很丝滑

之前一直在virtualBox中用Ubuntu折腾开发环境,前段时间升级到24后,感觉好卡 什么都不做资源就用完了转到更稳定的上游Debian 稳的一批

sicp每日一题[2.49]

Exercise 2.49Use segments->painter to define the following primitive painters:a. The painter that draws the outline of the designated frame. b. The painter that draws an “X” by connecting opposite corners of the frame. c. The painter that draws a diam…

数据采集与融合技术实验课程作业二

数据采集与融合技术实验课程作业二作业所属课程 https://edu.cnblogs.com/campus/fzu/2024DataCollectionandFusiontechnology作业链接 https://edu.cnblogs.com/campus/fzu/2024DataCollectionandFusiontechnology/homework/13285gitee码云代码位置 https://gitee.com/wang-qi…

spark sql语句性能优化及执行计划

一、优化点:1、not in 替换为 not exist;2、in 替换为 right join;3、distinct 替换为 group by;4、count(distinct) 替换为 count;5、where条件中,等号左右两边的数据类型需要一致;6、where条件中,等号左边不要有函数;7、where条件上移;8、优化点需要对照执行计划,并…

GDPC-CSA::CTF一轮web题目write up-T2 ez http

首先来看题目先不鸟提示,进去页面逛逛,F12一下,看到如下内容回头来看提示,robots.txt是网页用来告知爬虫允许和禁止访问文件的君子协议,由题我们决定先打开/robots.txt查看一下爬虫被禁止访问哪些文件,其中说不定会有线索 如果对robots.txt还不了解的可以看看这里 在网站…