【转】局部余弦相似度大,全局余弦相似度一定也大吗?

本文转自苏神的博客

在分析模型的参数时,有些情况下我们会将模型的所有参数当成一个整体的向量,有些情况下我们则会将不同的参数拆开来看。比如,一个7B大小的LLAMA模型所拥有的70亿参数量,有时候我们会将它当成“一个70亿维的向量”,有时候我们会按照模型的实现方式将它看成“数百个不同维度的向量”,最极端的情况下,我们也会将它看成是“七十亿个1维向量”。既然有不同的看待方式,那么当我们要算一些统计指标时,也就会有不同的计算方式,即局部计算和全局计算,这引出了局部计算的指标与全局计算的指标有何关联的问题。

本文我们关心两个向量的余弦相似度。如果两个大向量的维度被拆成了若干组,同一组对应的子向量余弦相似度都很大,那么两个大向量的余弦相似度是否一定就大呢?答案是否定的。特别地,这还跟著名的“辛普森悖论”有关。

问题背景

这个问题源于笔者对优化器的参数增量导致的损失函数变化量的分析。具体来说,假设优化器的更新规则是:
\theta_{t+1} = \theta_t - \eta \nabla u_t \tag{1} 其中u_t是某个指定更新方向(的负方向)的向量。此时泰勒展开到一阶有
(\theta_{t+1}) = (\theta_t - \eta\nabla u_t) \approx (\theta_t) - \eta(u_t, g_t) \tag{2} 这里的g_t就是梯度\nabla_{\theta_t}(\theta_t),所以说,损失函数的变化量近似为
-\eta(u_t, g_t) = -\eta ||u_t|| ||g_t|| \cos(u_t, g_t) \tag{3} 所以笔者想到了观察一下u_tg_t的余弦相似度,即更新向量与梯度的方向一致性。

但问题来了,正如本文开头所说,模型的参数有不同的拆分方式,我们是将模型所有参数当成一个大向量来算更新向量与梯度的余弦(全局),还是每一层、每个参数单独来算(局部)?笔者两者都做了,并且对局部余弦做了截断(保证每个参数对应的更新向量与梯度的余弦大于某个正阈值),然后发现全局居然小于该阈值。初见之下感觉比较意外,于是简单分析了一番。

简单分析

现在问题抽象为:

假如两个向量的局部余弦相似度都不小于\lambda>0,那么这两个向量的全局余弦相似度一定不小于λ吗?

答案大家已经知道了,是否定的。否定只需要举一个反例,假设x=(1,1),y=(1,2),很明显x≠y,所以cos(x,y)≠1,但是它们的子向量——也就是每个分量——都是正数,正数作为一维向量,它们的余弦相似度都是1,所以我们就得到了一个局部余弦相似度全是1、全局相似度小于1的反例。

更一般的分析,我们可以设x=[x_1,x_2], y=[y_1,y_2],那么
\begin{align} \cos(x, y) &= \frac{(x, y)}{||x|| \cdot ||y||} = \frac{x_1y_1 + x_2y_2}{\sqrt{x_1^2 + x_2^2} \cdot \sqrt{y_1^2 + y_2^2}} \ &= \frac{\cos(x_1, y_1)||x_1|| \cdot ||y_1|| + \cos(x_2, y_2)||x_2|| \cdot ||y_2||}{\sqrt{x_1^2 + x_2^2} \cdot \sqrt{y_1^2 + y_2^2}} \tag{4} \end{align}

如果让‖x_1‖,‖y_2‖→0,‖x_2‖,‖y_1‖保持大于零不动(不失一般性,可以设‖x_2‖=‖y_1‖=1),那么可以得到cos(x,y)→0,那就是说,不管cos(x_1,y_1)和cos(x_2,y_2)多大,总有一种情况可以让cos(x,y)无限接近于0,即无法通过cos(x_1,y_1)和cos(x_2,y_2)来让cos(x,y)有下界。

至于上界,则可以证明:
cos(x,y)\le max{cos(x_1,y_1),cos(x_2,y_2)} \tag{5} 证明其实也很简单,因为这个界很松。不失一般性假设cos(x_1,y_1)≤cos(x_2,y_2),那么根据式(4)有
\cos(r, y) \leq \frac{||x_1|| \cdot ||y_1|| + ||x_2|| \cdot ||y_2||}{\sqrt{||x_1||^2 + ||x_2||^2} \cdot \sqrt{||y_1||^2 + ||y_2||^2}} \cos(x_2, y_2) \tag{6} 方括号部分,其实正好是二维向量(‖x_1‖,‖x_2‖)和(‖y_1‖,‖y_2‖)的余弦相似度,所以它必然不大于1,于是有cos(x,y)≤cos(x_2,y_2),这就证明了不等式(5)。

(再次强调,以上证明都是在cos(x_1,y_1)≥0,cos(x_2,y_2)≥0的假设下完成的,如果存在小于0的情况,则结论可能需要稍加改动。)

相关悖论

以上结果有什么更现实的对应吗?有,将它放到相关性分析中,就引申出了著名的“辛普森悖论(Simpson’s paradox)”。

我们知道,有个衡量线性相关性的系数叫做“皮尔逊系数(Pearson Coefficient)”,定义为

$$ r = \frac{\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum_{i=1}^{n} (x_i - \bar{x})^2} \cdot \sqrt{\sum_{i=1}^{n} (y_i - \bar{y})^2}} \tag{7} $$

再认真观察一下,如果我们记x=(x_1,x_2,⋯,x_n),y=(y_1,y_2,⋯,y_n),那么上式不就是

$$ r = \cos(x - \bar{x}, y - \bar{y}) \tag{8} $$ 所以,皮尔逊相关系数其实就是数据点减去均值之后的余弦相似度。既然有了余弦相似度,那么上一节的结果就能用过来了,直接结论就是即便两批数据都是明显的线性相关(cos>0),合起来之后也可能是线性无关的(cos→0)

而“辛普森悖论”说的更彻底一些,说的是每一批数据都是正相关,合起来不仅可能是线性无关,还可能是负相关,这是因为相关系数相比单纯的余弦相似度多了个 x, y 参数,可调的自由度更大。几何图像也非常直观,比如下图:

“辛普森悖论”直观图像

“辛普森悖论”直观图像

上图中,蓝色数据完全在同一条直线上,而且斜率为正,所以相关系数为1,红色数据也是如此,它们在自己的批次内都是“完全正线性相关”。但是将数据合起来后,如果非要用一条直线拟合,那么只能是虚线,而且斜率为负,即变成了负相关。这就构成了“辛普森悖论”的一个经典例子。

文章小结

本文简单讨论了高维向量的局部余弦相似度与全局余弦相似度之间的关系,并进一步讨论了与之相关的“辛普森悖论”。

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇