矩阵微分
http://www.iwenchao.com/mathematics/matrix-differential.html
http://en.wikipedia.org/wiki/Matrix_calculus
http://www.atmos.washington.edu/~dennis/MatrixCalculus.pdf
https://ccrma.stanford.edu/~dattorro/matrixcalc.pdf
http://www2.imm.dtu.dk/pubdb/views/publication_details.php?id=3274 里面的电子书 不错很全面
矩阵微分(Matrix Differential)
矩阵微分(Matrix Differential)也称矩阵求导(Matrix Derivative),在机器学习、图像处理、最优化等领域的公式推导过程中经常用到。本文将对各种形式下的矩阵微分进行详细的推导。
1. 符号说明
d(y )/d(x) 是一个列向量,其中的元素 (i) 为 d(y i)/d(x)
d(y)/d(x ) 是一个列向量,其中的元素 (i) 为 d(y)/d(x i)
d(y T)/d(x ) 是一个矩阵,其中的元素 (i,j) 为 d(y j)/d(x i)
d(Y )/d(x) 是一个矩阵,其中的元素 (i,j) 为 d(Y i,j)/d(x)
d(y)/d(X ) 是一个矩阵,其中的元素 (i,j) 为 d(y)/d(X i,j) 接下来的微分计算中,假定A , B , C 是常矩阵与X 无关,Y , Z 与X 相关。 2. 一次函数的微分(Linear Products)
首先介绍一个重要的性质(类似于函数的求导): d(YZ )/d(x)=Y *d(Z )/d(x)+d(Y )/d(x)*Z ,注意到分母中的x是标量(Scalar)。在微分中分母是向量的情况下,个人经验是:若d(行向量)/d(列向量)或者d(列向量)/d(行向量),则也适合这个公式,如下面的前两个公式。
d(x TA )/d(x ) = A
推导过程:d(x TA )/d(x ) = A *d(x T)/d(x )+x T*d(A )/d(x ) = A *I +0 = A 。若A 为向量a 也适用。
d(Ax )/d(x T) = A 推导过程:d(
Ax
x T
x TA T
x
T
A T
T
A
a TXb
a TX :,1b 1
a TX :,2b 2
a TX :,nb n
X i,j
ab T
a
b
A
B
公式也适用。
d(a TX Tb )/d(X ) = ba T计算过程同上,若
a
b
A
B
注意,有些书上有这些公式:d(x A )/d(x )=A ; d(A x )/d(x )=A T。考虑到x 为列向量,则Ax 也为列向量,列向量对列向量的求导按照《矩阵论》中的公式,结果会是一个列向量而不是公式中的A T。这些特殊的情况就让数学家去钻研吧,应用研究很少遇到。
3. 二次函数的微分(Quadratic Products)
下面的讨论主要针对分子为二次的情况,分母还是向量或者矩阵。分母为高阶的情况较少,典型的例子有Hessian矩阵,在文章最后会介绍。
d(x TAx )/d(x ) = (A +A T)x 在SVM求对偶的过程中有这一步求导。用展开的方式可以很快求得。若
A
x TAx
x
Ax
。
d[(Ax +b )TC (D x+e )]/d(x ) = A TC(Dx+e) + D TC T(Ax+b) 这是该形式最为通用的公式。
d(a TX TXb )/d(X ) = X(ab T+ ba T)
特殊情况:d(a TX TXa )/d(X ) = 2Xaa T
d(a TX TCXb )/d(X ) = C TXab T+ CXba T
d(a TX TCXa )/d(X ) = (C + C T)Xaa T
d(a TX TCXa )/d(X )= 2CXaa T,若C 对称。
d[(Xa+b )TC (Xa+b )]/d(X ) = (C+C T)(Xa+b )a T
4. 矩阵的迹的微分(Trace)
在矩阵的迹tr()中的矩阵必须为方阵。设有N阶矩阵A ,那么矩阵的迹tr(A )就等于A 的特征值的总和,也为A 矩阵的主对角线元素的总和,tr(AB )=tr(BA )。
d(tr(X ))/d(X ) = I
d(tr(X k))/d(X ) =k(X k-1)T
d[tr(A TXB T)]/d(X ) = d[tr(BX TA )]/d(X ) = AB
d[tr(XA T)]/d(X ) = d[tr(A TX )]/d(X ) =d[tr(X TA )]/d(X ) = d[tr(AX T)]/d(X ) = A
d[tr(AXBX T)]/d(X ) =A TXB T + AXB
d[tr(XAX T)]/d(X ) =X (A+A T)
d[tr(X TAX )]/d(X ) =X T(A+A T)
d[tr(AX TX )]/d(X ) =(A+A T)X
d[tr(AXBX )]/d(X ) =A TX TB T + B TX TA T
5. 雅可比矩阵(Jacobian)
雅可比矩阵也可以看做是向量对向量的求导而得到的,如果y =f(x ),则对应的雅可比矩阵J =d(y )/d(x T)。
6. 海森矩阵(Hessian matrix)
如果y =f(x ),则d[d(f)/d(x )]/d(x )是海森矩阵。在最优化中海森矩阵有诸多用途,如求最大值,最小值,鞍点等。
d2(Ax +b )TC (D x+e )/d(X 2)= A TCD + D TC TA
矩阵求导好像读书的时候都没学过,因为讲矩阵的课程上不讲求导,讲求导的课又不提矩阵。如果从事机器学习方面的工作,那就一定会遇到矩阵求导的东西。维基百科上: http://en.wikipedia.org/wiki/Matrix_calculus , 根据Y与X的不同类型(实值,向量,矩阵),给出了具体的求导公式,以及一堆相关的公式,查起来都费劲。
其实在实际的机器学习工作中,最常用到的就是实值函数y对向量X的求导,定义如下(其实就是y对向量X的每一个元素求导):
实值函数对矩阵X求导也类似:
因为机器学习(这里指的是有监督的机器学习)的一般套路是给定输入X,选择一个模型f作为决策函数,由f(X)预测出Y'。而得到f的参数θ(往往是向量),需要定义一个loss函数(一般都是实值函数),描述当前f预测值Y'与实际的Y值的接近程度。模型学习的过程就是求使得 loss函数 L(f(X),Y)最小的参数θ。这是一个最优化问题,实际应用中都是用和梯度相关的最优化方法,如梯度下降,共轭梯度,拟牛顿法等等。
其实只要掌握上面这个公式,就能搞定很多问题了。
为了方便推导,下面列出一些机器学习中常用的求导公式,其中andrew ng那一套用矩阵迹的方法还是挺不错的,矩阵的迹也是实值的,而一个实数的迹等于其本身,实际工作中可以将loss函数转化成迹,然后在求导,可能会简化推导的步骤。
以上只是一些最基本的公式,能够解决一些问题,主要是减少大家对矩阵求导的恐惧感。关于矩阵方面的更多信息可以参考上面的wiki链接以及《Matrix cookbook》(感谢 @王树森 CS 推荐)。 基本公式:
Y = A * X --> DY/DX = A'
Y = X * A --> DY/DX = A
Y = A' * X * B --> DY/DX = A * B'
Y = A' * X' * B --> DY/DX = B * A'
1. 矩阵Y对标量x求导:
相当于每个元素求导数后转置一下,注意M×N矩阵求导后变成N×M了
Y = [y(ij)] --> dY/dx = [dy(ji)/dx]
2. 标量y对列向量X求导:
注意与上面不同,这次括号内是求偏导,不转置,对N×1向量求导后还是N×1向量
y = f(x1,x2,..,xn) --> dy/dX = (Dy/Dx1,Dy/Dx2,..,Dy/Dxn)'
3. 行向量Y'对列向量X求导:
注意1×M向量对N×1向量求导后是N×M矩阵。
将Y的每一列对X求偏导,将各列构成一个矩阵。
重要结论:
dX'/dX = I
d(AX)'/dX = A'
4. 列向量Y对行向量X’求导:
转化为行向量Y’对列向量X的导数,然后转置。
注意M×1向量对1×N向量求导结果为M×N矩阵。
dY/dX' = (dY'/dX)'
5. 向量积对列向量X求导运算法则:
注意与标量求导有点不同。
d(UV')/dX = (dU/dX)V' + U(dV'/dX)
d(U'V)/dX = (dU'/dX)V + (dV'/dX)U'
重要结论:
d(X'A)/dX = (dX'/dX)A + (dA/dX)X' = IA + 0X' = A
d(AX)/dX' = (d(X'A')/dX)' = (A')' = A
d(X'AX)/dX = (dX'/dX)AX + (d(AX)'/dX)X = AX + A'X
6. 矩阵Y对列向量X求导:
将Y对X的每一个分量求偏导,构成一个超向量。
注意该向量的每一个元素都是一个矩阵。
7. 矩阵积对列向量求导法则:
d(uV)/dX = (du/dX)V + u(dV/dX)
d(UV)/dX = (dU/dX)V + U(dV/dX)
重要结论:
d(X'A)/dX = (dX'/dX)A + X'(dA/dX) = IA + X'0 = A
8. 标量y对矩阵X的导数:
类似标量y对列向量X的导数,
把y对每个X的元素求偏导,不用转置。
dy/dX = [ Dy/Dx(ij) ]
重要结论:
y = U'XV = ΣΣu(i)x(ij)v(j) 于是 dy/dX = [u(i)v(j)] = UV'
y = U'X'XU 则 dy/dX = 2XUU'
y = (XU-V)'(XU-V) 则 dy/dX = d(U'X'XU - 2V'XU + V'V)/dX = 2XUU' - 2VU' + 0 = 2(XU-V)U'
9. 矩阵Y对矩阵X的导数:
将Y的每个元素对X求导,然后排在一起形成超级矩阵。
10.乘积的导数
d(f*g)/dx=(df'/dx)g+(dg/dx)f'
结论
d(x'Ax)=(d(x'')/dx)Ax+(d(Ax)/dx)(x'')=Ax+A'x (注意:''是表示两次转置)
比较详细点的如下:
http://lzh21cen.blog.163.com/blog/static/145880136201051113615571/
http://hi.baidu.com/wangwen926/blog/item/eb189bf6b0fb702b720eec94.html
其他参考:
Contents
Notation
Derivatives of Linear Products
Derivatives of Quadratic Products
Notation
d/dx (y ) is a vector whose (i) element is dy(i)/dx
d/dx (y) is a vector whose (i) element is dy/dx(i)
d/dx (y T) is a matrix whose (i,j) element is dy(j)/dx(i)
d/dx (Y ) is a matrix whose (i,j) element is dy(i,j)/dx
d/dX (y) is a matrix whose (i,j) element is dy/dx(i,j)
Note that the Hermitian transpose is not used because complex conjugates are not analytic.
In the expressions below matrices and vectors A , B , C do not depend on X .
Derivatives of Linear Products
d/dx (AYB ) =A * d/dx (Y ) * B
d/dx (x TA ) =A
d/dx (x T) =I
d/dx (x Ta ) = d/dx (a Tx ) = a
d/dX (a TXb ) = ab T
d/dX (a TXa ) = d/dX (a TX Ta ) = aa T
d/dX (a TX Tb ) = ba T
d/dx (YZ ) =Y * d/dx (Z ) + d/dx (Y )* Z
Derivatives of Quadratic Products
d/dx (Ax +b )TC (D x+e ) = A TC(Dx+e) + D TC T(Ax+b)
d/dx (x TCx ) = (C +C T)x
[C: symmetric]: d/dx (x TCx ) = 2Cx
d/dx (x Tx ) = 2x
d/dx (Ax +b )T (D x+e ) = A T(Dx+e) + D T(Ax+b)
d/dx (Ax +b )T (A x+b ) = 2A T(Ax+b)
[C: symmetric]: d/dx (Ax +b )TC (A x+b ) = 2A TC(Ax+b)
d/dX (a TX TXb ) = X(ab T+ ba T)
d/dX (a TX TCXb ) = C TXab T+ CXba T
d/dX (a TX TCXa ) = (C + C T)Xaa T
[C :Symmetric] d/dX (a TX TCXa ) = 2CXaa T
d/dX ((Xa+b) TC(Xa+b) ) = (C+C T)(Xa+b)a T
Derivatives of Cubic Products
d/dx (x TAxx T) = (A+A T)xx T+x TAxI
Derivatives of Inverses
d/dx (Y -1) = -Y -1d/dx (Y )Y -1
Derivative of Trace
Note: matrix dimensions must result in an n*n argument for tr().
d/dX (tr(X) ) = I
d/dX (tr(X k) ) =k(X k-1) T
d/dX (tr(AX k) ) = SUM r=0:k-1(X rAX k-r-1) T
d/dX (tr(AX -1B) ) = -(X -1BAX -1) T
d/dX (tr(AX -1) ) =d/dX (tr(X -1A) ) = -X -TA TX -T
d/dX (tr(A TXB T)) = d/dX (tr(BX TA )) = AB
d/dX (tr(XA T) ) = d/dX (tr(A TX) ) =d/dX (tr(X TA) ) = d/dX (tr(AX T) ) = A
d/dX (tr(AXBX T) ) =A TXB T + AXB
d/dX (tr(XAX T) ) =X(A+A T)
d/dX (tr(X TAX) ) =X T(A+A T)
d/dX (tr(AX TX) ) =(A+A T)X
d/dX (tr(AXBX) ) =A TX TB T + B TX TA T
[C:symmetric] d/dX (tr((X TCX) -1A ) = d/dX (tr(A (X TCX) -1) =-(CX(X TCX) -1)(A+A T)(X TCX) -1
[B,C:symmetric] d/dX (tr((X TCX) -1(X TBX) ) = d/dX (tr( (X TBX)(X TCX) -1) = -2(CX(X TCX) -1)X TBX(X TCX) -1+ 2BX(X TCX) -1
Derivative of Determinant
Note: matrix dimensions must result in an n*n argument for det().
d/dX (det(X) ) = d/dX (det(X T) ) = det(X)*X -T
d/dX (det(AXB) ) = det(AXB)*X -T
d/dX (ln(det(AXB)) ) = X -T
d/dX (det(X k) ) = k*det(X k)*X -T
d/dX (ln(det(X k) )) = kX -T
[Real] d/dX (det(X TCX) ) = det(X TCX)*(C+C T)X(X TCX) -1
[C : Real,Symmetric] d/dX (det(X TCX) ) = 2det(X TCX)* CX(X TCX) -1
[C : Real,Symmetricc] d/dX (ln(det(X TCX)) ) = 2CX(X TCX) -1
Jacobian
If y is a function of x , then dy T/dx is the Jacobian matrix of y with respect to x .
Its determinant, |dy T/dx |, is the Jacobian of y with respect to x and represents the ratio of the hyper-volumes dy and dx . The Jacobian occurs when changing variables in an integration: Integral(f(y )dy )=Integral(f(y (x )) |dy T/dx | dx ).
Hessian matrix
If f is a function of x then the symmetric matrix d2f/dx 2 = d /dx T(df/dx ) is the Hessian matrix of f(x ). A value of x for which df/dx = 0 corresponds to a minimum, maximum or saddle point according to whether the Hessian is positive definite, negative definite or indefinite.
d2/dx 2 (a Tx ) = 0
d2/dx 2 (Ax +b )TC (D x+e ) = A TCD + D TC TA
d2/dx 2 (x TCx ) = C +C T
d2/dx 2 (Ax +b )T (D x+e ) = A TD + D TA
d2/dx 2 (Ax +b )T (A x+b ) = 2A TA
[C: symmetric]: d2/dx 2 (Ax +b )TC (A x+b ) = 2A TCA
http://www.psi.toronto.edu/matrix/calculus.html
http://www.stanford.edu/~dattorro/matrixcalc.pdf
http://www.colorado.edu/engineering/CAS/courses.d/IFEM.d/IFEM.AppD.d/IFEM.AppD.pdf
http://www4.ncsu.edu/~pfackler/MatCalc.pdf
http://center.uvt.nl/staff/magnus/wip12.pdf
复杂矩阵问题求导方法:可以从小到大,从scalar到vector再到matrix。
x is a column vector, A is a matrix
d(A∗x)/dx=AdAxdxA
d(xT∗A)/dxT=AdxTAdxTA
d(xT∗A)/dx=ATdxTAdxAT
d(xT∗A∗x)/dx=xT(AT+A)dxTAxdxxTATA
practice:
运维网声明
1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网 享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com