Profile cover photo
Profile photo
Spell Luo (narutoacm)
63 followers -
a code-farmer who like mathematics and anime
a code-farmer who like mathematics and anime

63 followers
About
Posts

Post has attachment
I've reached level 13 as an #Ingress agent.
Photo
Add a comment...

Post has attachment
I've earned the Trekker medal in #Ingress.
Photo
Add a comment...

久久不能平静。我开始质疑儒家思想了,这个影响中国几千年的思想,根植于几乎每个华夏人的脑海深处,可是凭什么我要受它的束缚?
Add a comment...

Post has shared content
居然没有e^{iπ}+1=0!!!
The greatest equations that changed the world, forever.
Photo
Add a comment...

allen iverson...steve nash...only one left...lebron, i gonna be a real man at your time. #stevenash   #sonofwind  
Add a comment...

Post has attachment
很不错的一个课,这老师上课方式有点搞笑,也会范点错误,但是可以看出数学功底真是很强!基本每个定理都直接推导证明,这点太赞!他还说这个课不会讲太多数学的,听了10多课,基本全是数学哈哈哈。他还有个课叫《统计机器学习》,侧重统计,侧重数学,不注重数学的都已经挺变态了,这个会变态成啥样。。
Add a comment...

Post has shared content
Add a comment...

Post has shared content
wow
Add a comment...

Post has shared content
you are the real mvp!
I'm always confused by distribution assumptions of random variables in many Statistics theorems, so created this diagram to make sense. 
Photo
Add a comment...

bias-var decomposition中,E((y-f^(x))^2)分解为"intrinsic error"加学习到的模型f^偏差加f^的方差。
解释下,这里的期望E是“The expectation ranges over different choices of the training set (x1,y1)...(xn,yn)"。亦即是对不同的样本求方差,而不是里边的x!
这个分解的意思是,有一个算法,给定一组训练数据当作输入,算法能输出一个f^。这个分解代表对某个固定的未知数据x,当给定不同训练数据训练出f^时,这些输出的模型与x的真实输出的平方损失的期望值可以分解为3部分。
再解释下,x是未知的某个”固定的“值。y是这个固定的x的真实的输出值,但它是不固定的!因为y=f(x)+\epsilon,其中f是固定的!但是\epsilon是随机的。(如果没有这个\epsilon,那么分解中就没有"intrinsic error"这一项。)。所以对这个给定的x,f(x)就相当于统计中的"未知的固定的参数"\theta,而算法输出的f^(x)是这个参数的估计\theta^。这个估计的怎么样?统计学里有评价标准,比如无偏啊,一致啊啥的,一个重要的标准叫做MSE,也就是上述那个E咯。所以一定要理解这个E是对什么求期望!
machine learning把统计学的一套整的真的是很难看。。看纯统计学的书真是要比看machine learning的要舒服多了。其实这个分解只是频率学派对overfiting现象的一种理解。
Add a comment...
Wait while more posts are being loaded