bd@atyun.com
對于諸位「MLer」而言,梯度下降這個概念一定不陌生,然而從直觀上來看,梯度下降的復雜性無疑也會讓人「敬而遠之」。本文作者 Suraj Bansal 通過對梯度下降背后的數學原理進行拆解,并配之以簡單的現實案例,以輕松而有趣的口吻帶大家深入了解梯度下降這一在機器學習領域至關重要的方法。
https://www.datadriveninvestor.com/2019/03/03/editors-pick-5-machine-learning-books/
權重向量存在于 x-y 平面中,將對應每個權重的損失函數的梯度與學習率相乘,然后用向量減去二者的乘積。
想象自己站在函數 f 以一定間隔排列的點(x0,y0…)之中。向量?f(x0,y0…)將識別出使 f函數值增加的最快行進方向。有趣的是,梯度矢量?f(x0,yo…)也垂直于函數 f 的輪廓線!
歡迎關注ATYUN官方公眾號
商務合作及內容投稿請聯系郵箱:bd@atyun.com
要發表評論,您必須先登錄。