精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
機器學習---吳恩達---Week3(離散問題與邏輯斯蒂回歸)

Logistic?Regression(邏輯斯蒂回歸)

Classification(分類問題)

使用1和0,或者positive和negative表示事件的相對立的兩種可能情況。(這里指二元分類問題)

e.g.

垃圾郵件與非垃圾郵件等

Logistic?Regression?Model(邏輯斯蒂回歸模型)

Sigmoid Function(又Logistic Function)

g(z) = 1/(1 e-z):值的范圍屬于[0,1]

Hypothesis?Output(預測函數)

hθ(x) = g(θTx),? ?g(θTx) = 1/(1 eTx),其中

?Decision?boundary(決策邊界)

?

?

?Cost Function(損失函數)

?J(θ) = (1/m)?Σ1,m(1/2)(hθ(x(i)) - y(i))2

但是上述函數不是凸函數,存在多個極值點,為此我們轉換如下:

即:

?Simplified Cost Function(簡化損失函數)

?

參數優化

Gredient Decent(梯度離散下降)?

?

?參數更新與表達

?

Advanced Optimization

?

?Multu-class Classfication:One vs All

?Regularization(正則化)

?Overfitting & Underfitting(過度擬合與欠擬合)

?相關概念

overfitting--過度擬合--high varience:擬合線與點重合比較好,但是對未來的數據點預測性極差

just right--擬合剛好

underfitting--欠擬合--high bias:擬合不充分

?e.g.

Adressing Overfitting(過度擬合的解決方法)

1.刪除部分特質,可以使用人為選擇或者采用模型選擇算法,這種方法會丟失信息,有時會導致擬合失敗

?2.正則化,降低特征的值或維度,實際表現較好

?Regularization

?Cost Function(含正則化的損失函數)

?Regularized Linear Reguression(正則化的線性回歸)

?損失函數

梯度下降

正規方程

?

?Regularized Logistic Reguression(正則化的邏輯斯蒂回歸)

?損失函數

梯度下降

?

?

來源:http://www.icode9.com/content-4-155451.html
本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
logistic回歸詳解(二):損失函數(cost function)詳解
DL一(ML基礎知識)
Stanford機器學習筆記-3.Bayesian statistics and Regulariz...
邏輯斯諦回歸模型
機器學習之正則化(Regularization)
Coursera公開課筆記: 斯坦福大學機器學習第六課“邏輯回歸(Logistic Regression)”
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 浦城县| 福建省| 明溪县| 湖北省| 鄂尔多斯市| 大连市| 千阳县| 仙居县| 太白县| 宣威市| 古浪县| 峡江县| 新蔡县| 南木林县| 凤台县| 申扎县| 论坛| 迁西县| 开鲁县| 辉南县| 姜堰市| 连云港市| 容城县| 灵寿县| 板桥市| 昌平区| 安新县| 青川县| 五华县| 滨州市| 义乌市| 宜兴市| 宣化县| 璧山县| 清新县| 兴国县| 拜泉县| 容城县| 治县。| 巴中市| 彭泽县|