Արժեքի ֆունկցիան մեքենայական ուսուցման լոգիստիկ ռեգրեսիայում


<h2>Ներածություն <p>Լոգիստիկ ռեգրեսիան մեքենայական ուսուցման դասակարգման բոլոր ալգորիթմներից ամենապարզն է: Լոգիստիկ ռեգրեսիան կորստի ֆունկցիայի համար օգտագործում է լոգարիթմական կորուստ կամ խաչաձև էնտրոպիայի կորուստ՝ միջին քառակուսի սխալի փոխարեն: Քանի որ մենք արդեն ունենք գծային ռեգրեսիա, ինչո՞ւ է մեզ անհրաժեշտ լոգիստիկ ռեգրեսիան դասակարգման համար, և ինչու՞ չենք կարող օգտագործել գծային ռեգրեսիան դասակարգման համար:

Եկեք հասկանանք այս փաստը այս հոդվածի միջոցով և մանրամասն ուսումնասիրենք լոգիստիկ ռեգրեսիայում օգտագործվող ծախսերի գործառույթը:

Ինչու՞ մեզ պետք է լոգիստիկ ռեգրեսիա և չենք կարող օգտագործել գծային ռեգրեսիան:

Գծային ռեգրեսիայում մենք կանխատեսում ենք շարունակական արժեք: Եթե մենք համապատասխանեցնում ենք Գծային ռեգրեսիան դասակարգման առաջադրանքին, լավագույն համապատասխանության գիծը նման կլինի ստորև ներկայացված գծապատկերին:

Ըստ վերը նշված գրաֆիկի՝ մենք կունենայինք 1-ից մեծ և 0-ից փոքր արժեքներ, բայց դա իմաստ չունի դասակարգման համար, քանի որ մեզ հետաքրքրում է միայն երկուական ելքը 0 կամ 1:

Այսպիսով, մեզ անհրաժեշտ է, որ արժեքներ լինեն Y=0 և Y=1 տողերի միջև: Վերոնշյալ տողը պետք է փոխակերպվի այնպես, որ արժեքները լինեն 0-ի և 1-ի սահմաններում: Նման փոխակերպումներից մեկը սիգմոիդ ֆունկցիայի կիրառումն է, ինչպես ցույց է տրված ստորև:

$$\mathrm{K=MX+c}$$

$$\mathrm{Y=F(K)}$$

$$\mathrm{F(K)=\frac{1}{1+e^{−Z}}}$$

$$\mathrm{Y=\frac{1}{1+e^{−Z}}}$$

Գրաֆիկը այժմ դուր կգա, ինչպես ցույց է տրված ստորև

Սիգմոիդ ֆունկցիան տալիս է շարունակական արժեքներ 0-ի և 1-ի միջև, որոնք հավանականության արժեքներ են:

Լոգիստիկ ռեգրեսիայի համար գրանցամատյանի կորուստ և ծախսերի գործառույթ

Հավանականությունների օգտագործմամբ դասակարգման մոդելները գնահատելու հանրաճանաչ չափորոշիչներից մեկը մատյան կորուստն է:

$$\mathrm{F=−\sum_{i=1}^M\:y_{i}\log(p_{\theta}(x_{i}))+(1−y_{i})\log( 1−p_{\theta}(x_{i}))}$$

Արժեքի ֆունկցիան կարելի է գրել այսպես

$$\mathrm{F(\theta)=\frac{1}{n}\sum_{i=1}^n\frac{1}{2}[p_{\theta}(x^{i})- Y^{i}]^{2}}$$

Լոգիստիկ ռեգրեսիայի համար,

$$\mathrm{p_{\theta}(x)=g(\theta^{T}x)}$$

Վերոնշյալ հավասարումը հանգեցնում է ոչ ուռուցիկ ֆունկցիայի, որը գործում է որպես ծախսերի ֆունկցիա: Ծախսերի ֆունկցիայի լոգիստիկ ռեգրեսիան լոգիստիկ կորուստ է և ամփոփված է ստորև:

$$\mathrm{cost(p_{\theta}(x),(y))=\left(\begin{array}{c}{−\log(p_{\theta}(x))\:if\ :y=1}\ {−\log(1−p_{\theta}(x))\:if\:y=0}\end{array}\right)}$$

Գրադիենտ ծագման թարմացման հավասարումը դառնում է,

$$\mathrm{\theta_{k}:=\theta_{k}−\alpha \sum_{i=1}^n[p_{\theta}(x^{i})−y^{i}]x_j ^ի}$$

Եզրակացություն

Լոգիստիկ ռեգրեսիան դասակարգման ամենահիմնական ալգորիթմն է: Այն օգտագործում է լոգարիան կորուստը կամ խաչաձև էնտրոպիայի կորուստը որպես ծախսերի ֆունկցիա, որը ձգտում է կանխատեսել արդյունքի հավանականությունները 0-ից 1-ի միջև: