色婷婷AV无码久久精品,久久天天躁狠狠躁夜夜97,羞羞麻豆国产精品1区2区3区,啪影院免费线观看视频,思思久久er99精品亚洲

常州機(jī)器視覺培訓(xùn)

常州上位機(jī)軟件開發(fā)

常州工業(yè)機(jī)器人編程設(shè)計培訓(xùn)

常州PLC培訓(xùn)

常州PLC

常州PLC編程培訓(xùn)

常州電工培訓(xùn)

常州和訊plc培訓(xùn)中心歡迎您!
當(dāng)前位置:網(wǎng)站首頁 > 新聞中心 新聞中心
機(jī)器學(xué)習(xí)算法常用指標(biāo)總結(jié)-常州上位機(jī)培訓(xùn),常州機(jī)器視覺培訓(xùn)
日期:2024-3-12 16:58:50人氣:  標(biāo)簽:常州上位機(jī)培訓(xùn) 常州機(jī)器視覺培訓(xùn)

機(jī)器學(xué)習(xí)性能評價標(biāo)準(zhǔn)是模型優(yōu)化的前提,在設(shè)計機(jī)器學(xué)習(xí)算法過程中,不同的問題需要用到不同的評價標(biāo)準(zhǔn),本文對機(jī)器學(xué)習(xí)算法常用指標(biāo)進(jìn)行了總結(jié)。


考慮一個二分問題,即將實例分成正類(positive)或負(fù)類(negative)。對一個二分問題來說,會出現(xiàn)四種情況。如果一個實例是正類并且也被 預(yù)測成正類,即為真正類(True positive),如果實例是負(fù)類被預(yù)測成正類,稱之為假正類(False positive)。相應(yīng)地,如果實例是負(fù)類被預(yù)測成負(fù)類,稱之為真負(fù)類(True negative),正類被預(yù)測成負(fù)類則為假負(fù)類(false negative)。


TP:正確肯定的數(shù)目;


FN:漏報,沒有正確找到的匹配的數(shù)目;


FP:誤報,給出的匹配是不正確的;


TN:正確拒絕的非匹配對數(shù);


列聯(lián)表如下表所示,1代表正類,0代表負(fù)類:

7.png

1. TPR、FPR&TNR

從列聯(lián)表引入兩個新名詞。其一是真正類率(true positive rate ,TPR), 計算公式為


TPR = TP / (TP + FN)


刻畫的是分類器所識別出的 正實例占所有正實例的比例。


另外一個是負(fù)正類率(false positive rate, FPR),計算公式為


FPR = FP / (FP + TN)


計算的是分類器錯認(rèn)為正類的負(fù)實例占所有負(fù)實例的比例。


還有一個真負(fù)類率(True Negative Rate,TNR),也稱為specificity,計算公式為


TNR = TN /(FP + TN) = 1 - FPR


2. 精確率Precision、召回率Recall和F1值

精確率(正確率)和召回率是廣泛用于信息檢索和統(tǒng)計學(xué)分類領(lǐng)域的兩個度量值,用來評價結(jié)果的質(zhì)量。其中精度是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率;召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率。


一般來說,Precision就是檢索出來的條目(比如:文檔、網(wǎng)頁等)有多少是準(zhǔn)確的,Recall就是所有準(zhǔn)確的條目有多少被檢索出來了,兩者的定義分別如下:


Precision = 提取出的正確信息條數(shù) /  提取出的信息條數(shù)     


Recall = 提取出的正確信息條數(shù) /  樣本中的信息條數(shù)  


為了能夠評價不同算法的優(yōu)劣,在Precision和Recall的基礎(chǔ)上提出了F1值的概念,來對Precision和Recall進(jìn)行整體評價。F1的定義如下:


F1值  = 正確率 * 召回率 * 2 / (正確率 + 召回率) 


不妨舉這樣一個例子:


某池塘有1400條鯉魚,300只蝦,300只鱉,F(xiàn)在以捕鯉魚為目的。撒一大網(wǎng),逮著了700條鯉魚,200只蝦,100只鱉。那么,這些指標(biāo)分別如下:


正確率 = 700 / (700 + 200 + 100) = 70%


召回率 = 700 / 1400 = 50%


F1值 = 70% * 50% * 2 / (70% + 50%) = 58.3%


不妨看看如果把池子里的所有的鯉魚、蝦和鱉都一網(wǎng)打盡,這些指標(biāo)又有何變化:


正確率 = 1400 / (1400 + 300 + 300) = 70%


召回率 = 1400 / 1400 = 100%


F1值 = 70% * 100% * 2 / (70% + 100%) = 82.35%     


由此可見,正確率是評估捕獲的成果中目標(biāo)成果所占得比例;召回率,顧名思義,就是從關(guān)注領(lǐng)域中,召回目標(biāo)類別的比例;而F值,則是綜合這二者指標(biāo)的評估指標(biāo),用于綜合反映整體的指標(biāo)。


當(dāng)然希望檢索結(jié)果Precision越高越好,同時Recall也越高越好,但事實上這兩者在某些情況下有矛盾的。比如極端情況下,我們只搜索出了一個結(jié)果,且是準(zhǔn)確的,那么Precision就是100%,但是Recall就很低;而如果我們把所有結(jié)果都返回,那么比如Recall是100%,但是Precision就會很低。因此在不同的場合中需要自己判斷希望Precision比較高或是Recall比較高。如果是做實驗研究,可以繪制Precision-Recall曲線來幫助分析。


3. 綜合評價指標(biāo)F-measure

recision和Recall指標(biāo)有時候會出現(xiàn)的矛盾的情況,這樣就需要綜合考慮他們,最常見的方法就是F-Measure(又稱為F-Score)。


F-Measure是Precision和Recall加權(quán)調(diào)和平均:

8.png

當(dāng)參數(shù)α=1時,就是最常見的F1。因此,F(xiàn)1綜合了P和R的結(jié)果,當(dāng)F1較高時則能說明試驗方法比較有效。


4. ROC曲線和AUC

4.1 為什么引入ROC曲線?

Motivation1:在一個二分類模型中,對于所得到的連續(xù)結(jié)果,假設(shè)已確定一個閥值,比如說 0.6,大于這個值的實例劃歸為正類,小于這個值則劃到負(fù)類中。如果減小閥值,減到0.5,固然能識別出更多的正類,也就是提高了識別出的正例占所有正例 的比類,即TPR,但同時也將更多的負(fù)實例當(dāng)作了正實例,即提高了FPR。為了形象化這一變化,引入ROC,ROC曲線可以用于評價一個分類器。


Motivation2:在類不平衡的情況下,如正樣本90個,負(fù)樣本10個,直接把所有樣本分類為正樣本,得到識別率為90%。但這顯然是沒有意義的。單純根據(jù)Precision和Recall來衡量算法的優(yōu)劣已經(jīng)不能表征這種病態(tài)問題。


4.2 什么是ROC曲線?

ROC(Receiver Operating Characteristic)翻譯為"接受者操作特性曲線"。曲線由兩個變量1-specificity 和 Sensitivity繪制. 1-specificity=FPR,即負(fù)正類率。Sensitivity即是真正類率,TPR(True positive rate),反映了正類覆蓋程度。這個組合以1-specificity對sensitivity,即是以代價(costs)對收益(benefits)。


此外,ROC曲線還可以用來計算“均值平均精度”(mean average precision),這是當(dāng)你通過改變閾值來選擇最好的結(jié)果時所得到的平均精度(PPV)。


為了更好地理解ROC曲線,我們使用具體的實例來說明:


如在醫(yī)學(xué)診斷中,判斷有病的樣本。那么盡量把有病的揪出來是主要任務(wù),也就是第一個指標(biāo)TPR,要越高越好。而把沒病的樣本誤診為有病的,也就是第二個指標(biāo)FPR,要越低越好。


不難發(fā)現(xiàn),這兩個指標(biāo)之間是相互制約的。如果某個醫(yī)生對于有病的癥狀比較敏感,稍微的小癥狀都判斷為有病,那么他的第一個指標(biāo)應(yīng)該會很高,但是第二個指標(biāo)也就相應(yīng)地變高。最極端的情況下,他把所有的樣本都看做有病,那么第一個指標(biāo)達(dá)到1,第二個指標(biāo)也為1。


我們以FPR為橫軸,TPR為縱軸,得到如下ROC空間。

9.png

我們可以看出,左上角的點(TPR=1,FPR=0),為完美分類,也就是這個醫(yī)生醫(yī)術(shù)高明,診斷全對。點A(TPR>FPR),醫(yī)生A的判斷大體是正確的。中線上的點B(TPR=FPR),也就是醫(yī)生B全都是蒙的,蒙對一半,蒙錯一半;下半平面的點C(TPR<FPR),這個醫(yī)生說你有病,那么你很可能沒有病,醫(yī)生C的話我們要反著聽,為真庸醫(yī)。上圖中一個閾值,得到一個點,F(xiàn)在我們需要一個獨立于閾值的評價指標(biāo)來衡量這個醫(yī)生的醫(yī)術(shù)如何,也就是遍歷所有的閾值,得到ROC曲線。


還是一開始的那幅圖,假設(shè)如下就是某個醫(yī)生的診斷統(tǒng)計圖,直線代表閾值。我們遍歷所有的閾值,能夠在ROC平面上得到如下的ROC曲線。

10.png

曲線距離左上角越近,證明分類器效果越好。

11.png

如上,是三條ROC曲線,在0.23處取一條直線。那么,在同樣的低FPR=0.23的情況下,紅色分類器得到更高的PTR。也就表明,ROC越往上,分類器效果越好。我們用一個標(biāo)量值A(chǔ)UC來量化它。




4.3 什么是AUC?

AUC值為ROC曲線所覆蓋的區(qū)域面積,顯然,AUC越大,分類器分類效果越好。

AUC = 1,是完美分類器,采用這個預(yù)測模型時,不管設(shè)定什么閾值都能得出完美預(yù)測。絕大多數(shù)預(yù)測的場合,不存在完美分類器。

0.5 < AUC < 1,優(yōu)于隨機(jī)猜測。這個分類器(模型)妥善設(shè)定閾值的話,能有預(yù)測價值。

AUC = 0.5,跟隨機(jī)猜測一樣(例:丟銅板),模型沒有預(yù)測價值。

AUC < 0.5,比隨機(jī)猜測還差;但只要總是反預(yù)測而行,就優(yōu)于隨機(jī)猜測。

AUC的物理意義:假設(shè)分類器的輸出是樣本屬于正類的socre(置信度),則AUC的物理意義為,任取一對(正、負(fù))樣本,正樣本的score大于負(fù)樣本的score的概率。


4.4 怎樣計算AUC?

第一種方法:AUC為ROC曲線下的面積,那我們直接計算面積可得。面積為一個個小的梯形面積之和。計算的精度與閾值的精度有關(guān)。

第二種方法:根據(jù)AUC的物理意義,我們計算正樣本score大于負(fù)樣本的score的概率。取N*M(N為正樣本數(shù),M為負(fù)樣本數(shù))個二元組,比較score,最后得到AUC。時間復(fù)雜度為O(N*M)。

第三種方法:與第二種方法相似,直接計算正樣本score大于負(fù)樣本的概率。我們首先把所有樣本按照score排序,依次用rank表示他們,如最大score的樣本,rank=n(n=N+M),其次為n-1。那么對于正樣本中rank最大的樣本,rank_max,有M-1個其他正樣本比他score小,那么就有(rank_max-1)-(M-1)個負(fù)樣本比他score小。其次為(rank_second-1)-(M-2)。最后我們得到正樣本大于負(fù)樣本的概率為

12.png

時間復(fù)雜度為O(N+M)。

本文網(wǎng)址:
下一篇:沒有資料

相關(guān)信息:
版權(quán)所有 CopyRight 2006-2017 江蘇和訊自動化設(shè)備有限公司 常州自動化培訓(xùn)中心 電話:0519-85602926 地址:常州市新北區(qū)府琛商務(wù)廣場2號樓1409室
蘇ICP備14016686號-2 技術(shù)支持:常州山水網(wǎng)絡(luò)
本站關(guān)鍵詞:常州PLC培訓(xùn) 常州PLC編程培訓(xùn) 常州PLC編程 常州PLC培訓(xùn)班 網(wǎng)站地圖 網(wǎng)站標(biāo)簽
在線與我們?nèi)〉寐?lián)系
色婷婷AV无码久久精品,久久天天躁狠狠躁夜夜97,羞羞麻豆国产精品1区2区3区,啪影院免费线观看视频,思思久久er99精品亚洲