Publications-Theses

Article View/Open

Publication Export

Google ScholarTM

NCCU Library

Citation Infomation

Related Publications in TAIR

題名 遞迴支持向量迴歸資料縮減法
Recursive SVR data reduction
作者 江政舉
貢獻者 薛慧敏
江政舉
關鍵詞 支持向量機
支持向量迴歸
資料縮減
日期 2009
上傳時間 9-May-2016 15:11:26 (UTC+8)
摘要 近年來,支持向量機(SVM, Support Vector Machine)及支持向量迴歸(SVR, Support Vector Regression)已被廣泛的應用在分類及預測上的問題,然而實務上常見資料過於龐大,而導致需要較長的計算時間及較高的計算成本。為了解決這樣的問題,Zhang等人(2006)及Chen, Wang與Cao(2008)發展兩種類型的資料縮減方法。前者為減少變數數量的遞迴支持向量機(RSVM, Recursive Support Vector Machine),藉由交叉驗證以及定義所謂的貢獻因子來找出重要的變數,而考慮僅利用重要的變數做分類。後者的方法稱為DSKR(Direct Sparse Kernel Regression),考慮在支持向量迴歸中,僅選取部份支持向量個數做預測,以達到資料縮減效果。本研究將遞迴支持向量機的方法延伸至支持向量迴歸上,此法稱為遞迴支持向量迴歸(RSVR, Recursive Support Vector Regression),藉由交叉驗證以及依據決策函數來定義各變數的貢獻因子,藉此選取出重要的變數,並且保留這些重要變數來做後續分析與預測。本研究將此方法應用於兩組實際的化學資料:Triazines及Pyrim,我們發現資料被大幅縮減,僅有六分之一至五分之一的變數被保留。而資料縮減後的預測效果,與利用整組原始資料來進行支持向量迴歸的結果相近,但較DSKR的結果差。
     
     關鍵字:支持向量機,支持向量迴歸,資料縮減
參考文獻 一、 中文文獻
     
     1. 呂奇傑,李天行,高人龍,黃敏菁(2009),「支援向量機及支援向量迴歸於財務時間序列預測之應用」。
     
     二、 英文文獻
     
     1. Chen, X. F. , Wang, S. T., Cao, S.Q(2008)“DSKR: Building Sparse Kernel
     Regression Directly ”,Journal of Applied Sciences, 8, 3407-3414.
     2. Vapnik, V. (1995) The Nature of Statistical Learning Theory, Springer, NY.
     3. Vapnik, V. (1998) Statistical Learning Theory, John Wiley and Sons, NY.
     4. Ross D. K, UCI Machine Learning Repository,
     http://www.ics.uci.edu/~mlearn/MLRepository.html . Irvine , CA: University of California, School of Information and Computer Science.
     5. Smola, A. J. and Schölkopf, B.(2004) “A Tutorial on Support Vector Regression” Statistics and Computing, 14, 199-204.
     6. Smola, A. J., Schölkopf, B. and Williamson, R. C.(2008) “New Support Vector Algorithms,” Neural Computation, 12, 1207-1245.
     7. Wikipedia, Mercer`s theorem, http://en.wikipedia.org/wiki/Mercer`s_theorem (as of June 21, 2009) .
     8. Wu, M., Schölkopf, B. and Gökhan, B. (2006)“A Direct Method for Building Sparse Kernel Learning Algorithms”, Journal of Machine Learning Research, 7 603–624
     9. Zhang, X. G. , Lu, X., Shi, Q., Xu, X. Q., Leung, H.C. , Harris, L. N. , Iglehart, J. D., Miron, A., Liu, J. S. and Wong, W. H.(2006)”Recursive SVM Feature Selection and Sample Classification for Mass-Spectrometry and Microarray Data”, BMC Bioinformatics, 7:197.
描述 碩士
國立政治大學
統計學系
96354014
資料來源 http://thesis.lib.nccu.edu.tw/record/#G0096354014
資料類型 thesis
dc.contributor.advisor 薛慧敏zh_TW
dc.contributor.author (Authors) 江政舉zh_TW
dc.creator (作者) 江政舉zh_TW
dc.date (日期) 2009en_US
dc.date.accessioned 9-May-2016 15:11:26 (UTC+8)-
dc.date.available 9-May-2016 15:11:26 (UTC+8)-
dc.date.issued (上傳時間) 9-May-2016 15:11:26 (UTC+8)-
dc.identifier (Other Identifiers) G0096354014en_US
dc.identifier.uri (URI) http://nccur.lib.nccu.edu.tw/handle/140.119/95119-
dc.description (描述) 碩士zh_TW
dc.description (描述) 國立政治大學zh_TW
dc.description (描述) 統計學系zh_TW
dc.description (描述) 96354014zh_TW
dc.description.abstract (摘要) 近年來,支持向量機(SVM, Support Vector Machine)及支持向量迴歸(SVR, Support Vector Regression)已被廣泛的應用在分類及預測上的問題,然而實務上常見資料過於龐大,而導致需要較長的計算時間及較高的計算成本。為了解決這樣的問題,Zhang等人(2006)及Chen, Wang與Cao(2008)發展兩種類型的資料縮減方法。前者為減少變數數量的遞迴支持向量機(RSVM, Recursive Support Vector Machine),藉由交叉驗證以及定義所謂的貢獻因子來找出重要的變數,而考慮僅利用重要的變數做分類。後者的方法稱為DSKR(Direct Sparse Kernel Regression),考慮在支持向量迴歸中,僅選取部份支持向量個數做預測,以達到資料縮減效果。本研究將遞迴支持向量機的方法延伸至支持向量迴歸上,此法稱為遞迴支持向量迴歸(RSVR, Recursive Support Vector Regression),藉由交叉驗證以及依據決策函數來定義各變數的貢獻因子,藉此選取出重要的變數,並且保留這些重要變數來做後續分析與預測。本研究將此方法應用於兩組實際的化學資料:Triazines及Pyrim,我們發現資料被大幅縮減,僅有六分之一至五分之一的變數被保留。而資料縮減後的預測效果,與利用整組原始資料來進行支持向量迴歸的結果相近,但較DSKR的結果差。
     
     關鍵字:支持向量機,支持向量迴歸,資料縮減
zh_TW
dc.description.tableofcontents 第壹章 緒論 6
     第一節 研究背景 6
     第二節 研究動機 6
     第三節 研究目的 7
     第四節 研究流程 7
     第貳章 支持向量迴歸及文獻探討 8
     第一節 支持向量機的介紹 8
     第二節 支持向量迴歸(SVR)介紹 12
     第三節 資料縮減問題討論及文獻探討 15
     第參章 研究方法:R-SVR 19
     第肆章 實際資料分析 23
     第一節 實際資料的介紹及說明 23
     第二節 Triazines資料分析 24
     第三節 Pyrim資料分析 27
     第四節 結論 30
     第伍章 結論與建議 31
     參考文獻 33
     附錄A.1 RSVM推導 34
     附錄A.2.1 Triazines下50次RSVR所得的結果 35
     附錄A.2.2 Pyrim下50次RSVR所得的結果 40
     附錄A.3.1 Triazines樣本直方圖 43
     附錄A.3.2 pyrim樣本直方圖 58
zh_TW
dc.source.uri (資料來源) http://thesis.lib.nccu.edu.tw/record/#G0096354014en_US
dc.subject (關鍵詞) 支持向量機zh_TW
dc.subject (關鍵詞) 支持向量迴歸zh_TW
dc.subject (關鍵詞) 資料縮減zh_TW
dc.title (題名) 遞迴支持向量迴歸資料縮減法zh_TW
dc.title (題名) Recursive SVR data reductionen_US
dc.type (資料類型) thesisen_US
dc.relation.reference (參考文獻) 一、 中文文獻
     
     1. 呂奇傑,李天行,高人龍,黃敏菁(2009),「支援向量機及支援向量迴歸於財務時間序列預測之應用」。
     
     二、 英文文獻
     
     1. Chen, X. F. , Wang, S. T., Cao, S.Q(2008)“DSKR: Building Sparse Kernel
     Regression Directly ”,Journal of Applied Sciences, 8, 3407-3414.
     2. Vapnik, V. (1995) The Nature of Statistical Learning Theory, Springer, NY.
     3. Vapnik, V. (1998) Statistical Learning Theory, John Wiley and Sons, NY.
     4. Ross D. K, UCI Machine Learning Repository,
     http://www.ics.uci.edu/~mlearn/MLRepository.html . Irvine , CA: University of California, School of Information and Computer Science.
     5. Smola, A. J. and Schölkopf, B.(2004) “A Tutorial on Support Vector Regression” Statistics and Computing, 14, 199-204.
     6. Smola, A. J., Schölkopf, B. and Williamson, R. C.(2008) “New Support Vector Algorithms,” Neural Computation, 12, 1207-1245.
     7. Wikipedia, Mercer`s theorem, http://en.wikipedia.org/wiki/Mercer`s_theorem (as of June 21, 2009) .
     8. Wu, M., Schölkopf, B. and Gökhan, B. (2006)“A Direct Method for Building Sparse Kernel Learning Algorithms”, Journal of Machine Learning Research, 7 603–624
     9. Zhang, X. G. , Lu, X., Shi, Q., Xu, X. Q., Leung, H.C. , Harris, L. N. , Iglehart, J. D., Miron, A., Liu, J. S. and Wong, W. H.(2006)”Recursive SVM Feature Selection and Sample Classification for Mass-Spectrometry and Microarray Data”, BMC Bioinformatics, 7:197.
zh_TW