Publications-Theses
Article View/Open
Publication Export
-
Google ScholarTM
NCCU Library
Citation Infomation
Related Publications in TAIR
題名 遞迴支持向量迴歸資料縮減法
Recursive SVR data reduction作者 江政舉 貢獻者 薛慧敏
江政舉關鍵詞 支持向量機
支持向量迴歸
資料縮減日期 2009 上傳時間 9-May-2016 15:11:26 (UTC+8) 摘要 近年來,支持向量機(SVM, Support Vector Machine)及支持向量迴歸(SVR, Support Vector Regression)已被廣泛的應用在分類及預測上的問題,然而實務上常見資料過於龐大,而導致需要較長的計算時間及較高的計算成本。為了解決這樣的問題,Zhang等人(2006)及Chen, Wang與Cao(2008)發展兩種類型的資料縮減方法。前者為減少變數數量的遞迴支持向量機(RSVM, Recursive Support Vector Machine),藉由交叉驗證以及定義所謂的貢獻因子來找出重要的變數,而考慮僅利用重要的變數做分類。後者的方法稱為DSKR(Direct Sparse Kernel Regression),考慮在支持向量迴歸中,僅選取部份支持向量個數做預測,以達到資料縮減效果。本研究將遞迴支持向量機的方法延伸至支持向量迴歸上,此法稱為遞迴支持向量迴歸(RSVR, Recursive Support Vector Regression),藉由交叉驗證以及依據決策函數來定義各變數的貢獻因子,藉此選取出重要的變數,並且保留這些重要變數來做後續分析與預測。本研究將此方法應用於兩組實際的化學資料:Triazines及Pyrim,我們發現資料被大幅縮減,僅有六分之一至五分之一的變數被保留。而資料縮減後的預測效果,與利用整組原始資料來進行支持向量迴歸的結果相近,但較DSKR的結果差。 關鍵字:支持向量機,支持向量迴歸,資料縮減 參考文獻 一、 中文文獻 1. 呂奇傑,李天行,高人龍,黃敏菁(2009),「支援向量機及支援向量迴歸於財務時間序列預測之應用」。 二、 英文文獻 1. Chen, X. F. , Wang, S. T., Cao, S.Q(2008)“DSKR: Building Sparse Kernel Regression Directly ”,Journal of Applied Sciences, 8, 3407-3414. 2. Vapnik, V. (1995) The Nature of Statistical Learning Theory, Springer, NY. 3. Vapnik, V. (1998) Statistical Learning Theory, John Wiley and Sons, NY. 4. Ross D. K, UCI Machine Learning Repository, http://www.ics.uci.edu/~mlearn/MLRepository.html . Irvine , CA: University of California, School of Information and Computer Science. 5. Smola, A. J. and Schölkopf, B.(2004) “A Tutorial on Support Vector Regression” Statistics and Computing, 14, 199-204. 6. Smola, A. J., Schölkopf, B. and Williamson, R. C.(2008) “New Support Vector Algorithms,” Neural Computation, 12, 1207-1245. 7. Wikipedia, Mercer`s theorem, http://en.wikipedia.org/wiki/Mercer`s_theorem (as of June 21, 2009) . 8. Wu, M., Schölkopf, B. and Gökhan, B. (2006)“A Direct Method for Building Sparse Kernel Learning Algorithms”, Journal of Machine Learning Research, 7 603–624 9. Zhang, X. G. , Lu, X., Shi, Q., Xu, X. Q., Leung, H.C. , Harris, L. N. , Iglehart, J. D., Miron, A., Liu, J. S. and Wong, W. H.(2006)”Recursive SVM Feature Selection and Sample Classification for Mass-Spectrometry and Microarray Data”, BMC Bioinformatics, 7:197. 描述 碩士
國立政治大學
統計學系
96354014資料來源 http://thesis.lib.nccu.edu.tw/record/#G0096354014 資料類型 thesis dc.contributor.advisor 薛慧敏 zh_TW dc.contributor.author (Authors) 江政舉 zh_TW dc.creator (作者) 江政舉 zh_TW dc.date (日期) 2009 en_US dc.date.accessioned 9-May-2016 15:11:26 (UTC+8) - dc.date.available 9-May-2016 15:11:26 (UTC+8) - dc.date.issued (上傳時間) 9-May-2016 15:11:26 (UTC+8) - dc.identifier (Other Identifiers) G0096354014 en_US dc.identifier.uri (URI) http://nccur.lib.nccu.edu.tw/handle/140.119/95119 - dc.description (描述) 碩士 zh_TW dc.description (描述) 國立政治大學 zh_TW dc.description (描述) 統計學系 zh_TW dc.description (描述) 96354014 zh_TW dc.description.abstract (摘要) 近年來,支持向量機(SVM, Support Vector Machine)及支持向量迴歸(SVR, Support Vector Regression)已被廣泛的應用在分類及預測上的問題,然而實務上常見資料過於龐大,而導致需要較長的計算時間及較高的計算成本。為了解決這樣的問題,Zhang等人(2006)及Chen, Wang與Cao(2008)發展兩種類型的資料縮減方法。前者為減少變數數量的遞迴支持向量機(RSVM, Recursive Support Vector Machine),藉由交叉驗證以及定義所謂的貢獻因子來找出重要的變數,而考慮僅利用重要的變數做分類。後者的方法稱為DSKR(Direct Sparse Kernel Regression),考慮在支持向量迴歸中,僅選取部份支持向量個數做預測,以達到資料縮減效果。本研究將遞迴支持向量機的方法延伸至支持向量迴歸上,此法稱為遞迴支持向量迴歸(RSVR, Recursive Support Vector Regression),藉由交叉驗證以及依據決策函數來定義各變數的貢獻因子,藉此選取出重要的變數,並且保留這些重要變數來做後續分析與預測。本研究將此方法應用於兩組實際的化學資料:Triazines及Pyrim,我們發現資料被大幅縮減,僅有六分之一至五分之一的變數被保留。而資料縮減後的預測效果,與利用整組原始資料來進行支持向量迴歸的結果相近,但較DSKR的結果差。 關鍵字:支持向量機,支持向量迴歸,資料縮減 zh_TW dc.description.tableofcontents 第壹章 緒論 6 第一節 研究背景 6 第二節 研究動機 6 第三節 研究目的 7 第四節 研究流程 7 第貳章 支持向量迴歸及文獻探討 8 第一節 支持向量機的介紹 8 第二節 支持向量迴歸(SVR)介紹 12 第三節 資料縮減問題討論及文獻探討 15 第參章 研究方法:R-SVR 19 第肆章 實際資料分析 23 第一節 實際資料的介紹及說明 23 第二節 Triazines資料分析 24 第三節 Pyrim資料分析 27 第四節 結論 30 第伍章 結論與建議 31 參考文獻 33 附錄A.1 RSVM推導 34 附錄A.2.1 Triazines下50次RSVR所得的結果 35 附錄A.2.2 Pyrim下50次RSVR所得的結果 40 附錄A.3.1 Triazines樣本直方圖 43 附錄A.3.2 pyrim樣本直方圖 58 zh_TW dc.source.uri (資料來源) http://thesis.lib.nccu.edu.tw/record/#G0096354014 en_US dc.subject (關鍵詞) 支持向量機 zh_TW dc.subject (關鍵詞) 支持向量迴歸 zh_TW dc.subject (關鍵詞) 資料縮減 zh_TW dc.title (題名) 遞迴支持向量迴歸資料縮減法 zh_TW dc.title (題名) Recursive SVR data reduction en_US dc.type (資料類型) thesis en_US dc.relation.reference (參考文獻) 一、 中文文獻 1. 呂奇傑,李天行,高人龍,黃敏菁(2009),「支援向量機及支援向量迴歸於財務時間序列預測之應用」。 二、 英文文獻 1. Chen, X. F. , Wang, S. T., Cao, S.Q(2008)“DSKR: Building Sparse Kernel Regression Directly ”,Journal of Applied Sciences, 8, 3407-3414. 2. Vapnik, V. (1995) The Nature of Statistical Learning Theory, Springer, NY. 3. Vapnik, V. (1998) Statistical Learning Theory, John Wiley and Sons, NY. 4. Ross D. K, UCI Machine Learning Repository, http://www.ics.uci.edu/~mlearn/MLRepository.html . Irvine , CA: University of California, School of Information and Computer Science. 5. Smola, A. J. and Schölkopf, B.(2004) “A Tutorial on Support Vector Regression” Statistics and Computing, 14, 199-204. 6. Smola, A. J., Schölkopf, B. and Williamson, R. C.(2008) “New Support Vector Algorithms,” Neural Computation, 12, 1207-1245. 7. Wikipedia, Mercer`s theorem, http://en.wikipedia.org/wiki/Mercer`s_theorem (as of June 21, 2009) . 8. Wu, M., Schölkopf, B. and Gökhan, B. (2006)“A Direct Method for Building Sparse Kernel Learning Algorithms”, Journal of Machine Learning Research, 7 603–624 9. Zhang, X. G. , Lu, X., Shi, Q., Xu, X. Q., Leung, H.C. , Harris, L. N. , Iglehart, J. D., Miron, A., Liu, J. S. and Wong, W. H.(2006)”Recursive SVM Feature Selection and Sample Classification for Mass-Spectrometry and Microarray Data”, BMC Bioinformatics, 7:197. zh_TW