Please use this identifier to cite or link to this item: https://ah.lib.nccu.edu.tw/handle/140.119/137675
DC FieldValueLanguage
dc.contributor.advisor劉昭麟zh_TW
dc.contributor.advisorLiu, Chao-Linen_US
dc.contributor.author陳瑀芋zh_TW
dc.contributor.authorChen, Yu-Yuen_US
dc.creator陳瑀芋zh_TW
dc.creatorChen, Yu-Yuen_US
dc.date2021en_US
dc.date.accessioned2021-11-01T04:00:09Z-
dc.date.available2021-11-01T04:00:09Z-
dc.date.issued2021-11-01T04:00:09Z-
dc.identifierG0108753144en_US
dc.identifier.urihttp://nccur.lib.nccu.edu.tw/handle/140.119/137675-
dc.description碩士zh_TW
dc.description國立政治大學zh_TW
dc.description資訊科學系zh_TW
dc.description108753144zh_TW
dc.description.abstract現今的文本資料數量越來越大,文字探勘分析也越趨重要。社會科學學者需要從大量資料中擷取資訊,並從大量文本中執行相對應的研究,因而衍伸出數位人文研究領域。本研究主要目的為藉由主題模型來找出文本內主要由哪一些主題構成;並對有興趣的主題之下的資訊進行文字探勘,並提供視覺化結果,從而幫助人文學者有效率得進行相關領域的研究。\n針對主題模型,我們提出了多次LDA的方法,亦針對不同語料,嘗試並比較不同主題模型,結果顯示多次LDA有效提升了主題模型的效果。\n本研究以輔助社會科學學者研究為出發點,藉由比較不同主題分析模型,使用者得以選擇效果較佳的模型並快速得知文本內的主要主題。另外使用者可以將這些有興趣的文本,進一步進行相關分析,減少學者閱讀大量文本所需耗費之時間。\n我們利用《人民大學期刊資料庫》、《維基百科》作為實驗與測試的中文語料,且將分析後的結果提供給學者,作為分析詮釋的參考資訊與佐證依據。zh_TW
dc.description.abstractNowadays, the number of textual materials is getting larger and larger, and text exploration and analysis are becoming more and more important. Social science scholars need to extract information from a large amount of data and perform corresponding research from a large amount of text, thus extending the field of Digital Humanities research. The main purpose of this research is to find out which topics are mainly composed of the text through topic modeling; to conduct text mining of the information under the topics of interest, and to provide visualization results, so as to help the humanities scholars to efficiently conduct research in related fields.\nThis research starts from assisting the research of social science scholars. By comparing different topic analysis models, users can choose the best model and quickly learn the main topics in the text. In addition, users can further analyze these interesting texts, reducing the time it takes for scholars to read a large number of texts.\nFor topic models, we proposed the multiple LDA methods. We also tried and compared different topic models with different corpora. The result shows that multiple LDA effectively improved the effect of topic models.\nWe use "Renmin University Journal Database" and "Wikipedia" as the Chinese corpus for experiments and tests, and provide the analysis results to scholars as reference information and supporting evidence for analysis and interpretation.\n en_US
dc.description.tableofcontents1 緒論 1\n1.1 研究動機 1\n1.2 研究目的 1\n1.3 主要貢獻 1\n1.4 論文架構 2\n2 文獻回顧 3\n2.1 Topic Modeling相關研究 3\n2.2 主題連貫性相關研究 3\n2.3 文本分析相關研究 3\n3 研究方法 4\n3.1 實驗架構 4\n3.2 實驗資料 6\n3.2.1 中國人民大學期刊資料庫 6\n3.2.2 維基百科資料 7\n3.3 資料前處理 9\n3.3.1 擷取資料 9\n3.3.2 斷詞 10\n3.4 Topic Modeling主題模型 12\n3.4.1 單次LDA 12\n3.4.2 多次LDA 12\n3.4.3 使用預訓練新聞主題模型(Familia) 17\n3.4.4 使用BERT訓練主題模型 18\n3.5 文本分析 18\n3.5.1 TF-IDF 分析 18\n3.5.2 共現詞頻分析 19\n3.5.3 情緒分析 19\n4 實驗結果 20\n4.1 實驗結果評估方法 20\n4.1.1 單次LDA 20\n4.1.2 多次LDA 22\n4.2 主題模型參數實驗 22\n4.2.1 實驗設計 22\n4.2.2 結果分析 23\n4.3 人民大學期刊資料庫主題模型 27\n4.3.1 資料概述 27\n4.3.2 單次LDA模型 27\n4.3.3 多次LDA模型 37\n4.3.4 使用預訓練新聞主題模型(Familia) 43\n4.3.5 使用BERT訓練主題模型 43\n4.4 維基百科資料一主題模型—三分類 44\n4.4.1 資料概述 44\n4.4.2 單次LDA模型 44\n4.4.3 多次LDA模型 49\n4.4.4 使用預訓練新聞主題模型(Familia) 55\n4.4.5 使用BERT訓練主題模型 55\n4.5 維基百科資料一主題模型-九分類 56\n4.5.1 資料概述 56\n4.5.2 單次LDA模型 56\n4.5.3 多次LDA模型 61\n4.5.4 使用預訓練新聞主題模型(Familia) 69\n4.5.5 使用BERT訓練主題模型 69\n4.6 維基百科資料二主題模型-三分類 71\n4.6.1 資料概述 71\n4.6.2 單次LDA模型 71\n4.6.3 多次LDA模型 75\n4.6.4 使用預訓練新聞主題模型(Familia) 81\n4.6.5 使用BERT訓練主題模型 81\n4.7 維基百科資料二主題模型-九分類 82\n4.7.1 資料概述 82\n4.7.2 單次LDA模型 82\n4.7.3 多次LDA模型 87\n4.7.4 使用預訓練新聞主題模型(Familia) 95\n4.7.5 使用BERT訓練主題模型 95\n4.8 主題模型綜合比較與討論 96\n4.9 文本分析結果與討論 99\n4.9.1 實驗資料 99\n4.9.2 TF-IDF分析 99\n4.9.3 共現詞頻分析 101\n4.9.4 情緒分析 103\n5 結論 103\n6 未來研究方向 104\n參考文獻 105\n附錄A 論文口試紀錄 107zh_TW
dc.format.extent7200671 bytes-
dc.format.mimetypeapplication/pdf-
dc.source.urihttp://thesis.lib.nccu.edu.tw/record/#G0108753144en_US
dc.subject主題模型zh_TW
dc.subject文本探勘zh_TW
dc.subjectTopic Modelingen_US
dc.subjectLDAen_US
dc.title多次 LDA 主題模型及文本探勘應用於多種中文語料zh_TW
dc.titleMultiple LDA of Topic Modeling and Text Mining Used in Chinese Corporaen_US
dc.typethesisen_US
dc.relation.reference[1] 金觀濤、邱偉雲、梁穎誼、陳柏聿、沈錳坤、及劉青峰。觀念群變化的數位 人文研究-以《新青年》為例,2014 第五屆數位典藏與數位人文國際研討會,臺灣,2014。 
\n[2] 金觀濤、邱偉雲及劉昭麟。「共現」詞頻分析及其運用——以「華人」觀念起源為例。數位人文要義:尋找類型與軌跡,141-170,國立台灣大學出版中心。\n[3] 劉昭麟、金觀濤、劉青峰、邱偉雲、及姚育松。自然語言處理技術於中文史 學文獻分析之初步應用,2011 第三屆數位典藏與數位人文國際研討會論文 集,151-168,臺灣,2011。\n[4] David M. Blei, Andrew Y. Ng, and Michael I. Jordan. 2003. Latent Dirichlet allocation. Journal of Machine Learning Research, 3(Jan):993–1022.\n[5] Bastian M., Heymann S., Jacomy M. 2009. Gephi: an open source software for exploring and manipulating networks. International AAAI Conference on Weblogs and Social Media.\n[6] Di Jiang, Yuanfeng Song, Rongzhong Lian, Siqi Bao, Jinhua Peng and Huang He and Hua Wu. 2018. Familia: A Configurable Topic Modeling Framework for Industrial Text Engineering. arXiv: 1808.03733.\n[7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers).\n[8] Leland McInnes, John Healy, James Melville. 2020. UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction. arXiv:1802.03426\n[9] McInnes, Leland and Healy, John and Astels, Steve. 2017. hdbscan: Hierarchical density based clustering. The Journal of Open Source Software. 2. 10.21105/joss.00205\n[10] Maarten Grootendorst, & Nils Reimers. (2021). MaartenGr/BERTopic: v0.9.1 (v0.9.1). Zenodo. https://doi.org/10.5281/zenodo.5353198\n[11] Newman, David & Lau, Jey & Grieser, Karl & Baldwin, Timothy. 2010. Automatic Evaluation of Topic Coherence.. Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the ACL. 100-108.\n[12] Röder Michael, Both Andreas and Hinneburg Alexander. 2015. Exploring the Space of Topic Coherence Measures. WSDM 2015 - Proceedings of the 8th ACM International Conference on Web Search and Data Mining. 399-408. 10.1145/2684822.2685324.\n[13] Sievert, Carson and Shirley, Kenneth. 2014. LDAvis: A method for visualizing and interpreting topics. In Proceedings of the Workshop on Interactive Language Learning, Visualization, and Interfaces.\n[14] 中國人民大學複印報刊資料 https://ipub.exuezhe.com/index.html。\n[15] WikipediaAPI https://www.mediawiki.org/wiki/API:Main_page\n[16] 人民日報 http://www.people.com.cn/\n[17] 結巴中文分詞 https://github.com/fxsjy/jieba。\n[18] OpenCC https://github.com/BYVoid/OpenCC\n[19] 搜狗網 https://pinyin.sogou.com/dict/\n[20] Familia https://github.com/baidu/Familia\n[21] Flair https://github.com/flairNLP/flair\n[22] HuggingFace https://huggingface.co/\n[23]中文情感分析庫 https://github.com/thunderhit/cnsentizh_TW
dc.identifier.doi10.6814/NCCU202101663en_US
item.grantfulltextembargo_20261023-
item.openairetypethesis-
item.fulltextWith Fulltext-
item.openairecristypehttp://purl.org/coar/resource_type/c_46ec-
item.cerifentitytypePublications-
Appears in Collections:學位論文
Files in This Item:
File Description SizeFormat
314401.pdf7.03 MBAdobe PDF2View/Open
Show simple item record

Google ScholarTM

Check

Altmetric

Altmetric


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.