Publications-Theses
Article View/Open
Publication Export
-
題名 基於深度學習+BERT與強化學習進行FAANG股價預測
FAANG stock prediction based on Deep learning +BERT and Reinforcement learning作者 蔡政融
Tsai, Cheng-Jung貢獻者 姜國輝
Chiang, Kuo-Huie
蔡政融
Tsai, Cheng-Jung關鍵詞 深度學習
強化學習
股票預測
FAANG
BERT日期 2021 上傳時間 2-Sep-2021 15:54:38 (UTC+8) 摘要 在本研究中,我們想對金融商品進行預測,並且透過投資報酬率來探討兩種深度學習的方法孰優孰劣,同時我們也認為除了股票價格和交易量之外,技術指標和新聞情緒都是影響股票走勢的重要因素之一,因此,在最後的結果中我們也會與大盤ETF (Exchange Traded Funds) GSPC(追蹤S&P 500) 和 QQQ(追蹤內斯達克指數)進行比較,用以衡量模型。首先我們從CNBC爬取五間公司(Facebook, Amazon, Apple, Netflix, Google)的新聞資料以及從yahoo股市中獲取2013年到2020年的股市資訊,再來使用BERT衡量新聞情緒,這裡將它定義為三種情緒(負面、中立、正面),並透過加權平均獲得一天的情緒指標,為了有更多的特徵資料量,實驗中也加入技術指標如MACD ( Moving Average Directional Index ), RSI ( Relative Strength Index )等。接著,比較深度學習模型LSTM (Short Term Memory Networks)、GRU (Gated Recurrent Unit Network)和PPO (Proximal Policy Optimization)深度強化學習模型,在這五支股票中的表現。從本實驗中實證分析,可以得到以下結果 :從2018年6月25日到2020年12月31日期間,若直接投資S&P 500 指數,平均年化報酬率為15.56%,若是直接投資Dow Jones 指數,平均年化報酬率為9.39%,若是直接投資Nasdaq 指數,平均年化報酬率為27.94%,而透過直接持有FAANG,平均年化報酬率為24.39%。透過強化學習策略對上述四個標的投資平均年化報酬率為投資S&P 500 指數平均年化報酬率為28.05%,投資Dow Jones 平均年化報酬率為13.49%,投資Nasdaq 指數 平均年化報酬率為32.36%,投資FAANG 平均年化報酬率為25.57%。 參考文獻 References1. the economics of big tech (2019) Wikipedia. Available at: https://zh.wikipedia.org/wiki/Bigtech2. the quantitative trading (2014) baike.baidu. Available at: https://baike.baidu.com/item/quantitativetrading/52665813. the original of FinBert(2020)Available at: https://zhuanlan.zhihu.com/p/3687951604. William F. Sharpe (1994) : The Sharpe Ratio5. Filippo Petroni, Giulia Rotundo : Effectiveness of measures of performance during speculative bubbles (2007)6. Hadi S. Jomaa1, Josif Grabocka1, and Lars Schmidt-Thieme1 Hyp-RL : Hyperparameter Optimization by Reinforcement Learning (2019)7. Bergstra,J.,Bengio,Y.:Random search for hyper parameter optimization. Journal of Machine Learning Research 13(Feb), 281–305 (2012)8. Shahriari, B., Swersky, K., Wang, Z., Adams, R.P., De Freitas, N.: Taking the human out of the loop: A review of bayesian optimization. Proceedings of the IEEE 104(1), 148–175 (2016)9. Xu, Z., van Hasselt, H.P., Silver, D.: Meta-gradient reinforcement learning. In: Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018, NeurIPS 2018, 3-8 December 2018, Montr ́eal, Canada. pp. 2402–2413 (2018)10. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: Attention Is All You Need (2017)11. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)12. Zhuoran Xiong, Xiao-Yang Liu, Shan Zhong, Hongyang Yang, Anwar Walid: Practical Deep Reinforcement Learning Approach for Stock Trading(2018) 描述 碩士
國立政治大學
資訊管理學系
108356023資料來源 http://thesis.lib.nccu.edu.tw/record/#G0108356023 資料類型 thesis dc.contributor.advisor 姜國輝 zh_TW dc.contributor.advisor Chiang, Kuo-Huie en_US dc.contributor.author (Authors) 蔡政融 zh_TW dc.contributor.author (Authors) Tsai, Cheng-Jung en_US dc.creator (作者) 蔡政融 zh_TW dc.creator (作者) Tsai, Cheng-Jung en_US dc.date (日期) 2021 en_US dc.date.accessioned 2-Sep-2021 15:54:38 (UTC+8) - dc.date.available 2-Sep-2021 15:54:38 (UTC+8) - dc.date.issued (上傳時間) 2-Sep-2021 15:54:38 (UTC+8) - dc.identifier (Other Identifiers) G0108356023 en_US dc.identifier.uri (URI) http://nccur.lib.nccu.edu.tw/handle/140.119/136846 - dc.description (描述) 碩士 zh_TW dc.description (描述) 國立政治大學 zh_TW dc.description (描述) 資訊管理學系 zh_TW dc.description (描述) 108356023 zh_TW dc.description.abstract (摘要) 在本研究中,我們想對金融商品進行預測,並且透過投資報酬率來探討兩種深度學習的方法孰優孰劣,同時我們也認為除了股票價格和交易量之外,技術指標和新聞情緒都是影響股票走勢的重要因素之一,因此,在最後的結果中我們也會與大盤ETF (Exchange Traded Funds) GSPC(追蹤S&P 500) 和 QQQ(追蹤內斯達克指數)進行比較,用以衡量模型。首先我們從CNBC爬取五間公司(Facebook, Amazon, Apple, Netflix, Google)的新聞資料以及從yahoo股市中獲取2013年到2020年的股市資訊,再來使用BERT衡量新聞情緒,這裡將它定義為三種情緒(負面、中立、正面),並透過加權平均獲得一天的情緒指標,為了有更多的特徵資料量,實驗中也加入技術指標如MACD ( Moving Average Directional Index ), RSI ( Relative Strength Index )等。接著,比較深度學習模型LSTM (Short Term Memory Networks)、GRU (Gated Recurrent Unit Network)和PPO (Proximal Policy Optimization)深度強化學習模型,在這五支股票中的表現。從本實驗中實證分析,可以得到以下結果 :從2018年6月25日到2020年12月31日期間,若直接投資S&P 500 指數,平均年化報酬率為15.56%,若是直接投資Dow Jones 指數,平均年化報酬率為9.39%,若是直接投資Nasdaq 指數,平均年化報酬率為27.94%,而透過直接持有FAANG,平均年化報酬率為24.39%。透過強化學習策略對上述四個標的投資平均年化報酬率為投資S&P 500 指數平均年化報酬率為28.05%,投資Dow Jones 平均年化報酬率為13.49%,投資Nasdaq 指數 平均年化報酬率為32.36%,投資FAANG 平均年化報酬率為25.57%。 zh_TW dc.description.tableofcontents 摘要 2圖次 4第一章 緒論 61.1 研究動機 61.2 研究目的 6第二章 文獻探討 72.1 背景介紹 72.2 技術分析 72.3 量化交易 72.4 深度學習 122.4.1 Transformer 122.4.2 BERT 142.4.3 情感分析 152.4.4 模組FinBert與情感分數算法 152.4.5 LSTM 162.4.6 GRU 172.5 強化學習 182.5.1 概念介紹 182.5.2 Value-based learning v.s Policy-based learning 182.5.3 PPO 192.5.4 關於FinRL 202.6 風險預估 232.6.1 夏普比率 (Sharp ratio) 232.6.2 卡瑪比率 (Calmar ratio) 23第三章 系統設計 243.1 實驗資料集 243.1.1 深度學習預測股價 243.1.2 強化學習模擬交易 253.2 資料前處理 263.2.1 深度學習預測股價 263.2.2 強化學習模擬交易 263.3 預測模型設計 263.3.1 深度學習模型設計 263.3.2 強化學習模型設計 273.4 超參數的優化 27第四章 實驗結果與分析 284.1 情感分數及超參數結果: 284.2 深度學習預測股價結果: 291. Amazon 302. Facebook 323. Netflix 344. Google 365. Apple 384.2.1 深度學習預測股價分析: 404.3 強化學習模擬交易結果: 411. 同樣成分股跟投資道瓊工業指數ETF (DIA)比較 412. 同樣成分股跟投資S&P500 ETF (SPY)比較 413. 同樣成分股跟投資納斯達克指數 ETF (QQQ)比較 424. FAANG跟投資納斯達克ETF(QQQ)比較 434.3.1 強化學習模擬交易分析: 44第五章 研究結論與建議 465.1 結論與貢獻 465.2 未來研究建議 46References 47 zh_TW dc.format.extent 4727308 bytes - dc.format.mimetype application/pdf - dc.source.uri (資料來源) http://thesis.lib.nccu.edu.tw/record/#G0108356023 en_US dc.subject (關鍵詞) 深度學習 zh_TW dc.subject (關鍵詞) 強化學習 zh_TW dc.subject (關鍵詞) 股票預測 zh_TW dc.subject (關鍵詞) FAANG en_US dc.subject (關鍵詞) BERT en_US dc.title (題名) 基於深度學習+BERT與強化學習進行FAANG股價預測 zh_TW dc.title (題名) FAANG stock prediction based on Deep learning +BERT and Reinforcement learning en_US dc.type (資料類型) thesis en_US dc.relation.reference (參考文獻) References1. the economics of big tech (2019) Wikipedia. Available at: https://zh.wikipedia.org/wiki/Bigtech2. the quantitative trading (2014) baike.baidu. Available at: https://baike.baidu.com/item/quantitativetrading/52665813. the original of FinBert(2020)Available at: https://zhuanlan.zhihu.com/p/3687951604. William F. Sharpe (1994) : The Sharpe Ratio5. Filippo Petroni, Giulia Rotundo : Effectiveness of measures of performance during speculative bubbles (2007)6. Hadi S. Jomaa1, Josif Grabocka1, and Lars Schmidt-Thieme1 Hyp-RL : Hyperparameter Optimization by Reinforcement Learning (2019)7. Bergstra,J.,Bengio,Y.:Random search for hyper parameter optimization. Journal of Machine Learning Research 13(Feb), 281–305 (2012)8. Shahriari, B., Swersky, K., Wang, Z., Adams, R.P., De Freitas, N.: Taking the human out of the loop: A review of bayesian optimization. Proceedings of the IEEE 104(1), 148–175 (2016)9. Xu, Z., van Hasselt, H.P., Silver, D.: Meta-gradient reinforcement learning. In: Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018, NeurIPS 2018, 3-8 December 2018, Montr ́eal, Canada. pp. 2402–2413 (2018)10. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: Attention Is All You Need (2017)11. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)12. Zhuoran Xiong, Xiao-Yang Liu, Shan Zhong, Hongyang Yang, Anwar Walid: Practical Deep Reinforcement Learning Approach for Stock Trading(2018) zh_TW dc.identifier.doi (DOI) 10.6814/NCCU202101247 en_US