Publications-Theses

Article View/Open

Publication Export

Google ScholarTM

NCCU Library

Citation Infomation

Related Publications in TAIR

題名 基於深度學習+BERT與強化學習進行FAANG股價預測
FAANG stock prediction based on Deep learning +BERT and Reinforcement learning
作者 蔡政融
Tsai, Cheng-Jung
貢獻者 姜國輝
Chiang, Kuo-Huie
蔡政融
Tsai, Cheng-Jung
關鍵詞 深度學習
強化學習
股票預測
FAANG
BERT
日期 2021
上傳時間 2-Sep-2021 15:54:38 (UTC+8)
摘要 在本研究中,我們想對金融商品進行預測,並且透過投資報酬率來探討兩種深度學習的方法孰優孰劣,同時我們也認為除了股票價格和交易量之外,技術指標和新聞情緒都是影響股票走勢的重要因素之一,因此,在最後的結果中我們也會與大盤ETF (Exchange Traded Funds) GSPC(追蹤S&P 500) 和 QQQ(追蹤內斯達克指數)進行比較,用以衡量模型。
首先我們從CNBC爬取五間公司(Facebook, Amazon, Apple, Netflix, Google)的新聞資料以及從yahoo股市中獲取2013年到2020年的股市資訊,再來使用BERT衡量新聞情緒,這裡將它定義為三種情緒(負面、中立、正面),並透過加權平均獲得一天的情緒指標,為了有更多的特徵資料量,實驗中也加入技術指標如MACD ( Moving Average Directional Index ), RSI ( Relative Strength Index )等。接著,比較深度學習模型LSTM (Short Term Memory Networks)、GRU (Gated Recurrent Unit Network)和PPO (Proximal Policy Optimization)深度強化學習模型,在這五支股票中的表現。
從本實驗中實證分析,可以得到以下結果 :
從2018年6月25日到2020年12月31日期間,若直接投資S&P 500 指數,平均年化報酬率為15.56%,若是直接投資Dow Jones 指數,平均年化報酬率為9.39%,若是直接投資Nasdaq 指數,平均年化報酬率為27.94%,而透過直接持有FAANG,平均年化報酬率為24.39%。
透過強化學習策略對上述四個標的投資平均年化報酬率為投資S&P 500 指數平均年化報酬率為28.05%,投資Dow Jones 平均年化報酬率為13.49%,投資Nasdaq 指數 平均年化報酬率為32.36%,投資FAANG 平均年化報酬率為25.57%。
參考文獻 References
1. the economics of big tech (2019) Wikipedia. Available at: https://zh.wikipedia.org/wiki/Bigtech
2. the quantitative trading (2014) baike.baidu. Available at: https://baike.baidu.com/item/quantitativetrading/5266581
3. the original of FinBert(2020)Available at: https://zhuanlan.zhihu.com/p/368795160
4. William F. Sharpe (1994) : The Sharpe Ratio
5. Filippo Petroni, Giulia Rotundo : Effectiveness of measures of performance during speculative bubbles (2007)
6. Hadi S. Jomaa1, Josif Grabocka1, and Lars Schmidt-Thieme1 Hyp-RL : Hyperparameter Optimization by Reinforcement Learning (2019)
7. Bergstra,J.,Bengio,Y.:Random search for hyper parameter optimization. Journal of Machine Learning Research 13(Feb), 281–305 (2012)
8. Shahriari, B., Swersky, K., Wang, Z., Adams, R.P., De Freitas, N.: Taking the human out of the loop: A review of bayesian optimization. Proceedings of the IEEE 104(1), 148–175 (2016)
9. Xu, Z., van Hasselt, H.P., Silver, D.: Meta-gradient reinforcement learning. In: Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018, NeurIPS 2018, 3-8 December 2018, Montr ́eal, Canada. pp. 2402–2413 (2018)
10. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: Attention Is All You Need (2017)
11. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)
12. Zhuoran Xiong, Xiao-Yang Liu, Shan Zhong, Hongyang Yang, Anwar Walid: Practical Deep Reinforcement Learning Approach for Stock Trading(2018)
描述 碩士
國立政治大學
資訊管理學系
108356023
資料來源 http://thesis.lib.nccu.edu.tw/record/#G0108356023
資料類型 thesis
dc.contributor.advisor 姜國輝zh_TW
dc.contributor.advisor Chiang, Kuo-Huieen_US
dc.contributor.author (Authors) 蔡政融zh_TW
dc.contributor.author (Authors) Tsai, Cheng-Jungen_US
dc.creator (作者) 蔡政融zh_TW
dc.creator (作者) Tsai, Cheng-Jungen_US
dc.date (日期) 2021en_US
dc.date.accessioned 2-Sep-2021 15:54:38 (UTC+8)-
dc.date.available 2-Sep-2021 15:54:38 (UTC+8)-
dc.date.issued (上傳時間) 2-Sep-2021 15:54:38 (UTC+8)-
dc.identifier (Other Identifiers) G0108356023en_US
dc.identifier.uri (URI) http://nccur.lib.nccu.edu.tw/handle/140.119/136846-
dc.description (描述) 碩士zh_TW
dc.description (描述) 國立政治大學zh_TW
dc.description (描述) 資訊管理學系zh_TW
dc.description (描述) 108356023zh_TW
dc.description.abstract (摘要) 在本研究中,我們想對金融商品進行預測,並且透過投資報酬率來探討兩種深度學習的方法孰優孰劣,同時我們也認為除了股票價格和交易量之外,技術指標和新聞情緒都是影響股票走勢的重要因素之一,因此,在最後的結果中我們也會與大盤ETF (Exchange Traded Funds) GSPC(追蹤S&P 500) 和 QQQ(追蹤內斯達克指數)進行比較,用以衡量模型。
首先我們從CNBC爬取五間公司(Facebook, Amazon, Apple, Netflix, Google)的新聞資料以及從yahoo股市中獲取2013年到2020年的股市資訊,再來使用BERT衡量新聞情緒,這裡將它定義為三種情緒(負面、中立、正面),並透過加權平均獲得一天的情緒指標,為了有更多的特徵資料量,實驗中也加入技術指標如MACD ( Moving Average Directional Index ), RSI ( Relative Strength Index )等。接著,比較深度學習模型LSTM (Short Term Memory Networks)、GRU (Gated Recurrent Unit Network)和PPO (Proximal Policy Optimization)深度強化學習模型,在這五支股票中的表現。
從本實驗中實證分析,可以得到以下結果 :
從2018年6月25日到2020年12月31日期間,若直接投資S&P 500 指數,平均年化報酬率為15.56%,若是直接投資Dow Jones 指數,平均年化報酬率為9.39%,若是直接投資Nasdaq 指數,平均年化報酬率為27.94%,而透過直接持有FAANG,平均年化報酬率為24.39%。
透過強化學習策略對上述四個標的投資平均年化報酬率為投資S&P 500 指數平均年化報酬率為28.05%,投資Dow Jones 平均年化報酬率為13.49%,投資Nasdaq 指數 平均年化報酬率為32.36%,投資FAANG 平均年化報酬率為25.57%。
zh_TW
dc.description.tableofcontents 摘要 2
圖次 4
第一章 緒論 6
1.1 研究動機 6
1.2 研究目的 6
第二章 文獻探討 7
2.1 背景介紹 7
2.2 技術分析 7
2.3 量化交易 7
2.4 深度學習 12
2.4.1 Transformer 12
2.4.2 BERT 14
2.4.3 情感分析 15
2.4.4 模組FinBert與情感分數算法 15
2.4.5 LSTM 16
2.4.6 GRU 17
2.5 強化學習 18
2.5.1 概念介紹 18
2.5.2 Value-based learning v.s Policy-based learning 18
2.5.3 PPO 19
2.5.4 關於FinRL 20
2.6 風險預估 23
2.6.1 夏普比率 (Sharp ratio) 23
2.6.2 卡瑪比率 (Calmar ratio) 23
第三章 系統設計 24
3.1 實驗資料集 24
3.1.1 深度學習預測股價 24
3.1.2 強化學習模擬交易 25
3.2 資料前處理 26
3.2.1 深度學習預測股價 26
3.2.2 強化學習模擬交易 26
3.3 預測模型設計 26
3.3.1 深度學習模型設計 26
3.3.2 強化學習模型設計 27
3.4 超參數的優化 27
第四章 實驗結果與分析 28
4.1 情感分數及超參數結果: 28
4.2 深度學習預測股價結果: 29
1. Amazon 30
2. Facebook 32
3. Netflix 34
4. Google 36
5. Apple 38
4.2.1 深度學習預測股價分析: 40
4.3 強化學習模擬交易結果: 41
1. 同樣成分股跟投資道瓊工業指數ETF (DIA)比較 41
2. 同樣成分股跟投資S&P500 ETF (SPY)比較 41
3. 同樣成分股跟投資納斯達克指數 ETF (QQQ)比較 42
4. FAANG跟投資納斯達克ETF(QQQ)比較 43
4.3.1 強化學習模擬交易分析: 44
第五章 研究結論與建議 46
5.1 結論與貢獻 46
5.2 未來研究建議 46
References 47
zh_TW
dc.format.extent 4727308 bytes-
dc.format.mimetype application/pdf-
dc.source.uri (資料來源) http://thesis.lib.nccu.edu.tw/record/#G0108356023en_US
dc.subject (關鍵詞) 深度學習zh_TW
dc.subject (關鍵詞) 強化學習zh_TW
dc.subject (關鍵詞) 股票預測zh_TW
dc.subject (關鍵詞) FAANGen_US
dc.subject (關鍵詞) BERTen_US
dc.title (題名) 基於深度學習+BERT與強化學習進行FAANG股價預測zh_TW
dc.title (題名) FAANG stock prediction based on Deep learning +BERT and Reinforcement learningen_US
dc.type (資料類型) thesisen_US
dc.relation.reference (參考文獻) References
1. the economics of big tech (2019) Wikipedia. Available at: https://zh.wikipedia.org/wiki/Bigtech
2. the quantitative trading (2014) baike.baidu. Available at: https://baike.baidu.com/item/quantitativetrading/5266581
3. the original of FinBert(2020)Available at: https://zhuanlan.zhihu.com/p/368795160
4. William F. Sharpe (1994) : The Sharpe Ratio
5. Filippo Petroni, Giulia Rotundo : Effectiveness of measures of performance during speculative bubbles (2007)
6. Hadi S. Jomaa1, Josif Grabocka1, and Lars Schmidt-Thieme1 Hyp-RL : Hyperparameter Optimization by Reinforcement Learning (2019)
7. Bergstra,J.,Bengio,Y.:Random search for hyper parameter optimization. Journal of Machine Learning Research 13(Feb), 281–305 (2012)
8. Shahriari, B., Swersky, K., Wang, Z., Adams, R.P., De Freitas, N.: Taking the human out of the loop: A review of bayesian optimization. Proceedings of the IEEE 104(1), 148–175 (2016)
9. Xu, Z., van Hasselt, H.P., Silver, D.: Meta-gradient reinforcement learning. In: Advances in Neural Information Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018, NeurIPS 2018, 3-8 December 2018, Montr ́eal, Canada. pp. 2402–2413 (2018)
10. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: Attention Is All You Need (2017)
11. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)
12. Zhuoran Xiong, Xiao-Yang Liu, Shan Zhong, Hongyang Yang, Anwar Walid: Practical Deep Reinforcement Learning Approach for Stock Trading(2018)
zh_TW
dc.identifier.doi (DOI) 10.6814/NCCU202101247en_US