§ 瀏覽學位論文書目資料
  
系統識別號 U0002-0508202113384400
DOI 10.6846/TKU.2021.00138
論文名稱(中文) 使用機器學習技術於招生錄取標準之研究分析-以淡江大學資工系為例
論文名稱(英文) Using Machine Learning Techniques to Find the relationship between University Admission Score and Student Performance-Taking Department of Computer Science and Information Engineering of Tamkang University as an example
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 資訊工程學系碩士班
系所名稱(英文) Department of Computer Science and Information Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 109
學期 2
出版年 110
研究生(中文) 戎書玄
研究生(英文) Shu-Shiuan Rong
學號 608410253
學位類別 碩士
語言別 繁體中文
第二語言別 英文
口試日期 2021-07-19
論文頁數 51頁
口試委員 指導教授 - 陳建彰(ccchen34@mail.tku.edu.tw)
共同指導教授 - 林承賢(charchesshen@gmail.com)
委員 - 楊權輝(chyang@hcu.edu.tw)
委員 - 林其誼(chiyilin@mail.tku.edu.tw)
委員 - 陳建彰(ccchen34@mail.tku.edu.tw)
關鍵字(中) 機器學習
學生學習表現
成績預測
深度神經網路
隨機森林
支援向量機
關鍵字(英) Machine Learning
Student Performance
Performance Prediction
Deep Neural Networks
Random Forest
Support Vector Machine
第三語言關鍵字
學科別分類
中文摘要
隨著少子化的影響,所有的高等教育機構都面臨了招生方面的挑戰,如何挑選適合的學生進入校系就讀需要經過各項數據的支持。本研究透過深度神經網路、隨機森林、支援向量機等機器學習技術,分析新生入學資料與大一學業表現的關聯性。實驗結果顯示,在總平均科目的 2 分類預測上,支援向量機法具有最佳的預測結果;在數學與程式類科目中,2 分類的隨機森林法具有最佳的預測結果;然而在基礎類科目中,各方法在二分類有最佳結果且表現同樣優異。在其他的分類上,包括 3 分類、5 分類、及 10 分類,三種方法的預測能力各有優劣。特徵中的高中 GPA 對預測結果影響重大。
英文摘要
With the impact of the declining birthrate, all higher education institutions are facing enrollment challenges. Collecting useful data can find appropriate students for university admission. In this study, we adopt machine  learning techniques like Deep Neural Network (DNN), Random Forest (RF), and Support Vector Machine (SVM) to find the relationship between entrance score and freshman academic performance. Experimental results show that the SVM has the best prediction results on average of total courses in 2-category classification. The RF performs best on mathematical courses and programming courses in 2-category classification. However, on fundamental courses, all methods have the best prediction results in 2-category and perform equally well. Moreover, on other category classifications, like 3-category, 5-category, or 10-category classifications, we cannot find a universal best method. Another result shows that High school GPA has a significant impact on results.
第三語言摘要
論文目次
第一章	緒論	1
1.1	研究背景	1
1.2	研究動機	2
1.3	研究目的	3
1.4	研究問題	3
1.5	研究架構	3
第二章	文獻探討	4
2.1	深度神經網路	4
2.2	隨機森林	8
2.3	支援向量機	10
第三章	實驗方法與資料集	12
3.1	實驗架構及流程	12
3.2	實驗之程式編譯環境設定、函數使用	15
3.3	資料集來源說明	17
3.4	資料前處理與遺失值處理	17
3.5	模型參數設定	20
第四章	資料分析與實驗結果	25
4.1	實驗結果	25
4.2	實驗之結果比較	35
第五章	結論與建議	40
5.1	結論	40
5.2	研究限制	40
5.3	未來研究方向	40
參考文獻	41
附錄一	英文論文	46

圖目錄
圖1、深度神經網路架構示意圖	5
圖2、深度神經網路流程	6
圖3、ReLU函數圖	7
圖4、決策樹架構示意圖	9
圖5、隨機森林架構示意圖[	9
圖6、SVM示意圖	10
圖7、實驗架構圖	12
圖8、資料標籤分類	13
圖9、「10分類」成績人數分布圖	14
圖10、「5分類」成績人數分布圖	14
圖11、「3分類」成績人數分布圖	14
圖12、「2分類」成績人數分布圖	15
圖13、「10分類」深度神經網路模型架構	21
圖14、總平均DNN「10分類」訓練結果	26
圖15、總平均DNN「5分類」訓練結果	26
圖16、總平均DNN「3分類」訓練結果	26
圖17、總平均DNN「2分類」訓練結果	27
圖18、程式科DNN「10分類」訓練結果	28
圖19、程式科DNN「5分類」訓練結果	28
圖20、程式科DNN「3分類」訓練結果	28
圖21、程式科DNN「2分類」訓練結果	29
圖22、數學科DNN「10分類」訓練結果	30
圖23、數學科DNN「5分類」訓練結果	30
圖24、數學科DNN「3分類」訓練結果	30
圖25、數學科DNN「2分類」訓練結果	31
圖26、基礎科DNN「10分類」訓練結果	32
圖27、基礎科DNN「5分類」訓練結果	32
圖28、基礎科DNN「3分類」訓練結果	32
圖29、基礎科DNN「2分類」訓練結果	33
圖30、總平均預測正確率分布圖	35
圖31、程式科預測正確率分布圖	36
圖32、數學科預測正確率分布圖	36
圖33、基礎科預測正確率分布圖	37
圖34、特徵欄位重要性分布圖	37
圖35、總平均原始正確率與鄰近正確率分布圖	37
圖36、程式科原始正確率與鄰近正確率分布圖	38
圖37、數學科原始正確率與鄰近正確率分布圖	38
圖38、基礎科原始正確率與鄰近正確率分布圖	38

表目錄
表1、各模型使用之函數清單與說明	16
表2、特徵與標籤清單	18
表3、必修科目分類表	19
表4、DNN決定參數過程	21
表5、RF決定參數過程	23
表6、SVM決定參數過程	23
表7、實驗簡表	25
表8、總平均DNN預測結果	27
表9、總平均RF預測結果	27
表10、總平均SVM預測結果	27
表11、程式科DNN預測結果	29
表12、程式科RF預測結果	29
表13、程式科SVM預測結果	29
表14、數學科DNN預測結果	31
表15、數學科RF預測結果	31
表16、數學科SVM預測結果	31
表17、基礎科DNN預測結果	33
表18、基礎科RF預測結果	33
表19、基礎科SVM預測結果	33
表20、總平均特徵重要性	34
表21、程式科特徵重要性	34
表22、數學科特徵重要性	34
表23、基礎科特徵重要性	35
表24、總平均實驗結果排名	39
表25、程式科實驗結果排名	39
表26、數學科實驗結果排名	39
表27、基礎科實驗結果排名	39
參考文獻
[1] 沈慶揚, 楊憲明, 陳志福, 羅瑞玉, 莊勝義, 蘇永明, “臺灣光復四十年來教育發展之回顧,” 中華民國比較教育學會比較教育通訊, 13 卷, p.6-21, 1986.
[2] 秦夢群, “大學多元入學制度實施與改革之研究,” 教育政策論壇, 7 卷 2 期, p.59-84, 2004.
[3] S.K.Mohamad, Z.Tasir, “Educational data mining: A review,” Procedia Social and Behavioral Sciences, Vol.97, p.320-324, 2013.
[4] A.Peña-Ayala, “Educational data mining: A survey and a data miningbased analysis of recent works,” Expert Systems with Applications, Vol.41, No.4, p.1432-1462, 2014.
[5] C.Romero, S.Ventura, “Educational data mining: A review of the state of the art,” IEEE Transactions on Systems Man and Cybernetics, Part C(Applications and Reviews), Vol.40, No.6, p.601-618, 2010.
[6] H.Aldowah, H.Al-Samarraie, W.M.Fauzy, “Educational data mining and learning analytics for 21st century higher education: A review and synthesis,” Telematics and Informatics, Vol.37, p.13–49, 2019.
[7] C.Anuradha and T.Velmurugan, “A comparative analysis on the evaluation of classication algorithms in the prediction of students performance,” Indian Journal of Science and Technology, Vol.8, No.15, p.974-6846,2015.
[8] V.L.Miguéis, A.Freitas, P.J.V.Garcia, A.Silva, “Early segmentation of students according to their academic performance: A predictive modelling approach,” Decision Support Systems, p. 36-51, 2018.42
[9] A.M.Shahiri, W.Husain, N.A.Rashid, “A review on predicting Student's performance using data mining techniques,” Procedia Computer Science, Vol.72, p.414-422, 2015.
[10] A.Waibel, T.Hanazawa, G.Hinton, K.Shikano, K.Lang, “Phoneme recognition: neural networks v.s. hidden Markov models,”International Conference on Acoustic, Speech,Signal Processing, p.107-110,1988.
[11] M.Mayilvaganan, D.Kalpanadevi, “Comparison of classfication techniques for predicting the performance of students academic environment,” International Conference on Communications, Computation, Networks and Technologies,Sivakasi,India, p.113-118, 2014.
[12] P.M.Arsad, N.Buniyamin, J.L.A.Manan, “A neural network students' performance prediction model(NNSPPM),” IEEE International Conference on Smart Instrumentation, Measurement and Applications(ICSIMA), Kuala Lumpur, Malaysia, p.1-5, 2013.
[13] F.Marbouti, H.A.D.Dux, K.Madhavan, “Models for early prediction of at-risk students in a course using standards-based grading,” Computers & Education, Vol.103, p.1-15, 2016.
[14] G.Gray, C.McGuinness, P.Owende, “An application of classifcation models to predict learner progression in tertiary education,” IEEE International Advance Computing Conference(IACC), p.549-554, 2014.
[15] E.N.Maltz, K.E.Murphy, M.L.Hand, “Decision support for university enrollment management:Implementation and experience,” Decision Support Systems, Vol.44, No.1, p.106-123, 2007.43
[16] A.M.Hanan, “Using DataMining Techniques to Predict Student Performance to Support Decision Making in University Admission Systems,” IEEE Access, Vol.8, p.55462–55470, 2020.
[17] https://ithelp.ithome.com.tw/articles/10253192
[18] https://cvfiasd.pixnet.net/blog/post/275774124-%E6%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92%E6%BF%80%E5%8B%B5%E5%87%BD%E6%95%B8%E4%BB%8B%E7%B4%B9
[19] T.K.Ho, “Random decision forests,” Proceedings of 3rd International Conference on Document Analysis and Recognition, p.14-16, 1995.
[20] T.K.Ho, “The random subspace method for constructing decision forests,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20, Issue 8, p.832-844, 1998.
[21] L.Breiman, “Random Forests,” Machine learning, Vol.1, Issue 45, p.5-32, 2001.
[22] H.Guruler, A.Istanbullu, M.Karahasan, “A new student performance analysing system using knowledge discovery in higher educational databases,” Computers & Education, Vol.55, No.1, p.247-254, 2010.
[23] S.Natek, M.Zwilling, “Student data mining solution–knowledge management system related to higher education institutions,” Expert Systems with Applications, Vol.41, p.6400–6407, 2014.
[24] S.Fong, R.Biuk-Aghai, “An automated university admission recommender system for secondary school students,” The 6th International Conference on Information Technology and Applications, 2009.
[25] https://towardsdatascience.com/an-introduction-to-decision-trees-with-python and-scikit-learn-1a5ba6fc204f44
[26] https://medium.com/chung-yi/ml%E5%85%A5%E9%96%80-%E5%8D%81%E4%B8%83-%E9%9A%A8%E6%A9%9F%E6%A3%AE%E6%9E%97-random-forest 6afc24871857
[27] V.N.Vapnik, “The Nature of Statistical Learning Theory. Springer,” New York. for medical diagnosis-application to congenital heart disease. Journal of the American Medical Association.
[28] B.E.Boser, I.M.Guyon, C.Vapnik, “V.N.A training algorithm for optimal margin classifiers.,” Proceedings of the fifth annual workshop on Computational learning theory, COLT.92, p.144, 1992.
[29] C.Cortes, V.Vapnik, “Support-vector networks.,” Machine Learning, Vol.20, p.273-297, 1995.
[30] http://bytesizebio.net/2014/02/05/support-vector-machines-explained-well
[31] https://www.lexico.com/definition/overfitting
[32] A.Ainslie, X.Drèze, F.Zufryden, “Modeling Movie Life Cycles and Market Share,” Marketing Science, Vol.24, Issue 3, p.508-517, 2005.
[33] Q.Zhou, Y.Zheng, C.Mou, “Predicting students' performance of an offline course from their online behaviors,” Fifth International Conference on Digital Information and Communication Technology and its Applications (DICTAP), 2015.
[34] S.Roy, A.Garg, “Predicting academic performance of student using classification techniques,” 4th IEEE Uttar Pradesh Section International Conference on Electrical, Computer and Electronics, UPCON, p.568–572, 2017.
[35] T.Devasia, T.P.Vinushree, V.Hegde, “Prediction of students performance using Educational Data Mining,” International Conference on Data Mining and Advanced Computing (SAPIENCE), p.91–95, 2016.45
[36] E.Irfiani, I.Elyana, F.Indriyani, F.E.Schaduw, D.D.Harmoko, “Predicting Grade Promotion Using Decision Tree and Naïve Bayes Classification Algorithms,” Third International Conferenceon Informatics and Computing(ICIC), 2018.
[37] G.E.Hinton, S.Osindero, Y.W.Teh, “A Fast Learning Algorithm for Deep Bwlief Nets,” Neural Computation, Vol.18, No.7, 2006.
[38] N.Srivastava, G.Hinton, A.Krizhevsky, I.Sutskever, R.Salakhutdinov, “Dropout: a simple way to prevent neural networks from overfitting,” The Journal of Machine Learning Research, Vol.15, Issue 1, p.1929-1958, 2014.
論文全文使用權限
校內
校內紙本論文立即公開
同意電子論文全文授權校園內公開
校內電子論文立即公開
校外
同意授權
校外電子論文立即公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信