系統識別號 | U0002-1309201523202000 |
---|---|
DOI | 10.6846/TKU.2015.00362 |
論文名稱(中文) | 應用類神經網路於客服中心客服員之績效評比 |
論文名稱(英文) | Performance Appraisal of Call Center Agents by Neural Networks |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 資訊工程學系碩士在職專班 |
系所名稱(英文) | Department of Computer Science and Information Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 103 |
學期 | 2 |
出版年 | 104 |
研究生(中文) | 詹尉聰 |
研究生(英文) | Wei-Tsung Chan |
學號 | 702410084 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | 英文 |
口試日期 | 2015-07-21 |
論文頁數 | 76頁 |
口試委員 |
指導教授
-
許輝煌(h_hsu@mail.tku.edu.tw)
委員 - 胡懷祖(hthu@mail.niu.edu.tw) 委員 - 繆紹綱(miaou@cycu.edu.tw) 委員 - 許輝煌(h_hsu@mail.tku.edu.tw) |
關鍵字(中) |
客服中心 倒傳遞類神經網路 |
關鍵字(英) |
call center Back Propagation Neural Networks |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
客服中心早已成為企業與客戶之間溝通的橋樑,客服員在兩者間更扮演重要的角色,企業在人才的培養與網羅都需要一套制定的評分標準,該如何避免人為因素影響客服員績效分數,並傳承這寶貴的知識,各家企業無不絞盡腦汁思考。 本研究以國內某客服中心各系統的歷史資料,做為研究數據的基礎,並參考了學者研究提出的23個客服中心營運相關的量化指標;實驗的過程歷經:資料各屬性與績效分數的相關係數分析、利用特徵值選取技術篩選特徵集、應用倒傳遞類神經網路預測客服員的績效分數。 經過特徵值篩選後的屬性集合,隱含著公司主管的評分要素,也是客服員績效評分的核心標準,由此可知主管在進行績效評比時,集合內的各屬性有相當大的機率被列為績效考核的重點;而預測模型的輸出值與實際客服員績效分數,其平均誤差值為2.78分,兩資料間的相關係數為0.9821,實驗結果說明所建置的網路預測模型輸出的預測分數相當接近實際的客服員績效分數,誤差值也比研究所設定的標準3分來的低,研究最後,再重新針對錯誤的資料進行修正,誤差值下降至1.97分,相關係數為0.9907,數據結果相當良好。 |
英文摘要 |
Call center has become the communication bridge between enterprises and customers, agents play an important role to between enterprises and customers. Enterprises in agents training and snares set of assessment criteria need to be developed. How to avoid human factors affecting service agent performance score, and pass this valuable knowledge, all enterprises are brainstorming. In this study, the sample data are based on historical data of internal systems, and with reference to 23 quantitative indicators about call center operations. The experimental process includes analyzing data correlation coefficient between performance score and each attribute, selecting feature sets by feature selection technology, and predicting the performance score of call center agents by back-propagation neural networks. By selecting a specific attribute set, the experiment result not only contains enterprises managers to score factors but also the main standard for performance appraisal of call center agents. We can know that each attribute in the feature set has a high probability to be considered when managers are making performance appraisal. The average error and the correlation coefficient between the output value from the prediction model and the real call center agents performances score are 2.78 and 0.9821, respectively. The experiment results show that the output from the network prediction model is very close to the real call center agents performance score. Its deviation is also lower than the expected value 3 of this study. In the end of the study, we correct some erroneous and further lower data the deviation to 1.97 and the correlation coefficient to 0.9907.This is very well. |
第三語言摘要 | |
論文目次 |
目錄 第一章 緒論 1 1.1 研究動機 1 1.2 研究目的 2 第二章 文獻探討 3 2.1 客服中心與關鍵績效指標 3 2.1.1 客服中心定義 3 2.1.2 關鍵績效指標 5 2.2 類神經網路 7 2.2.1 倒傳遞類神經網路架構說明 8 2.2.2 倒傳遞類神經網演算法 11 2.2.3 倒傳遞類神經網路學習過程 15 2.3 資料預處理 16 2.3.1 資料清理 17 2.3.2 資料轉換 18 2.4 特徵值選取技術 19 2.5 準確率評估標準 21 第三章 研究方法與步驟 24 3.1 研究範圍與限制 25 3.1.1 研究範圍 25 3.1.2 研究限制 26 3.2 變數說明 26 3.2.1 輸入值 26 3.2.1 輸出值 29 3.3 資料預處理 29 3.4 相關係數 31 3.5 特徵值選取 32 3.6 類神經網路架構 33 第四章 實驗結果分析 36 4.1 屬性相關係數分析結果 36 4.2 屬性特徵值選取結果 37 4.3 網路預測模型建置與準確率的評估結果 38 4.4 與現行績效考核作業進行比對 49 第五章 結論與建議 53 5.1 研究結論 53 5.2 研究建議 54 參考文獻 56 附錄1 59 附錄2 英文論文 70 圖目錄 圖2-1:客服中心各世代的演進示意圖 4 圖2-2:倒傳遞類神經網路模型 9 圖2-3:S型函數 11 圖2-4:倒傳遞網路學習過程 16 圖2-5:k-最近鄰居法示意圖 18 圖2-6:包裝器和過濾器架構的差異圖 21 圖3-1:研究流程圖 25 圖3-2:電話接聽流程 27 圖4-1:屬性值相關係數降冪排序後的直方圖 37 圖4-2:初步預測模型架構圖 39 圖4-3:隱藏層單元數與RMSE折線圖 40 圖4-4:隱藏層單元數與實際與預測結果(相關係數)折線圖 41 圖4-5:學習速率與RMSE折線圖 42 圖4-6:學習速率與實際與預測結果(相關係數)折線圖 43 圖4-7:動量修正係數與RMSE折線圖 44 圖4-8:動量修正係數與實際與預測結果(相關係數)折線圖 44 圖4-9:本研究網路預測模型架構圖 45 圖4-10:測試資料實際分數與預測分數折線圖 46 圖4-11:分數誤差值分佈圓餅圖 47 圖4-12:實際與預測等第差異圓餅圖 50 圖4-13:等第不相同資料於誤差值分佈直方圖 50 表目錄 表2-1 300個客服中心其服務指標平均值 5 表2-2 客服中心營運相關的量化指標 6 表4-1 相關係數計算結果 36 表4-2 徵值選取網路參數值設定 38 表4-3 特徵值選取結果 38 表4-4 網路設定隱藏層單元數結果 40 表4-5 網路設定學習速率結果 41 表4-6 網路設定動量修正係數結果 43 表4-7 本研究網路參數值設定 45 表4-8 相鄰近的資料進行比對-原始資料有誤 48 表4-9 相鄰近的資料進行比對-錯值 48 表4-10 相鄰近的資料進行比對-離群值 48 表4-11 本研究網路訓練輸出結果 49 表4-12 預測結果-混亂矩陣 51 表4-13 預測等第為特優與實際等第不相同的資料 51 表A-1 第一次網路訓練輸出結果(5-fold cross-validation),『誤差值』排序 59 表A-2 第二次網路訓練輸出結果(5-fold cross-validation),『誤差值』排序 60 表A-3 第三次網路訓練輸出結果(5-fold cross-validation),『誤差值』排序 61 表A-4 第四次網路訓練輸出結果(5-fold cross-validation),『誤差值』排序 62 表A-5 第五次網路訓練輸出結果(5-fold cross-validation),『誤差值』排序 63 表B-1 實際等第與預測等第比較表,『預測值』排序 64 |
參考文獻 |
[1] Dawson, K. (2003). The call center handbook: the complete guide to starting, running, and improving your call center. CMP Media. [2] Anton, J., Monger, J., & Perkins, D. S. (1997). Call Center Management By the Numbers. Purdue University Press. [3] Grudnitski, G., & Osburn, L. (1993). Forecasting S&P and gold futures prices: An application of neural networks. Journal of Futures Markets, 13(6), 631-643. [4] Fogel, D. B., Wasson, E. C., & Boughton, E. M. (1995). Evolving neural networks for detecting breast cancer. Cancer letters, 96(1), 49-53. [5] Jablonowski, M. (1998). Automating the Risk Assessment Process. CPCU JOURNAL, 51, 101-105. [6] Williams, D. R. G. H. R., & Hinton, G. E. (1986). Learning representations by back-propagating errors. Nature, 323-533. [7] Kwok, T. Y., & Yeung, D. Y. (1997). Constructive algorithms for structure learning in feedforward neural networks for regression problems. Neural Networks, IEEE Transactions on, 8(3), 630-645. [8] Abrahart, R. J., See, L., & Kneale, P. E. (1998, September). New tools for neurohydrologists: using network pruning and model breeding algorithms to discover optimum inputs and architectures. In Proc. 3rd International Conference on Geocomputation, University of Bristol (pp. 17-19). [9] Principe, J. C., Euliano, N. R., & Lefebvre, W. C. (1999). Neural and adaptive systems: fundamentals through simulations with CD-ROM. John Wiley & Sons, Inc.. [10] Knorr, E. M., Ng, R. T., & Tucakov, V. (2000). Distance-based outliers: algorithms and applications. The VLDB Journal—The International Journal on Very Large Data Bases, 8(3-4), 237-253. [11] Somol, P., Baesens, B., Pudil, P., & Vanthienen, J. (2005). Filter‐versus wrapper‐based feature selection for credit scoring. International Journal of Intelligent Systems, 20(10), 985-999. [12] Portinale, L., & Saitta, L. (2002). Feature selection. Alessandria: Universita del Piemonte Orientale. [13] Hsu, H. H., Hsieh, C. W., & Lu, M. D. (2011). Hybrid feature selection by combining filters and wrappers. Expert Systems with Applications, 38(7), 8144-8150. [14] Liu, H., & Motoda, H. (2012). Feature selection for knowledge discovery and data mining (Vol. 454). Springer Science & Business Media. [15] Ramaswamy, S., Rastogi, R., & Shim, K. (2000, May). Efficient algorithms for mining outliers from large data sets. In ACM SIGMOD Record (Vol. 29, No. 2, pp. 427-438). ACM. [16] Wu, J. J. (2003). Application of Neural Networks in Business Income Tax Case Selection. [17] Beale, R., & Jackson, T. (1990). Neural Computing-an introduction. CRC Press. [18] Plaut, D. C. (1986). Experiments on Learning by Back Propagation. |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信