淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-1906201111140800
中文論文名稱 電腦化測驗系統使用效能評估之研究-以「桃園縣國中生網路檢測系統」為例
英文論文名稱 The Usability Testing of Computer-Based Tests System- A Case Study “A Web-based Examination System for Junior High School Students in Taoyuan County”
校院名稱 淡江大學
系所名稱(中) 教育科技學系碩士在職專班
系所名稱(英) Department of Educational Technology
學年度 99
學期 2
出版年 100
研究生中文姓名 林佳慧
研究生英文姓名 Chia-Hui Lin
學號 797740254
學位類別 碩士
語文別 中文
口試日期 2011-06-10
論文頁數 113頁
口試委員 指導教授-沈俊毅
委員-岳修平
委員-徐新逸
中文關鍵字 電腦化測驗系統  使用效能  使用者介面 
英文關鍵字 Computer-Based Tests System  Usability  User Interface 
學科別分類 學科別社會科學教育學
中文摘要 透過測驗,教師可以掌握學生的學習狀況,亦可診斷出學生學習的盲點,做為改進教學方式或學生修正學習方式的指標。
結合科技與網路,電腦化測驗系統展現了不同於傳統測驗的優勢,如:不受時間限制隨時可以做評量、依學生不同程度進行不同評量內容、評量結果可由電腦直接統計分析立即回報、可迅速處理大量答案…等,都讓電腦化測驗系統廣泛的運用在教育界。而當電腦化測驗系統廣為建置與推廣之際,在系統操作上是否符合使用者的需求與認知,以達到系統最大功能,值得探討分析。
由使用效能相關文獻可知,一個具有使用效能的系統,必須能讓使用者順利完成工作,並且對整個操作過程感到滿意;由其電腦化測驗系統更應針對教師與學生的不同角色,在操作上滿足不同的需求,以達到容易學習、操作且具效率的系統環境。本研究旨在了解「電腦化測驗系統」的使用效能情況,故以「桃園縣國中生網路檢測系統」為例,運用使用效能評估方法進行評估,歸納實驗結果後提出建議。為達上述目的,在本論文中,先探討國內外使用效能相關文獻,了解使用效能的原理原則與評估方法,藉以歸納出實驗方式與流程。
本研究透過六名教師執行八項工作任務與六名學生執行六項工作任務,受試者操作過程均透過Morae Recorder側錄軟體記錄受試者的操作歷程,另使用Morae Management軟體將側錄檔案轉換成數據資料,作為結果分析;另每一位受試者在完成任務後,須針對各項任務以主觀感受進行難易度之評分,並進行單一訪談以深入了解教師與學生在實際操作系統時所遭遇之困難與感受,進而對系統提出使用效能修正與建議。
研究發現,在教師管理功能中,以「建立學生帳號」功能最為困難,操作難易度平度數達4.33,經分析後可得,該系統功能因繁雜且具專業性步驟,故對一般教師而言實為困難。在學生測驗功能中,則以「至討論區發表新主題」最為困難,難易度平度數達3.67,經分析後可得,該系統功能因放置於「最新消息」中,與大部份使用者之認知有極大落差,故造成無法順利進入討論區的窘境。另針對整個系統在使用效能表現上而言,則歸納出修正系統介面活潑度、明確標示可以點選的物件與改善字體大小排列等建議。
根據研究結果,提出對電腦化測驗系統進行使用效能評估後之設計修正建議,與提供後續研究建議,期望國人更加重視電腦化測驗系統的設計要點,以符合使用效能之議題,提昇測驗系統之成效。
英文摘要 Teachers can observed students’ learning status, and also can find their perplexing from the test system. It can be an indication to improve Teaching and Learning. When technology and internet integrate, there are many advantages on computer-based tests system, it is different to before. For example, it can test at anytime or it can depend on students’ level to use different assessment, and the result is immediately report from computer-analyzed, and this software can quickly handle a large number of answers ...etc. Therefore, computer-based test system deserves to be discussions and analyses because it has set and widely used in education, and the system operates whether users fit their requirements and cognitions to achieve maximum system performance.
According to literatures show that the usability of a system must allow users easy to finish their work and all of operation process should be satisfaction. Especially in computer-based test system that focused on setting different pattern for teachers and students in satisfaction because they have different necessary. To make this system is easy to learning and work, and be efficient system program. This study aimed to understand "computer-based tests system" of usability testing situation, a case study "A web-based examination system for junior high school students in taoyuan county ", use of usability testing, to summarize results and make recommendations. As achieved above purpose, in this paper star to explore the usability testing to its related documents, and understand the usability testing principles and evaluative methods for induce experimental methods and processes.
In the study, there were six teachers participating in eight tasks and six students took part in six tasks. All participators operate process to through Morae Recorder that is observation software to record all of courses for every participator. As well, there used Morae Management to convert the observation software into data information for result analysis. After finishing the task, every participator needs to give their feeling to score by all the tasks. Moreover, it can use an interview to understand about teachers and students of experiences which kind of difficult positions and feeling during their operating, and then revise and suggest this system.
The research discovery of the teacher’s management functions that "create student account" is the most difficult; the average score in operating is 4.33. Regarding with analysis, the system function was multifarious and professional, hence, it was difficult to general teachers. The test by students who "post a new topic in discussion area" is the most difficult to answer. The average score in operating is 3.67. Due to the system of function setting in “News” service, it has difference cognition by most of users, so that students were not easy to find this area for discussion.
As a result, it displays the whole system on usability testing should be revising system interface on bright and click on object can be clear and improve the font size、align…ect.
According to the result, this essay will supply some amendments, after this system evaluation. And also, this essay will provides some suggestions for following research. So the study hopes to people pay more attention and focus on this system of program features to advance the topic.
論文目次 第一章 緒論 1
第一節 研究背景與動機 1
第二節 研究目的與待答問題 2
第三節 名詞釋義 3
第四節 研究範圍與限制 3
第五節 預期貢獻 4
第二章 文獻探討 5
第一節 從教育測驗到電腦化測驗應用 5
第二節 使用效能探討 20
第三章 研究方法 41
第一節 研究方法 41
第二節 研究對象 42
第三節 研究流程 43
第四節 研究工具 46
第五節 資料處理與分析 61
第四章 研究結果與討論 63
第一節 管理功能使用效能分析 63
第二節 測驗功能使用效能分析 73
第三節 滿意度與使用性問題訪談分析 81
第四節 「桃園縣國中生網路檢測系統」使用效能評估結果分析 88
第五章 結論與建議 94
第一節 研究結論 94
第二節 研究建議 100
參考文獻 101
附錄 106
附錄一:教師工作任務清單 106
附錄二:學生工作任務清單 107
附錄三:受試者滿意度訪談大綱 108
附錄四:受試者使用效能感受訪談大綱 110
附錄五:教師任務標準流程滑鼠點擊次數 111
附錄六:學生任務標準流程滑鼠點擊次數 113

表目次
表2-1-1各類課堂測驗的比較 6
表2-1-2資訊科技融入學科的應用範圍、工具與方法 7
表2-1-3 電腦化測驗系統優點與限制 13
表2-1-4 攜手計畫課後扶助篩選追蹤輔導轉銜試辦計畫實施時程 15
表2-1-5教育部國民中學自我學習測驗類型 16
表2-1-6國際學生評量系統實施時程 17
表2-1-7台南縣學生資訊檢測能力指標 18
表2-1-8電腦測驗系統網站分析 19
表2-2-1使用效能效標整理 22
表2-2-2專家學者對使用效能的定義與詮釋 23
表2-2-3 常見的使用效能定義類型列表 25
表2-2-4 使用效能設計原則 26
表2-2-5 使用效能評估方法 28
表2-2-6 使用效能評估方法 33
表2-2-7 Nielson介面評估原則 35
表2-2-8介面評估原則 36
表2-2-9 需求分析的目標 38
表2-2-10 系統使用者需求層次 39
表3-1-1 觀察的型式 41
表3-2-1 受試教師背景資料 42
表3-2-2 受試學生背景資料 43
表3-3-1 研究時程規劃表 46
表3-4-1 「桃園縣國中生網路檢測系統」功能列表 47
表3-4-2 「桃園縣國中生網路檢測系統」網站統計資料 48
表3-4-3 專家效度檢測之專家背景資料表 55
表3-4-4 教師工作任務說明 55
表3-4-5學生工作任務說明 57
表3-4-6 受試者滿意度訪談大綱 60
表3-4-7 受試者使用效能感受訪談大綱 61
表3-5-1研究資料整理分析 61
表3-5-2觀察資料整理分析 62
表4-1-1 教師任務完成平均時間 63
表4-1-2 教師任務完成時間分析 65
表4-1-3 教師任務難易度平均數 65
表4-1-4 教師任務一 68
表4-1-5 教師任務二 70
表4-1-6 教師任務三 70
表4-1-7 教師任務四 71
表4-1-8 教師任務五 71
表4-1-9 教師任務六 72
表4-1-10 教師任務七 72
表4-1-11 教師任務八 72
表4-2-1 學生任務完成平均時間 73
表4-2-2學生任務完成時間分析 74
表4-2-3 學生任務難易度平均數 75
表4-2-4 學生任務一 78
表4-2-5 學生任務二 78
表4-2-6 學生任務三 79
表4-2-7 學生任務四 79
表4-2-8 學生任務五 80
表4-2-9 學生任務六 80
表4-3-1 受試教師滿意度平均值 81
表4-3-2 受試教師滿意度訪談重點摘要表 82
表4-3-3 受試教師使用效能感受訪談重點摘要表 84
表4-3-4 受試學生滿意度平均值 85
表4-3-5 受試學生滿意度訪談重點摘要表 85
表4-3-6 受試學生使用效能感受訪談重點摘要表 87
表4-4-1 「桃園縣國中生網路檢測系統」使用效能評估總表 88
表4-4-2 「桃園縣國中生網路檢測系統」使用效能文獻驗證表 90
表5-1-1 教師「任務一」操作分析總表 94
表5-1-2 學生「任務六」操作分析總表 96
表5-1-3 「電腦化測驗系統」建置原則建議表 99

圖目次
圖2-1-1 教學歷程 5
圖2-1-2 教育部攜手計畫電腦化測驗系統首頁 15
圖2-1-3教育部國民中學自我學習測驗晝面 16
圖2-1-4國際學生評量系統測驗畫面 17
圖2-1-5基隆市國中英語診斷式評量系統 18
圖2-1-6台南縣學生資訊檢測網站 19
圖2-2-1系統可接受度模型 38
圖3-3-1研究流程圖 44
圖3-4-1 「桃園縣國中生網路檢測系統」糸統架構圖 48
圖3-4-2 實驗場域 59
圖3-4-3 MORAE MANAGER使用畫面 60
圖4-1-1受試教師任務完成個別時間 64
圖4-1-2受試教師任務難易度平均數 66
圖4-1-3受試教師任務難易度 66
圖4-1-4教師任務標準流程滑鼠點擊次數 67
圖4-1-5受試教師滑鼠點擊平均次數 67
圖4-1-6教師任務滑鼠點擊次數比較 68
圖4-2-1學生任務完成平均時間 74
圖4-2-2 受試學生任務難易度平均數 75
圖4-2-3 個別學生任務難易度 76
圖4-2-4 學生任務標準流程滑鼠點擊次數 76
圖4-2-5 受試學生滑鼠點擊平均次數 77
圖4-2-6 學生任務滑鼠點擊次數比較 77
參考文獻 中文文獻
余民寧(1992)。試題反應理論的介紹(2)-測驗理論的發展趨勢。研習資訊月刊,9(2),5-9。
余民寧(1997)。教育測驗與評量:成就測驗與教學評量。台北:心理出版社。
李世忠(1993)。使用者介面的探討。視聽教育雙月刊,36(1), 49~57。
李連順(2000)。國中生活科技線上測驗系統發展研究。國立高雄師範大學工業科技教育學系碩士論文,未出版,高雄市。
李青蓉、魏丕信、施郁芬、邱昭彰(1999)。人機介面設計。台北:國立空中大學。
何榮桂、陳麗如、郭再興、蘇建誠、藍玉如(1997)。虛擬測驗服務中心建構在Internet
之適性測驗環境。台灣區網際網路學術研討會,台北。
何榮桂、林一真,黃堅厚,蘇建誠(1997)。上網做「我喜歡做的事」。第三屆兩岸教育與心理測驗學術研討會,台北。
何榮桂、郭再興、蘇建誠、陳麗如(1999)。在Internet上建構測驗環境之可行性及相關問題之探討。載於中國測驗學會(主編),新世紀測驗學術發展趨勢,125-135。台北:心理出版社。
何榮桂、林俊佑(2004)。行動練習系統之設計與評估。台灣區學術網際網路研討會論文集。台東大學。
吳信義(1996)。多媒體電腦題庫系統:編輯系統之設計,遠距教育,10,56-62。
吳裕益(2000)。教學評量的新趨勢。教育研究,70,6-9。
林鴻源(1999)。線上測驗回饋型態對國小學童學習影響之分析研究。國立台南師範學院國民教育研究所碩士論文,未出版,台南市。
林昭汶(2003)。程式設計網路學習系統之設計與實作評量建構。東吳大學資訊科學系碩士碩文,未出版,台北市。
林敏芳(2005)。線上評量應用於教學上的現狀與發展。生活科技教育月刊,38(1),74-85。
林明達(1998)。全球資訊網線上測驗系統設計與製作。交通大學資訊科學學系碩士論文,未出版,新竹市。
林裕集(2001)。適用於電腦教室之網路測驗系統:以國小英語科為例。臺中師範學院教育測驗統計研究所碩士論文,未出版,臺中市。
林淑芳、林麗娟(1995)。使用者介面-電腦輔助學習之認知要徑。視聽教育雙月刊,37(3),18-27。
洪郁修(2001)。兒童WWW人際溝通網路介面之研究。國立成功大學工業設計系碩碩士班論文,未出版,台南市。
許珀文(1998)。應用活動理論來發展人機介面-以WebTV為例。國立交通大學工業工程與管理研究所碩士論文,未出版,新竹市。
張基成、王秋錳(2008)。台北市高職教師資訊科技融入教學之影響因素。教育實踐與研究月刊,21(1),97-123。
黃雅綾(2003)。居家之智慧型安全系統介面研究。台北科技大學工業設計系暨創新設計研究所碩士論文,未出版,台北市。
溫明正(1999)。教師資訊素養評量表-資訊與網路教學應用。台北:國民教育輔導團。
溫明正(1999)。電腦在未來教學評量上的應用。教師天地,99,54-60。
溫嘉榮(2003)。教師如何將資訊融入學科成為教學工具。教育研究月刊,105,79。
郭如萍(2006)。使用者中心設計取向之網站使用性實踐初探:意義、方法與台灣網路產業現況。國立交通大學傳播研究所碩士論文,未出版,新竹市。
陳新豐(2007)。台灣學位電腦化測驗研究的回顧與展望,教育研究與發展期刊,3(4), 217-223。
陳志信(1993)。電腦化測驗的優點及可能的問題。學生輔導通訊,24,72-75。
蔡振昆(2001)。傳統教學與網路教學之比較研究-從教學媒體、班級經營及教學評量來探討。國立中山資訊管理研究所碩士論文,未出版,高雄市。
魏澤群 (2007)。優使性2.0 (Usability 2.0)-網站經驗設計。台北:網奕資訊。
鄧友清(2000)。以使用性為訴求的國中數學網路教學介面之研究。大葉大學資訊管理研究所碩士論文,未出版,彰化市。
英文文獻
Alessi, S. M., & Trollip, S. R. (1991). Computer-based instruction: Methods and development. (2nd ed.).Englewood Cliffs, NJ: Prentice-Hall.
Ager, T. (1993). Online placement testing in mathematics and chemistry. Journal and Computer-Based Instruction, 20(2), 52-57.
Bugbee, A. C. (1994). Examination on demand:findings in ten years of testing by computer 1982-1991. Edina, MN:TRO Learning.
Bailey, R.W. (1982). Human Performance Engineering: A guide for system designers. Englewood Cliffs, NJ: Prentice-Hall.
Benyon, D., Turner, P., & Turner, S. (2005). Designing interactive systems – People, activities, contexts, technologies . Edinburgh: Pearson Education Limited.
Fletcher, P. & Collins, M. A. J. (1987). Computer administered versus written tests: Advantages and disadvantages. Journal of Computers in Mathematics and Science Teaching, 6(2), 38-43.
Gould, J. D. (1988). How to design usable systems. In M. Helander (Ed.), Handbook of Human-computer Interaction (pp. 757-789). Amsterdam: North-Holland.
Galitz, W. O. (2002). The essential guide to user interface design. New York: John Wiley and Sons.
Ho, R.-G. & Yen, Y.-C. (2005). Design and evaluation of an XML-based platform-Independent computerized adaptive testing system. IEEE Transactions on Education, 48 (2), 230-237.
ISO 9241-11 (1998). Ergonomic requirements for office work with visual display terminals (VDT)s – Part 11 Guidance on usability.
Krug, S. (2006). Don’t make me think!: a common sense approach to web usability (2nd ed.).
Berkeley, Calif.: New Riders.
Khan, B. H. (1997). Web-based instruction(WBI): What is it and why is it ? In B. H. Khan (Ed.), Web-based instruction (pp.5-18). Englewood Cliffs , NJ : Educational Technology Publications, Inc..
Long, G. M., & Kearns, D. F. (1996). Visibility of text and icon highway signs under dynamic
viewing conditions.Human Factors, 34(4),690-701.
Mazzeo, J., & Harvey, A. L. (1988). The equivalence of scores from automated and
conventional education and psychological tests. New York: College Entrace
Examination Board.
McCormack, D., & Jones, D. (1997). Building a Web-Based Education System. New York: Wiley Computer Publishing.
Nielsen, J. (1993). Usability Engineering. Cambridge, MA: AP Professional.
Nielsen, J., & Tahir, M. (2002). Homepage usability:50 websites deconstructed.
Indianapolis, Ind.: New Riders Publishing.
Poewll, T. A, Jones, D. L & Cutts, D. C. (1998). Web Site Engineering Beyond Web Page Design. Portland, OR: Prentice Hall PTR.
Preece, J.J., & Benyon, D. (Eds.). (1993). A guide to Usability: Human Factors in Computing. Wokingham, England: Addison-Wesley.
Preece, J. J. (1998). Empathic communities: reaching out across the Web. Interactions, 5(2): 32-43.
Preece, J. (1992). Human-computer interaction. Wokingham, UK: Addison Wesley.
Preece, J., Rogers, Y., & Sharp, H. (2011). Interaction design: Beyond human-computer interaction (3rd Ed.). New York: John Wiley & Sons.
Quesenbery, W. (2001). What does usability mean: Looking beyond 'ease of use'.Paper presented at the the 48th Annual Conference, Society for TechnicalCommunication. Chicago, Illinois, USA.
Shneiderman, B. & Catherine, P. (2005). Design the user interface fourth edition strategies for effective human-computer interaction (4th ed.). English: Addison-Wesley.
Shackel, B. (1991). Usability - context, framework, definition, design and evaluation. In B.
Stiggins, R. J. (2005). Student-involved assessment for learning (4th ed.). New York: Merrill prentice Hall.
Shneiderman, B., & Plaisant, C., (2004). Designing the User Interface:Strategies for effective human-computer interaction (4th ed.). Boston : Pearson/Addison Wesley.
Shackel & S.J. Richardson (Eds.), Human factors for informatics usability (pp. 21-37). New
York: Cambridge University Press.
Whitaker. L. A. (1998). Human Navigation, Human Factors and Web Development, Lawrence Erlbaum Associates, Inc., pp.63-71.
Wiggins, G. P. (1998). Educative assessment: Designing assessments to inform and improve student performance. San Francisco: Jossey-Bass Publishers.
論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2016-06-27公開。
  • 同意授權瀏覽/列印電子全文服務,於2016-06-27起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2281 或 來信