系統識別號 | U0002-2907201014091900 |
---|---|
DOI | 10.6846/TKU.2010.01098 |
論文名稱(中文) | 科學邏輯與最大熵原理 |
論文名稱(英文) | Logic of Science and Maximum Entropy Principle |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 物理學系碩士班 |
系所名稱(英文) | Department of Physics |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 98 |
學期 | 2 |
出版年 | 99 |
研究生(中文) | 吳俊安 |
研究生(英文) | Chun-An Wu |
學號 | 695210269 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2010-07-05 |
論文頁數 | 56頁 |
口試委員 |
指導教授
-
曾文哲
委員 - 何俊麟 委員 - 施華強 |
關鍵字(中) |
貝氏定理 最大熵原理 |
關鍵字(英) |
Bayes theorem Maximum entropy principle |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
當我們處理問題時,運用不同的分析方法會得到不同的結果。因此該運用何種方法做數據分析才符合科學邏輯?關於這個問題貝葉斯定理能夠給予我們一個滿意的答案;面對一問題時由已有的資訊(X)建立假說(H),再經由實驗取得數據(D)驗證假說是否成立。 然而該如何從已知的資訊建立一合理的假說就需要透過信息熵與最大熵原理的協助。薛農(Claude Elwood Shannon April 30, 1916 – February 24, 2001 )於1948年提出了信息熵的概念來描述一事件本身的不確定度。而藉由探討一事件本身具有信息熵量來求取在固定條件下事件最有可能的演化行為便是最大熵原理。最大熵原理則明確的指出,在我們面對一問題時,猜測結果的機率分佈應滿足其熵達到最大值。 傑尼斯( E. T. Jaynes July 5, 1922 –, April 30, 1998 )運用薛農所建立的信息熵來討論物理系統。如同我們對於最大熵原理的認知,傑尼斯認為在滿足所有限制下,具有最大信息熵值得一組分佈為我們所真實觀測到的分佈。這與熱力學第二定律中的描述非常類似。因此他直接認為在資訊理論中的信息熵與在物理系統中的熱力熵為同樣的物理量,因此我們可以藉由系統中熵的變化來討論統計力學的問題。 我們可以透過拉格朗日變分法(Lagrange multipliers method)來求取在統計力學系統中的最大熵,並且透過建立分配函數(partition function)來得到變分方程的解。運用此方法來討論統計力學將更加清晰簡單,並且有機會在非平衡系統下尋找合理的解釋。 |
英文摘要 |
The main question of this work is to introduce Logic and maximum entropy principle. Different person may have different opinion when they face to an event, that’s because everybody will think subjectively. We must to avoid this when we are discussing science. We will discuss Bayes theorem and Logic in the first chapter, for the classical probability opinion we will know why Bayes theorem can help us to discuss science. And in the second and third chapter we will introduce the measure of uncertainty-information entropy and maximum entropy principle. Because of the subjectivity of prior probability distribution of Bayes theorem, we need maximum entropy principle to help us to get objectivity prior. And at last chapter we discuss another way to get objectivity prior, what’s called the principle of transformation groups. When we face a problem, principle of transformation groups tell us to find the symmetrization of this problem, and we require this problem is invariant under the symmetric transform. It is very easy way to help us to find the objectivity prior when our problem has high symmetrization. Discuss logic can help us to recognize science easily. We wish the maximum entropy principle may have a great success in statistical mechanics in the future. |
第三語言摘要 | |
論文目次 |
前言 1 第一章 機率與貝氏定理Probability and Bayes Theorem 3 § 1.1 邏輯分析Logic analysis 3 § 1.2由對稱性來思考機率probability and frequency 7 § 1.3邏輯與機率Logic and probability 9 § 1.4貝氏定理與對假設做檢驗的運用 Hypotheses test~the application of Bayes theorem 10 § 1.5合理性檢驗Significance tests 13 第二章 信息熵定理Shannon’s Theorem 18 § 2.1信息熵Shannon’s Information Entropy 18 § 2.2最大熵原理The Principle of Maximum Entropy 22 § 2.3拉格朗日乘數法的運用Lagrange Multiplier Method 23 第三章 機率與信息熵的深入討論Discussion of maximum entropy principl 27 § 3.1預測機率與頻率$Predictive probability and frequency 27 § 3.2連續分佈Continuous distribution 32 § 3.3最大熵原理的運用Application of maximum entropy principle 35 第四章 對於機率理論的其他討論The other discussion of probability theorem. 38 § 4.1變換群(Transformation groups ) 38 § 4.2換群原理Deep discussion 41 § 4.3柏川德詭論Bertrand paradox 44 結語. 54 參考資料. 56 |
參考文獻 |
Reference: Galileo Galilei, Il Saggiatore (in Italian) (Rome, 1623); The Assayer, English trans. Stillman Drake and C. D. O'Malley, in The Controversy on the Comets of 1618 (University of Pennsylvania Press, 1960). E. T. Jaynes, Probability theory: the logical of science(ch4 pp86) E. T. Jaynes, Probability theory: the logical of science(ch4 pp87~105) C. E. Shannon, A mathematical theory of communication(pp1~14) E. T. Jaynes, Probability theory: the logical of science(ch9 pp280~305) L. D. Landau and E. M. Lishitz, Statistical Physics E. T. Jaynes, Probability theory: the logical of science(ch12 pp372~377) E. T. Jaynes, The well-posed problem, Foundations of Physics 3: 477–493 Grinstead and Snell’s introduction to probability(ch1~ch3) G. Larry Bretthorst An introduction to parameter estimation using Bayesian probability theorey Tom Loredo Bayesian Inference-A Practical Primer Tom Loredo Bayesian Inference in Astronomy and Astrophysics A short course Shannon, Claude E.: Prediction and entropy of printed English, The Bell System Technical Journal, 30:50-64, January 1951 曾致遠-淺談最大熵原理和統計物理學 魏慶榮-淺談統計 |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信