Probability theory as a rational inductive inference procedure was initiated by Bayes and Laplace,
and subsequently formalized by Jeffreys [46] and Cox [47]. In information theory [48], the notion
of entropy as a measure of uncertainty or incomplete knowledge was introduced by Shannon [14].
Building on these previous contributions, Jaynes [15, 49] proposed the principle of maximumentropy
(MAXENT), in which it was shown that maximizing entropy provides the least-biased
statistical inference when insufficient information is available. In References [11, 12], the basis
functions {i }n
i=1 are viewed as a discrete probability distribution {pi }n
i=1, and the polynomial
reproducing conditions are the under-determined constraints. To regularize the ill-posed problem,
the maximum-entropy principle was used. In this paper, as a generalization, the Shannon–Jaynes
entropy functional and the MAXENT or minimum relative entropy principle [16–18] is invoked to
obtain the basis functions. Sivia [44] presents an excellent introduction to Bayesian inference and
maximum-entropy methods, whereas Jaynes [50] provides a more rigorous and in-depth look at
probability theory from the Bayesian perspective.
Probability theory as a rational inductive inference procedure was initiated by Bayes and Laplace,and subsequently formalized by Jeffreys [46] and Cox [47]. In information theory [48], the notionof entropy as a measure of uncertainty or incomplete knowledge was introduced by Shannon [14].Building on these previous contributions, Jaynes [15, 49] proposed the principle of maximumentropy(MAXENT), in which it was shown that maximizing entropy provides the least-biasedstatistical inference when insufficient information is available. In References [11, 12], the basisfunctions {i }ni=1 are viewed as a discrete probability distribution {pi }ni=1, and the polynomialreproducing conditions are the under-determined constraints. To regularize the ill-posed problem,the maximum-entropy principle was used. In this paper, as a generalization, the Shannon–Jaynesentropy functional and the MAXENT or minimum relative entropy principle [16–18] is invoked toobtain the basis functions. Sivia [44] presents an excellent introduction to Bayesian inference andmaximum-entropy methods, whereas Jaynes [50] provides a more rigorous and in-depth look atprobability theory from the Bayesian perspective.
การแปล กรุณารอสักครู่..
ทฤษฎีความน่าจะเป็นเป็นขั้นตอนการอนุมานเชิงอุปนัยเหตุผลถูกริเริ่มโดย Bayes ลาปลาสและ
, และต่อมาเป็นทางการโดยเจฟฟรีส์ [ 46 ] และ Cox [ 47 ] ในทฤษฎีสารสนเทศ [ 48 ] , ความคิด
ของเอนโทรปีเป็นวัดของความไม่แน่นอนหรือไม่สมบูรณ์ ความรู้แนะนำ Shannon [ 14 ] .
สร้างผลงานก่อนหน้านี้ เจนส์ [ 15 , 49 ] เสนอหลักการของ maximumentropy
( maxent ) ซึ่งพบว่า การเพิ่มค่าให้น้อยที่สุด สถิติอนุมานลำเอียง
เมื่อข้อมูลไม่เพียงพอที่สามารถใช้ได้ ในเอกสารอ้างอิง [ 11 , 12 ] ,
{ ผม } ฟังก์ชั่นพื้นฐาน n
= 1 จะดูเป็นแบบการแจกแจงความน่าจะเป็นแบบไม่ต่อเนื่องและ { }
n = 1 , และทำซ้ำเงื่อนไขในพหุนาม
กำหนดข้อจำกัด ให้ทหารประจำการป่วย posed ปัญหา
หลักการเอนโทรปีสูงสุดใช้ ในกระดาษนี้เป็นลักษณะทั่วไป , แชนนอน ( เจนส์
ค่าใช้สอย และ maxent หรือต่ำสุดสัมพัทธ์หลักการเอนโทรปี [ 16 ] 18 –แอม
ขอรับพื้นฐานการทำงาน sivia [ 44 ] แสดงการแนะนำที่ดีในการอนุมานแบบเบย์และ
วิธีเอนโทรปีสูงสุด ในขณะที่เจนส์ [ 50 ] มีลักษณะเข้มงวดมากขึ้นและในเชิงลึกที่
ทฤษฎีความน่าจะเป็นแบบเบย์ จากมุมมองที่ .
การแปล กรุณารอสักครู่..