Probability theory as a rational inductive inference procedure was ini การแปล - Probability theory as a rational inductive inference procedure was ini ไทย วิธีการพูด

Probability theory as a rational in

Probability theory as a rational inductive inference procedure was initiated by Bayes and Laplace,
and subsequently formalized by Jeffreys [46] and Cox [47]. In information theory [48], the notion
of entropy as a measure of uncertainty or incomplete knowledge was introduced by Shannon [14].
Building on these previous contributions, Jaynes [15, 49] proposed the principle of maximumentropy
(MAXENT), in which it was shown that maximizing entropy provides the least-biased
statistical inference when insufficient information is available. In References [11, 12], the basis
functions {i }n
i=1 are viewed as a discrete probability distribution {pi }n
i=1, and the polynomial
reproducing conditions are the under-determined constraints. To regularize the ill-posed problem,
the maximum-entropy principle was used. In this paper, as a generalization, the Shannon–Jaynes
entropy functional and the MAXENT or minimum relative entropy principle [16–18] is invoked to
obtain the basis functions. Sivia [44] presents an excellent introduction to Bayesian inference and
maximum-entropy methods, whereas Jaynes [50] provides a more rigorous and in-depth look at
probability theory from the Bayesian perspective.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Probability theory as a rational inductive inference procedure was initiated by Bayes and Laplace,and subsequently formalized by Jeffreys [46] and Cox [47]. In information theory [48], the notionof entropy as a measure of uncertainty or incomplete knowledge was introduced by Shannon [14].Building on these previous contributions, Jaynes [15, 49] proposed the principle of maximumentropy(MAXENT), in which it was shown that maximizing entropy provides the least-biasedstatistical inference when insufficient information is available. In References [11, 12], the basisfunctions {i }ni=1 are viewed as a discrete probability distribution {pi }ni=1, and the polynomialreproducing conditions are the under-determined constraints. To regularize the ill-posed problem,the maximum-entropy principle was used. In this paper, as a generalization, the Shannon–Jaynesentropy functional and the MAXENT or minimum relative entropy principle [16–18] is invoked toobtain the basis functions. Sivia [44] presents an excellent introduction to Bayesian inference andmaximum-entropy methods, whereas Jaynes [50] provides a more rigorous and in-depth look atprobability theory from the Bayesian perspective.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ทฤษฎีความน่าจะเป็นขั้นตอนการอุปนัยสรุปเหตุผลริเริ่มโดยเบส์และเลซและเป็นทางการภายหลังจากฟรีย์ [46] และคอคส์ [47]
ในทางทฤษฎีข้อมูล [48]
ความคิดของเอนโทรปีเป็นตัวชี้วัดของความไม่แน่นอนหรือความรู้ที่ไม่สมบูรณ์ได้รับการแนะนำให้รู้จักกับแชนนอน[14].
อาคารผลงานก่อนหน้านี้เหล่านี้เจย์นส์ [15 49] เสนอหลักการของ maximumentropy
(Maxent) ซึ่ง
มันก็แสดงให้เห็นว่าการเพิ่มเอนโทรปีให้น้อยลำเอียงอนุมานทางสถิติเมื่อมีข้อมูลไม่เพียงพอจะมี ในการการอ้างอิง [11, 12]
พื้นฐานการทำงาน{i} n
i = 1 จะถูกมองว่าเป็นความน่าจะเป็นที่ไม่ต่อเนื่องกระจาย {} ปี่ n
i = 1
และพหุนามเงื่อนไขการทำซ้ำเป็นข้อจำกัด ภายใต้การกำหนด
เพื่อให้เป็นระเบียบปัญหาไม่ดีถูกวางในหลักการสูงสุดเอนโทรปีถูกนำมาใช้ ในงานวิจัยนี้เป็นลักษณะทั่วไปของแชนนอน-เจย์นส์เอนโทรปีการทำงานและ Maxent หรือขั้นต่ำหลักการเอนโทรปีญาติ [16-18] ถูกเรียกเพื่อให้ได้ฟังก์ชั่นพื้นฐาน Sivia [44] ที่มีการแนะนำที่ดีกับการอนุมานแบบเบย์และวิธีการสูงสุดเอนโทรปีในขณะที่เจย์นส์[50] ให้ดูที่เข้มงวดมากขึ้นและในเชิงลึกที่ทฤษฎีความน่าจะเป็นจากมุมมองของเบย์



การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ทฤษฎีความน่าจะเป็นเป็นขั้นตอนการอนุมานเชิงอุปนัยเหตุผลถูกริเริ่มโดย Bayes ลาปลาสและ
, และต่อมาเป็นทางการโดยเจฟฟรีส์ [ 46 ] และ Cox [ 47 ] ในทฤษฎีสารสนเทศ [ 48 ] , ความคิด
ของเอนโทรปีเป็นวัดของความไม่แน่นอนหรือไม่สมบูรณ์ ความรู้แนะนำ Shannon [ 14 ] .
สร้างผลงานก่อนหน้านี้ เจนส์ [ 15 , 49 ] เสนอหลักการของ maximumentropy
( maxent ) ซึ่งพบว่า การเพิ่มค่าให้น้อยที่สุด สถิติอนุมานลำเอียง
เมื่อข้อมูลไม่เพียงพอที่สามารถใช้ได้ ในเอกสารอ้างอิง [ 11 , 12 ] ,
{ ผม } ฟังก์ชั่นพื้นฐาน  n
= 1 จะดูเป็นแบบการแจกแจงความน่าจะเป็นแบบไม่ต่อเนื่องและ { }
n = 1 , และทำซ้ำเงื่อนไขในพหุนาม
กำหนดข้อจำกัด ให้ทหารประจำการป่วย posed ปัญหา
หลักการเอนโทรปีสูงสุดใช้ ในกระดาษนี้เป็นลักษณะทั่วไป , แชนนอน ( เจนส์
ค่าใช้สอย และ maxent หรือต่ำสุดสัมพัทธ์หลักการเอนโทรปี [ 16 ] 18 –แอม

ขอรับพื้นฐานการทำงาน sivia [ 44 ] แสดงการแนะนำที่ดีในการอนุมานแบบเบย์และ
วิธีเอนโทรปีสูงสุด ในขณะที่เจนส์ [ 50 ] มีลักษณะเข้มงวดมากขึ้นและในเชิงลึกที่
ทฤษฎีความน่าจะเป็นแบบเบย์ จากมุมมองที่ .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: