สมมติว่า มีตัวอย่าง x1, x2,..., xn n อิสระ และกระจายเหมือนกันสังเกต มาแจกแจงด้วยการ f0(·) ฟังก์ชันความหนาแน่นของความน่าเป็นที่รู้จัก มันเป็นอย่างไรก็ตาม surmised ว่า f0 ฟังก์ชันสมาชิกครอบครัวกระจาย {f(·| θ) θ∈Θ} (θเวกเตอร์ของพารามิเตอร์สำหรับตระกูลนี้), เรียกแบบพาราเมตริก ดังนั้นที่ f0 = f (·| θ0) Θ0 ค่าไม่รู้จัก และจะเรียกว่าคุณค่าแท้จริงของเวกเตอร์พารามิเตอร์ ต้องหา scriptstylehat heta การประมาณการซึ่งจะใกล้เคียงกับ θ0 ค่าความจริงเป็นไป ได้ อย่างใดอย่างหนึ่ง หรือทั้งสองสิสังเกตตัวแปรและพารามิเตอร์θจะได้เวกเตอร์การใช้วิธีการของความเป็นไปได้สูงสุด หนึ่งก่อนระบุฟังก์ชันความหนาแน่นร่วมสำหรับการสังเกต อย่างเป็นอิสระ และกระจายเหมือนกัน ฟังก์ชันความหนาแน่นร่วมนี้เป็น f(x_1,x_2,ldots,x_n;|; heta) = f (x_1| heta) imes f(x_2| heta) imes cdots imes f(x_n| heta) ตอนนี้ เราดูที่ฟังก์ชันนี้จากมุมมองที่แตกต่างกัน โดยพิจารณาสังเกตค่า x1, x2,..., xn ถาวร "พารามิเตอร์" ที่งานนี้ ในขณะที่θจะเป็นตัวแปรของฟังก์ชัน และสามารถเปลี่ยนแปลงได้อย่างอิสระ ฟังก์ชันนี้จะเรียกว่าโอกาส: mathcal{L}( heta,;,x_1,ldots,x_n) = f(x_1,x_2,ldots,x_n;|; heta) = prod_{i=1}^n f(x_i| heta) หมายเหตุ แสดงการแยกระหว่างสองอินพุตอาร์กิวเมนต์: heta และที่ค่าเวกเตอร์อินพุต x_1, ldots, x_nในทางปฏิบัติ จึงมักจะเพิ่มเติมการทำงานกับลอการิทึมของฟังก์ชันความน่าเป็น โอกาสบันทึกที่เรียกว่า: lnmathcal{L}( heta,;,x_1,ldots,x_n) = sum_{i=1}^n ln f(x_i| heta) หรือเฉลี่ยล็อกโอกาส: hatell = frac1n lnmathcal{L } หาดใหญ่ผ่านℓบ่งชี้ว่า มันเป็นเหมือนกับบางประมาณ จริง ๆ scriptstylehatell ประเมินคาดล็อกโอกาสเก็บข้อมูลเดียวในแบบจำลองวิธีการของความเป็นไปได้สูงสุดประมาณ θ0 โดยการหาค่าของθที่วาง scriptstylehatell( heta;x) วิธีการประเมินนี้กำหนดประมาณความเป็นไปได้สูงสุด (พื้นฐาน) θ0 ... subseteq {hat heta_mathrm{mle} } { underset{ hetainTheta}{operatorname{arg,max}} hatell( heta,;,x_1,ldots,x_n) } ...ถ้ามีสูงสุด การประเมินพื้นฐานอยู่เหมือนกันว่าเราขยายโอกาสหรือฟังก์ชันความน่าเป็นล็อก ล็อกเป็น ฟังก์ชันเพิ่ม monotonically อย่างเคร่งครัดสำหรับหลายรูปแบบ การประมาณความเป็นไปได้สูงสุดสามารถพบเป็นฟังก์ชันชัดแจ้งการสังเกตข้อมูล x1,..., xn สำหรับรุ่นอื่น ๆ มากมาย อย่างไรก็ตาม ไม่แก้ไขปัญหา maximization แบบปิดเป็นที่รู้จัก หรือไม่มี และพื้นฐานการได้พบเรียงตามตัวเลขโดยใช้วิธีการปรับให้เหมาะสม สำหรับปัญหา อาจมีการประเมินหลายที่ขยายโอกาสการ สำหรับปัญหาอื่น ๆ ไม่ประเมินความเป็นไปได้สูงสุดแล้ว (หมายความ ว่า ฟังก์ชันความน่าเป็นล็อกเพิ่มขึ้น โดยไม่มีเรือค่า supremum)ในนิทรรศการดังกล่าว ก็จะสรุปข้อมูลเป็นอิสระ และกระจายเหมือนกัน สามารถใช้วิธีการอย่างไรก็ตามการกว้างตั้ง ตราบเท่าที่จำเป็นต้องเขียน f ฟังก์ชันความหนาแน่นร่วม (x1,..., xn | θ), θเป็นพารามิเตอร์มีขนาดจำกัดซึ่งขึ้นอยู่กับตัวอย่างขนาด n ในส่วนขยายที่เรียบง่าย เป็นเบี้ยเลี้ยงสามารถทำสำหรับข้อมูล heterogeneity เพื่อให้ความหนาแน่นร่วมเท่ากับ f1(x1|θ) · f2(x2|θ) ···· · fn(xn | θ) ใส่อีกวิธีหนึ่ง เรามีตอนนี้สมมติว่า สิละสังเกตมาจากตัวแปรสุ่มที่มีตนกระจายฟังก์ชันไร้สาย ในกรณีที่ซับซ้อนมากขึ้นเวลาชุดรุ่น อัสสัมชัญเป็นอิสระได้ยุติลงด้วยประมาณความเป็นไปได้สูงสุดกรุณาประมาณทฤษฎีมากที่สุดน่าเป็นที่รับทราบกระจายสม่ำเสมอบนพารามิเตอร์ แน่นอน posteriori แบบประเมินมากที่สุดคือ θพารามิเตอร์ที่วางน่าเป็นของθที่ให้ข้อมูล กำหนด โดยทฤษฎีบทของ Bayes: P( heta|x_1,x_2,ldots,x_n) = frac{f(x_1,x_2,ldots,x_n| heta)P( heta)}{P(x_1,x_2,ldots,x_n) } ที่ P( heta) เป็นการกระจายก่อน สำหรับθพารามิเตอร์ และความน่าเป็นของข้อมูล averaged ผ่านพารามิเตอร์ทั้งหมด P(x_1,x_2,ldots,x_n) เนื่องจากตัวหารที่เป็นอิสระของθ ประมาณทฤษฎีจะได้รับ โดยการเพิ่ม f(x_1,x_2,ldots,x_n| heta)P( heta) กับθ ถ้าเราต่อไปสมมติว่า P( heta) ก่อนกระจายสม่ำเสมอ ประมาณทฤษฎีจะได้รับ โดยการเพิ่ม f(x_1,x_2,ldots,x_n| heta) ฟังก์ชันความน่าเป็น ดังนั้น ประมาณทฤษฎีกรุณา ด้วยประมาณความเป็นไปได้สูงสุดสำหรับการกระจายก่อนรูป P( heta)
การแปล กรุณารอสักครู่..
