It is quite simple to estimate a truncated regression model by maximum การแปล - It is quite simple to estimate a truncated regression model by maximum ไทย วิธีการพูด

It is quite simple to estimate a tr

It is quite simple to estimate a truncated regression model by maximum like- lihood if the distribution of the error terms in the latent variable model is assumed to be known. By far the most common assumption is that the error terms are normally, independently, and identically distributed, as in (11.66). We restrict our attention to this special case. If the regression function for the latent variable model is Xtβ, the probability that y◦ t is included in the sample is
Pr(y◦ t ≥0) = Pr(Xtβ +ut ≥0) = 1−Pr(ut
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
It is quite simple to estimate a truncated regression model by maximum like- lihood if the distribution of the error terms in the latent variable model is assumed to be known. By far the most common assumption is that the error terms are normally, independently, and identically distributed, as in (11.66). We restrict our attention to this special case. If the regression function for the latent variable model is Xtβ, the probability that y◦ t is included in the sample isPr(y◦ t ≥0) = Pr(Xtβ +ut ≥0) = 1−Pr(ut <−Xtβ) = 1−Pr(ut/σ <−Xtβ/σ) = 1−Φ(−Xtβ/σ) = Φ(Xtβ/σ). When y◦ t ≥ 0 and yt is observed, the density of yt is proportional to thedensity of y◦ t. Otherwise, the density of yt is 0. The factor of proportionality, which is needed to ensure that the density of yt integrates to unity, is the inverse of the probability that y◦ t ≥ 0. Therefore, the density of yt can bewritten as σ−1φ¡(yt −Xtβ)/σ¢ Φ(Xtβ/σ) . This implies that the loglikelihood function, which is the sum over all t of the log of the density of yt conditional on y◦ t ≥0, is `(y,β,σ) =− n − 2 log(2π)−nlog(σ)− 1 2σ2 n X t=1 (yt −Xtβ)2 − n X t=1 logΦ(Xtβ/σ). (11.67) Maximization of expression (11.67) is generally not difficult. Even though the loglikelihood function is not globally concave, there is a unique MLE; see Orme and Ruud (2002). The first three terms in expression (11.67) comprise the loglikelihood function that corresponds to OLS regression; see equation (10.10). The last term is minus the summation over all t of the logarithms of the probabilities that an observation with regression function Xtβ belongs to the sample. Since these probabilities must be less than 1, this term must always be positive. It can be made larger by making the probabilities smaller. Thus the maximization algorithm chooses the parameters in such a way that these probabilities are smaller than they would be for the OLS estimates. The presence of this fourth term therefore causes the ML estimates of β and σ to differ, often substantially, from their least-squares counterparts, and it ensures that the ML estimates are consistent
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
มันค่อนข้างง่ายในการประเมินรูปแบบการถดถอยตัดทอนโดย lihood like- สูงสุดหากการกระจายของเงื่อนไขข้อผิดพลาดในรูปแบบตัวแปรแฝงจะถือว่าเป็นที่รู้จัก โดยไกลสมมติฐานพบบ่อยที่สุดคือเงื่อนไขข้อผิดพลาดเป็นปกติเป็นอิสระและกระจายเหมือนกันในขณะที่ (11.66) เรา จำกัด การความสนใจของเรากับกรณีพิเศษนี้ ถ้าฟังก์ชั่นการถดถอยสำหรับรูปแบบตัวแปรแฝงเป็นXtβน่าจะเป็นที่y◦ทีจะรวมอยู่ในตัวอย่างเป็น
Pr (y◦เสื้อ≥0) = Pr (Xtβ + คัด≥0) = 1-Pr (UT <-Xtβ ) = 1-Pr (UT / σ <-Xtβ / σ) = 1-Φ (-Xtβ / σ) = Φ (Xtβ / σ) เมื่อy◦เสื้อ≥ 0 และ yt เป็นที่สังเกตความหนาแน่นของ yt เป็นสัดส่วนกับ thedensity ของy◦ที มิฉะนั้นความหนาแน่นของ yt คือ 0 ปัจจัยสัดส่วนซึ่งเป็นสิ่งจำเป็นเพื่อให้แน่ใจว่ามีความหนาแน่นของ yt รวมถึงความสามัคคีเป็นผกผันของความน่าจะเป็นที่y◦เสื้อ≥ 0 ดังนั้นความหนาแน่นของ yt สามารถ bewritten เป็น σ-1φ¡ (yt -Xtβ) / σ¢Φ (Xtβ / σ) นี่ก็หมายความว่าฟังก์ชั่น loglikelihood ซึ่งเป็นผลรวมกว่าตันบันทึกของความหนาแน่นของ yt เงื่อนไขทั้งหมดในy◦เสื้อ≥0เป็น `(y, β, σ) = - n - 2 เข้าสู่ระบบ (2π) -nlog (σ) - 1 2σ2 n X t = 1 (yt -Xtβ) 2 - n X t = 1 logΦ (Xtβ / σ) (11.67) การเพิ่มประสิทธิภาพในการแสดงออก (11.67) โดยทั่วไปจะไม่ดิศาสนา FFI แม้ว่าการทำงาน loglikelihood ไม่ได้ทั่วโลกเว้ามี MLE ไม่ซ้ำกัน; เห็นออร์มคอร์ตและโร (2002) สายแรกสามข้อตกลงในการแสดงออก (11.67) ประกอบด้วยฟังก์ชั่น loglikelihood ที่สอดคล้องกับการถดถอย OLS; ดูสมการ (10.10) ระยะสุดท้ายคือการบวกลบกว่าเสื้อทั้งหมดของลอการิทึมของความน่าจะเป็นที่สังเกตด้วยฟังก์ชั่นการถดถอยXtβเป็นตัวอย่าง เนื่องจากความน่าจะเป็นเหล่านี้จะต้องน้อยกว่า 1 ในระยะนี้จะต้องเป็นบวกเสมอ มันสามารถทำขนาดใหญ่โดยการทำให้ความน่าจะเป็นขนาดเล็ก ดังนั้นอัลกอริทึมสูงสุดเลือกพารามิเตอร์ในลักษณะที่น่าจะเป็นเหล่านี้มีขนาดเล็กกว่าที่พวกเขาจะให้ประมาณการ OLS การปรากฏตัวของระยะที่สี่นี้จึงทำให้เกิดการประมาณการ ML ของβและσเพื่อดิ ff เอ้อมักจะมีนัยสำคัญจากคู่น้อยสี่เหลี่ยมของพวกเขาและมันช่วยให้มั่นใจว่าประมาณการ ML มีความสอดคล้องกัน
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
มันค่อนข้างง่ายในการประมาณแบบจำลองการถดถอย โดยตัดสูงสุดเช่น - lihood ถ้าการกระจายของเงื่อนไขข้อผิดพลาดในแบบจำลองตัวแปรแฝงถูกสมมติให้เป็นที่รู้จัก ไกลโดยสมมติฐานทั่วไปมากที่สุดคือว่าข้อผิดพลาดเงื่อนไขเป็นปกติอย่างอิสระและการกระจายเหมือนกัน เช่น ( เท่ากับ ) เราใช้ความสนใจของเราในกรณีพิเศษนี้ถ้าฟังก์ชั่นการถดถอยสำหรับโมเดลตัวแปรแฝงเป็น XT บีตา โอกาสที่◦ T Y อยู่ในตัวอย่างเป็น PR ( Y
◦ T ≥ 0 ) = PR ( XT บีตา UT ≥ 0 ) = 1 − PR ( UT < − XT บีตา ) = 1 − PR ( UT / σ < − XT / σบีตา ( − 1 ) = −Φ XT บีตา / σ ) = Φ ( XT บีตา / σ ) เมื่อ Y ◦ T ≥ 0 และไม่เป็นที่สังเกต ความหนาแน่นของ YT เป็นสัดส่วนโดยตรงกับความหนาแน่นของ Y ◦ . มิฉะนั้น , ความหนาแน่นของ YT เป็น 0 อิทธิพลของสัดส่วน ,ซึ่งเป็นสิ่งจำเป็นเพื่อให้แน่ใจว่า ความหนาแน่นของ YT รวมสามัคคี เป็นตรงกันข้ามของความน่าจะเป็นที่ Y ◦ T ≥ 0 ดังนั้นความหนาแน่นของ YT สามารถ bewritten เป็นσ− 1 φ¡ ( YT − XT บีตา ) / σ¢Φ ( XT บีตา / σ ) นี้แสดงให้เห็นว่าฟังก์ชัน loglikelihood ซึ่งผลรวมทั่วทีล็อกของความหนาแน่นของ YT เงื่อนไข◦ T ≥ 0 Y , ` ( Y บีตา , ,σ ) = − n − 2 log ( 2 π ) − ( − 1 nlog σ ) 2 σ 2 n x t = 1 ( YT − XT บีตา ) 2 − n x t = 1 Φ log ( XT บีตา / σ ) ( 11.67 ) สูงสุดของการแสดงออก ( 11.67 ) โดยทั่วไปไม่ได้ดิ ffiลัทธิ ถึงแม้ว่าฟังก์ชัน loglikelihood ไม่ใช่ทั่วโลกเว้ามี mle เอกลักษณ์ ; ดูออร์ม และรุด ( 2002 ) จึง RST สามข้อตกลงในการแสดงออก ( 11.67 ) ประกอบด้วย loglikelihood ฟังก์ชันที่สอดคล้องกับวิธีการถดถอยเห็นสมการ ( 10.10 ) ข้อสุดท้าย คือการไม่ลบทั้งหมดของลอการิทึมของฟังก์ชันความน่าจะเป็นที่สังเกตกับการถดถอย XT บีตาเป็นของตัวอย่าง ตั้งแต่ความน่าจะเป็นเหล่านี้ต้องน้อยกว่า 1 เทอมนี้ต้องเป็นบวก มันสามารถทำให้มีขนาดใหญ่ทำให้ความน่าจะเป็นขนาดเล็กจึงมีวิธีการเลือกพารามิเตอร์ในทางความน่าจะเป็นเหล่านี้มีขนาดเล็กกว่าที่พวกเขาจะอยู่ในตลาดประมาณ การปรากฏตัวของระยะที่สี่นี้จึงทำให้เกิดมลและประมาณการของบีตาσ ดิ ff ER มักจะมากจากวิธีคู่ และยืนยันว่า มล ประมาณการที่สอดคล้องกัน
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: