Least Squares Estimation
The method of least squares is about estimating parameters by minimizing the squared discrepancies between observed data, on the one hand, and their expected values on the other (see Optimization Methods). We will study the method in the context of a regression problem, where the variation in one variable, called the response variable Y, can be partly explained by the variation in the other variables, called covariables X (see Multiple Linear Regression). For example, variation in exam results Y are mainly caused by variation in abilities and diligence X of the students, or variation in survival times Y (see Survival Analysis) are primarily due to variations in environmental conditions X. Given the value of X, the best prediction of Y (in terms of mean square error – see Estimation) is the mean f(X)of Y given X. We say that Y is a function of X plus noise: Y = f(X)+noise. The function f is called a regression function. It is to be estimated from sampling n covariables and their responses (x1,y1),...,(xn,yn). Suppose f is known up to a finite number p ≤ n of parameters β = (β1,...,βp), that is,f = fβ. We estimate β by the value ˆ β that gives the best fit to the data. The least squares estimator, denoted by ˆ β, is that value of b that minimizes
การประมาณค่ากำลังสองน้อยสุดวิธีกำลังสองน้อยสุดคือเกี่ยวกับการประมาณพารามิเตอร์โดยการลดความคลาดเคลื่อนกำลังสองระหว่างสังเกตข้อมูล มือ และค่าอื่น ๆ (ดูวิธีการเพิ่มประสิทธิภาพ) คาด เราจะศึกษาวิธีการในบริบทของปัญหาการถดถอย ซึ่งการเปลี่ยนแปลงในตัวแปร ตัวแปรตอบสนอง Y เรียกว่าสามารถจะอธิบายบางส่วนจากความผันแปรในตัวแปรอื่น ๆ เรียกว่า covariables X (ดูถดถอยเชิงเส้นหลาย) เช่น ความผันแปรในผลการสอบ Y มีส่วนใหญ่เกิดจากการเปลี่ยนแปลงในความสามารถและความขยัน X ของนักเรียน หรือรูปแบบในการอยู่รอด Y (ดูการวิเคราะห์ความอยู่รอด) เป็นหลักเนื่องจากการเปลี่ยนแปลงในสภาพแวดล้อม X ค่าของ X การคาดเดาที่ดีที่สุดของ Y (ในแง่ของสแควร์หมายถึงข้อผิดพลาด – ดูการประเมิน) จะหมายถึง f (X) ของ Y ที่ X ได้รับ เราบอกว่า Y เป็นฟังก์ชันของ X บวกเสียง: Y = f (X) + เสียง ของฟังก์ชัน f จะเรียกว่าฟังก์ชันถดถอย การประมาณการจากการสุ่มตัวอย่าง n covariables และการตอบสนองของพวกเขา (x1,y1),...,(xn,yn) สมมติว่า f เป็นที่รู้จักกันถึง เป็น finite หมายเลข p ≤ n ของพารามิเตอร์β = (β 1,..., βp), คือ f = fβ เราประเมินβ โดยβˆค่าให้พอดีกับข้อมูล ประมาณสี่เหลี่ยมน้อย ระบุ โดยˆβ เป็นค่าของ b ที่ลด
การแปล กรุณารอสักครู่..

แควน้อยประมาณค่า
วิธีการสองน้อยที่สุดเป็นเรื่องเกี่ยวกับการประมาณค่าพารามิเตอร์โดยการลดความแตกต่างระหว่างข้อมูล Squared สังเกตบนมือข้างหนึ่งและคาดว่าค่าของพวกเขาในที่อื่น ๆ (ดูวิธีการเพิ่มประสิทธิภาพ) เราจะศึกษาวิธีการในบริบทของปัญหาการถดถอยที่เปลี่ยนแปลงในตัวแปรหนึ่งที่เรียกว่าการตอบสนองของตัวแปร Y ที่สามารถอธิบายได้ส่วนหนึ่งจากการเปลี่ยนแปลงในตัวแปรอื่น ๆ ที่เรียกว่า covariables X (ดูหลายถดถอยเชิงเส้น) ยกตัวอย่างเช่นการเปลี่ยนแปลงในการสอบผล Y มีสาเหตุหลักมาจากการเปลี่ยนแปลงในความสามารถและความขยัน X ของนักเรียนหรือรูปแบบในช่วงเวลาการอยู่รอด Y (ดูการวิเคราะห์การอยู่รอด) มีสาเหตุหลักมาจากการเปลี่ยนแปลงของสภาพแวดล้อมเอ็กซ์ได้รับค่าของ x, ที่ การคาดการณ์ที่ดีที่สุดของ Y (ในแง่ของความคลาดเคลื่อน - ดูการประเมิน) เป็นค่าเฉลี่ย F (X) ของ Y X ได้รับเรากล่าวว่า Y เป็นหน้าที่ของ X บวกกับเสียงรบกวน: y = f (x) + เสียง ฟังก์ชั่น F เรียกว่าฟังก์ชั่นการถดถอย ก็คือการได้รับการประเมินจากการสุ่มตัวอย่าง covariables n และการตอบสนองของพวกเขา (X1, Y1), ... , (xn, yn) สมมติว่า F เป็นที่รู้จักกันถึง Fi Nite จำนวน P ≤ n ของพารามิเตอร์β = (β1, ... , βp) ?, นั่นคือ f = fβ เราประเมินเบต้าโดยβค่าที่จะช่วยให้สิ่งที่ดีที่สุด Fi T ข้อมูล สี่เหลี่ยมประมาณการน้อยแสดงโดยβคือว่าค่าของ B ที่ช่วยลด
การแปล กรุณารอสักครู่..
