CHAPTER 3. DEFINING DIVERSITY 40appears when we are restricted such th การแปล - CHAPTER 3. DEFINING DIVERSITY 40appears when we are restricted such th ไทย วิธีการพูด

CHAPTER 3. DEFINING DIVERSITY 40app

CHAPTER 3. DEFINING DIVERSITY 40
appears when we are restricted such that our predictors can only output discrete class labels, as we have with Decision Trees or k-nearest neighbour classifiers. In this case, the
outputs have no intrinsic ordinality between them, and so the concept of “covariance” is
not so simple. This non-ordinality also implies that we have to change our combination
function—a popular one is majority voting between the individual votes. The harder question can therefore be phrased as, “how can we quantify diversity when our predictors output
non-ordinal values and are combined by a majority vote?”.
A step toward understanding this question can be taken by considering where the biasvariance-covariance decomposition comes from: it falls neatly out of the bias-variance decomposition of the ensemble error. However, when our classification of a datapoint is either
correct or incorrect, we have a zero-one loss function (instead of the usual quadratic loss
function we used for the regression context). A number of authors have attempted to define
a bias-variance decomposition for zero-one loss functions [68, 67, 14, 42], each with their
own assumptions and shortcomings. Most recently Domingos [33] and James [58] propose
general definitions which include the original quadratic loss function as a special case. This
leads us naturally to ask the question, does there exist an analogue to the bias-variancecovariance decomposition that applies for zero-one loss functions?. If so, its formulation
of the “covariance” term will be a major stepping stone in our understanding of the role
of classification error diversity. The optimal classification error diversity will then be understood in terms of this trade-off for zero-one loss functions. This issue will be further
discussed in the Conclusions chapter.
Taking all this into account, there is simply no clear analogue of the bias-variancecovariance decomposition when we have a zero-one loss function. We instead have a number
of highly restricted theoretical results, each with their own assumptions that are probably
too strong to hold in practice. We first describe the very well-known work by Tumer and
Ghosh, on combining posterior probability estimates (ordinal values), and then turn to
considering the harder question of non-ordinal outputs.
Ordinal Outputs
Tumer and Ghosh [139, 140] provided a theoretical framework for analysing the simple
averaging combination rule when our predictor outputs are estimates of the posterior prob
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
บทที่ 3 การกำหนดความหลากหลาย 40แล้วเมื่อเราถูกจำกัดให้ predictors ของเราสามารถแสดงผลเฉพาะป้ายชื่อชั้นไม่ต่อเนื่อง เป็นเรามีต้นไม้ตัดสินใจหรือ k ใกล้ neighbour คำนามภาษา ในกรณีนี้ การแสดงผลได้ไม่ ordinality intrinsic ระหว่าง และดังนั้น เป็นแนวคิดของ "แปรปรวน"ไม่ให้เชื่อ นี้ไม่ใช่-ordinality ยังบ่งชี้ว่า เรามีการเปลี่ยนแปลงชุดของเราฟังก์ชันตัวหนึ่งนิยมเป็นส่วนใหญ่ออกเสียงระหว่างเสียงแต่ละ คำถามยากสามารถเป็น phrased จึงเป็น "วิธีสามารถเรากำหนดปริมาณความหลากหลายเมื่อ predictors ของเราออกค่าไม่ใช่ลำดับและมีรวม โดยคะแนนส่วนใหญ่? "สามารถนำขั้นตอนการทำความเข้าใจคำถามนี้ โดยการพิจารณาซึ่งการเน่า biasvariance แปรปรวนมาจาก: ตรงอย่างไม่เน่าผลต่างความโน้มเอียงของข้อผิดพลาดวงดนตรีได้ อย่างไรก็ตาม เมื่อเราจัดประเภทของ datapoint เป็นถูกต้อง หรือไม่ถูกต้อง มีฟังก์ชันขาดทุนศูนย์หนึ่ง (แทนการสูญเสียกำลังสองปกติฟังก์ชันเราใช้บริบทถดถอย) จำนวนผู้เขียนได้พยายามที่จะกำหนดแยกส่วนประกอบต่างอคติสำหรับฟังก์ชันการสูญเสียศูนย์หนึ่ง [68, 67, 14, 42], แต่ละของพวกเขาสมมติฐานของตัวเองและแสดง ล่าสุด ที่เสนอของ Domingos [33] และ James [58]ข้อกำหนดทั่วไปซึ่งรวมถึงฟังก์ชันกำลังสองขาดทุนเดิมเป็นกรณีพิเศษ นี้เป้าหมายเราตามธรรมชาติจะถามคำถาม มีอนาล็อกเป็นการแยกส่วนประกอบ variancecovariance ความโน้มเอียงที่ใช้ฟังก์ชันหนึ่งศูนย์ขาดทุน ถ้าเป็นเช่นนั้น การกำหนดคำว่า "แปรปรวน" จะได้หลักการก้าวหินในบทบาทของเราเข้าใจของข้อผิดพลาดการจัดประเภทความหลากหลายทางชีวภาพ แล้วจะเข้าใจความหลากหลายของข้อผิดพลาดประเภทที่ดีที่สุดในแง่ของ trade-off นี้ศูนย์หนึ่งสูญเสียฟังก์ชัน ปัญหานี้จะเพิ่มเติมกล่าวถึงในบทบทสรุปทำทั้งหมดนี้เป็นบัญชี มีเพียงอนาล็อกไม่ชัดเจนของการเน่าอคติ variancecovariance เมื่อเราได้สูญเสียศูนย์หนึ่งฟังก์ชัน เรามีตัวเลขแทนจำกัดสูงทฤษฎีผล ด้วยสมมติฐานของตนเองที่อาจแข็งแกร่งไปในปฏิบัติการ เราอธิบายการทำงานมากรู้จัก โดย Tumer ก่อน และภโฆษ บนรวมความน่าเป็นหลังประเมิน (เลขลำดับค่า), และเปิดแล้วพิจารณาคำถามที่ยากของการแสดงผลของไม่ใช่ลำดับแสดงผลเครื่องหมายสัญลักษณ์Tumer ภโฆษ [139, 140] ให้กรอบทฤษฎีในการวิเคราะห์เรียบง่ายหาค่าเฉลี่ยรวมกฎเมื่อแสดงผลจำนวนประตูของเรา ประเมิน prob หลัง
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
3. บทนิยามความหลากหลาย 40
ปรากฏขึ้นเมื่อเราถูก จำกัด เช่นที่เราสามารถทำนายฉลากระดับที่ไม่ต่อเนื่องเพียง แต่การส่งออกในขณะที่เรามีกับต้นไม้การตัดสินใจหรือ k-ลักษณนามเพื่อนบ้านที่ใกล้ที่สุด ในกรณีนี้ผลไม่มี ordinality ที่แท้จริงระหว่างพวกเขาและเพื่อให้แนวคิดของ "แปรปรวน" คือไม่ง่ายดังนั้น นี้ที่ไม่ ordinality ยังแสดงให้เห็นว่าเรามีการเปลี่ยนแปลงการรวมกันของเราฟังก์ชั่นหนึ่งที่เป็นที่นิยมคือคะแนนเสียงข้างมากระหว่างการลงมติของแต่ละบุคคล คำถามที่ยากจึงสามารถ phrased ว่า "วิธีที่เราสามารถวัดปริมาณความหลากหลายเมื่อพยากรณ์ของเราส่งออกค่าที่ไม่ใช่ลำดับและจะรวมกันด้วยคะแนนเสียงข้างมาก?". ขั้นตอนต่อการทำความเข้าใจคำถามนี้สามารถนำมาโดยพิจารณาที่การสลายตัว biasvariance-แปรปรวน มาจาก: มันตกอย่างประณีตจากการสลายตัวอคติความแปรปรวนของข้อผิดพลาดทั้งมวล แต่เมื่อการจัดหมวดหมู่ของ DataPoint เป็นอย่างใดอย่างหนึ่งที่ถูกต้องหรือไม่ถูกต้องเรามีฟังก์ชั่นการสูญเสียเป็นศูนย์หนึ่ง(แทนปกติการสูญเสียกำลังสองฟังก์ชั่นที่เราใช้ในบริบทถดถอย) จำนวนของผู้เขียนได้พยายามที่จะกำหนดสลายอคติความแปรปรวนเป็นศูนย์หนึ่งฟังก์ชั่นการสูญเสีย [68, 67, 14, 42] ของพวกเขาแต่ละคนมีสมมติฐานและข้อบกพร่องของตัวเอง เมื่อเร็ว ๆ นี้ Domingos [33] และเจมส์ [58] เสนอคำนิยามทั่วไปซึ่งรวมถึงฟังก์ชั่นการสูญเสียกำลังสองเดิมเป็นกรณีพิเศษ นี้ทำให้เราตามธรรมชาติจะถามคำถามที่ไม่มีอยู่อะนาล็อกไปสู่การสลายตัวอคติ variancecovariance ที่ใช้สำหรับฟังก์ชั่นการสูญเสียเป็นศูนย์หนึ่ง ?. ถ้าเป็นเช่นนั้นการกำหนดของมันของ "แปรปรวน" ระยะจะเป็นหินก้าวสำคัญในความเข้าใจของเราในบทบาทของความหลากหลายของข้อผิดพลาดการจัดหมวดหมู่ ความหลากหลายข้อผิดพลาดการจัดหมวดหมู่ที่ดีที่สุดจะต้องทำความเข้าใจในแง่ของการออกนี้เป็นศูนย์หนึ่งฟังก์ชั่นการสูญเสีย ปัญหานี้จะได้รับการต่อไปกล่าวถึงในบทสรุป. การทั้งหมดนี้ในบัญชีมีเพียงไม่อะนาล็อกที่ชัดเจนของการย่อยสลายอคติ variancecovariance เมื่อเรามีฟังก์ชั่นการสูญเสียเป็นศูนย์หนึ่ง เราแทนมีจำนวนของที่ถูก จำกัด อย่างมากผลทฤษฎีแต่ละคนมีสมมติฐานของตนเองที่อาจจะแรงเกินไปที่จะถือในทางปฏิบัติ ครั้งแรกที่เราจะอธิบายการทำงานมากที่รู้จักกันดีโดย Tumer และกอชในการรวมประมาณการน่าจะเป็นหลัง(ค่าลำดับ) แล้วหันไปพิจารณาคำถามที่ยากของผลที่ไม่ลำดับ. ลำดับ Outputs Tumer และกอช [139, 140] ให้ กรอบทฤษฎีการวิเคราะห์ง่ายกฎเฉลี่ยรวมกันเมื่อผลการทำนายของเรามีประมาณการของprob หลัง





















การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
บทที่ 3 การกำหนดความหลากหลาย 40
ปรากฏเมื่อเราจะถูก จำกัด เช่นที่ตัวของเราเท่านั้นที่สามารถส่งออกแบบคลาสป้ายชื่อที่เรามีกับต้นไม้ละการตัดสินใจหรือเพื่อนบ้าน คือ ในกรณีนี้ ยังไม่มี ordinality
ที่แท้จริงระหว่างพวกเขา ดังนั้นแนวคิดของ " ความ "
ไม่ง่ายดังนั้น นี่ ordinality ยังแสดงให้เห็นว่าเราต้องเปลี่ยน
ชุดของเราfunction-a หนึ่งที่นิยมคือการโหวตเสียงข้างมาก ระหว่างบุคคล ยิ่งคำถามจึงสามารถ phrased เป็น " วิธีที่เราสามารถวัดปริมาณความหลากหลายเมื่อพยากรณ์ผลผลิต
ไม่ . คุณค่าและจะรวมกันโดยเสียงส่วนใหญ่ ? " .
ขั้นตอนต่อความเข้าใจคำถามนี้สามารถถ่ายได้ โดยพิจารณาที่ความ biasvariance สลายตัวมาจาก :มันตกลงมาเรียบร้อยออกจากอคติการแยกส่วนความแปรปรวนของชุดข้อมูล อย่างไรก็ตาม เมื่อจำแนกของดาตาพอยนต์เหมือนกัน
ถูกต้องหรือไม่ถูกต้อง เรามีศูนย์การสูญเสียฟังก์ชัน ( แทนปกติที่เราใช้ฟังก์ชันการสูญเสีย
กำลังสองสมการบริบท ) จำนวนของผู้เขียนได้พยายามที่จะกำหนด
อคติ การแยกส่วนความแปรปรวนสำหรับศูนย์หนึ่งการสูญเสียฟังก์ชัน [ 68 , 67 , 14 , 42 ]แต่ละกรณีของพวกเขา
เองและข้อบกพร่อง เมื่อเร็วๆ นี้ โดมินโกส์ [ 33 ] และเจมส์ [ 58 ] เสนอ
นิยามทั่วไปซึ่งรวมถึงต้นฉบับฟังก์ชันการสูญเสียกำลังสอง เป็นกรณีพิเศษ นี้
นำเราธรรมชาติเพื่อถามคำถาม ไม่มีอยู่เป็นอะนาล็อกกับอคติ variancecovariance การสลายตัวที่ใช้สำหรับศูนย์หนึ่งการสูญเสียฟังก์ชัน ? ถ้าสูตรของ
.ของ " ความ " ระยะจะเป็นหินก้าวสำคัญในความเข้าใจของบทบาท
ความหลากหลายของข้อผิดพลาดการจำแนก ความหลากหลายประเภทข้อผิดพลาดที่เหมาะสมแล้วจะเข้าใจ ในแง่ของการแลกเปลี่ยนนี้ศูนย์การสูญเสียฟังก์ชัน ปัญหานี้จะกล่าวถึงในบทต่อไป

เอาข้อสรุป . ทั้งหมดนี้ลงในบัญชีเพียงแต่ไม่มีแบบชัดเจนของอคติ variancecovariance การสลายตัวเมื่อเรามีศูนย์การสูญเสียฟังก์ชัน เราแทน มีจำนวนจำกัด
สูงทฤษฎีผลแต่ละสมมติฐานของตัวเอง ที่อาจจะแรงเกินไป
ถือในการปฏิบัติงาน เราอธิบายงานที่รู้จักกันดีมากและโดย tumer
ghosh , รวม ( ค่าประมาณความน่าจะเป็นภายหลัง . )แล้วหันมาพิจารณาคำถามไม่ยาก


. . ผลผลิต และผลผลิต tumer ghosh [ 139 , 140 ] ให้แนวคิดเชิงทฤษฎีเพื่อการวิเคราะห์ง่าย
เฉลี่ยรวมกันเมื่อออกกฎตัวของเรามีการประเมินปัญหาด้านหลัง
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: