The combination in AdaBoost is a linear (not necessarily convex) combi การแปล - The combination in AdaBoost is a linear (not necessarily convex) combi ไทย วิธีการพูด

The combination in AdaBoost is a li

The combination in AdaBoost is a linear (not necessarily convex) combination of the
network outputs, with weights α based on the training error but are fixed with respect to the
input patterns. The obvious extension to this is to allow the weights to vary according to
the input pattern, so the α values are re-calculated by some method for every new x value.
Several authors, including Schapire and Singer [117], Meir et al [96] and Moerland [98], do
precisely this with versions of “localized” boosting. Their architectures bear a number of
similarities to the Mixture of Experts, which will be covered in the next section. Although
we have so far discussed Boosting in the context of classification problems, Avnimelech
and Intrator [3] showed an extension of AdaBoost to boosting with regression estimators.
Schapire [119] conducts a review of recent theoretical analysis on AdaBoost, describing links
to game theory, and extensions to handle multi-class problems.
Maclin and Opitz [90] and also Bauer [8] compare Bagging and Boosting methods in a
large empirical study. Their findings show that although Bagging almost always produces an
ensemble which is better than any of its component classifiers, and is relatively impervious
to noise, it is on average not significantly better than a simple ensemble. They find Boosting
to be a powerful technique, usually beating Bagging, but is susceptible to noise in the data
and can quickly overfit; similar problems with overfitting in AdaBoost have been observed
by a number of authors. Most recently, Jin et al [61] use a confidence-based regularisation
term when combining the Boosted learners; if learners early on in the Boosting chain are
confident in their predictions, then the contribution of learners later on in the chain is
down-played; this technique shows significantly improved tolerance to noisy datasets.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
The combination in AdaBoost is a linear (not necessarily convex) combination of thenetwork outputs, with weights α based on the training error but are fixed with respect to theinput patterns. The obvious extension to this is to allow the weights to vary according tothe input pattern, so the α values are re-calculated by some method for every new x value.Several authors, including Schapire and Singer [117], Meir et al [96] and Moerland [98], doprecisely this with versions of “localized” boosting. Their architectures bear a number ofsimilarities to the Mixture of Experts, which will be covered in the next section. Althoughwe have so far discussed Boosting in the context of classification problems, Avnimelechand Intrator [3] showed an extension of AdaBoost to boosting with regression estimators.Schapire [119] conducts a review of recent theoretical analysis on AdaBoost, describing linksto game theory, and extensions to handle multi-class problems.Maclin and Opitz [90] and also Bauer [8] compare Bagging and Boosting methods in alarge empirical study. Their findings show that although Bagging almost always produces anensemble which is better than any of its component classifiers, and is relatively imperviousto noise, it is on average not significantly better than a simple ensemble. They find Boostingto be a powerful technique, usually beating Bagging, but is susceptible to noise in the dataand can quickly overfit; similar problems with overfitting in AdaBoost have been observed
by a number of authors. Most recently, Jin et al [61] use a confidence-based regularisation
term when combining the Boosted learners; if learners early on in the Boosting chain are
confident in their predictions, then the contribution of learners later on in the chain is
down-played; this technique shows significantly improved tolerance to noisy datasets.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
รวมกันใน AdaBoost เป็นเชิงเส้น (ไม่จำเป็นต้องนูน)
การรวมกันของผลเครือข่ายที่มีน้ำหนักแอลฟาขึ้นอยู่กับความผิดพลาดของการฝึกอบรม
แต่ได้รับการแก้ไขที่เกี่ยวกับรูปแบบการป้อนข้อมูล ส่วนขยายที่ชัดเจนในการนี้คือการให้น้ำหนักที่แตกต่างกันไปตามรูปแบบการป้อนข้อมูลเพื่อให้ค่าαเป็นอีกคำนวณโดยวิธีบางอย่างสำหรับทุกค่า x ใหม่. ผู้เขียนหลายคนรวมทั้ง Schapire และนักร้อง [117] เมียร์ตอัล [ 96] และ Moerland [98] ทำเช่นนี้กับรุ่นของ"หน่วง" การส่งเสริม สถาปัตยกรรมของพวกเขาแบกจำนวนของลักษณะคล้ายคลึงกับส่วนผสมของผู้เชี่ยวชาญซึ่งจะได้รับการคุ้มครองในส่วนถัดไป แม้ว่าเราได้เพื่อให้ห่างไกลกล่าวถึงการส่งเสริมในบริบทของปัญหาการจัดหมวดหมู่, Avnimelech และ Intrator [3] แสดงให้เห็นว่าเป็นส่วนหนึ่งของ AdaBoost เพื่อส่งเสริมการมีประมาณถดถอย. Schapire [119] ดำเนินการทบทวนการวิเคราะห์ทางทฤษฎีล่าสุดใน AdaBoost อธิบายการเชื่อมโยงที่จะเล่นเกมทฤษฎี และส่วนขยายที่จะจัดการกับปัญหาหลายระดับ. Maclin และ Opitz [90] และยังบาวเออร์ [8] เปรียบเทียบห่อและวิธีการส่งเสริมในการศึกษาเชิงประจักษ์ที่มีขนาดใหญ่ การค้นพบของพวกเขาแสดงให้เห็นว่าถึงแม้จะบรรจุถุงมักจะผลิตชุดที่ดีกว่าใด ๆ ของแยกแยะองค์ประกอบของตนและค่อนข้างทนเสียงมันเป็นค่าเฉลี่ยไม่แตกดีกว่าชุดที่เรียบง่าย พวกเขาพบว่าการส่งเสริมให้เป็นเทคนิคที่มีประสิทธิภาพมักจะตีห่อแต่เป็นที่ประทับใจกับเสียงในข้อมูลและสามารถได้อย่างรวดเร็วoverfit; ปัญหาที่คล้ายกันกับอิงใน AdaBoost ได้รับการปฏิบัติจากจำนวนผู้เขียน เมื่อเร็ว ๆ นี้จินและอัล [61] ใช้ regularization ความเชื่อมั่นตามระยะเมื่อรวมผู้เรียนเพิ่มขึ้น; ถ้าผู้เรียนในช่วงต้นของห่วงโซ่การส่งเสริมมีความมั่นใจในการคาดการณ์ของพวกเขาแล้วการมีส่วนร่วมของผู้เรียนในภายหลังในห่วงโซ่ที่เป็นลงเล่น; เทคนิคนี้แสดงให้เห็นถึงความอดทนที่ดีขึ้นอย่างมีนัยสำคัญชุดข้อมูลที่มีเสียงดัง

















การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การรวมกันใน adaboost เป็นเชิงเส้น ( ไม่จําเป็นต้องนูน ) การรวมกันของเครือข่าย
2 กับน้ำหนักαขึ้นอยู่กับการแก้ไขข้อผิดพลาด แต่ด้วยความเคารพ
ใส่ลวดลาย ส่วนขยายที่เห็นได้ชัดนี้คือเพื่อให้น้ำหนักจะแตกต่างกันตาม
ใส่แบบแผน ดังนั้นαค่ากำลังคำนวณโดยวิธีให้ใหม่ทุกค่า x .
ผู้เขียนหลายรวม schapire และนักร้อง [ 117 ] แมร์ et al [ 96 ] และ moerland [ 98 ] ,
แม่นยำนี้กับรุ่นของ " ท้องถิ่น " ส่งเสริม สถาปัตยกรรมของหมีจำนวน
คลึงกับส่วนผสมของผู้เชี่ยวชาญ ซึ่งจะกล่าวถึงในส่วนถัดไป แม้ว่า
ที่เรามีเพื่อให้ห่างไกลกล่าวถึงการส่งเสริมในบริบทของปัญหา avnimelech
การจำแนกและ intrator [ 3 ] พบส่วนขยายของ adaboost ให้ส่งเสริมกับตัวประมาณการถดถอย .
schapire [ 119 ] สัมภาษณ์ความคิดเห็นของการวิเคราะห์เชิงทฤษฎีล่าสุดบน adaboost อธิบายการเชื่อมโยง
ทฤษฎีเกม และนามสกุล เพื่อจัดการกับปัญหาหลายชั้น แมคลิน และ โอพิสต์
[ 90 ] และยัง บาวเออร์ [ 8 ] เปรียบเทียบถุงและเพิ่มวิธีการ ในการศึกษา
เชิงประจักษ์ ขนาดใหญ่การค้นพบของพวกเขาแสดงให้เห็นว่าแม้ว่าถุงมักจะผลิต
ทั้งมวลซึ่งดีกว่าใด ๆขององค์ประกอบของคำและค่อนข้างทึบ
เสียง มันมีค่าเฉลี่ยไม่แตกต่างกันมากกว่าวงดนตรีที่เรียบง่าย พวกเขาพบพื่น
เป็นเทคนิคที่มีประสิทธิภาพ มักจะตีเอา แต่ก็ไวต่อเสียงและข้อมูลได้อย่างรวดเร็วสามารถ overfit
;ปัญหาที่คล้ายกันกับ overfitting ใน adaboost ได้รับสังเกต
โดยจำนวนของผู้เขียน เมื่อเร็วๆ นี้ จิน et al [ 61 ] ใช้ความเชื่อมั่นในระยะ regularisation
เมื่อรวมเพิ่มขึ้นจากผู้เรียน ถ้าผู้เรียนในช่วงต้นของการเป็นโซ่
มั่นใจในการคาดการณ์ของพวกเขา แล้วผลงานของผู้เรียนภายหลังในโซ่
เล่นลงเทคนิคนี้แสดงให้เห็นการปรับปรุงอย่างมาก ความอดทนต่อเสียงดัง ชุดข้อมูล
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: