data fed to each member. The distribution is recalculated in each roun การแปล - data fed to each member. The distribution is recalculated in each roun ไทย วิธีการพูด

data fed to each member. The distri

data fed to each member. The distribution is recalculated in each round, taking into account
the errors of the immediately previous network. Oza [103] presents a variant of AdaBoost
that calculates the distribution with respect to all networks trained so far. In this way the
data received by each successive network is explicitly ‘designed’ so that their errors should
be diverse and compensate for one another.
Zenobi and Cunningham [157] use their own metric of classification diversity, as defined
in equation (3.17) to select subsets of features for each learner. They build an ensemble
by adding predictors successively, and use their metric to estimate how much diversity is
in the ensemble so far. The feature subset used to train a predictor is determined by a
hill-climbing strategy, based on the individual error and estimated ensemble diversity. A
predictor is rejected if it causes a reduction in diversity according to a pre-defined threshold,
or an increase in overall ensemble error. In this case a new feature subset is generated and
another predictor trained. The DECORATE algorithm, by Melville and Mooney [97] utilises
the same metric to decide whether to accept or reject predictors to be added to the ensemble.
Predictors here are generated by training on the original data, plus a ‘diversity set’ of
artificially generated new examples. The input vectors of this set are first passed through
the current ensemble to see what its decision would be. Each pattern in the diversity set has
its output re-labelled as the opposite of whatever the ensemble predicted. A new predictor
trained on this set will therefore have a high disagreement with the ensemble, increasing
diversity and hopefully decreasing ensemble error. If ensemble error is not reduced, a new
diversity set is produced and a new predictor trained.
Oza and Tumer [104] present Input Decimation Ensembles, which seeks to reduce the
correlations among individual estimators by using different subsets of the input features.
Feature selection is achieved by calculating the correlation of each feature individually with
each class, then training predictors to be specialists to particular classes or groups of classes.
This showed significant benefits on several real [137] and artificial [104] datasets.
Liao and Moody [84] demonstrate an information-theoretic technique for feature selection, where all input variables are first grouped based on their mutual information [51,
p492]. Statistically similar variables are assigned to the same group, and each member’s
input set is then formed by input variables extracted from different groups. Experiments
on a noisy and nonstationary economic forecasting problem show it outperforms Bagging
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ข้อมูลติดตามสมาชิกแต่ละคน การกระจายจะถูกคำนวณใหม่ในแต่ละรอบ คำนึงถึงข้อผิดพลาดของเครือข่ายก่อนหน้านี้ทันที ตัวแปร AdaBoost แสดง Oza [103]ที่คำนวณการกระจายกับเครือข่ายทั้งหมดที่ผ่านการฝึกอบรมเพื่อให้ห่างไกล ในวิธีการข้อมูลที่ได้รับ โดยแต่ละเครือข่ายต่อเนื่องชัดเจน 'ออกแบบ' เพื่อให้ข้อผิดพลาดของพวกเขาควรหลากหลาย และชดเชยกันZenobi และคันนิงแฮม [157] ใช้ตนเองวัดความหลากหลายประเภท ตามที่กำหนดไว้ในสมการ (3.17) เพื่อเลือกชุดย่อยของคุณลักษณะสำหรับผู้เรียนแต่ละ พวกเขาสร้างสิ่งโดยเพิ่ม predictors ติด ๆ กัน และการวัดการประเมินมีความหลากหลายมากในวงดนตรีจน ชุดย่อยคุณลักษณะที่ใช้ในการรถไฟเป็นผู้ทายผลถูกกำหนดโดยการกลยุทธ์ ปีนเขาตามแต่ละข้อผิดพลาด และประเมินความหลากหลายวงดนตรี Aผู้ทายผลถูกปฏิเสธถ้าจะทำให้ลดในหลากหลายตามขีดจำกัดที่กำหนดไว้ล่วงหน้าหรือการเพิ่มขึ้นของข้อผิดพลาดทั้งหมดของวงดนตรี ในกรณีนี้ เป็นสร้างคุณลักษณะย่อยใหม่ และจำนวนประตูอื่นที่ผ่านการฝึกอบรม Utilises ตกแต่งอัลกอริทึม Melville และ Mooney [97]วัดเดียวกันเพื่อตัดสินใจว่า จะยอมรับ หรือปฏิเสธ predictors เพิ่มแบบวงดนตรีPredictors นี่สร้างขึ้น โดยการฝึกอบรมบนข้อมูลต้นฉบับ รวมทั้ง 'ความหลากหลาย'สมยอมสร้างตัวอย่างใหม่ เวกเตอร์อินพุตของชุดนี้เป็นครั้งแรกผ่านวงดนตรีปัจจุบันเพื่อดูว่าตัดสินใจอะไรที่จะ แต่ละรูปแบบในชุดหลากหลายได้คาดการณ์ผลลัพธ์ใหม่มันเป็นตรงข้ามของสิ่งเพลิดเพลิน จำนวนประตูใหม่การฝึกอบรมนี้ชุดดังนั้นจะกันสูง ด้วยวงดนตรี เพิ่มความหลากหลายและหวังลดข้อผิดพลาดของวงดนตรี ถ้าผิดพลาดวงดนตรีไม่ได้ลดลง ใหม่ชุดหลากหลายผลิต และฝึกอบรมจำนวนประตูใหม่Oza และ Tumer [104] นำเข้ากำจัดจำนวนมากแบบวง ที่พยายามที่จะลดการความสัมพันธ์ระหว่าง estimators แต่ละชุดย่อยที่แตกต่างกันของนำเข้าโดยเลือกลักษณะการทำงานสามารถทำได้ โดยการคำนวณความสัมพันธ์ของแต่ละคุณลักษณะแต่ละแต่ละชั้น นั้น predictors ฝึกอบรมเป็น ผู้เชี่ยวชาญการสอนเฉพาะกลุ่มของคลาสนี้แสดงให้เห็นประโยชน์อย่างยิ่งจริงหลาย [137] และ datasets ประดิษฐ์ [104]เลี้ยวและมู้ดดี้ [84] สาธิตเทคนิคการข้อมูล theoretic คุณลักษณะเลือก ซึ่งตัวแปรอินพุตทั้งหมดก่อนการจัดกลุ่มของข้อมูลซึ่งกันและกัน [51p492] กำหนดให้กับกลุ่มเดียวกัน และของสมาชิกแต่ละตัวแปรทางสถิติเหมือนกันแล้วมีจัดเข้าชุด โดยตัวแปรอินพุตแยกจากกลุ่มอื่น ทดลองในเสียงดัง และ nonstationary เศรษฐกิจคาดการณ์ปัญหาดู มัน outperforms เย็บถุง
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ข้อมูลที่ป้อนให้กับสมาชิกแต่ละคน
การจัดจำหน่ายที่มีการคำนวณใหม่ในแต่ละรอบโดยคำนึงถึงข้อผิดพลาดของเครือข่ายก่อนหน้าทันที Oza [103] นำเสนอแตกต่างจาก AdaBoost
ที่คำนวณการกระจายที่เกี่ยวกับทุกเครือข่ายได้รับการฝึกฝนเพื่อให้ห่างไกล ด้วยวิธีนี้ข้อมูลที่ได้รับจากแต่ละเครือข่ายต่อเนื่องอย่างชัดเจน 'การออกแบบ' เพื่อให้ความผิดพลาดของพวกเขาควรจะมีความหลากหลายและชดเชยอีกคนหนึ่ง. Zenobi และคันนิงแฮม [157] ใช้ตัวชี้วัดของตัวเองของความหลากหลายของการจัดหมวดหมู่ตามที่กำหนดไว้ในสม(3.17) เพื่อ เลือกย่อยของคุณสมบัติสำหรับผู้เรียนแต่ละคน พวกเขาสร้างวงดนตรีโดยการเพิ่มพยากรณ์อย่างต่อเนื่องและใช้ตัวชี้วัดของพวกเขาเพื่อประเมินว่ามีความหลากหลายมากในชุดเพื่อให้ห่างไกล เซตคุณลักษณะที่ใช้ในการฝึกอบรมการทำนายจะถูกกำหนดโดยกลยุทธ์ของเขาปีนเขาขึ้นอยู่กับความผิดพลาดของแต่ละบุคคลและประมาณความหลากหลายชุด ทำนายถูกปฏิเสธถ้ามันทำให้เกิดการลดลงของความหลากหลายตามเกณฑ์ที่กำหนดไว้ล่วงหน้า, หรือการเพิ่มขึ้นของข้อผิดพลาดทั้งมวลโดยรวม ในกรณีนี้เซตคุณลักษณะใหม่ที่ถูกสร้างขึ้นและทำนายอื่นผ่านการฝึกอบรม ขั้นตอนวิธีการตกแต่งโดยเมลวิลล์และ Mooney [97] ใช้ตัวชี้วัดเดียวที่จะตัดสินใจว่าจะยอมรับหรือปฏิเสธการพยากรณ์ที่จะเพิ่มชุด. ทำนายที่นี่ถูกสร้างขึ้นโดยการฝึกอบรมเกี่ยวกับข้อมูลเดิมบวก 'ความหลากหลายตั้งของสร้างเทียมตัวอย่างใหม่ เวกเตอร์การป้อนข้อมูลของชุดนี้จะถูกส่งผ่านครั้งแรกผ่านชุดปัจจุบันจะเห็นสิ่งที่ตัดสินใจที่จะเป็น รูปแบบในชุดที่หลากหลายแต่ละคนมีเอาท์พุทอีกครั้งระบุว่าเป็นสิ่งที่ตรงข้ามของวงดนตรีที่คาดการณ์ไว้ ทำนายใหม่ได้รับการฝึกฝนในชุดนี้จึงจะมีความขัดแย้งสูงด้วยชุดเพิ่มความหลากหลายและหวังว่าการลดข้อผิดพลาดทั้งมวล หากมีข้อผิดทั้งมวลไม่ได้ลดลงใหม่ชุดความหลากหลายคือการผลิตและทำนายใหม่ผ่านการฝึกอบรม. Oza และ Tumer [104] ปัจจุบันอินพุตล้างตระการตาซึ่งพยายามที่จะลดความสัมพันธ์ในหมู่ประมาณของแต่ละบุคคลโดยใช้ย่อยที่แตกต่างกันของคุณสมบัติการป้อนข้อมูล. เลือกคุณสมบัติ จะประสบความสำเร็จโดยการคำนวณความสัมพันธ์ของแต่ละมีรายบุคคลกับแต่ละชั้นเรียนแล้วพยากรณ์การฝึกอบรมที่จะเป็นผู้เชี่ยวชาญในการเรียนโดยเฉพาะหรือกลุ่มของชั้นเรียน. นี้แสดงให้เห็นผลประโยชน์ที่สำคัญหลายต่อหลายจริง [137] และประดิษฐ์ [104] ชุดข้อมูล. เหลียวและมูดี้ส์ [84 ] แสดงให้เห็นถึงเทคนิคข้อมูลตามทฤษฎีสำหรับการเลือกคุณลักษณะที่ทุกตัวแปรจะถูกจัดเป็นครั้งแรกบนพื้นฐานของข้อมูลของพวกเขาร่วมกัน [51 p492] สถิติตัวแปรที่คล้ายกันที่ได้รับมอบหมายไปยังกลุ่มเดียวกันและสมาชิกแต่ละชุดการป้อนข้อมูลจะเกิดขึ้นแล้วโดยตัวแปรที่สกัดจากกลุ่มที่แตกต่างกัน การทดลองในการคาดการณ์ทางเศรษฐกิจที่มีเสียงดังไม่คงที่แสดงให้เห็นปัญหาที่มีประสิทธิภาพสูงกว่าบรรจุถุง


























การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ข้อมูลที่ป้อนให้สมาชิกแต่ละคน การกระจายจะถูกคำนวณในแต่ละรอบนึง
ข้อผิดพลาดของเครือข่ายเดิมได้ทันที โอซ่า [ 103 ] เสนอแปร adaboost
ที่คำนวณการกระจาย ด้วยความเคารพทุกเครือข่ายการฝึกอบรมเพื่อให้ห่างไกล ในวิธีนี้
ข้อมูลที่ได้รับโดยแต่ละเครือข่ายต่อเนื่องจะชัดเจน ' ออกแบบ ' เพื่อให้ข้อผิดพลาดของพวกเขาควร
มีความหลากหลายและชดเชยกัน .
zenobi คันนิงแฮม [ 157 ] และใช้ตัวชี้วัดของตัวเองของความหลากหลายชนิด ตามที่
ในสมการ ( 3.17 ) เพื่อเลือกคุณสมบัติสำหรับแต่ละส่วนย่อยของผู้เรียน พวกเขาสร้างขึ้นโดยการเพิ่มตัวแปร
อย่างต่อเนื่อง และใช้ตัวชี้วัดเพื่อประเมินความหลากหลายเท่าไหร่
ในชุดเพื่อให้ห่างไกลคุณลักษณะย่อยที่ใช้ในการฝึก ) จะถูกกำหนดโดย
hill-climbing กลยุทธ์บนพื้นฐานของข้อผิดพลาดของแต่ละบุคคลและประมาณความหลากหลายประสานกัน a
ทำนายถูกปฏิเสธ ถ้ามันเกิดการลดลงของความหลากหลายตามเกณฑ์ที่กําหนดไว้ล่วงหน้า
หรือเพิ่มขึ้นในความผิดพลาดทั้งหมดโดยรวม ในกรณีนี้ เป็นเซตย่อยคุณสมบัติใหม่ที่ถูกสร้างขึ้นและ
อีกตัวฝึก ตกแต่งขั้นตอนวิธีโดยเมลวิลล์ Mooney [ 97 ] และ utilises
เหมือนกันเมตริกเพื่อตัดสินใจว่าจะยอมรับหรือปฏิเสธอำนาจที่จะเพิ่มไปยัง ensemble
ทำนายที่นี่ถูกสร้างขึ้นโดยการฝึกอบรมในข้อมูลเดิม บวกกับความหลากหลายของชุด ' '
สร้างเทียมตัวอย่างใหม่ ข้อมูลเวกเตอร์ของชุดนี้เป็นครั้งแรกผ่าน
วงปัจจุบันเพื่อดูการตัดสินใจของตนจะแต่ละลายในความหลากหลายชุด
Re : ผลผลิตของตนมองว่าเป็นตรงข้ามของสิ่งที่วงดนตรีที่คาดการณ์ไว้ a
ทำนายใหม่ฝึกในชุดนี้จึงมีความขัดแย้งสูง กับวงดนตรี เพิ่มความหลากหลายและหวังลด ensemble
ข้อผิดพลาด ถ้าขึ้นข้อผิดพลาดก็ไม่ลด ชุดความหลากหลายใหม่
ผลิตและใหม่ทำนาย
ฝึกโอซ่า และ tumer [ 104 ] ปัจจุบันใส่ทศนิยมตระการตา ซึ่งพยายามที่จะลด
ความสัมพันธ์ระหว่างบุคคลโดยใช้วิธีการย่อยที่แตกต่างกันของข้อมูล คุณสมบัติ
การเลือกคุณลักษณะได้โดยการหาค่าความสัมพันธ์ของแต่ละคุณลักษณะเฉพาะตัวกับ
แต่ละคลาส แล้วฝึกตัวเป็นผู้เชี่ยวชาญวิชาโดยเฉพาะหรือกลุ่มของชั้นเรียน .
นี้แสดงให้เห็นถึงประโยชน์ที่สำคัญในหลายจริง [ 137 ] และเทียม [ 104 ] ข้อมูล .
เหลียวและหงุดหงิดง่าย [ 84 ] แสดงข้อมูลเกี่ยวกับทฤษฎีเทคนิคสำหรับการเลือกคุณลักษณะที่ตัวแปรทั้งหมดก่อนจัดกลุ่มตามข้อมูลซึ่งกันและกัน
p492 [ 51 ] ตัวแปรที่คล้ายคลึงกันอย่างมีนัยสำคัญทางสถิติจะได้รับมอบหมายให้กลุ่มเดียวกันและแต่ละสมาชิก
ใส่ชุดแล้วจะเกิดขึ้นจากตัวแปรที่สกัดจากกลุ่มที่แตกต่างกัน การทดลอง
ในที่มีเสียงดังและปัญหาพยากรณ์เศรษฐกิจติจิแสดงมันมีประสิทธิภาพดีกว่าถุง
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: