CHAPTER 3. DEFINING DIVERSITY 503.2.2 Set of Accessible HypothesesIt c การแปล - CHAPTER 3. DEFINING DIVERSITY 503.2.2 Set of Accessible HypothesesIt c ไทย วิธีการพูด

CHAPTER 3. DEFINING DIVERSITY 503.2

CHAPTER 3. DEFINING DIVERSITY 50
3.2.2 Set of Accessible Hypotheses
It can be argued that there are two ways to manipulate the set of hypotheses accessible to a
network: firstly to alter the training data it receives, and secondly to alter the architecture
of the network itself. We will now discuss these and how they have been used to create
error diversity.
Manipulation of Training Data
Several methods attempt to produce diverse or complementary networks by supplying each
network with a slightly different training set. This is probably the most widely investigated
method of ensemble training. Regard figure 3.4; the frontmost bold square represents the
training set for our ensemble. Different ensemble members can be given different parts of
this set, so they will hopefully learn different things about the same task. Some methods
will divide it by training pattern, supplying each member with all the K features, but a
different subset of the rows (patterns). Other methods will divide it by feature, supplying
each member with all the N patterns in the set, but each consists of a different subset of
the columns (features). Both of these are termed resampling methods, and could provide
overlapping or non-overlapping subsets of the rows or columns (or both) to different learners.
Another alternative would be to pre-process the features in some way to get a different
representation, for example using a log-scaling of the features. This can be viewed in our
diagram as using a different plane, moving in the space of all possible features. The data
techniques which transform features are termed distortion methods [126].
Duin and Tax [35] find that combining the results of one type of classifier on different
feature sets is far more effective than combining the results of different classifiers on one
feature set. They conclude that the combination of independent information from the
different feature sets is more useful than the different approaches of the classifiers on the
same data.
The most well-known resampling method is probably k-fold cross-validation. By dividing
the dataset randomly into k disjoint pattern subsets, new overlapping training sets can be
created for each ensemble member, by leaving out one of these k subsets and training on
the remainder. The Bagging algorithm, is another example, randomly selecting N patterns
with replacement from the original set of N patterns.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
CHAPTER 3. DEFINING DIVERSITY 503.2.2 Set of Accessible HypothesesIt can be argued that there are two ways to manipulate the set of hypotheses accessible to anetwork: firstly to alter the training data it receives, and secondly to alter the architectureof the network itself. We will now discuss these and how they have been used to createerror diversity.Manipulation of Training DataSeveral methods attempt to produce diverse or complementary networks by supplying eachnetwork with a slightly different training set. This is probably the most widely investigatedmethod of ensemble training. Regard figure 3.4; the frontmost bold square represents thetraining set for our ensemble. Different ensemble members can be given different parts ofthis set, so they will hopefully learn different things about the same task. Some methodswill divide it by training pattern, supplying each member with all the K features, but adifferent subset of the rows (patterns). Other methods will divide it by feature, supplyingeach member with all the N patterns in the set, but each consists of a different subset ofthe columns (features). Both of these are termed resampling methods, and could provideoverlapping or non-overlapping subsets of the rows or columns (or both) to different learners.Another alternative would be to pre-process the features in some way to get a differentrepresentation, for example using a log-scaling of the features. This can be viewed in ourdiagram as using a different plane, moving in the space of all possible features. The data
techniques which transform features are termed distortion methods [126].
Duin and Tax [35] find that combining the results of one type of classifier on different
feature sets is far more effective than combining the results of different classifiers on one
feature set. They conclude that the combination of independent information from the
different feature sets is more useful than the different approaches of the classifiers on the
same data.
The most well-known resampling method is probably k-fold cross-validation. By dividing
the dataset randomly into k disjoint pattern subsets, new overlapping training sets can be
created for each ensemble member, by leaving out one of these k subsets and training on
the remainder. The Bagging algorithm, is another example, randomly selecting N patterns
with replacement from the original set of N patterns.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
3. บทนิยามความหลากหลาย 50
3.2.2 ชุดที่สามารถเข้าถึงได้สมมติฐานมันสามารถจะแย้งว่ามีสองวิธีที่จะจัดการกับชุดของสมมติฐานเข้าถึงเครือข่ายแรกที่จะแก้ไขข้อมูลการฝึกอบรมที่ได้รับและประการที่สองที่จะปรับเปลี่ยนสถาปัตยกรรมของเครือข่ายของตัวเอง ตอนนี้เราจะหารือเกี่ยวกับเหล่านี้และวิธีที่พวกเขาได้ถูกนำมาใช้ในการสร้างความหลากหลายของข้อผิดพลาด. จัดการฝึกอบรมข้อมูลหลายวิธีพยายามที่จะผลิตเครือข่ายที่มีความหลากหลายหรือเสริมโดยการจัดหาแต่ละเครือข่ายที่มีการฝึกอบรมชุดที่แตกต่างกันเล็กน้อย นี้น่าจะเป็นมากที่สุดการตรวจสอบกันอย่างแพร่หลายในวิธีการของการฝึกอบรมชุด เรื่องรูปที่ 3.4; ตารางหนามาก่อนแสดงให้เห็นถึงชุดการฝึกอบรมสำหรับวงดนตรีของเรา สมาชิกวงดนตรีที่แตกต่างกันจะได้รับส่วนต่าง ๆ ของชุดนี้เพื่อให้พวกเขาหวังว่าจะได้เรียนรู้สิ่งที่แตกต่างเกี่ยวกับงานเดียวกัน วิธีการบางอย่างจะหารด้วยรูปแบบการฝึกอบรม, การจัดหาสมาชิกแต่ละคนมีคุณสมบัติทั้งหมดที่ K แต่ส่วนย่อยที่แตกต่างกันของแถว(รูปแบบ) วิธีการอื่น ๆ จะหารด้วยคุณลักษณะการจัดหาสมาชิกแต่ละคนกับทุกรูปแบบยังไม่มีข้อความที่อยู่ในชุดแต่แต่ละประกอบด้วยส่วนย่อยที่แตกต่างกันของคอลัมน์ (คุณสมบัติ) ทั้งสองคนนี้จะเรียกว่าวิธีการ resampling และสามารถให้ย่อยที่ทับซ้อนกันหรือไม่ทับซ้อนกันของแถวหรือคอลัมน์(หรือทั้งสอง) เพื่อผู้เรียนที่แตกต่างกัน. อีกหนึ่งทางเลือกที่จะดำเนินการก่อนคุณสมบัติในทางที่จะได้รับที่แตกต่างกันบางคนเป็นตัวแทนสำหรับตัวอย่างการใช้เข้าสู่ระบบการปรับขนาดของคุณสมบัติ นี้สามารถดูได้ในของเราแผนภาพการใช้เครื่องบินที่แตกต่างกันไปในพื้นที่ของคุณสมบัติที่เป็นไปได้ทั้งหมด ข้อมูลเทคนิคที่เปลี่ยนคุณสมบัติที่เรียกว่าวิธีการบิดเบือน [126]. Duin และภาษี [35] พบว่าผลที่ได้จากการรวมประเภทหนึ่งของการแยกประเภทที่แตกต่างกันในชุดคุณลักษณะอยู่ไกลมีประสิทธิภาพมากกว่าการรวมผลการจําแนกที่แตกต่างกันในหนึ่งชุดคุณลักษณะ พวกเขาสรุปได้ว่าการรวมกันของข้อมูลที่เป็นอิสระจากที่ชุดคุณลักษณะที่แตกต่างกันจะเป็นประโยชน์มากกว่าวิธีการที่แตกต่างกันของการแยกแยะในข้อมูลเดียวกัน. ส่วนใหญ่ที่รู้จักกันดีวิธีการ resampling อาจเป็น k เท่าข้ามการตรวจสอบ โดยแบ่งชุดข้อมูลที่สุ่มเข้า k ย่อยรูปแบบการเคลื่อนชุดฝึกอบรมที่ทับซ้อนกันใหม่ที่สามารถสร้างขึ้นสำหรับสมาชิกแต่ละชุดโดยออกจากหนึ่งในk ย่อยเหล่านี้และการฝึกอบรมในส่วนที่เหลือ ขั้นตอนวิธีการห่อเป็นอีกตัวอย่างหนึ่งสุ่มเลือกรูปแบบที่ยังไม่มีด้วยการเปลี่ยนจากชุดเดิมของรูปแบบยังไม่มี




























การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
บทที่ 3 การกำหนดความหลากหลายของข้อ 3.2.2 ชุดได้ 50

มันสามารถจะแย้งว่ามีสองวิธีที่จะจัดการกับชุดของสมมติฐานที่สามารถเข้าถึงเครือข่าย :
แรกเปลี่ยนข้อมูลที่ได้รับการฝึกอบรม และประการที่สอง เพื่อปรับเปลี่ยนสถาปัตยกรรม
ของเครือข่ายนั่นเอง ตอนนี้เราจะหารือเกี่ยวกับเหล่านี้และวิธีที่พวกเขาจะถูกใช้เพื่อสร้างความหลากหลายของข้อผิดพลาด
.

จัดการฝึกอบรมข้อมูลวิธีการหลายพยายามที่จะผลิตหรือประกอบหลากหลายเครือข่ายโดยการจัดหาแต่ละ
เครือข่ายด้วยชุดฝึก แตกต่างกันเล็กน้อย นี้อาจจะมากที่สุดอย่างกว้างขวางสอบสวน
วิธีการฝึกประสานกัน พิจารณารูปที่ 3.4 ; หน้าสุดหนาสี่เหลี่ยมแทน
ชุดฝึกอบรมสำหรับวงดนตรีของเรา สมาชิกวงดนตรีที่แตกต่างกันสามารถได้รับชิ้นส่วนที่แตกต่างกันของ
ชุดนี้พวกเขาหวังว่าจะเรียนรู้สิ่งต่าง ๆ เกี่ยวกับ งานเดียวกัน วิธีแบ่งตามรูปแบบการฝึก
จะจัดหาสมาชิกแต่ละที่มีคุณสมบัติทั้งหมดที่ K แต่
แตกต่างย่อยของแถว ( รูปแบบ ) วิธีการอื่น ๆ จะแบ่งตามคุณลักษณะ การจัดหา
สมาชิกทั้งหมดที่อยู่ในชุดรูปแบบ แต่แต่ละประกอบด้วยส่วนย่อยที่แตกต่างกันของ
คอลัมน์ ( คุณสมบัติ )ทั้งสองเหล่านี้เป็น termed สุ่มซ้ำวิธี และอาจให้
ซ้อนหรือไม่ซ้อนย่อยของแถวหรือคอลัมน์ ( หรือทั้งสอง ) ผู้เรียนที่แตกต่างกัน .
อีกทางเลือกจะก่อนกระบวนการคุณสมบัติในทางที่จะได้รับการเป็นตัวแทนที่แตกต่างกัน
, ตัวอย่างเช่นการใช้บันทึกการปรับของคุณสมบัติ นี้สามารถดูได้ในแผนภาพของเรา
เป็นการใช้เครื่องบินที่แตกต่างกันย้ายในพื้นที่คุณลักษณะที่เป็นไปได้ทั้งหมด ข้อมูลเทคนิคที่เปลี่ยนคุณสมบัติเป็น termed
บิดเบือนวิธีการ [ 126 ] .
ดูนและภาษี [ 3 ] พบว่า การรวมผลของประเภทหนึ่งของการจำแนกในชุดคุณลักษณะที่แตกต่างกัน
จะได้ผลดีกว่าการรวมผลของคำที่แตกต่างกันในหนึ่ง
ชุดคุณลักษณะ พวกเขาสรุปว่าการรวมกันของข้อมูลที่อิสระจาก
ชุดคุณลักษณะที่แตกต่างกันเป็นประโยชน์มากขึ้นกว่าวิธีที่แตกต่างของคำลักษณนามใน

วิธีสุ่มซ้ำข้อมูลเดียวกัน เป็นที่รู้จักมากที่สุดคือ อาจจะข้ามการตรวจสอบ k-fold . โดยแบ่ง
ข้อมูลสุ่มเป็น K ยู่แบบแผนข้อมูลใหม่ทับซ้อนสามารถสร้างชุดฝึก
สมาชิกวงดนตรีแต่ละโดยออกจากหนึ่งของเหล่านี้และการฝึกอบรม
K จากส่วนที่เหลือในถุงนี้อีกตัวอย่างหนึ่งคือ สุ่มเลือกรูปแบบ
n แทน จากเดิมชุดของรูปแบบ
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: