Class Noise and Nearest-Neighbor LearningNearest-neighbor learning, li การแปล - Class Noise and Nearest-Neighbor LearningNearest-neighbor learning, li ไทย วิธีการพูด

Class Noise and Nearest-Neighbor Le

Class Noise and Nearest-Neighbor Learning
Nearest-neighbor learning, like other techniques, is sensitive to noise in the training
data. In this section we inject varying amounts of class noise into the data and
observe the effect on classification performance.
You can flip a certain percentage of class labels in the data to a randomly
chosen other value using an unsupervised attribute filter called AddNoise, in weka.
filters.unsupervised.attribute. However, for this experiment it is important that the
test data remains unaffected by class noise. Filtering the training data without
filtering the test data is a common requirement, and is achieved using a metalearner
called FilteredClassifier, in weka.classifiers.meta, as described near the end
of Section 11.3 (page 444). This metalearner should be configured to use IBk as
the classifier and AddNoise as the filter. FilteredClassifier applies the filter to the
data before running the learning algorithm. This is done in two batches: first the
training data and then the test data. The AddNoise filter only adds noise to the
first batch of data it encounters, which means that the test data passes through
unchanged.
Exercise 17.2.6. Record in Table 17.2 the cross-validated accuracy estimate
of IBk for 10 different percentages of class noise and neighborhood sizes
k = 1, k = 3, k = 5 (determined by the value of k in the k-nearest-neighbor
classifier).
Exercise 17.2.7. What is the effect of increasing the amount of class noise?
Exercise 17.2.8. What is the effect of altering the value of k?
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ระดับเสียงรบกวนและการเรียนรู้ใกล้บ้าน
เรียนรู้ เช่นเทคนิค ใกล้ใกล้เคียงมีความไวต่อเสียงในการฝึก
ข้อมูล ในส่วนนี้ เราฉีดจำนวนระดับเสียงแตกต่างกันในข้อมูล และ
สังเกตผลประสิทธิภาพจัดประเภทได้
คุณสามารถพลิกเปอร์เซ็นต์ของป้ายชื่อชั้นข้อมูลเพื่อการสุ่ม
เลือกค่าอื่น ๆ โดยใช้ตัวกรองแอตทริบิวต์ unsupervised ที่เรียกว่า AddNoise ใน weka
filters.unsupervised.attribute อย่างไรก็ตาม ในการทดลองนี้ จึงสำคัญที่การ
ข้อมูลทดสอบยังคงเป็นผลกระทบจากระดับเสียง กรองข้อมูลการฝึกอบรมโดย
กรองข้อมูลทดสอบมีความต้องการทั่วไป และสามารถทำได้โดยใช้การ metalearner
เรียกว่า FilteredClassifier, weka.classifiers.meta ใน ดังที่นัก
ของ 11.3 ส่วน (หน้า 444) Metalearner นี้ควรมีการกำหนดค่าให้ใช้ IBk เป็น
classifier และ AddNoise เป็นตัวกรอง FilteredClassifier ใช้ตัวกรองเพื่อ
ข้อมูลก่อนที่จะรันขั้นตอนวิธีการเรียนรู้ นี้จะกระทำในสองชุด: ครั้งแรก
ข้อมูลการฝึกอบรม และข้อมูลทดสอบ ตัว AddNoise เพียงเพิ่มการ
ชุดแรกของข้อมูลที่พบ ซึ่งหมายความว่าข้อมูลทดสอบผ่าน
ไม่
กาย 17.2.6 หา 17.2 ตารางบันทึกการประเมินความถูกต้องผ่านการตรวจสอบข้าม
ของ IBk 10 เปอร์เซ็นต์แตกต่างของระดับเสียงรบกวนและพื้นที่ใกล้เคียงขนาด
k = 1, k = 3, k = 5 (กำหนด โดยค่าของ k ใน k-ใกล้ใกล้เคียง
classifier) .
17.2.7 ออกกำลังกาย ผลของการเพิ่มจำนวนของระดับเสียงคืออะไร?
17.2.8 ออกกำลังกาย ผลของการเปลี่ยนแปลงค่าของ k คืออะไร
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
เสียงระดับและเพื่อนบ้านที่ใกล้ที่สุด-Learning
การเรียนรู้ที่ใกล้ที่สุดเพื่อนบ้านเช่นเทคนิคอื่น ๆ ที่มีความไวต่อเสียงในการฝึกอบรม
ข้อมูล ในส่วนนี้เราฉีดในปริมาณที่แตกต่างกันของเสียงชั้นเป็นข้อมูลและ
สังเกตผลกระทบต่อประสิทธิภาพการทำงานการจัดหมวดหมู่
คุณสามารถพลิกอัตราร้อยละของการเรียนในฉลากข้อมูลที่จะสุ่ม
ค่าอื่น ๆ เลือกใช้ตัวกรองแอตทริบิวต์ที่เรียกว่าใกล้ชิด AddNoise ใน weka
filters.unsupervised.attribute แต่สำหรับการทดลองครั้งนี้เป็นสิ่งสำคัญที่
การทดสอบข้อมูลที่ยังคงได้รับผลกระทบด้วยเสียงชั้น การกรองข้อมูลการฝึกอบรมได้โดยไม่ต้อง
กรองข้อมูลการทดสอบเป็นความต้องการร่วมกันและจะทำได้โดยใช้ metalearner
เรียก FilteredClassifier ใน weka.classifiers.meta ตามที่อธิบายไว้ใกล้ถึงจุดสิ้นสุด
ของมาตรา 11.3 (หน้า 444) metalearner นี้ควรได้รับการกำหนดค่าให้ใช้ IBK เป็น
ลักษณนามและ AddNoise เป็นตัวกรอง FilteredClassifier ใช้ตัวกรองเพื่อ
ข้อมูลก่อนที่จะใช้ขั้นตอนวิธีการเรียนรู้ นี้จะกระทำในสองกระบวนการแรก
ข้อมูลการฝึกอบรมและการทดสอบข้อมูลที่ กรอง AddNoise เพียงเพิ่มเสียงให้กับ
ชุดแรกของข้อมูลที่พบซึ่งหมายความว่าข้อมูลการทดสอบผ่าน
การเปลี่ยนแปลง
การออกกำลังกาย 17.2.6 บันทึกไว้ในตารางที่ 17.2 ประมาณการความถูกต้องข้ามการตรวจสอบ
ของ IBK 10 ร้อยละที่แตกต่างกันของเสียงและระดับที่ใกล้เคียงขนาด
k = 1, k = 3, k = 5 (กำหนดโดยค่าของ k ใน k-เพื่อนบ้านที่ใกล้ที่สุด
ลักษณนาม)
การออกกำลังกาย 17.2.7 เป็นผลกระทบของการเพิ่มปริมาณของเสียงชั้นอะไร
17.2.8 การออกกำลังกาย ผลกระทบของการเปลี่ยนแปลงค่าของ k คืออะไร
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
รบกวนชั้นเรียน และเพื่อนบ้านที่ใกล้ที่สุดการเรียนรู้
เพื่อนบ้านที่ใกล้ที่สุดในการเรียนรู้ เช่น เทคนิคอื่น ๆ มีความไวต่อเสียงในข้อมูลฝึก

ในส่วนนี้เราฉีดตามจํานวนเสียงคลาสในข้อมูลและสังเกตผลการปฏิบัติการ
.
คุณสามารถพลิกร้อยละหนึ่งของชั้นเรียนป้ายในข้อมูลสุ่ม
เลือกค่าอื่นๆใช้แอตทริบิวต์ unsupervised กรองที่เรียกว่า addnoise ใน Weka .
filters.unsupervised.attribute . อย่างไรก็ตาม การทดลองนี้เป็นสิ่งสำคัญที่
ข้อมูลทดสอบยังคงได้รับผลกระทบจากเสียงรบกวนชั้น การกรองข้อมูลการฝึกอบรมโดยไม่มีการกรองข้อมูล
ทดสอบมีความต้องการร่วมกัน และได้ใช้ metalearner
เรียกว่า filteredclassifier ใน weka.classifiers.meta , ,ตามที่อธิบายไว้ใกล้จบ
ส่วน 11.3 ( หน้า 1 ) metalearner นี้ควรถูกกำหนดค่าให้ใช้เป็นลักษณนาม และ ibk
addnoise เป็นไส้กรอง ใช้ตัวกรองเพื่อ filteredclassifier
ข้อมูลก่อน ใช้ขั้นตอนวิธีการเรียนรู้ นี้จะกระทำในชุดที่สอง : แรก
การฝึกอบรมข้อมูลแล้วข้อมูลทดสอบ ตัวกรอง addnoise แค่เพิ่มเสียง
ชุดแรกของข้อมูลที่พบซึ่งหมายความว่าข้อมูลที่ทดสอบผ่าน

ออกกำลังกายเหมือนเดิม 17.2.6 . บันทึกตารางที่ 17.2 ข้ามการตรวจสอบความถูกต้องของค่า
ibk 10 เปอร์เซ็นต์ที่แตกต่างกันของชั้นเรียน และย่านเสียงขนาด
k = 1 , K = 3 , K = 5 ( กำหนดโดยค่า K ใน k-nearest-neighbor

ใช้ลักษณนาม ) 17.2.7 . อะไรคือผลของการเพิ่มปริมาณของเสียงเรียน
ออกกำลังกาย 17.2.8 .อะไรคือผลกระทบของการเปลี่ยนแปลงของค่า K
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: