KNN [5] is one of the most widely used lazy learning approach [1]. Giv การแปล - KNN [5] is one of the most widely used lazy learning approach [1]. Giv ไทย วิธีการพูด

KNN [5] is one of the most widely u

KNN [5] is one of the most widely used lazy learning approach [1]. Given a set of
n training examples, upon receiving a new instance to predict, the kNN classifier
will identify k nearest neighboring training examples of the new instance and
then assign the class label holding by the most number of neighbors to the new
instance.
The asymptotic classification error of kNN tends to the optimal Bayes error
rate as k→∞ and k/n → 0 when n grows to infinity, and the error is bounded
by approximately twice the Bayes error if k = 1 [6]. This behavior in asymptotic
classification performance combining with the simplicity in concept and implementation,
makes kNN a powerful classification approach capable of dealing with
arbitrarily complex problems, provided there is a large training data set. However,
the theoretical behavior can hardly be obtained because kNN is sensitive
to outliers and noise contained in the training data set, which usually occurs
in real-world applications. Therefore, it is important to eliminate outliers in the
training data set and make other necessary cleaning. The approaches devoting
to this purpose are referred to as editing approaches [6].
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
KNN [5] เป็นหนึ่งในวิธีเรียนขี้เกียจใช้กันอย่างแพร่หลาย [1] กำหนดชุดของตัวอย่างฝึก n เมื่อได้รับอินสแตนซ์ใหม่เพื่อทำนาย kNN classifierจะระบุ k ใกล้ใกล้เคียงตัวอย่างการอบรมของอินสแตนซ์ใหม่ และกำหนดป้ายชื่อคลาโฮลดิ้ง โดยจำนวนสูงสุดของบ้านใหม่อินสแตนซ์ข้อผิดพลาดประเภท asymptotic ของ kNN มีแนวโน้มที่ข้อผิดพลาดของ Bayes เหมาะสมที่สุดอัตราเป็น k→∞ และ k/n → 0 เมื่อ n เติบโตอนันต์ และข้อผิดพลาดถูกล้อมรอบโดยประมาณสอง Bayes ข้อผิดพลาดถ้า k = 1 [6] ลักษณะเช่นนี้ใน asymptoticประสิทธิภาพในการทำงานของการจัดประเภทรวมเรียบง่ายในแนวคิดและการดำเนินงานทำให้ kNN วิธีจัดประเภทมีประสิทธิภาพความสามารถในการจัดการกับปัญหาที่ซับซ้อนโดย ให้มีชุดข้อมูลฝึกอบรมขนาดใหญ่ได้ อย่างไรก็ตามทฤษฎีลักษณะการทำงานไม่ได้เนื่องจากเป็น kNNoutliers และเสียงที่อยู่ในชุดข้อมูลฝึกอบรม ซึ่งมักจะเกิดขึ้นในการใช้งานจริง ดังนั้น จึงเป็นสิ่งสำคัญในการกำจัด outliers ในการข้อมูลการฝึกอบรมตั้ง และทำความสะอาดอื่น ๆ จำเป็น วิธี devotingเพื่อวัตถุประสงค์นี้จะเรียกว่าแก้ไขแนวทาง [6]
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
KNN [5] เป็นหนึ่งในที่สุดที่ใช้กันอย่างแพร่หลายวิธีการเรียนรู้ขี้เกียจ [1] รับชุดของตัวอย่างการฝึกอบรม n เมื่อได้รับตัวอย่างใหม่ที่จะคาดการณ์ที่จําแนก kNN จะระบุ k ที่ใกล้ที่สุดอยู่ใกล้เคียงตัวอย่างการฝึกอบรมของตัวอย่างใหม่และจากนั้นกำหนดฉลากระดับที่ถือโดยจำนวนมากที่สุดของประเทศเพื่อนบ้านใหม่เช่น. asymptotic ข้อผิดพลาดในการจัดหมวดหมู่ของ kNN มีแนวโน้มที่จะเกิดข้อผิดพลาดเบส์ที่ดีที่สุดอัตราที่k →∞และ k / n → 0 เมื่อ n เติบโตอินฟินิตี้และข้อผิดพลาดที่ล้อมรอบประมาณสองเท่าของความผิดพลาดของเบส์ถ้าk = 1 [6] ลักษณะการทำงานนี้ในเชิงประสิทธิภาพการจัดหมวดหมู่รวมกับความเรียบง่ายในแนวคิดและการดำเนินการทำให้kNN วิธีการจัดหมวดหมู่ที่มีประสิทธิภาพความสามารถในการจัดการกับปัญหาที่ซับซ้อนโดยพลให้มีชุดข้อมูลการฝึกอบรมที่มีขนาดใหญ่ แต่พฤติกรรมทฤษฎีแทบจะไม่สามารถรับได้เพราะ kNN มีความสำคัญที่จะผิดปกติและเสียงที่มีอยู่ในข้อมูลชุดฝึกอบรมซึ่งมักจะเกิดขึ้นในการใช้งานจริงของโลก ดังนั้นจึงเป็นสิ่งสำคัญที่จะขจัดค่าผิดปกติในชุดข้อมูลการฝึกอบรมและให้ทำความสะอาดอื่น ๆ ที่จำเป็น วิธีการอุทิศเพื่อจุดประสงค์นี้จะเรียกว่าเป็นวิธีการแก้ไข [6]














การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
knn [ 5 ] เป็นหนึ่งในที่สุดที่ใช้กันอย่างแพร่หลาย ขี้เกียจเรียน [ 1 ] ได้รับชุดของ
n ตัวอย่างการฝึกอบรม เมื่อได้รับตัวอย่างใหม่ทำนาย , knn ลักษณนาม
จะระบุ K ใกล้เพื่อนบ้านการฝึกอบรมตัวอย่างของตัวอย่างใหม่และมอบหมายให้ชั้นถือป้าย
จากนั้นโดยมากที่สุดจำนวนเพื่อนบ้านตัวอย่างใหม่

การจำแนกแหล่งข้อผิดพลาดของ knn มีแนวโน้มที่จะดีที่สุด Bayes อัตราข้อผิดพลาด
K →∞และ K / N → keyboard - key - name 0 เมื่อ N เติบโตไปไม่มีที่สิ้นสุด และข้อผิดพลาดจำกัด
ประมาณสองครั้ง Bayes ข้อผิดพลาดหาก K = 1 [ 6 ] พฤติกรรมนี้ในประสิทธิภาพการจำแนกแหล่ง
รวมกับความเรียบง่ายในแนวคิดและการดำเนินงานที่มีประสิทธิภาพการจำแนกวิธีการทำให้ knn

สามารถเผชิญกับโดยพลการ ปัญหาซับซ้อน ให้มีการฝึกอบรมชุดข้อมูล อย่างไรก็ตาม พฤติกรรมทางทฤษฎี
แทบไม่ได้ เพราะเป็นเรื่องละเอียดอ่อนและต้องมีค่า knn
เสียงที่มีอยู่ในการฝึกอบรมชุดข้อมูล ซึ่งมักจะเกิดขึ้นในการใช้งานจริง
. ดังนั้นจึงเป็นสิ่งสำคัญที่จะขจัดค่าผิดปกติในการฝึกอบรม และให้ทำความสะอาด
ชุดข้อมูลจำเป็นอื่น ๆ วิธีอุทิศ
เพื่อวัตถุประสงค์นี้จะเรียกว่าการแก้ไขแนวทาง [ 6 ]
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: