In the k-nearest neighbor setting, for an object whose
position is i, suppose the positions of its k nearest
neighbors are j1, · · · , jk, then only the cells located at
(i, j1), · · · ,(i, jk) are displayed. Note that in this setting,
the matrix is not symmetrical because that object A is the
nearest neighbor of object B does not imply B is the nearest
neighbor of A. Figure a) in Fig. 8 (on the last page)
is an illustration of this setting. The Zoo data set used in
the figure comes from the UCI repository. It contains 101
instances with 7 classes {mammal, bird, reptile, f ish,
amphibian, insect, and invertebrate}.
In the distance threshold setting, only those cells are displayed
whose distance values are less than a prespecified
threshold. In this setting, the matrix is symmetrical. Figure
b) in Fig. 8 (on the last page) is an example of this setting.
In k-nearest neighbor setting, it is easy to compute the
leave-one-out cross-validation accuracy, in which the set of
m training instances is repeatedly divided into a training set
of size m−1 and test set of size 1, in all possible ways [26].
In this paper, if K-NN appears on the top of a figure along
with its leave-one-out errors and accuracy, it means we are
using the k-nearest neighbor setting.
In the k-nearest neighbor setting, for an object whoseposition is i, suppose the positions of its k nearestneighbors are j1, · · · , jk, then only the cells located at(i, j1), · · · ,(i, jk) are displayed. Note that in this setting,the matrix is not symmetrical because that object A is thenearest neighbor of object B does not imply B is the nearestneighbor of A. Figure a) in Fig. 8 (on the last page)is an illustration of this setting. The Zoo data set used inthe figure comes from the UCI repository. It contains 101instances with 7 classes {mammal, bird, reptile, f ish,amphibian, insect, and invertebrate}.In the distance threshold setting, only those cells are displayedwhose distance values are less than a prespecifiedthreshold. In this setting, the matrix is symmetrical. Figureb) in Fig. 8 (on the last page) is an example of this setting.In k-nearest neighbor setting, it is easy to compute theleave-one-out cross-validation accuracy, in which the set ofm training instances is repeatedly divided into a training setof size m−1 and test set of size 1, in all possible ways [26].In this paper, if K-NN appears on the top of a figure alongwith its leave-one-out errors and accuracy, it means we areusing the k-nearest neighbor setting.
การแปล กรุณารอสักครู่..

ในการตั้งค่าเพื่อนบ้านละ สำหรับวัตถุที่มี
ตำแหน่งฉันสมมติว่าตำแหน่งของ K ที่เพื่อนบ้าน J1
· · · , JK , แล้วเพียงเซลล์อยู่ที่
( i , J1 ) · · · ( i , JK ) จะแสดง หมายเหตุ ในการตั้งค่านี้
Matrix ไม่สมมาตร เพราะวัตถุนั้นเป็น
เพื่อนบ้านที่ใกล้ที่สุดของวัตถุ B ไม่ได้หมายความว่า B คือ เพื่อนบ้านที่ใกล้ที่สุดของรูป A .
) ในฟิค8 ( หน้าสุดท้าย )
เป็นภาพประกอบของการตั้งค่านี้ ข้อมูลสวนสัตว์ชุดที่ใช้ใน
รูปที่มาจาก UCI พื้นที่เก็บข้อมูล มี 101
กรณีมี 7 ชั้นเรียน { สัตว์เลี้ยงลูกด้วยนม , นก , สัตว์เลื้อยคลาน , F ish ,
สัตว์ครึ่งบกครึ่งน้ำ แมลง และสัตว์ที่ไม่มีกระดูกสันหลัง } .
ในการตั้งค่าระยะห่างธรณีประตู เซลล์เหล่านั้นจะแสดงระยะทางที่น้อยกว่าค่า
( จร . ในการตั้งค่านี้เมทริกซ์สมมาตร . รูป :
b ) ในรูปที่ 8 ( หน้าสุดท้าย ) เป็นตัวอย่างของการตั้งค่านี้ .
ในบรรยากาศเพื่อนบ้านละ มันเป็นเรื่องง่ายที่จะหา
ปล่อยออกข้ามการตรวจสอบความถูกต้อง ซึ่งในชุดของ
กรณีการฝึกอบรมเป็นซ้ำๆ แบ่งเป็นชุดฝึก
ขนาด m − 1 และทดสอบ ชุดขนาด 1 ในวิธีที่เป็นไปได้ทั้งหมด [ 26 ] .
ในกระดาษนี้ถ้า k-nn ปรากฏที่ด้านบนของรูปตาม
กับปล่อยออกข้อผิดพลาดและความถูกต้องหมายถึงเรา
โดยใช้การตั้งค่าเพื่อนบ้านละ .
การแปล กรุณารอสักครู่..
