Instance-Based Learning (IBL) (Aha, Kibler & Albert, 1991; Aha, 1992; Wilson & Martinez,
1993; Wettschereck, Aha & Mohri, 1995; Domingos, 1995) is a paradigm of learning in which
algorithms typically store some or all of the n available training examples (instances) from a
training set, T, during learning. Each instance has an input vector x, and an output class c.
During generalization, these systems use a distance function to determine how close a new
input vector y is to each stored instance, and use the nearest instance or instances to predict the
output class of y (i.e., to classify y). Some instance-based learning algorithms are referred to as
nearest neighbor techniques (Cover & Hart, 1967; Hart, 1968; Dasarathy, 1991), and memorybased
reasoning methods (Stanfill & Waltz, 1986; Cost & Salzberg, 1993; Rachlin et al., 1994)
overlap significantly with the instance-based paradigm as well. Such algorithms have had much
success on a wide variety of applications (real-world classification tasks).
Instance-Based Learning (IBL) (Aha, Kibler & Albert, 1991; Aha, 1992; Wilson & Martinez,1993; Wettschereck, Aha & Mohri, 1995; Domingos, 1995) is a paradigm of learning in whichalgorithms typically store some or all of the n available training examples (instances) from atraining set, T, during learning. Each instance has an input vector x, and an output class c.During generalization, these systems use a distance function to determine how close a newinput vector y is to each stored instance, and use the nearest instance or instances to predict theoutput class of y (i.e., to classify y). Some instance-based learning algorithms are referred to asnearest neighbor techniques (Cover & Hart, 1967; Hart, 1968; Dasarathy, 1991), and memorybasedreasoning methods (Stanfill & Waltz, 1986; Cost & Salzberg, 1993; Rachlin et al., 1994)overlap significantly with the instance-based paradigm as well. Such algorithms have had muchsuccess on a wide variety of applications (real-world classification tasks).
การแปล กรุณารอสักครู่..

อินสแตนซ์จากการเรียนรู้ (IBL) (อ้า KIBLER และอัลเบิร์ 1991; Aha 1992; วิลสันและมาร์ติเน
1993; Wettschereck อ้าฮาและ Mohri, 1995; Domingos, 1995)
เป็นกระบวนทัศน์ของการเรียนรู้ในการที่ขั้นตอนวิธีมักจะเก็บบางส่วนหรือทั้งหมดของตัวอย่างการฝึกอบรม n (กรณี)
จากชุดการฝึกอบรม, T, ในระหว่างการเรียนรู้ ตัวอย่างแต่ละคนมีการป้อนข้อมูลเวกเตอร์ x และระดับเอาท์พุทค.
ในช่วงทั่วไประบบเหล่านี้ใช้ฟังก์ชั่นระยะทางในการกำหนดวิธีการปิดใหม่ป้อนข้อมูลเวกเตอร์ y ที่เป็นตัวอย่างที่เก็บไว้ในแต่ละครั้งและใช้อินสแตนซ์ที่ใกล้ที่สุดหรือกรณีที่จะคาดการณ์ระดับการส่งออกของ Y (เช่นการจำแนก y) บางขั้นตอนวิธีการเรียนรู้ตัวอย่างที่ใช้จะเรียกว่าที่ใกล้ที่สุดเทคนิคเพื่อนบ้าน (ปก & ฮาร์ท, 1967; ฮาร์ท, 1968; Dasarathy, 1991) และ memorybased วิธีการให้เหตุผล (Stanfill และ Waltz, 1986; ค่าใช้จ่ายและ Salzberg 1993; Rachlin et al, , 1994) ที่ทับซ้อนกันอย่างมีนัยสำคัญกับกระบวนทัศน์เช่นตามได้เป็นอย่างดี ขั้นตอนวิธีการดังกล่าวมีมากที่ประสบความสำเร็จในหลากหลายของการใช้งาน (งานจัดหมวดหมู่ที่แท้จริงของโลก)
การแปล กรุณารอสักครู่..

เรียนรู้ตัวอย่างตาม ( IBL ) ( AHA คิปเลอร์& Albert , 1991 ; AHA , 1992 ; วิลสัน& Martinez
1993 ; wettschereck AHA & mohri , 1995 ; โดมินโกส์ , 1995 ) คือ กระบวนทัศน์ของการเรียนรู้ที่
ขั้นตอนวิธีโดยทั่วไปร้านค้าบางส่วนหรือทั้งหมดของ n ตัวอย่างการฝึกอบรมพร้อม ( กรณี ) จาก
ชุดฝึกอบรม , T , ระหว่างเรียน แต่ละครั้งจะมีอินพุตเวกเตอร์ x และชั้นเรียนออกในระหว่างการ C .
,ระบบเหล่านี้ใช้ไกลฟังก์ชันเพื่อหาวิธีปิดเวกเตอร์นำเข้าใหม่
Y คือการจัดเก็บแต่ละตัวอย่าง และใช้ตัวอย่างที่ใกล้ที่สุดหรืออินสแตนซ์เพื่อทำนายผลผลิตรุ่น Y
( เช่น การแยกประเภท Y ) บางตัวอย่างที่ใช้อัลกอริทึมการเรียนรู้จะเรียกว่า
เพื่อนบ้านที่ใกล้ที่สุด ( ครอบคลุมเทคนิค&ฮาร์ท 1967 ; ฮาร์ท , 1968 ; dasarathy , 1991 ) , และ memorybased
วิธีเหตุผล ( stanfill &วอลซ์ , 1986 ; ต้นทุน&ซาลซ์ , 1993 ; แร็กลิน et al . , 1994 )
ซ้อนกันอย่างมาก ด้วยอินสแตนซ์ตามกระบวนทัศน์เช่นกัน ขั้นตอนวิธีดังกล่าวได้มีความสำเร็จมาก
ในหลากหลายของการใช้งาน ( งานจัดจริง )
การแปล กรุณารอสักครู่..
