A variety of machine learning algorithms are available, e.g. decision tree learners such as C4.5 (Quinlan, 1993a), instance based learners such as IBk or KStar
(Cleary & Trigg, 1995), simple learners based on conditional probabilities such
as NaiveBayes and linear discriminants such as MLR (multi-response linear regression) – to name just a few. However, which one gives optimal or even acceptable
results for a given dataset at hand is as of now a black art. Meta-Learning approaches (Brazdil, Gama & Henry, 1994; Pfahringer et al., 2000) aim to solve
this problem by learning which classifier to choose from dataset characterization
features and the performance of simple landmark classifiers with mixed success,
but so far no reliable patterns have emerged. Some researchers rely on finetuning a single classifier which they presumably know best, while others try to
decide this question empirically on a case-by-case basis.
ความหลากหลายของอัลกอริทึมการเรียนรู้ของเครื่องจักรที่มีอยู่ เช่น การตัดสินใจของผู้เรียน เช่น โปรแกรม C4.5 ( ควินแลนต้นไม้ , , 1993a ) ตัวอย่างจากผู้เรียน เช่น ibk หรือ Kstar
( จริงๆ&เหนี่ยวไก , 1995 ) , ง่ายผู้เรียนโดยใช้เงื่อนไขความน่าจะเป็นเช่น
เป็นนา ฟ เบส์ discriminants และเชิงเส้นเช่น MLR ( การถดถอยหลายเชิงเส้น ) และชื่อ เพียงไม่กี่ อย่างไรก็ตามที่ให้ที่ดีที่สุดหรือแม้กระทั่งยอมรับ
ผลให้ข้อมูลในมือคือ ณตอนนี้เป็นสีดำศิลปะ Meta วิธีการเรียน ( brazdil กามา& , เฮนรี่ , 1994 ; pfahringer et al . , 2000 ) มุ่งมั่นที่จะแก้ไขปัญหานี้โดยการเรียนรู้ซึ่งตัว
มีให้เลือกจากชุดข้อมูลคุณสมบัติและประสิทธิภาพของคำหลักง่าย ๆ กับความสำเร็จที่ผสม
แต่ตอนนี้ไม่มีความน่าเชื่อถือ รูปแบบที่เกิดขึ้นได้ นักวิจัยบางคนพึ่ง finetuning แบบเดียวที่พวกเขาน่าจะรู้ดีที่สุด ในขณะที่คนอื่นพยายาม
ตัดสินใจคำถามเชิงประจักษ์ตามกรณี
การแปล กรุณารอสักครู่..
