The bulk of contributions in fuzzy machine learning deals with the fuzzy extension of standard, non-fuzzy meth-ods: from rule induction to fuzzy rule induction [19,14,5], from decision trees to fuzzy decisions trees [20,27,26],from nearest neighbor estimation to fuzzy nearest neighbor estimation [21], from support vector machines to fuzzy support vector machines [25,1], etc. In general, this means an extension of the representation of corresponding mod-els by means of fuzzy concepts, such as the use of fuzzy instead of crisp partitions in decision tree learning. The effect is an increased flexibility of the model class, which can indeed be useful and improve performance, espe-cially if the original class is quite restricted. For example, fuzzy rule induction gets rid of restrictions to axis-parallel decision boundaries, which may improve classification accuracy [15], and the finer granularity of scores produced by fuzzy decision trees (compared to standard decision trees, which produce many ties) can be useful in rank-ing[18].
In spite of potential advantages of that kind, the “fuzzification” of conventional machine learning methods can be questioned for several reasons:
จำนวนมากจัดสรรเครื่องเอิบเรียนรู้เกี่ยวข้องกับมาตรฐานขยายเอิบ เอิบไม่จาก-ods: จากกฎการเหนี่ยวนำเพื่อเหนี่ยวนำกฎเอิบ [19,14,5], จากต้นไม้ตัดสินใจจะตัดสินใจเอิบต้นไม้ [20,27,26], จากที่ใกล้ที่สุดประมาณใกล้เคียงกับเอิบที่ใกล้ที่สุดประมาณใกล้เคียง [21], จากเครื่อง vector สนับสนุนเพื่อสนับสนุนเอิบเวกเตอร์เครื่อง [25,1], ฯลฯ ทั่วไป นี้หมาย ขยายแสดงกับ mod ที่สอดคล้องกันโดยใช้แนวคิดอย่างชัดเจน เช่นใช้ของเอิบแทนพาร์คมชัดในการเรียนรู้ต้นไม้ตัดสินใจ ผลคือ มีความยืดหยุ่นเพิ่มขึ้นชั้นรุ่น ซึ่งสามารถแน่นอนเป็นประโยชน์ และเพิ่มประสิทธิภาพ espe cially ว่าชั้นเดิมค่อนข้างจำกัด ตัวอย่าง เอิบกฎการเหนี่ยวนำได้รับการกำจัดข้อจำกัดตัดสินใจแกนขนานขอบ ซึ่งอาจปรับปรุงการจัดประเภทความแม่นยำ [15], และองค์ประกอบปลีกย่อยของผลิต โดยต้นไม้ตัดสินใจชัดเจน (เมื่อเปรียบเทียบกับต้นไม้ตัดสินใจมาตรฐาน ที่ผลิตหลายผูก) คะแนน สามารถใช้ในอันดับ-ing [18]แม้ชนชนิดที่มีศักยภาพ "fuzzification" วิธีการเรียนรู้ของเครื่องทั่วไปสามารถไต่สวนหลายสาเหตุ:
การแปล กรุณารอสักครู่..
เป็นกลุ่มของผลงานในแบบเครื่อง deals การเรียนรู้กับส่วนขยายเลือนของมาตรฐาน ไม่คลุมเครือ เมธบอกกฎฟัซซี : จากการอุปนัย [ กฎ 19,14,5 ] จากต้นไม้การตัดสินใจการตัดสินใจแบบต้นไม้ [ 20,27,26 ] จากเพื่อนบ้านที่ใกล้ที่สุดประมาณจะเลือนเพื่อนบ้านที่ใกล้ที่สุดประมาณ [ 21 ] , จากเครื่องสนับสนุนการสนับสนุนเวกเตอร์แบบเวกเตอร์เครื่อง 25,1 [ ] , ฯลฯ โดยทั่วไปหมายถึงส่วนขยายของการเป็นตัวแทนของ ELS mod ที่สอดคล้องกันโดยใช้แนวคิดคลุมเครือ เช่น การใช้ฟัซซี่แทนกรอบพาร์ทิชันในต้นไม้ตัดสินใจ . ผลคือ ความยืดหยุ่นที่เพิ่มขึ้นของรูปแบบคลาส ซึ่งแน่นอนสามารถเป็นประโยชน์และปรับปรุงประสิทธิภาพ เอสป์ cially ถ้าระดับเดิมค่อนข้างจำกัด ตัวอย่างเช่นการเหนี่ยวนำกฎฟัซซีจะกำจัดข้อ จำกัด ขอบเขตการตัดสินใจขนานกับแกน ซึ่งอาจปรับปรุงความแม่นยำในการจำแนก [ 15 ] และปลีกย่อย granularity ของคะแนนผลิตโดยการตัดสินใจแบบต้นไม้ ( เทียบกับมาตรฐานการตัดสินใจต้นไม้ ซึ่งผลิตความสัมพันธ์มาก ) สามารถเป็นประโยชน์ในการจัดอันดับไอเอ็นจี [ 18 ] .
ทั้งๆที่มีประโยชน์ที่มีศักยภาพของประเภทนั้น ," ฟัซซีฟิเคชั่น " ของวิธีการเรียนรู้เครื่องเดิมสามารถสอบถามสำหรับหลายเหตุผล :
การแปล กรุณารอสักครู่..