The bulk of contributions in fuzzy machine learning deals with the fuz การแปล - The bulk of contributions in fuzzy machine learning deals with the fuz ไทย วิธีการพูด

The bulk of contributions in fuzzy

The bulk of contributions in fuzzy machine learning deals with the fuzzy extension of standard, non-fuzzy meth-ods: from rule induction to fuzzy rule induction [19,14,5], from decision trees to fuzzy decisions trees [20,27,26],from nearest neighbor estimation to fuzzy nearest neighbor estimation [21], from support vector machines to fuzzy support vector machines [25,1], etc. In general, this means an extension of the representation of corresponding mod-els by means of fuzzy concepts, such as the use of fuzzy instead of crisp partitions in decision tree learning. The effect is an increased flexibility of the model class, which can indeed be useful and improve performance, espe-cially if the original class is quite restricted. For example, fuzzy rule induction gets rid of restrictions to axis-parallel decision boundaries, which may improve classification accuracy [15], and the finer granularity of scores produced by fuzzy decision trees (compared to standard decision trees, which produce many ties) can be useful in rank-ing[18].
In spite of potential advantages of that kind, the “fuzzification” of conventional machine learning methods can be questioned for several reasons:
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
จำนวนมากจัดสรรเครื่องเอิบเรียนรู้เกี่ยวข้องกับมาตรฐานขยายเอิบ เอิบไม่จาก-ods: จากกฎการเหนี่ยวนำเพื่อเหนี่ยวนำกฎเอิบ [19,14,5], จากต้นไม้ตัดสินใจจะตัดสินใจเอิบต้นไม้ [20,27,26], จากที่ใกล้ที่สุดประมาณใกล้เคียงกับเอิบที่ใกล้ที่สุดประมาณใกล้เคียง [21], จากเครื่อง vector สนับสนุนเพื่อสนับสนุนเอิบเวกเตอร์เครื่อง [25,1], ฯลฯ ทั่วไป นี้หมาย ขยายแสดงกับ mod ที่สอดคล้องกันโดยใช้แนวคิดอย่างชัดเจน เช่นใช้ของเอิบแทนพาร์คมชัดในการเรียนรู้ต้นไม้ตัดสินใจ ผลคือ มีความยืดหยุ่นเพิ่มขึ้นชั้นรุ่น ซึ่งสามารถแน่นอนเป็นประโยชน์ และเพิ่มประสิทธิภาพ espe cially ว่าชั้นเดิมค่อนข้างจำกัด ตัวอย่าง เอิบกฎการเหนี่ยวนำได้รับการกำจัดข้อจำกัดตัดสินใจแกนขนานขอบ ซึ่งอาจปรับปรุงการจัดประเภทความแม่นยำ [15], และองค์ประกอบปลีกย่อยของผลิต โดยต้นไม้ตัดสินใจชัดเจน (เมื่อเปรียบเทียบกับต้นไม้ตัดสินใจมาตรฐาน ที่ผลิตหลายผูก) คะแนน สามารถใช้ในอันดับ-ing [18]แม้ชนชนิดที่มีศักยภาพ "fuzzification" วิธีการเรียนรู้ของเครื่องทั่วไปสามารถไต่สวนหลายสาเหตุ:
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
เป็นกลุ่มของการมีส่วนร่วมในเครื่องเลือนข้อเสนอการเรียนรู้ที่มีนามสกุลเลือนมาตรฐานไม่เลือนปรุงยา-ODS: จากการเหนี่ยวนำกฎการเหนี่ยวนำกฎเลือน [19,14,5] จากต้นไม้การตัดสินใจที่จะตัดสินใจเลือนต้นไม้ [20,27, 26] จากการประมาณเพื่อนบ้านที่ใกล้ที่สุดที่จะเลือนการประมาณเพื่อนบ้านที่ใกล้ที่สุด [21] จากการสนับสนุนเครื่องเวกเตอร์ที่ให้การสนับสนุนเลือนเครื่องเวกเตอร์ [25,1] ฯลฯ โดยทั่วไปนี้หมายถึงการเป็นส่วนหนึ่งของการแสดงที่สอดคล้อง Els-mod ด้วยวิธีการที่ แนวคิดเลือนเช่นการใช้เลือนแทนของพาร์ทิชันที่คมชัดในการตัดสินใจการเรียนรู้ต้นไม้ ผลเป็นความยืดหยุ่นที่เพิ่มขึ้นของรูปแบบการเรียนซึ่งสามารถจริงจะมีประโยชน์และปรับปรุงประสิทธิภาพการทำงาน ESPE-ทางการถ้าระดับเดิมค่อนข้างถูก จำกัด ยกตัวอย่างเช่นการเหนี่ยวนำกฎเลือนได้รับกำจัดของข้อ จำกัด ขอบเขตการตัดสินใจของแกนขนานซึ่งอาจปรับปรุงความถูกต้องการจัดหมวดหมู่ [15] และเมล็ดปลีกย่อยของคะแนนที่ผลิตโดยต้นไม้ตัดสินใจเลือน (เมื่อเทียบกับต้นไม้ตัดสินใจมาตรฐานที่ผลิตความสัมพันธ์อีกหลายคน) สามารถ จะเป็นประโยชน์ในการจัดอันดับไอเอ็นจี [18].
ทั้งๆที่มีข้อได้เปรียบที่มีศักยภาพของชนิดนั้น "fuzzification" ของเครื่องเดิมวิธีการเรียนรู้สามารถสอบสวนหลายสาเหตุ:
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
เป็นกลุ่มของผลงานในแบบเครื่อง deals การเรียนรู้กับส่วนขยายเลือนของมาตรฐาน ไม่คลุมเครือ เมธบอกกฎฟัซซี : จากการอุปนัย [ กฎ 19,14,5 ] จากต้นไม้การตัดสินใจการตัดสินใจแบบต้นไม้ [ 20,27,26 ] จากเพื่อนบ้านที่ใกล้ที่สุดประมาณจะเลือนเพื่อนบ้านที่ใกล้ที่สุดประมาณ [ 21 ] , จากเครื่องสนับสนุนการสนับสนุนเวกเตอร์แบบเวกเตอร์เครื่อง 25,1 [ ] , ฯลฯ โดยทั่วไปหมายถึงส่วนขยายของการเป็นตัวแทนของ ELS mod ที่สอดคล้องกันโดยใช้แนวคิดคลุมเครือ เช่น การใช้ฟัซซี่แทนกรอบพาร์ทิชันในต้นไม้ตัดสินใจ . ผลคือ ความยืดหยุ่นที่เพิ่มขึ้นของรูปแบบคลาส ซึ่งแน่นอนสามารถเป็นประโยชน์และปรับปรุงประสิทธิภาพ เอสป์ cially ถ้าระดับเดิมค่อนข้างจำกัด ตัวอย่างเช่นการเหนี่ยวนำกฎฟัซซีจะกำจัดข้อ จำกัด ขอบเขตการตัดสินใจขนานกับแกน ซึ่งอาจปรับปรุงความแม่นยำในการจำแนก [ 15 ] และปลีกย่อย granularity ของคะแนนผลิตโดยการตัดสินใจแบบต้นไม้ ( เทียบกับมาตรฐานการตัดสินใจต้นไม้ ซึ่งผลิตความสัมพันธ์มาก ) สามารถเป็นประโยชน์ในการจัดอันดับไอเอ็นจี [ 18 ] .
ทั้งๆที่มีประโยชน์ที่มีศักยภาพของประเภทนั้น ," ฟัซซีฟิเคชั่น " ของวิธีการเรียนรู้เครื่องเดิมสามารถสอบถามสำหรับหลายเหตุผล :
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: