Fuzzy sets are connected to uncertainty modeling via possibility theory, that is, via the interpretation of mem-bership functions as possibility distributions. More generally, alternative uncertainty formalisms, typically based on non-additive measures, have been studied extensively in the fuzzy community. Since uncertainty is inherent in induc-tive inference and, therefore, learning from data is inseparably connected with uncertainty, this is another opportunity to contribute to machine learning.
In fact, even if the machine learning community is still very much focused on probability as the ultimate tool for uncertainty handling, one may well argue that probability alone is not enough to capture all sorts of uncertainty rel-evant to learning from data. For example, a distinction between epistemicand aleatoricuncertainty in supervised learning has recently been suggested in [30]. Roughly speaking, while aleatoric uncertainty refers to the inher-ently non-deterministic dependency between input and output variables and, therefore, is appropriately modeled in a probabilistic way, epistemic uncertainty refers to the incomplete knowledge—due to a lack of data—about the true dependency; this partial ignorance can be modeled conveniently in terms of (fuzzy) sets of candidate models.
Many papers on fuzzy machine learning claim to handle uncertainty in a proper way. Just like for interpretability, however, this claim seems to be often taken for granted and is not substantiated by convincing arguments or sound theoretical foundations. For example, it is often not clear what kind of uncertainty is captured by a fuzzy model, and what is the meaning of a membership degree. While a non-frequentistinterpretation of membership degrees is appealing and in a sense necessary if a demarcation from probability is sought, it seems to be a major obstacle at the same time. In particular, a non-frequentist interpretation of degrees of belief or confidence seems to be more difficult to grasp and comprehend by people than a frequentist interpretation.4Connected to this, the empirical evaluation of a model—a point machine learning puts much emphasis on—becomes more difficult: How to check the validity of “fuzzy predictions” empirically?
An increasing number of publications is also devoted to learning from “fuzzy data”, where observations are mod-eled in terms of fuzzy subsets of the original data space [12,13,9,31]. Obviously, this requires the extension of corresponding learning algorithms, which normally assume precise data. Unfortunately, this is again often done with-out clarifying the actual meaning of a fuzzy observation and the interpretation of membership functions. In particular, just like in fuzzy statistics [23,24,28,22,10], a distinction should be made between an “ontic” interpretation, consider-ing fuzzy data as actual entities, and an “epistemic” interpretation, considering fuzzy data as an uncertain description of some true data that is not known exactly or cannot be observed precisely [11]. In fact, these two interpretations call for fundamentally different extensions of learning methods: While the ontic interpretation suggests “lifting” standard learning methods to an extended (fuzzy) data space (via the extension principle), the epistemic interpretation will nor-mally lead to finding a model in the original data space that is to some extent consistent with the constraints imposed by the fuzzy observations [17].
By now, the idea of learning from fuzzy data is also still hampered by the limited availability of such data, which is arguably hard to produce: Except for the human expert or data analyst himself, who may “draw fuzzy sets by hand”, there does not seem to be any technical device that allows for producing fuzzy data in a systematic and automated way. Sometimes, it suggested to reinterpret a collection of [0, 1]-valued data, such as the pixels of a gray-scale image, as a single fuzzy observation. While this might be possible, and perhaps even useful in some cases, a reinterpretation of that kind is nevertheless arguable, and its advantages are often not very clear. Interestingly, an alternative way of producing and using fuzzy data was suggested in [17]: Instead of assuming fuzzy data to be given right away, precise data is systematically “fuzzified” so as to modulate the influence of individual observations on the process of model induction. Thus, the notion of “fuzzy data” is used here as a tool for modeling.
เอิบชุดเชื่อมต่อกับความไม่แน่นอนการสร้างโมเดลทางทฤษฎีความเป็นไปได้ นั่นคือ ผ่านการตีความของฟังก์ชัน bership หน่วยความจำเป็นการกระจายโอกาส เพิ่มเติมโดยทั่วไป ความไม่แน่นอนอื่น formalisms โดยทั่วไปตามมาตรการที่ไม่ใช่การบวก มีการศึกษาอย่างกว้างขวางในชุมชนชัดเจน เนื่องจากความไม่แน่นอนคือในข้อ induc tive และ จึง เรียนรู้จากข้อมูล inseparably เชื่อมโยงกับความไม่แน่นอน นี่คือโอกาสอื่นจะนำไปสู่การเรียนรู้ของเครื่องในความเป็นจริง แม้ว่าชุมชนเรียนรู้เครื่องมากยังคงเน้นความน่าเป็นเป็นเครื่องมือที่ดีที่สุดสำหรับการจัดการความไม่แน่นอน หนึ่งอาจดีโต้เถียงว่า ความน่าเป็นเพียงอย่างเดียวไม่เพียงพอที่จะจับทุกประเภทของความไม่แน่นอน rel evant เรียนรู้จากข้อมูล ตัวอย่าง ความแตกต่างระหว่าง aleatoricuncertainty epistemicand เรียนรู้ที่มีได้เมื่อเร็ว ๆ นี้ถูกแนะนำใน [30] ประมาณพูด ในขณะที่ความไม่แน่นอน aleatoric หมายถึงการพึ่งพาไม่ใช่ deterministic inher ently ระหว่างตัวแปรอินพุท และเอาท์พุท และ ดังนั้น เป็นอย่างจำลองแบบ probabilistic, epistemic ความไม่แน่นอนหมายถึงความรู้สมบูรณ์ — เนื่องจากขาดข้อมูลซึ่งเกี่ยวกับอ้างอิงจริง ความไม่รู้นี้บางส่วนสามารถจำลองเชิญในชุด (เอิบ) รุ่นกรรมการเอกสารหลายบนเครื่องเอิบเรียนเรียกร้องให้จัดการกับความไม่แน่นอนในวิธีเหมาะสม เหมือน interpretability อย่างไรก็ตาม นี้เรียกร้องดูเหมือนจะมักจะได้รับ และไม่ได้ substantiated ด้วยอาร์กิวเมนต์หรือรากฐานทฤษฎีเสียงในการทำให้ ตัวอย่าง ได้มักจะไม่ชัดเจนชนิดของความไม่แน่นอนจับภาพรุ่นเอิบ และอะไรคือความหมายของระดับสมาชิก ขณะไม่ใช่-frequentistinterpretation องศาสมาชิกสนใจ และจำเป็นขอแบ่งจากความน่าเป็นความรู้สึก จึงน่าจะเป็นอุปสรรคสำคัญในเวลาเดียวกัน Frequentist ไม่ใช่ตีความเชิงความเชื่อหรือความมั่นใจดูเหมือนจะยากต่อการเข้าใจ และเข้าใจคนกว่า interpretation.4Connected frequentist นี้ การประเมินผลของแบบจำลองเฉพาะ — เรียนรู้ของเครื่องจุดทำให้เน้นมากใน — กลายเป็นยากขึ้น: วิธีการตรวจสอบถูกต้องของ "การคาดคะเนเอิบ" empiricallyเพิ่มจำนวนสิ่งพิมพ์ยังทุ่มเทเพื่อการเรียนรู้จาก "เอิบข้อมูล" eled mod ในปุยชุดย่อยของข้อมูลพื้นที่เดิม [12,13,9,31] สังเกต อย่างชัดเจน การขยายที่เกี่ยวข้องเรียนรู้อัลกอริทึม ซึ่งโดยปกติถือว่าข้อมูลที่แม่นยำ อับ นี้อีกบ่อย ๆ แล้วทำจริงความหมายของการสังเกตชัดเจนและการตีความของฟังก์ชันสมาชิกพร้อมออก โดยเฉพาะ เหมือนในสถิติเอิบ [23,24,28,22,10], พิเศษควรทำ ระหว่างการตีความ "ontic" กำลังพิจารณาข้อมูลเอิบเป็นเอนทิตีจริง "epistemic" ความ พิจารณาข้อมูลชัดเจนเป็นคำอธิบายที่ไม่แน่นอนของข้อมูลจริงบางอย่างที่ไม่ทราบแน่นอน หรือไม่สามารถสังเกตได้อย่างแม่นยำ [11] ในความเป็นจริง ตีความทั้งสองเหล่านี้เรียกส่วนขยายความแตกต่างกันของวิธีการเรียนรู้: ในขณะตี ontic แนะนำ "ยก" มาตรฐานการเรียนรู้วิธีการเป็นพื้นที่ข้อมูลแบบขยาย (เอิบ) ผ่านหลักนามสกุล), ตี epistemic หรือ-mally ได้จะนำไปสู่การค้นหารูปแบบในพื้นที่ข้อมูลเดิมที่มีบ้างที่สอดคล้องกับข้อจำกัดที่กำหนด โดยสังเกตชัดเจน [17]ตอน ความคิดของการเรียนรู้จากข้อมูลที่ชัดเจนคือยังยังคง hampered โดยจำกัดพร้อมข้อมูล ที่ว่ายากในการผลิต: ยกเว้นมนุษย์ผู้เชี่ยวชาญหรือนักวิเคราะห์ข้อมูลตนเอง ที่อาจ "เอิบวาดชุดด้วยมือ" ไม่ดูเหมือนจะ เป็นอุปกรณ์ทางเทคนิคที่ช่วยให้การผลิตชัดเจนข้อมูลแบบอัตโนมัติ และระบบ การ บางครั้ง การแนะนำการ reinterpret คอลเลกชัน [0, 1] -มูลค่าข้อมูล เช่นพิกเซลของภาพสเกลสีเทา เป็นสังเกตชัดเจนที่เดียวกัน ขณะนี้อาจเป็นไปได้ และบางทีแม้แต่มีประโยชน์ในบางกรณี สถาปัตยกรรมประเภทที่ไร arguable และข้อดีของมักจะไม่ชัดเจนมาก เป็นเรื่องน่าสนใจ ทางเลือกของการผลิต และการใช้ข้อมูลที่ชัดเจนถูกแนะนำใน [17]: แทนสมมติข้อมูลชัดเจนที่กำหนดให้ทันที ข้อมูลแม่นยำเป็นระบบ "fuzzified" เพื่อ modulate อิทธิพลสังเกตแต่ละในกระบวนการของการจำลองการ ดังนั้น ใช้แนวคิดของ "เอิบข้อมูล" นี้เป็นเครื่องมือสำหรับการสร้างโมเดล
การแปล กรุณารอสักครู่..

ชุดแบบจำลองฟัซซี่เชื่อมต่อกับความไม่แน่นอนทางทฤษฎี ความเป็นไปได้ ที่ ผ่านการตีความของฟังก์ชันการแจกแจง bership แหม่มเป็นเป็นไปได้ นอกจากนี้ ความไม่แน่นอน formalisms ทางเลือก โดยปกติตามมาตรการเสริมไม่ , ได้รับการศึกษาอย่างกว้างขวางในชุมชนแบบฟัซซี่ เนื่องจากความไม่แน่นอนอยู่ใน induc tive อนุมาน และ ดังนั้นการเรียนรู้จากข้อมูลซึ่งแบ่งแยกไม่ได้เชื่อมต่อกับความไม่แน่นอนนี้เป็นโอกาสอื่นเพื่อสนับสนุนการเรียนรู้เครื่อง .
ในความเป็นจริง แม้ว่าเครื่องการเรียนรู้ชุมชนยังคงเป็นอย่างมากที่เน้นความน่าจะเป็นเป็นเครื่องมือที่ดีที่สุดสำหรับการจัดการความไม่แน่นอน หนึ่งอาจโต้แย้งว่า ความน่าจะเป็น คนเดียว ไม่เพียงพอที่จะจับทุกประเภทของความไม่แน่นอน evant rel เพื่อการเรียนรู้จากข้อมูลตัวอย่างเช่น ความแตกต่างระหว่าง epistemicand aleatoricuncertainty ในการเรียนรู้มี เพิ่งได้รับการแนะนำใน [ 30 ] ประมาณพูด ในขณะที่ความไม่แน่นอน aleatoric อ้างถึง บริษัท inher ไม่ใช่ deterministic พึ่งพาระหว่างอินพุตเอาต์พุตและตัวแปร และเหมาะสมในวิธีการจําลอง ,ความไม่แน่นอนของความสัมพันธ์ หมายถึง ความรู้ที่สมบูรณ์เนื่องจากการขาดข้อมูลเกี่ยวกับการเป็นจริง ความไม่รู้ส่วนนี้สามารถจำลองสะดวกในแง่ของ ( Fuzzy ) ชุดรูปแบบเอกสารหลายๆผู้สมัคร .
การเรียนรู้ของเครื่องเรียกร้องเพื่อจัดการกับความไม่แน่นอนในทางที่เหมาะสม เหมือน interpretability อย่างไรก็ตามการเรียกร้องนี้ดูเหมือนว่าจะได้รับมักจะได้รับและไม่ substantiated โดยอาร์กิวเมนต์ที่น่าเชื่อหรือรากฐานทางทฤษฎีเสียง ตัวอย่างเช่น , มันมักจะไม่ชัดเจนสิ่งที่ชนิดของความไม่แน่นอนที่ถูกจับโดยแบบจำลองฟัซซี่ และอะไรคือความหมายของการเป็นสมาชิกระดับในขณะที่ไม่ frequentistinterpretation องศาสมาชิกที่น่าสนใจและในความรู้สึกที่จำเป็น ถ้าพิจารณาจากความน่าจะเป็น จะขอ ก็น่าจะเป็นอุปสรรคสำคัญในเวลาเดียวกัน โดยเฉพาะ ไม่ frequentist ตีความองศาของความเชื่อหรือความมั่นใจ ดูเหมือนจะยากที่จะเข้าใจและเข้าใจได้โดยคนมากกว่า frequentist interpretation.4connected นี้การประเมินเชิงประจักษ์ของ model-a จุดการเรียนรู้เครื่องวางมากเน้นกลายเป็นเรื่องยากมากขึ้น : วิธีการตรวจสอบความถูกต้องของ " คำทำนาย " ใช้ฟัซซี่ ?
การเพิ่มจำนวนของสิ่งพิมพ์เป็นทุ่มเทให้กับการเรียนรู้จาก " ข้อมูล " คลุมเครือ ที่สังเกตมี mod รับในแง่ของฟัซซี่เซตย่อยของข้อมูลเดิม 12,13,9,31 [ ช่องว่าง ] เห็นได้ชัดว่านี้ต้องใช้นามสกุลตามอัลกอริทึมการเรียนรู้ซึ่งปกติถือว่า ข้อมูลที่ชัดเจน แต่นี้เป็นอีกบ่อยๆทำออกมาชี้แจงความหมายแท้จริงของการสังเกตที่คลุมเครือและการตีความของฟังก์ชันสมาชิก โดยเฉพาะ เหมือนในแบบสถิติ [ 23,24,28,22,10 ] ความแตกต่างที่ควรทำระหว่างการ " ตีความ ontic "ไอเอ็นจีโหลดข้อมูลพิจารณาหน่วยงานจริง และมี " ความสัมพันธ์ " ตีความ พิจารณาข้อมูลคลุมเครือเป็นคำอธิบายที่ไม่แน่นอนของบางจริงข้อมูลที่ไม่เป็นที่รู้จักกัน หรือ ไม่สามารถสังเกตได้แน่นอน [ 11 ] ในความเป็นจริงเหล่านี้สองตัวแปรเรียกส่วนขยายที่แตกต่างกันพื้นฐานของการเรียนรู้วิธีการ :ในขณะที่การตีความ ontic ชี้ให้เห็น " ยก " วิธีการมาตรฐานการเรียนรู้ เพื่อขยายพื้นที่ ( Fuzzy ) ข้อมูล ( ผ่านการส่งเสริมหลักการ การตีความ หรือมอลลี่ไปสู่ความสัมพันธ์จะหารูปแบบข้อมูลเดิมพื้นที่ที่มีขอบเขตบางอย่างที่สอดคล้องกับข้อจำกัดที่กำหนดโดยการสังเกต [ เลือน 17 ] .
ตอนนี้แนวคิดของการเรียนรู้จากข้อมูลที่คลุมเครือก็ยังคง hampered โดยความพร้อมจำกัดของข้อมูลดังกล่าวซึ่งเป็นอย่างยากที่จะผลิต : ยกเว้นผู้เชี่ยวชาญมนุษย์ หรือนักวิเคราะห์ข้อมูลตัวเอง " อาจจะวาดชุดฟัซซี่โดยมือ " มีดูเหมือนจะเป็นเทคนิค อุปกรณ์ที่ช่วยให้สำหรับการผลิตข้อมูลคลุมเครือในทาง ระบบ และแบบอัตโนมัติ บางครั้งมันแนะนำให้แปลใหม่คอลเลกชันของ [ 0 , 1 ] - มูลค่าของข้อมูล เช่น พิกเซลของภาพระดับสีเทา เป็นชุดเดียวแบบสังเกต ขณะนี้อาจเป็นไปได้และอาจมีประโยชน์ในบางกรณี โชว์ฉบับตีความใหม่ ประเภทที่เป็นยังคงพิสูจน์ และข้อดีของมันมักจะไม่ชัดเจน น่าสนใจทางเลือกของการผลิต และการใช้ข้อมูลในการออกแบบแนะนำ [ 17 ] : แทนสมมติว่าข้อมูลที่คลุมเครือให้ทันที ข้อมูลที่ชัดเจนเป็นระบบ " fuzzified " เพื่อปรับผลของการสังเกตในแต่ละกระบวนการของการเหนี่ยวนำแบบ ดังนั้น ความคิดของ " ข้อมูล " ฟัซซี่จะใช้ที่นี่เป็นเครื่องมือสำหรับการจำลอง
การแปล กรุณารอสักครู่..
