4. Fuzzy Rule Generation In this paper, the linguistic variable values การแปล - 4. Fuzzy Rule Generation In this paper, the linguistic variable values ไทย วิธีการพูด

4. Fuzzy Rule Generation In this pa

4. Fuzzy Rule Generation In this paper, the linguistic variable values which are used for representing various input personalized parameters are low, low-medium and medium and high. Not-interested [NI], Weakly-interested [WI], Mediumly-interested [MI] and Strongly-interested [SI] are the output parameters respectively. A decision tree technique is used to generate fuzzy if-then rules for classifying the user interest. Before generating fuzzy rules the entire personalized user parameters are fuzzified and assigned linguistic labels based on their fuzzy membership values discussed from the previous section 3.3.
The fuzzified values for 20 Web pages visited by an individual are given in Table 6. The fuzzified values and its equivalent linguistic labels are represented in the Tables 7. Here LMD, MED, HGH labels represents Low-medium, Medium and High respectively
3.1. Fuzzy Decision tree based Fuzzy Rule Generation
Proposed work analyzes some possible variants of making classification rules from a fuzzy decision tree based on cumulative information. Decision trees, which make use of fuzzy sets and fuzzy logic for solving the introduced uncertainties, are called Fuzzy decision trees (FDTs) [4850]. Fuzzy decision trees mixes part of symbolic and sub-symbolic approaches. Fuzzy sets and symbolic logic permit modeling language-related uncertainties: whereas providing a symbolic framework for data quality. This work projected a brand new interpretation of Fuzzy C4.5, which relies on accumulative data estimate.
C4.5 is a propagation of ID3 that improves computing potency, deals with continuous values, handles attributes with missing values, avoids over fitting, and performs different functions [5154]. Fuzzified 524 Web pages of user data is provided as an input to C4.5 algorithm. Both testing and training data sets are divided using bootstrap approach in order to generate the accurate decision tree. The decision tree thus constructed is given in figure 6.
User given feedback label based sample training dataset is shown in Table 7.This approach correctly classified 497 instances out of 524 and incorrectly classified instances are 27 and also its mean absolute error, root mean squared error and relative absolute error, etc are shown in Table 8.
4.2. Fuzzy classification rule induction
In this empirical research work, we applied the above procedure on the various user attributes and generate 25 rules. The set of sample rules are shown in the Table 9. The same rules are applied for 10 different users in order for checking its completeness and consistency. Each user’s interest may vary according to their different and depends on several factors. This user model considers the user interest as the decision variable.
The attributes that are playing major role in the user interest classification and the notations that are used in this work is normalized and presented in Table 9 also C4.5 algorithm generated tree equivalent rules are represented in Figure 7.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
4. เอิบกฎสร้างในเอกสารนี้ ค่าตัวแปรภาษาศาสตร์ซึ่งใช้สำหรับการแสดงพารามิเตอร์แบบต่าง ๆ มีต่ำ ต่ำปานกลาง และปานกลาง และสูง ไม่สนใจ [NI], สนใจสูญ [อินเตอร์], สนใจ Mediumly [MI] และสนใจอย่างยิ่ง [SI] เป็นพารามิเตอร์ขาออกตามลำดับ เทคนิคต้นไม้ตัดสินใจจะใช้เพื่อสร้างกฎนั้นถ้าชัดเจนสำหรับการจัดประเภทผู้ใช้สนใจ ก่อนที่จะสร้างกฎเอิบ fuzzified พารามิเตอร์ผู้ใช้กำหนดเองทั้งหมด และกำหนดป้ายชื่อภาษาศาสตร์ตามค่าสมาชิกชัดเจนที่กล่าวถึงจากส่วนก่อนหน้า 3.3 ค่า fuzzified สำหรับ 20 ชมแต่ละหน้าเว็บได้ในตาราง 6 ค่า fuzzified และป้ายภาษาศาสตร์เท่านั้นจะแสดงในตาราง 7 ที่นี่ HGH LMD, MED ป้ายแสดงต่ำกลาง ปานกลางและสูงตามลำดับ 3.1 ต้นไม้การตัดสินใจชัดเจนตามกฎสร้างปุย นำเสนองานวิเคราะห์บางตัวแปรสามารถทำกฎการจัดประเภทจากต้นไม้ตัดสินใจชัดเจนตามข้อมูลสะสม ต้นไม้การตัดสินใจ ทำให้ใช้ชุดเอิบและตรรกศาสตร์การแก้ไขแนวนำ เรียกต้นไม้ตัดสินใจเอิบ (FDTs) [4850] ส่วนหนึ่งออกแบบผสมผสานต้นไม้ตัดสินใจชัดเจนของแนวทางย่อยสัญลักษณ์ และสัญลักษณ์ ชุดชัดเจนและตรรกะ symbolic อนุญาตสร้างโมเดลภาษาที่เกี่ยวข้องกับความไม่แน่นอน: ในขณะที่ให้กรอบสัญลักษณ์คุณภาพข้อมูลการ งานนี้คาดว่าการตีความใหม่ของ C4.5 เอิบ ซึ่งอาศัยประเมินข้อมูลปัจจุบัน C4.5 จะแพร่กระจายของ ID3 ที่เพิ่มศักยภาพของคอมพิวเตอร์ กับค่าต่อเนื่อง จัดการแอททริบิวต์ที่ มีค่าที่หายไป หลีกเลี่ยงมากกว่าเหมาะสม และดำเนินงาน [5154] หน้าเว็บ 524 fuzzified ของข้อมูลผู้ใช้ไว้เป็นข้อมูลป้อนให้อัลกอริทึม C4.5 ทดสอบและฝึกอบรมชุดข้อมูลที่มีแบ่งโดยใช้วิธีการเริ่มต้นระบบเพื่อสร้างต้นไม้การตัดสินใจที่ถูกต้อง ต้นไม้การตัดสินใจที่สร้างขึ้นจึง จะได้รับในรูปที่ 6 ผู้ที่ให้คำติชมป้ายตามตัวอย่างฝึกชุดข้อมูลจะแสดงในตาราง 7.วิธีการนี้ถูกจัดอย่าง 497 จาก 524 และอินสแตนซ์ไม่ถูกต้องลับ 27 และยังความหมายถึงแบบข้อผิดพลาด รากหมายถึง ข้อผิดพลาดที่ยกกำลังสอง และพลาดสัมพัทธ์สัมบูรณ์ ฯลฯ แสดงในตาราง 8 4.2. ประเภทที่เอิบกฎการเหนี่ยวนำ ในงานนี้ผลวิจัย เราใช้ขั้นตอนข้างต้นในแอตทริบิวต์ของผู้ใช้ต่าง ๆ และสร้างกฎ 25 ตั้งค่ากฎในตัวอย่างจะแสดงใน 9 ตาราง มีใช้กฎเดียวกันสำหรับผู้ใช้รายอื่น 10 เพื่อตรวจสอบความสมบูรณ์และความสอดคล้อง ดอกเบี้ยของแต่ละคนอาจแตกต่างกันตามความแตกต่างกัน และขึ้นอยู่กับปัจจัยหลายประการ รุ่นนี้ผู้ใช้พิจารณาผู้ใช้ดอกเบี้ยเป็นตัวแปรตัดสินใจ แอตทริบิวต์ที่กำลังเล่นบทบาทสำคัญในการจัดประเภทผู้ใช้สนใจ และฯลฯ ที่ใช้ในงานนี้คือตามปกติ และแสดงในตาราง 9 ยัง สร้างอัลกอริทึม C4.5 ทรีกฎเทียบเท่าที่แสดงในรูปที่ 7
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
4. การสร้างกฎฟัซซี่ในบทความนี้ค่าตัวแปรทางภาษาที่ใช้สำหรับการป้อนข้อมูลต่างๆที่เป็นตัวแทนของพารามิเตอร์ส่วนบุคคลที่อยู่ในระดับต่ำต่ำขนาดกลางและขนาดกลางและสูง ไม่สนใจ [NI] อ่อนสนใจ [WI] Mediumly สนใจ [MI] และยิ่งสนใจ [ศรี] เป็นพารามิเตอร์ที่ส่งออกตามลำดับ เทคนิคต้นไม้ตัดสินใจจะใช้ในการสร้างเลือนถ้า-แล้วกฎสำหรับการจำแนกสนใจของผู้ใช้ ก่อนที่จะสร้างเลือนกฎทั้งพารามิเตอร์ผู้ใช้ส่วนบุคคลที่ได้รับการ fuzzified และได้รับมอบหมายป้ายภาษาศาสตร์ขึ้นอยู่กับค่าสมาชิกเลือนของพวกเขากล่าวถึงจากส่วนก่อนหน้านี้ 3.3.
ค่า fuzzified 20 เข้าเยี่ยมชมหน้าเว็บโดยบุคคลจะได้รับในตารางที่ 6 ค่านิยมและ fuzzified ของ ป้ายภาษาศาสตร์เทียบเท่าจะแสดงในตารางที่ 7 ที่นี่ LMD, MED, ป้าย HGH แสดงถึงกลางต่ำ, ปานกลางและระดับสูงตามลำดับ
3.1 ต้นไม้ตัดสินใจฟัซซี่ตามรุ่นกฎฟัซซี่
เสนองานวิเคราะห์บางสายพันธุ์ที่เป็นไปได้ในการสร้างกฎการจำแนกจากต้นไม้ตัดสินใจเลือนบนพื้นฐานของข้อมูลที่มีการสะสม ต้นไม้ตัดสินใจซึ่งทำให้การใช้งานของชุดเลือนและตรรกศาสตร์สำหรับการแก้ความไม่แน่นอนแนะนำจะถูกเรียกว่าต้นไม้ตัดสินใจฟัซซี่ (FDTs) [4850] ต้นไม้ตัดสินใจฟัซซี่ผสมส่วนหนึ่งของสัญลักษณ์และวิธีการย่อยสัญลักษณ์ ชุดฟัซซี่และใบอนุญาตตรรกะสัญลักษณ์ความไม่แน่นอนเกี่ยวกับภาษาการสร้างแบบจำลอง: ในขณะที่การให้กรอบสัญลักษณ์สำหรับข้อมูลที่มีคุณภาพ งานนี้คาดแบรนด์การตีความใหม่ของฟัซซี่ C4.5 ซึ่งอาศัยการประมาณการจากข้อมูลสะสม.
C4.5 คือการขยายพันธุ์ของ ID3 ที่ช่วยเพิ่มความแรงของคอมพิวเตอร์ที่เกี่ยวข้องกับค่าอย่างต่อเนื่องจับคุณลักษณะที่มีค่าที่ขาดหายหลีกเลี่ยงในช่วงที่เหมาะสมและมีประสิทธิภาพ ฟังก์ชั่นที่แตกต่างกัน [5154] Fuzzified 524 หน้าเว็บของข้อมูลผู้ใช้ที่มีให้เป็น input เพื่ออัลกอริทึม C4.5 การทดสอบทั้งสองและชุดข้อมูลการฝึกอบรมจะแบ่งการใช้วิธีการบูตเพื่อที่จะสร้างต้นไม้ตัดสินใจที่ถูกต้อง ต้นไม้ตัดสินใจสร้างจึงจะได้รับในรูปที่ 6.
ผู้ใช้ฉลากข้อเสนอแนะที่ได้รับการฝึกอบรมชุดข้อมูลตัวอย่างตามที่แสดงในตารางที่วิธีการอย่างถูกต้องจัด 7.This 497 กรณีจาก 524 และกรณีจัดไม่ถูกต้องเป็น 27 และข้อผิดพลาดของค่าเฉลี่ยแน่นอนหมายถึงรากกำลังสอง ข้อผิดพลาดและความผิดพลาดแน่นอนญาติ ฯลฯ แสดงในตารางที่ 8.
4.2 กฎการจัดหมวดหมู่เลือนเหนี่ยวนำ
ในงานวิจัยเชิงประจักษ์นี้เราใช้ขั้นตอนข้างต้นเกี่ยวกับคุณลักษณะต่างๆของผู้ใช้และสร้างกฎ 25 ชุดของกฎตัวอย่างที่แสดงในตารางที่ 9. กฎเดียวกันถูกนำมาใช้สำหรับผู้ใช้ 10 คนที่แตกต่างกันเพื่อให้การตรวจสอบความสมบูรณ์และความมั่นคงของ ความสนใจของผู้ใช้แต่ละคนอาจแตกต่างกันตามที่แตกต่างกันของพวกเขาและขึ้นอยู่กับปัจจัยหลายประการ รูปแบบการใช้งานนี้จะพิจารณาสนใจของผู้ใช้เป็นตัวแปรในการตัดสินใจ.
คุณลักษณะที่มีบทบาทสำคัญในการจัดหมวดหมู่ความสนใจของผู้ใช้และข้อความที่ใช้ในงานนี้เป็นปกติและนำเสนอในตารางที่ 9 นอกจากนี้ยังมีอัลกอริทึม C4.5 สร้างกฎเทียบเท่าต้นไม้ แสดงในรูปที่ 7
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
4 . การสร้างกฎฟัซซีในกระดาษนี้ , ตัวแปรภาษาค่าซึ่งใช้สำหรับแสดงข้อมูลแบบต่าง ๆ ค่า ต่ำ ปานกลาง และต่ำ ปานกลางและสูง ไม่ได้สนใจ [ ฉัน ] , กะปวกกะเปียกสนใจ [ วี ] , mediumly สนใจ [ มี ] และสนใจอย่างยิ่ง [ Si ] เป็นพารามิเตอร์ออกตามลำดับเทคนิคการตัดสินใจแบบต้นไม้จะใช้ในการสร้างกฎฟัซซี่สำหรับข้อมูลถ้าผู้ใช้สนใจ ก่อนการสร้างกฎฟัซซี่ ทั้งส่วนบุคคล และมอบหมายให้ fuzzified ผู้ใช้พารามิเตอร์ภาษาป้ายตามค่า fuzzy การกล่าวถึงจากก่อนหน้าส่วน 3.3 .
fuzzified ค่า 20 หน้าเว็บที่เข้าเยี่ยมชม โดยแต่ละคนจะได้รับในโต๊ะ 6การ fuzzified คุณค่าเทียบเท่าภาษาป้ายแสดงอยู่ใน ตาราง 7 ที่นี่ lmd , ด้วย , ป้าย HGH เป็น กลาง ต่ำ กลาง และสูงตามลำดับ
3.1 . ต้นไม้ การตัดสินใจแบบฟัซซี่กฎรุ่น
เสนองานวิเคราะห์บางตัวแปรที่เป็นไปได้ของการทำกฎการจำแนกจากการตัดสินใจแบบต้นไม้ขึ้นอยู่กับข้อมูลที่สะสมตาม ต้นไม้ การตัดสินใจซึ่งใช้ชุดฟัซซี่และฟัซซีลอจิกสำหรับแก้แนะนำความไม่แน่นอน จะเรียกว่าการตัดสินใจแบบต้นไม้ ( fdts ) [ 4850 ] ต้นไม้การตัดสินใจแบบผสมและวิธีการย่อยส่วนหนึ่งของสัญลักษณ์สัญลักษณ์ ชุดสัญลักษณ์ตรรกะคลุมเครือและใบอนุญาตแบบภาษาเกี่ยวข้องกับความไม่แน่นอน แต่ให้กรอบสัญลักษณ์สำหรับข้อมูลที่มีคุณภาพงานนี้คาดว่า แบรนด์ใหม่ การตีความแบบโปรแกรม C4.5 ซึ่งอาศัยสะสมข้อมูลประมาณ
โปรแกรม C4.5 เป็นการขยายพันธุ์ ID3 ที่ปรับปรุงคอมพิวเตอร์ซึ่งเกี่ยวข้องกับค่าอย่างต่อเนื่อง จัดการคุณลักษณะที่มีค่าสูญหาย เพื่อไม่ให้เกินที่เหมาะสมและมีประสิทธิภาพที่แตกต่างกันฟังก์ชัน [ 5154 ] fuzzified 524 หน้าเว็บของข้อมูลผู้ใช้ให้ไว้เป็นข้อมูลกับโปรแกรม C4.5 ขั้นตอนวิธีทั้งการทดสอบและการฝึกอบรมชุดข้อมูลจะถูกแบ่งออกโดยใช้วิธีบูตสแตรปเพื่อสร้างต้นไม้การตัดสินใจที่ถูกต้อง การตัดสินใจแบบต้นไม้จึงจะได้รับในรูปที่ 6
ผู้ใช้ให้ข้อมูลการฝึกอบรมตัวอย่างฉลากตามความคิดเห็น แสดงดังตารางที่ 7 . วิธีการนี้ถูกต้องตามกรณีไปออกและจัดอย่างไม่ถูกต้องกรณี 27 และยังหมายความว่าแน่นอนความผิดพลาดรากหมายถึงยกกำลังสองข้อผิดพลาดและความผิดพลาดสัมบูรณ์สัมพัทธ์ ฯลฯ แสดงในตารางที่ 8
4.2 . กฎฟัซซีในนี้
เหนี่ยวประเภทงานวิจัยเชิงประจักษ์ เราสามารถใช้ขั้นตอนข้างต้นในคุณลักษณะของผู้ใช้ต่างๆและสร้าง 25 กฎ กฎของตัวอย่างที่แสดงอยู่ในตารางที่ 9 กฎเดียวกันจะใช้สำหรับที่แตกต่างกัน 10 ผู้ใช้เพื่อตรวจสอบความสมบูรณ์และความสอดคล้องความสนใจของผู้ใช้แต่ละคนอาจจะแตกต่างกันไปตามของพวกเขาที่แตกต่างกัน ขึ้นอยู่กับปัจจัยหลายอย่าง ใช้แบบจำลองนี้จะพิจารณาดอกเบี้ยของผู้ใช้ เช่น การตัดสินใจ ตัวแปร
คุณลักษณะที่เล่นบทบาทหลักในการจำแนกผู้ใช้สนใจ และสัญลักษณ์ที่ใช้ในงานนี้ และนำเสนอในรูปตารางที่ 9 ยังระเบิด C45 วิธีสร้างกฎสมมูล ต้นไม้จะแสดงในรูปที่ 7
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: