Decision trees are one kind of inductive learning algorithms that offe การแปล - Decision trees are one kind of inductive learning algorithms that offe ไทย วิธีการพูด

Decision trees are one kind of indu

Decision trees are one kind of inductive learning algorithms that offer an efficient and practical method for generalizing classification rules from previous concrete examples. In decision tree induction the entire data in the training set is used as root node for the tree. Then the root node is split into several sub-nodes depending upon some splitting criterion. The process of splitting sub-node continues, till all leaf nodes are generated else if all the instances in the sub-node belong to the same class. The different variation of decision trees can be generated depending upon two main parameters, first is splitting criterion used and the second is pruning method involved. The heuristic function used can be Gini index, Entropy, Information gain, Gain ratio and large margin heuristic. ID3 [7] is one of the benchmark decision tree algorithm proposed by Qunilan in 1986, on which many researches are done, and improvements are suggested for the general cases as will as specific subset of the applicable data. One of the shortcomings of ID3’s incling to choose attributes to split with many values (outcomes). This shortcoming will result in decrease of performance and generalization. In Health care domain, even a small gain in performance and generalization of the algorithm will result in much easier analysis of the results. In C4.5 [6] the heuristic function used to split the data is gain ratio. It computes a weight of a feature without examining other available features. If the features are independent then the gain ratio will select improper feature for splitting the node. Features which are not so relevant to the classification class will receive a small weight but a large number of these irrelevant features might still overrule more important features. These two problems will have a negative influence on the classification accuracy.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ต้นไม้ตัดสินใจเป็นหนึ่งเหนี่ยวนำชนิดของการเรียนรู้ขั้นตอนวิธีที่นำเสนอวิธีการปฏิบัติ และมีประสิทธิภาพสำหรับ generalizing กฎการจัดประเภทจากก่อนหน้าตัวอย่างที่ชัดเจน ในการเหนี่ยวนำต้นไม้ตัดสินใจ ข้อมูลทั้งหมดในชุดการฝึกอบรมจะใช้เป็นโหนดรากสำหรับต้นไม้ แล้ว โหนดรากจะแบ่งออกเป็นหลายโหนดย่อยที่ขึ้นอยู่กับเงื่อนไขบางอย่างแยก กระบวนการของการแยกย่อยโหนยังคง จนกว่าจะสร้างโหนทั้งหมดในใบอื่นถ้าอินสแตนซ์ทั้งหมดในโหนย่อยอยู่ในระดับเดียวกัน การเปลี่ยนแปลงที่แตกต่างกันของต้นไม้สามารถสร้างขึ้นได้ขึ้นอยู่กับพารามิเตอร์ที่สองหลัก การตัดสินใจครั้งแรกเป็นการแบ่งเกณฑ์ที่ใช้ และที่สองคือ วิธีการตัดที่เกี่ยวข้อง การใช้ฟังก์ชันศึกษาสำนึกได้ดัชนี Gini, Entropy ข้อมูลกำไร อัตรากำไร และวริขอบใหญ่ ID3 [7] เป็นอัลกอริธึมต้นไม้ตัดสินใจมาตรฐานที่เสนอ โดย Qunilan ในปี 1986 ที่ทำงานวิจัยมากมาย และปรับปรุงเป็นแนวสำหรับกรณีทั่วไปจะเป็นเฉพาะชุดย่อยของข้อมูลมีอย่างใดอย่างหนึ่ง หนึ่งในข้อบกพร่องของ incling ของ ID3 เพื่อเลือกแอตทริบิวต์การแยกกับค่าหลายค่า (ผล) ข้อบกพร่องนี้จะทำให้ลดประสิทธิภาพการทำงานและลักษณะทั่วไป ในโดเมนที่ดูแลสุขภาพ แม้กำไรขนาดเล็กประสิทธิภาพและลักษณะทั่วไปของอัลกอริทึมจะทำมากทำให้การวิเคราะห์ผลลัพธ์ ใน C4.5 [6] ฟังก์ชันศึกษาสำนึกที่ใช้ในการแยกข้อมูลเป็นอัตราส่วนกำไร มันคำนวณน้ำหนักของคุณลักษณะโดยไม่ต้องตรวจสอบคุณสมบัติอื่น ๆ ถ้ามีอิสระ อัตรากำไรจะเลือกคุณลักษณะที่ไม่เหมาะสมสำหรับการแบ่งโหน คุณลักษณะที่ไม่เกี่ยวข้องดังนั้นการจำแนกประเภทจะได้รับน้ำหนักขนาดเล็ก แต่คุณสมบัติเหล่านี้ไม่เกี่ยวข้องจำนวนมากอาจยังคงยกเลิกคุณลักษณะสำคัญ ปัญหาสองเหล่านี้จะมีอิทธิพลเป็นค่าลบบนความถูกต้องของการจัดประเภท
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ต้นไม้ตัดสินใจเป็นหนึ่งในชนิดของขั้นตอนวิธีการเรียนรู้แบบอุปนัยที่นำเสนอวิธีที่มีประสิทธิภาพและการปฏิบัติสำหรับ generalizing กฎการจำแนกจากตัวอย่างที่เป็นรูปธรรมก่อนหน้านี้ ในการเหนี่ยวนำต้นไม้ตัดสินใจข้อมูลทั้งหมดที่อยู่ในชุดฝึกอบรมจะใช้เป็นโหนดรากต้นไม้ จากนั้นโหนดรากถูกแบ่งออกเป็นย่อยหลายโหนด-ขึ้นอยู่กับเกณฑ์บางส่วนแยก กระบวนการของการแยก sub-node ยังคงมีอยู่จนถึงโหนดใบทั้งหมดถูกสร้างอื่นถ้าทุกกรณีใน sub-node อยู่ในระดับเดียวกัน รูปแบบที่แตกต่างกันของต้นไม้ตัดสินใจสามารถสร้างขึ้นอยู่กับสองปัจจัยหลักแรกเป็นเกณฑ์ที่ใช้แยกและสองคือวิธีการตัดแต่งกิ่งที่เกี่ยวข้อง ฟังก์ชั่นการแก้ปัญหาที่ใช้สามารถดัชนี Gini เอนโทรปี, ได้รับข้อมูล, กำไรจากอัตราการใช้และแก้ปัญหาขอบขนาดใหญ่ ID3 [7] เป็นหนึ่งในขั้นตอนวิธีต้นไม้ตัดสินใจมาตรฐานที่เสนอโดย Qunilan ในปี 1986 ซึ่งหลายงานวิจัยที่ทำและการปรับปรุงมีข้อเสนอแนะสำหรับกรณีทั่วไปจะเป็นกลุ่มย่อยเป็นเฉพาะของข้อมูลที่ใช้บังคับ หนึ่งในข้อบกพร่องของ incling ID3 ที่จะเลือกที่จะแยกคุณลักษณะที่มีค่าจำนวนมาก (ผล) ข้อบกพร่องนี้จะมีผลในการลดลงของประสิทธิภาพการทำงานและลักษณะทั่วไป ประสิทธิภาพการดูแลสุขภาพแม้กำไรเล็ก ๆ ในการทำงานและลักษณะทั่วไปของขั้นตอนวิธีจะส่งผลในการวิเคราะห์ง่ายมากของผล ใน C4.5 [6] ฟังก์ชั่นการแก้ปัญหาใช้ในการแยกข้อมูลเป็นอัตราส่วนกำไร มันคำนวณน้ำหนักของคุณลักษณะโดยไม่ต้องตรวจสอบคุณสมบัติที่มีอยู่อื่น ๆ ถ้าคุณสมบัติที่มีความเป็นอิสระแล้วอัตราส่วนกำไรจะเลือกคุณสมบัติที่ไม่เหมาะสมสำหรับการแยกโหนด คุณสมบัติที่จะไม่ให้เกี่ยวข้องกับการจำแนกระดับจะได้รับน้ำหนักขนาดเล็ก แต่มีจำนวนมากคุณสมบัติที่ไม่เกี่ยวข้องเหล่านี้ยังอาจลบล้างคุณสมบัติที่สำคัญมากขึ้น สองคนนี้เป็นปัญหาที่เกิดขึ้นจะมีอิทธิพลเชิงลบเกี่ยวกับความถูกต้องของการจัดหมวดหมู่
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ต้นไม้การตัดสินใจเป็นประเภทหนึ่งของขั้นตอนวิธีการเรียนรู้แบบอุปนัยที่เสนอมีประสิทธิภาพและวิธีการ Generalizing กฎการจำแนกจากตัวอย่างคอนกรีตเดิม ในการตัดสินใจแบบต้นไม้ข้อมูลทั้งหมดในการตั้งค่าที่ใช้เป็นรากปมในต้นไม้ แล้วปมรากแบ่งออกเป็นหลายโหนดย่อยขึ้นอยู่กับบางแบ่งเกณฑ์ กระบวนการของการแยกย่อยโหนดต่อไป จนกว่าใบ ( ทั้งหมดจะถูกสร้างขึ้นถ้ากรณีอื่นทั้งหมดในโหนดย่อยอยู่ในระดับเดียวกัน การเปลี่ยนแปลงที่แตกต่างกันของการตัดสินใจต้นไม้สามารถสร้างขึ้นขึ้นอยู่กับสองตัวแปรหลัก แรกคือการใช้หลัก และส่วนที่สอง คือ การตัดแต่งกิ่งแบบที่เกี่ยวข้อง การใช้ฮิวริสติกฟังก์ชันสามารถดัชนีจีนี เอนโทรปี ข้อมูลที่ได้รับได้รับอัตราส่วนและอัตราสำหรับขนาดใหญ่ ID3 [ 7 ] เป็นหนึ่งในมาตรฐานขั้นตอนวิธีต้นไม้ตัดสินใจที่เสนอโดย qunilan ในปี 1986 ซึ่งหลายงานวิจัยเสร็จและได้รับการปรับปรุงที่แนะนำสำหรับกรณีทั่วไปเท่าที่จะเป็นส่วนหนึ่งที่เฉพาะเจาะจงของข้อมูลที่เกี่ยวข้อง หนึ่งในข้อบกพร่องของ ID3 เป็น - เลือกลักษณะที่จะแยกที่มีค่ามาก ( ผล ) ข้อบกพร่องนี้จะมีผลในการลดลงของประสิทธิภาพและทั่วไป . การดูแลสุขภาพ , แม้มีขนาดเล็ก เพิ่มประสิทธิภาพ และการแผ่ขยายของขั้นตอนวิธีนี้จะส่งผลให้มากขึ้น การวิเคราะห์ผล ในโปรแกรม C4.5 [ 6 ] ฮิวริสติกฟังก์ชันใช้ในการแบ่งข้อมูลเป็นส่วนที่ได้รับ มันคำนวณน้ำหนักของคุณลักษณะโดยไม่ตรวจสอบคุณสมบัติของอื่น ๆ ถ้าคุณสมบัติเป็นอิสระแล้ว ส่วนจะได้รับเลือกคุณสมบัติที่ไม่เหมาะสมสำหรับการแยกโหนด คุณลักษณะที่ไม่ค่อยเกี่ยวข้องกับการจำแนกชั้นจะรับน้ำหนักน้อย แต่เป็นจำนวนมากของคุณสมบัติที่ไม่เกี่ยวข้องเหล่านี้ยังอาจลบล้างคุณลักษณะที่สำคัญมากขึ้น เหล่านี้สองปัญหาจะมีอิทธิพลในทางลบต่อความแม่นยำในการจำแนก .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: