Decision Tree LearningDecision tree learning splits entire sample spac การแปล - Decision Tree LearningDecision tree learning splits entire sample spac ไทย วิธีการพูด

Decision Tree LearningDecision tree

Decision Tree Learning
Decision tree learning splits entire sample space recursively into smaller sub-sample space which is enough to be formulated by a simple model [12]. The root node (first node) in the tree holds entire sample space. Splitting sample space into smaller sub-sample space means forking root node into children nodes where each child node may be recursively split into leaf nodes (a node on which further split is not possible). The Nodes except leaf node in the tree, split sample space based on a set of condition(s) of the input attributes values and the leaf node assign an output value for those input attributes which are on the path from root to the leaf in the tree. The ultimate goal of sub-sample using decision tree method is to mitigate mixing of different outputs values and assign single output value for subsamples space. The splitting criteria of a node are an impurity measure (e.g. standard deviation used in ID3 algorithm; Gini-Index used in C4.5 algorithm) and Node size (number of data present on a nodde). There are many
algorithms to build decision tree are: CART [13], M5 [12], and M5-Prime [14]. All these algorithms are similar in tree generation procedure, but they differ in following aspects: first the impurity measure such as M5 uses standard deviation and CART uses variance. Second is prune rule used to avoid over-fitting of a model. Third is the leaf value assignment. M5 apply linear model at leaf nodes instead of constant value [12]. Furthermore, M5 is simple, smooth and more accurate than CART algorithm [15]. M5-Prime is subsequent version of M5 dealing with missing values and enumerated attributes [14].
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
การเรียนรู้ต้นไม้ตัดสินใจการเรียนรู้ต้นไม้ตัดสินใจแยก recursively พื้นที่ตัวอย่างทั้งหมดเป็นพื้นที่ตัวอย่างย่อยมีขนาดเล็กซึ่งเพียงพอที่จะใช้สูตร โดยใช้แบบจำลองอย่างง่าย [12] โหน (โหนแรก) ในแผนภูมิมีพื้นที่ทั้งหมดอย่างนี้ แบ่งพื้นที่อย่างลงในพื้นที่ตัวอย่างย่อยมีขนาดเล็กหมายถึง โหนดราก forking เป็นเด็กที่แต่ละโหนดรอาจจะแบ่งเป็นโหนใบ recursively โหน (โหนที่เพิ่มเติมแยกเป็นไปไม่ได้) โหนดยกเว้นใบโหนดในทรี แบ่งพื้นที่อย่างเป็นไปตามชุดของเงื่อนไขค่าเข้า และโหนดสาขากำหนดค่าแสดงผลสำหรับผู้ใส่แอตทริบิวต์ที่อยู่บนเส้นทางจากรากไปยังใบในแผนภูมิ เป้าหมายสูงสุดของตัวอย่างย่อยโดยใช้วิธีต้นไม้ตัดสินใจคือการ บรรเทาผสมของผลแตกต่างค่า และกำหนดค่าเดียวสำหรับพื้นที่ subsamples แยกเงื่อนไขของโหนถูกวัดเป็นมลทิน (เช่นค่าเบี่ยงเบนมาตรฐานใช้ในอัลกอริทึม ID3 Gini-Index ที่ใช้ในอัลกอริทึม C4.5) และโหนขนาด (จำนวนของข้อมูลที่อยู่บนเครื่อง nodde) มีมากมายมีอัลกอริทึมการสร้างต้นไม้การตัดสินใจ: M5 รถเข็น [13] [12], และ M5-นายก [14] อัลกอริทึมเหล่านี้มีความคล้ายคลึงในกระบวนการสร้างแผนภูมิ แต่พวกเขาแตกต่างกันในด้านต่อไปนี้: แรก ไม่บริสุทธิ์วัดเช่น M5 ใช้ส่วนเบี่ยงเบนมาตรฐาน และผลต่างใช้รถเข็น สอง กฎพรุนไว้เพื่อหลีกเลี่ยงการเกินที่เหมาะสมของรูปแบบ ประการที่สาม คือการกำหนดค่าใบ M5 ใช้โมเดลเชิงเส้นที่โหนใบแทนค่าคง [12] นอกจากนี้ M5 เป็นง่าย นุ่มนวล และแม่นยำกว่าตะกร้าอัลกอริทึม [15] นายก M5 เป็นรุ่นต่อมาของ M5 จัดการกับค่าที่หายไปและแอตทริบิวต์ระบุ [14]
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ตัดสินใจเรียนรู้ Learning Tree
เรียนรู้ต้นไม้ตัดสินใจแยกพื้นที่ตัวอย่างทั้งซ้ำเข้าไปในพื้นที่ย่อยตัวอย่างขนาดเล็กซึ่งเพียงพอที่จะถูกกำหนดโดยรูปแบบง่ายๆ [12] รากโหนด (โหนดแรก) ในต้นไม้ถือเป็นพื้นที่ตัวอย่างทั้งหมด ตัวอย่างพื้นที่แยกออกเป็นพื้นที่ย่อยตัวอย่างขนาดเล็กหมายถึงฟอร์กโหนดรากลงในโหนดเด็กที่แต่ละโหนดเด็กอาจจะแยกออกเป็นซ้ำโหนดใบ (โหนดที่แยกต่อไปเป็นไปไม่ได้) โหนดยกเว้นโหนดใบในต้นไม้ตัวอย่างพื้นที่แยกตั้งอยู่บนพื้นฐานของสภาพ (s) ของอินพุตแอตทริบิวต์ค่านิยมและโหนดใบกำหนดมูลค่าการส่งออกสำหรับการป้อนข้อมูลเหล่านั้นแอตทริบิวต์ซึ่งอยู่บนเส้นทางจากรากจรดใบในส่วน ต้นไม้. เป้าหมายสูงสุดของการย่อยตัวอย่างโดยใช้วิธีต้นไม้ตัดสินใจคือการลดค่าผสมของผลที่แตกต่างกันและกำหนดมูลค่าส่งออกเพียงครั้งเดียวสำหรับพื้นที่ subsamples เกณฑ์การแยกของโหนดเป็นตัวชี้วัดการปนเปื้อน (เช่นค่าเบี่ยงเบนมาตรฐานที่ใช้ในขั้นตอนวิธี ID3; Gini ดัชนีที่ใช้ในอัลกอริทึม C4.5) และขนาด Node (จำนวนข้อมูลที่นำเสนอบน nodde ก) มีหลายที่มี
ขั้นตอนวิธีการในการสร้างต้นไม้ตัดสินใจคือ: รถเข็น [13], M5 [12] และ M5 นายกรัฐมนตรี [14] ขั้นตอนวิธีการทั้งหมดเหล่านี้จะคล้ายกันในขั้นตอนการสร้างต้นไม้ แต่พวกเขาแตกต่างกันในด้านต่อไปนี้: ครั้งแรกที่วัดสิ่งเจือปนเช่น M5 ใช้ส่วนเบี่ยงเบนมาตรฐานและรถเข็นใช้แปรปรวน ประการที่สองคือกฎพรุนใช้เพื่อหลีกเลี่ยงในช่วงที่เหมาะสมของรูปแบบ ประการที่สามคือการกำหนดค่าใบ M5 ใช้รูปแบบเชิงเส้นที่โหนดใบแทนค่าคงที่ [12] นอกจาก M5 เป็นเรื่องง่ายราบรื่นและถูกต้องมากขึ้นกว่าอัลกอริทึมรถเข็น [15] M5 นายกรัฐมนตรีเป็นรุ่นต่อมาของ M5 จัดการกับค่าที่ขาดหายและคุณลักษณะแจกแจง [14]
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การเรียนรู้ต้นไม้ตัดสินใจการเรียนรู้ต้นไม้ตัดสินใจแยกพื้นที่ตัวอย่างทั้งหมด recursively ลงย่อยตัวอย่างพื้นที่ซึ่งพอที่จะเป็นยุทธศาสตร์ โดยรูปแบบง่าย ๆ [ 12 ] ปมราก ( โหนดแรก ) ในต้นไม้ถือเป็นพื้นที่ตัวอย่างทั้งหมด แบ่งพื้นที่ออกเป็นขนาดเล็กย่อยตัวอย่างตัวอย่างพื้นที่หมายถึงโหนดรากโหนดลูกสีดำที่แต่ละโหนดลูกอาจ recursively แบ่งออกเป็นโหนดใบ ( โหนดซึ่งแบ่งต่อไปไม่ได้ ) โหนดยกเว้นใบโหนดในต้นไม้ พื้นที่ตัวอย่าง แยกจากชุดของภาพ ( s ) ของข้อมูลแอตทริบิวต์ปมใบและให้ output ค่าสำหรับผู้ที่ใส่แอตทริบิวต์ ซึ่งอยู่บนเส้นทางจากรากสู่ใบในต้นไม้ เป้าหมายสูงสุดของตัวอย่างย่อยโดยใช้วิธีต้นไม้ การตัดสินใจที่จะลดการผสมแตกต่างกันออกค่าและกำหนดมูลค่าส่งออก subsamples เดียวสำหรับพื้นที่ การแยกบริสุทธิ์ของโหนดเป็นเกณฑ์วัด เช่น ค่าส่วนเบี่ยงเบนมาตรฐาน ที่ใช้ในอัลกอริทึม ; ID3 ดัชนีจีนีใช้ในขั้นตอนวิธีโปรแกรม C4.5 ) และโหนดขนาด ( จำนวนข้อมูลที่แสดงบน nodde ) มีหลายขั้นตอนวิธีการสร้างแผนภาพการตัดสินใจแบบต้นไม้ : รถเข็น [ 13 ] , M5 [ 12 ] และ M5 นายกรัฐมนตรี [ 14 ] ขั้นตอนวิธีการเหล่านี้จะคล้ายกันในวิธีการสร้างต้นไม้ แต่แตกต่างกันในลักษณะต่อไปนี้ : แรกความสกปรกวัด เช่น รถเข็น ใช้ M5 ใช้ส่วนเบี่ยงเบนมาตรฐาน และความแปรปรวน ที่สองเป็นกฎที่ใช้เพื่อหลีกเลี่ยงการตัดที่เหมาะสมของรูปแบบ ที่สามเป็นค่าใบงาน M5 ใช้โมเดลเชิงเส้นที่โหนดใบแทนคงที่ค่า [ 12 ] นอกจากนี้ , M5 ที่ง่าย ราบรื่นและถูกต้องมากกว่ารถเข็นขั้นตอนวิธี [ 15 ] M5 นายกรัฐมนตรีเป็นรุ่นต่อมาของ M5 ที่เกี่ยวข้องกับหายไปค่า และแจกแจงคุณลักษณะ [ 14 ]
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: