Several authors have considered the problem of constructing tree-struc การแปล - Several authors have considered the problem of constructing tree-struc ไทย วิธีการพูด

Several authors have considered the

Several authors have considered the problem of constructing tree-structured classifiers that have linear discriminants [81] at each node. You and Fu [379] used a linear discriminant at each node in the decision tree, computing the hyperplane coefficients using the Fletcher-Powell descent method [104]. Their method requires that the best set of features at each node be prespecified by a human. Friedman [110] reported that applying Fisher's linear discriminants, instead of atomic features, at some internal nodes was useful in building better trees. Qing-Yun and Fu [289] also describe a method to build linear discriminant trees. Their method uses multivariate stepwise regression to optimize the structure of the decision tree as well as to choose subsets of features to be used in the linear discriminants. More recently, use of linear discriminants at each node is considered by Loh and Vanichsetakul [216]. Unlike in [379], the variables at each stage are appropriately chosen in [216] according to the data and the type of splits desired. Other features of the tree building algorithm in [216] are: (1) it yields trees with univariate, linear combination or linear combination of polar coordinate splits, and (2) allows both ordered and unordered variables in the same linear split. Use of linear discriminants in a decision tree is considered in the remote sensing literature in [158]. A method for building linear discriminant classification trees, in which the user can decide at each node what classes need to be split, is described in [350]. John [166] recently considered linear discriminant trees in the machine learning literature.

An extension of linear discriminants are linear machines [271], which are linear structures that can discriminate between multiple classes. In the machine learning literature, Utgoff et al. explored decision trees that used linear machines at internal nodes [32,79].
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
หลายผู้เขียนได้พิจารณาปัญหาของการสร้างโครงสร้างแผนภูมิคำนามภาษาที่แต่ละโหนมีเส้น discriminants [81] และฟู [379] ใช้ discriminant เส้นที่แต่ละโหนดในต้นไม้การตัดสินใจ คำนวณสัมประสิทธิ์ hyperplane ใช้วิธีพาวเวลเฟล็ทเชอร์โคตร [104] วิธีการของพวกเขาต้องการที่สุดชุดที่แต่ละโหนจะ prespecified โดยมนุษย์ ฟรีดแมน [110] ได้รายงานว่า ใช้ของ Fisher เส้น discriminants แทนอะตอมห้อง บางโหนภายในไม่มีประโยชน์ในการสร้างต้นไม้ดีกว่า ยืนชิงและฟู [289] ยังอธิบายวิธีการสร้างต้นไม้เชิง discriminant วิธีการใช้ตัวแปรพหุการถดถอย stepwise เพื่อปรับโครงสร้างของต้นไม้ตัดสินใจเป็นอย่างดีเพื่อเลือกชุดย่อยของคุณลักษณะที่จะใช้ใน discriminants เชิง เมื่อเร็ว ๆ นี้ ใช้ discriminants เส้นที่แต่ละโหนพิจารณาโละและ Vanichsetakul [216] ซึ่งแตกต่างจากใน [379], ตัวแปรในแต่ละขั้นจะเหมาะสมที่เลือกใน [216] ตามข้อมูลและชนิดของแยกต้องการ คุณลักษณะอื่น ๆ ของต้นไม้สร้างอัลกอริทึมใน [216]: (1) ทำให้ต้นไม้อย่างไร univariate ผลรวมเชิงเส้น หรือเชิงเส้นทั้งแยกพิกัดเชิงขั้ว และ (2) อนุญาตให้ทั้งสั่ง และนำตัวแปรในการแบ่งเส้นตรงเดียวกัน ใช้ discriminants เชิงเส้นในแผนภูมิการตัดสินใจถือในวรรณคดี sensing ระยะไกลใน [158] อธิบายวิธีการสร้างเส้น discriminant ประเภทต้นไม้ ซึ่งผู้ใช้สามารถตัดสินใจที่แต่ละโหนดในชั้นที่ต้องการจะแบ่ง ใน [350] จอห์น [166] เพิ่งถือต้นไม้เชิง discriminant ในเครื่องเอกสารประกอบการเรียนรู้ส่วนขยายของเส้น discriminants มีเครื่องเส้น [271], ซึ่งเป็นโครงสร้างเชิงเส้นที่สามารถเหยียดระหว่างเรียนหลาย ในการเรียนวรรณคดี เครื่อง Utgoff et al. สำรวจต้นไม้การตัดสินใจที่ใช้เครื่องเส้นภายในโหน [32,79]
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ผู้เขียนหลายคนได้รับการพิจารณาปัญหาของการสร้างลักษณนามต้นไม้โครงสร้างที่มี discriminants เชิงเส้น [81] ในแต่ละโหนด คุณและ Fu [379] ใช้จำแนกเชิงเส้นที่แต่ละโหนดในต้นไม้ตัดสินใจการคำนวณค่าสัมประสิทธิ์ไฮเปอร์เพลใช้วิธีเชื้อสาย Fletcher-Powell [104] วิธีการของพวกเขาต้องการให้ชุดที่ดีที่สุดของคุณสมบัติที่แต่ละโหนดจะ prespecified โดยมนุษย์ ฟรีดแมน [110] รายงานว่าการใช้ discriminants เชิงเส้นฟิชเชอร์แทนของคุณสมบัติอะตอมที่โหนดภายในบางอย่างที่เป็นประโยชน์ในการสร้างต้นไม้ที่ดีกว่า ชิงหยุนและฟู [289] นอกจากนี้ยังอธิบายถึงวิธีการที่จะสร้างต้นไม้จำแนกเชิงเส้น วิธีการของพวกเขาใช้การถดถอยแบบขั้นตอนหลายตัวแปรที่จะเพิ่มประสิทธิภาพโครงสร้างของต้นไม้ตัดสินใจเช่นเดียวกับการเลือกย่อยของคุณสมบัติที่จะใช้ใน discriminants เชิงเส้น เมื่อเร็ว ๆ นี้การใช้ discriminants เชิงเส้นที่แต่ละโหนดมีการพิจารณาโดยโละและ Vanichsetakul [216] ซึ่งแตกต่างจากใน [379] ตัวแปรในแต่ละขั้นตอนจะถูกเลือกอย่างเหมาะสม [216] ตามข้อมูลและประเภทของการแยกที่ต้องการ คุณสมบัติอื่น ๆ ของอัลกอริทึมในอาคารต้นไม้ [216] คือ (1) อัตราผลตอบแทนที่มีต้นไม้ univariate รวมเชิงเส้นหรือการรวมกันเชิงเส้นของพิกัดเชิงขั้วแยกและ (2) ช่วยให้ทั้งตัวแปรสั่งซื้อและสั่งในการแยกเส้นตรงเดียวกัน ใช้ discriminants เชิงเส้นในต้นไม้ตัดสินใจมีการพิจารณาในวรรณคดีในระยะไกล [158] วิธีการสร้างต้นไม้การจัดหมวดหมู่จำแนกเชิงเส้นซึ่งผู้ใช้สามารถตัดสินใจในแต่ละโหนดสิ่งที่เรียนจะต้องมีการแยกอธิบายไว้ใน [350] จอห์น [166] เมื่อเร็ว ๆ นี้ถือเป็นต้นไม้จำแนกเชิงเส้นในเครื่องการเรียนรู้วรรณคดี. ส่วนขยายของ discriminants เชิงเส้นเป็นเครื่องเชิงเส้น [271] ซึ่งมีโครงสร้างเชิงเส้นที่สามารถแยกแยะระหว่างหลายชั้นเรียน ในการเรียนรู้เครื่องวรรณกรรม, et al, Utgoff ต้นไม้ตัดสินใจสำรวจที่ใช้เครื่องเชิงเส้นที่โหนดภายใน [32,79]

การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ผู้เขียนหลายมีการพิจารณาปัญหาของการสร้างต้นไม้โครงสร้างคำลักษณนามที่เส้น discriminants [ 81 ] ในแต่ละโหนด นายฟู [ 379 ] ใช้จำแนกเชิงเส้นในแต่ละโหนดในต้นไม้การตัดสินใจการคำนวณค่าสัมประสิทธิ์การใช้ระนาบเกิน เฟลทเชอร์ พาวล์ เชื้อสายวิธี [ 104 ] วิธีของพวกเขามีชุดที่ดีที่สุดของคุณสมบัติที่แต่ละโหนดจะจรโดยมนุษย์ฟรีดแมน [ 110 ] รายงานว่า ใช้ปลาเส้น discriminants แทนคุณสมบัติของอะตอม ที่บางจุดอยู่ภายในที่เป็นประโยชน์ในการสร้างต้นไม้ดีกว่า ชิงยุน และ ฟู [ 289 ] ยังอธิบายวิธีการสร้างต้นไม้จำแนกเชิงเส้นวิธี การถดถอยพหุคูณแบบเพิ่มตัวแปรหลายตัวเพื่อเพิ่มประสิทธิภาพโครงสร้างของการตัดสินใจแบบต้นไม้เช่นเดียวกับการเลือกจากคุณสมบัติที่จะใช้ใน discriminants เชิงเส้น เมื่อเร็วๆ นี้ ใช้ discriminants เชิงเส้นในแต่ละโหนด โดยถือเป็นโอเอส และ นุกูล ตะบูนพงศ์ [ 216 ] ซึ่งแตกต่างจากใน [ 379 ]ตัวแปรในแต่ละขั้นตอนจะเหมาะสมเลือก [ 216 ] ตามข้อมูลและแยกประเภทของที่ต้องการ คุณสมบัติอื่น ๆของต้นไม้สร้างขั้นตอนวิธีใน [ 216 ] : ( 1 ) มันให้ผลไม้กับประชากร การรวมกันเชิงเส้นเชิงเส้นหรือแยกของขั้วโลกพิกัด และ ( 2 ) ให้ทั้งคำสั่งและตัวแปรเรียงลําดับในการแบ่งเส้นเดียวกันใช้ discriminants เชิงเส้นในโครงสร้างการตัดสินใจถือว่าในการรับรู้จากระยะไกลในวรรณคดี [ 158 ] วิธีการสร้างเส้นจำแนกหมวดหมู่ต้นไม้ ซึ่งผู้ใช้สามารถตัดสินใจในแต่ละโหนดเรียนอะไรต้องแยกอธิบายไว้ใน [ 350 ] ยอห์น [ 166 ] เมื่อเร็ว ๆนี้ถือว่าเส้นจำแนกต้นไม้ในการเรียนรู้ของเครื่องวรรณกรรม .

ส่วนขยายของ discriminants เชิงเส้นเป็นเส้นตรงเครื่องจักร [ 271 ] ซึ่งเป็นโครงสร้างเชิงเส้นที่สามารถแยกแยะได้ระหว่างเรียนหลาย ในการเรียนรู้ของเครื่องวรรณกรรม utgoff et al . การตัดสินใจเชิงสำรวจต้นไม้ที่ใช้เครื่องจักรที่ภายในโหนด [ 32,79 ]
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: