As Pat Langley and other researchers pointed out [22, 8],a tree (eithe การแปล - As Pat Langley and other researchers pointed out [22, 8],a tree (eithe ไทย วิธีการพูด

As Pat Langley and other researcher

As Pat Langley and other researchers pointed out [22, 8],
a tree (either classification or clustering tree) represents a
kind of taxonomy or a hierarchy with each node being a
concept or a cluster. Therefore, it is also natural to visualize
decision trees using shaded similarity matrix. Again, similar
to nearest neighbor visualization, whether or not shaded
similarity matrix is appropriate for being applied to decision
tree visualization depends on the definition of distance. It
can be shown (see Appendix A) that when distance is de-
fined only on class information, within-cluster average distance
is equivalent to the Gini index, a popular attribute selection
measurement in constructing decision trees [10]. In
other words, if we build a clustering tree the same way as
build a decision tree, we may obtain the same result. Of
course, when generating a clustering tree, we do not have
the class information. Fig. 3 is a demonstration on Iris data
showing that we can build two same trees with or without
class information. The decision tree is constructed using
Gini index to select good attributes. The clustering tree is
by using within-cluster average distance, and is displayed
with gray shading because we do not have class informa-
tion. In this paper, all decision trees are constructed using
Gini measurement.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Pat ลแลงเกลย์และนักวิจัยอื่น ๆ ที่ชี้ให้เห็น [22, 8],ต้นไม้ (จัดประเภทหรือแผนภูมิระบบคลัสเตอร์) แทนชนิดของลำดับชั้นกับแต่ละโหนดหรือระบบการแนวคิดหรือคลัสเตอร์ ดังนั้น ก็ยังเห็นภาพธรรมชาติใช้เมทริกซ์คล้ายเงาต้นไม้ตัดสินใจ อีก คล้ายให้ใกล้เคียงที่สุดใกล้เคียงแสดงภาพประกอบเพลง หรือไม่แรเงาเมทริกซ์คล้ายเหมาะสำหรับใช้ตัดสินใจแผนภูมิแสดงภาพประกอบเพลงขึ้นอยู่กับข้อกำหนดระยะทาง มันสามารถแสดงได้ (ดูภาคผนวก A) ที่เมื่อระยะทางถูก de -ปรับเฉพาะในชั้นข้อมูล ระยะทางเฉลี่ยภายในคลัสเตอร์จะเท่ากับดัชนี Gini การเลือกแอททริบิวต์ที่นิยมประเมินในการสร้างต้นไม้ตัดสินใจ [10] ในเช่นเดียวกับแผนภูมิคำอื่น ถ้าเราสร้างแบบคลัสเตอร์สร้างต้นไม้ตัดสินใจ เราอาจได้รับผลลัพธ์เดียวกัน ของหลักสูตร สร้างระบบคลัสเตอร์ต้นไม้ เราไม่มีชั้นข้อมูล Fig. 3 เป็นการสาธิตข้อมูล Irisแสดงว่า เราสามารถสร้างต้นไม้เดียวกันทั้งสอง หรือไม่ชั้นข้อมูล สร้างต้นไม้การตัดสินใจใช้ดัชนี Gini เพื่อเลือกคุณลักษณะที่ดี เป็นต้นระบบคลัสเตอร์โดยใช้ระยะทางเฉลี่ยภายในคลัสเตอร์ และแสดงแรเงาสีเทาเพราะ เราไม่มีคลาส informa-สเตรชัน ในเอกสารนี้ ต้นไม้การตัดสินใจทั้งหมดถูกสร้างโดยใช้Gini วัด
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ในฐานะที่เป็นแพ็ตแลงลีย์และนักวิจัยอื่น ๆ ชี้ให้เห็น [22 8],
ต้นไม้ (ทั้งการจัดหมวดหมู่การจัดกลุ่มหรือต้นไม้)
หมายถึงชนิดของอนุกรมวิธานหรือลำดับชั้นกับแต่ละโหนดเป็นหนึ่งแนวคิดหรือกลุ่ม
ดังนั้นจึงยังเป็นธรรมชาติที่จะเห็นภาพต้นไม้ตัดสินใจโดยใช้เมทริกซ์สีเทาคล้ายคลึงกัน
อีกครั้งที่คล้ายกันในการสร้างภาพเพื่อนบ้านที่ใกล้ที่สุดหรือไม่สีเทาเมทริกซ์คล้ายคลึงกันเป็นที่เหมาะสมสำหรับถูกนำไปใช้ในการตัดสินใจการมองเห็นต้นไม้ที่ขึ้นอยู่กับนิยามของระยะทาง มันจะแสดงให้เห็น (ดูภาคผนวก A) ว่าเมื่อระยะทาง de- ปรับเฉพาะในข้อมูลระดับภายในคลัสเตอร์ระยะทางเฉลี่ยเทียบเท่ากับดัชนี Gini ให้เลือกแอตทริบิวต์ที่นิยมวัดในการสร้างต้นไม้ตัดสินใจ[10] ในคำอื่น ๆ ถ้าเราสร้างต้นไม้การจัดกลุ่มเช่นเดียวกับการสร้างต้นไม้ตัดสินใจที่เราอาจจะได้รับผลเดียวกัน ของแน่นอนเมื่อมีการสร้างต้นไม้การจัดกลุ่มที่เราไม่ได้มีข้อมูลในชั้นเรียน รูป 3 คือการสาธิตกับข้อมูลไอริแสดงให้เห็นว่าเราสามารถสร้างต้นไม้สองต้นเดียวกันมีหรือไม่มีข้อมูลระดับ ต้นไม้การตัดสินใจที่ถูกสร้างโดยใช้ดัชนี Gini เพื่อเลือกคุณลักษณะที่ดี ต้นไม้การจัดกลุ่มเป็นโดยใช้ที่อยู่ในคลัสเตอร์ระยะทางเฉลี่ยและจะปรากฏมีการแรเงาสีเทาเพราะเราไม่ได้มีข้อมูลที่ระดับการ ในบทความนี้ทั้งหมดต้นไม้ตัดสินใจถูกสร้างขึ้นโดยใช้การวัด Gini

















การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ณภัทร แล็งค์ลี่ย์และนักวิจัยอื่น ๆชี้ให้เห็น [ 22 , 8 ] ,
ต้นไม้ ( ทั้งหมวดหมู่หรือการจัดกลุ่มต้นไม้ ) แทน
ชนิดอนุกรมวิธานหรือลำดับชั้น แต่ละโหนดที่เป็นแนวคิดหรือกลุ่ม ดังนั้นจึงเป็นเรื่องธรรมชาติที่จะเห็นภาพ
ต้นไม้การตัดสินใจใช้ความเหมือน Matrix สีเทา อีกครั้ง ที่คล้ายกัน
กับเพื่อนบ้านที่ใกล้ที่สุด มองเห็นหรือไม่แรเงา
ความเหมือนของเมทริกซ์ที่เหมาะสมสำหรับการประยุกต์ใช้กับการแสดงแผนภาพการตัดสินใจแบบต้นไม้
ขึ้นอยู่กับคำนิยามของระยะทาง ครับผมสามารถแสดง ( ดูภาคผนวก ) ที่เมื่อระยะห่างเป็น de -
ปรับเฉพาะในชั้นเรียนข้อมูลภายในกลุ่มเฉลี่ยระยะทาง
เทียบเท่ากับดัชนี Gini , การวัดคุณลักษณะที่นิยมในการสร้างต้นไม้
เลือกการตัดสินใจ [ 10 ]
ในคำอื่น ๆถ้าเราสร้างการจัดกลุ่มต้นไม้แบบเดียวกับ
สร้างโครงสร้างการตัดสินใจ เราอาจได้รับผลเดียวกัน ของ
แน่นอนเมื่อสร้างการจัดกลุ่มต้นไม้ เราไม่มี
ข้อมูลชั้น รูปที่ 3 เป็นการสาธิตข้อมูลไอริส
แสดงให้เห็นว่า เราสามารถสร้างต้นไม้สองต้นเดียวกันหรือไม่
ข้อมูล ต้นไม้ การตัดสินใจจะถูกสร้างขึ้นโดยใช้ดัชนี Gini
เลือกคุณลักษณะที่ดีกลุ่มต้นไม้
โดยใช้ระยะทางเฉลี่ยภายในกลุ่ม และแสดง
กับแรเงาสีเทา เพราะเราไม่มีเรียน -
Informa tion . ในกระดาษนี้ ต้นไม้ การตัดสินใจทั้งหมดจะถูกสร้างขึ้นโดยใช้
วัด Gini .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: