[8] H. Blockeel, L. De Raedt, and J. Ramon. Top-down inductionof clust การแปล - [8] H. Blockeel, L. De Raedt, and J. Ramon. Top-down inductionof clust ไทย วิธีการพูด

[8] H. Blockeel, L. De Raedt, and J

[8] H. Blockeel, L. De Raedt, and J. Ramon. Top-down induction
of clustering trees. In J. Shavlik, editor, Proceedings
of the 15th International Conference on Machine Learning,
pages 55–63. Morgan Kaufmann, 1998.
[9] L. Breiman. Bagging predictors. Machine Learning,
24(2):123–140, 1996.
[10] L. Breiman, J. Friedman, R. Olshen, and C. Stone. Classifi-
cation and Regression Trees. Chapman & Hall, 1984.
[11] A. Buja and Y.-S. Lee. Data mining criteria for tree-based regression
and classification. InProceedings of the Seventh International
Conference on Knowledge Discovery and Data
Mining, pages 27–36, 2001.
[12] B. V. Dasarathy. Nearest Neighbor (NN) Norms: NN Pattern
Classification Techniques. IEEE Computer Society Press,
Los Alamitos, California, 1990.
[13] Y. Freund and R. E. Schapire. Experiments with a new
boosting algorithm. In Proceedings of the 13th International
Conference on Machine Learning, pages 148–156, 1996.
[14] N. Gale, W. Halperin, and C. Costanzo. Unclassed matrix
shading and optimal ordering in hierarchical cluster analysis.
Journal of Classification, 1:75–92, 1984.
[15] http://www.angoss.com.
[16] http://www.spss.com.
[17] A. Inselberg and T. Avidan. Classification and visualization
for high-dimensional data. In Proceedings of the Sixth International
Conference on Knowledge Discovery and Data
Mining, pages 370–374, 2000.
[18] A. Kalton, P. Langley, K. Wagstaff, and J. Yoo. Generalized
clustering, supervised learning, and data assignment.
In Proceedings of the Seventh International Conference on
Knowledge Discovery and Data Mining, 2001.
[19] D. A. Keim and M. Ankerst. Visual data mining and exploration
of large databases. In Proceedings of the 5th European
Conference on Principles and Practice of Knowledge
Discovery in Databases, Freiburg, Germany, 2001.
[20] D. A. Keim, M. C. Hao, U. Dayal, and M. Hsu. Pixel
bar charts: A visualization technique for very large multiattributes
data sets. Information Visualization, 1, 2002.
[21] R. Kohavi and D. Sommerfield. Targeting business users
with decision table classifiers. In Proceedings of the
Fourth International Conference on Knowledge Discovery
and Data Mining, pages 249–253, 1998.
[22] P. Langley. Elements of Machine Learning. Morgan Kaufmann
Publishers, 1996.
[23] R. L. Ling. A computer generated aid for cluster analysis.
Communications of the ACM, 16(6):355–361, 1973.
[24] R. Maclin and D. Opitz. An empirical evaluation of bagging
and boosting. In Proceedings of the Fourteenth National
Conference on Artificial Intelligence, pages 546–551. AAAI
Press/MIT Press, 1997.
[25] C. J. Merz, P. M. Murphy, and D. W. Aha.
UCI repository of machine learning databases,
http://www.ics.uci.edu/˜mlearn/mlrepository.html, 1997.
Dept. of Information and Computer Science, University of
California at Irvine.
[26] T. Mitchell. Machine Learning. McGraw Hill, 1997.
[27] F. Provost and V. Kolluri. A survey of methods for scaling
up inductive algorithms. Data Mining and Knowledge Discovery,
2:1–42, 1999.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
[8] H. Blockeel, L. De Raedt, and J. Ramon. Top-down inductionof clustering trees. In J. Shavlik, editor, Proceedingsof the 15th International Conference on Machine Learning,pages 55–63. Morgan Kaufmann, 1998.[9] L. Breiman. Bagging predictors. Machine Learning,24(2):123–140, 1996.[10] L. Breiman, J. Friedman, R. Olshen, and C. Stone. Classifi-cation and Regression Trees. Chapman & Hall, 1984.[11] A. Buja and Y.-S. Lee. Data mining criteria for tree-based regressionand classification. InProceedings of the Seventh InternationalConference on Knowledge Discovery and DataMining, pages 27–36, 2001.[12] B. V. Dasarathy. Nearest Neighbor (NN) Norms: NN PatternClassification Techniques. IEEE Computer Society Press,Los Alamitos, California, 1990.[13] Y. Freund and R. E. Schapire. Experiments with a newboosting algorithm. In Proceedings of the 13th InternationalConference on Machine Learning, pages 148–156, 1996.[14] N. Gale, W. Halperin, and C. Costanzo. Unclassed matrixshading and optimal ordering in hierarchical cluster analysis.Journal of Classification, 1:75–92, 1984.[15] http://www.angoss.com.[16] http://www.spss.com.[17] A. Inselberg and T. Avidan. Classification and visualizationfor high-dimensional data. In Proceedings of the Sixth InternationalConference on Knowledge Discovery and DataMining, pages 370–374, 2000.[18] A. Kalton, P. Langley, K. Wagstaff, and J. Yoo. Generalizedclustering, supervised learning, and data assignment.In Proceedings of the Seventh International Conference onKnowledge Discovery and Data Mining, 2001.[19] D. A. Keim and M. Ankerst. Visual data mining and explorationof large databases. In Proceedings of the 5th EuropeanConference on Principles and Practice of KnowledgeDiscovery in Databases, Freiburg, Germany, 2001.[20] D. A. Keim, M. C. Hao, U. Dayal, and M. Hsu. Pixelbar charts: A visualization technique for very large multiattributesdata sets. Information Visualization, 1, 2002.[21] R. Kohavi and D. Sommerfield. Targeting business userswith decision table classifiers. In Proceedings of theFourth International Conference on Knowledge Discoveryand Data Mining, pages 249–253, 1998.[22] P. Langley. Elements of Machine Learning. Morgan KaufmannPublishers, 1996.[23] R. L. Ling. A computer generated aid for cluster analysis.Communications of the ACM, 16(6):355–361, 1973.[24] R. Maclin and D. Opitz. An empirical evaluation of baggingand boosting. In Proceedings of the Fourteenth NationalConference on Artificial Intelligence, pages 546–551. AAAIPress/MIT Press, 1997.[25] C. J. Merz, P. M. Murphy, and D. W. Aha.UCI repository of machine learning databases,http://www.ics.uci.edu/˜mlearn/mlrepository.html, 1997.Dept. of Information and Computer Science, University ofCalifornia at Irvine.[26] T. Mitchell. Machine Learning. McGraw Hill, 1997.[27] F. Provost และ V. Kolluri แบบสำรวจวิธีการปรับมาตราส่วนของค่าอัลกอริทึมเชิงอุปนัย การทำเหมืองข้อมูลและการค้นพบความรู้2:1 – 42, 1999
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
[8] Blockeel เอชแอลเดอ Raedt และเจรามอน การเหนี่ยวนำจากบนลงล่างของต้นไม้การจัดกลุ่ม
ในเจค่าย Shavlik, แก้ไข,
การดำเนินการของการประชุมนานาชาติครั้งที่15 เมื่อการเรียนรู้เครื่อง,
หน้า 55-63 มอร์แกน Kaufmann 1998
[9] ลิตร Breiman พยากรณ์ห่อ การเรียนรู้เครื่อง
24 (2): 123-140 1996
[10] ลิตร Breiman เจฟรีดแมน, อาร์ Olshen และซีโตน Classifi-
ไอออนบวกและต้นไม้ถดถอย แชปแมนและฮอลล์ปี 1984
[11] เอ Buja และ Y.-S. ที่กำบัง หลักเกณฑ์การทำเหมืองข้อมูลสำหรับการถดถอยตามต้นไม้และการจำแนก
InProceedings
ของนานาชาติที่เจ็ดการประชุมเกี่ยวกับการค้นพบความรู้และข้อมูลการทำเหมืองแร่, หน้า 27-36, ปี 2001 [12] BV Dasarathy เพื่อนบ้านที่ใกล้ที่สุด (NN) บรรทัดฐาน: NN แบบเทคนิคการจำแนกประเภท อีอีอีพีซีสังคมกดLos Alamitos แคลิฟอร์เนียปี 1990 [13] วาย Freund และ RE Schapire การทดลองกับใหม่ขั้นตอนวิธีการส่งเสริมการ ในการดำเนินการของนานาชาติครั้งที่ 13 การประชุมเกี่ยวกับการเรียนรู้เครื่อง, หน้า 148-156 1996 [14] เอ็นเกลดับบลิว Halperin และซี Costanzo เมทริกซ์ Unclassed. แรเงาและการสั่งซื้อที่เหมาะสมในการวิเคราะห์กลุ่มลำดับชั้นวารสารการจำแนก 1: 75-92, ปี 1984 [15] http://www.angoss.com. [16] http://www.spss.com. [ 17] เอ Inselberg ตันและ Avidan การจำแนกประเภทและการมองเห็นข้อมูลสูงมิติ ในการดำเนินการของนานาชาติที่หกการประชุมเกี่ยวกับความรู้และการค้นพบข้อมูลทำเหมืองแร่, หน้า 370-374 2000 [18] เอ Kalton พีแลงลีย์, เค Wagstaff และเจยู ทั่วไปการจัดกลุ่มดูแลการเรียนรู้และการกำหนดข้อมูล. ในการประชุมวิชาการระหว่างประเทศที่เจ็ดการค้นพบความรู้และการทำเหมืองข้อมูล 2001 [19] DA Keim และเอ็ม Ankerst การทำเหมืองข้อมูลภาพและการสำรวจของฐานข้อมูลขนาดใหญ่ ในการดำเนินการของยุโรปที่ 5 การประชุมเกี่ยวกับหลักการและการปฏิบัติของความรู้ของการค้นพบในฐานข้อมูล Freiburg, เยอรมนี, ปี 2001 [20] DA Keim พิธีกรเฮา U. Dayal และเอ็มฮ พิกเซลแผนภูมิแท่ง: การสร้างภาพเทคนิคสำหรับ multiattributes ขนาดใหญ่มากชุดข้อมูล การแสดงข้อมูลที่ 1 ปี 2002 [21] อาร์ Kohavi และ D Sommerfield กำหนดเป้าหมายผู้ใช้ทางธุรกิจกับลักษณนามตารางการตัดสินใจ ในการดำเนินการของการประชุมนานาชาติที่สี่ในการค้นพบความรู้และการทำเหมืองข้อมูล, หน้า 249-253 1998 [22] พีแลงลีย์ องค์ประกอบของการเรียนรู้เครื่อง มอร์แกน Kaufmann สำนักพิมพ์ปี 1996 [23] RL หลิง คอมพิวเตอร์ที่สร้างขึ้นสำหรับการช่วยเหลือการวิเคราะห์กลุ่ม. การสื่อสารของพลอากาศเอก 16 (6): 355-361 1973 [24] อาร์ Maclin และ D Opitz การประเมินผลเชิงประจักษ์ของถุงและเพิ่ม ในการดำเนินการของสิบสี่แห่งชาติการประชุมเกี่ยวกับปัญญาประดิษฐ์, หน้า 546-551 AAAI กด / MIT Press, 1997 [25] CJ Merz, PM เมอร์ฟี่และใบสำคัญแสดงสิทธิอนุพันธ์ Aha. พื้นที่เก็บข้อมูล UCI ของฐานข้อมูลการเรียนรู้เครื่องhttp://www.ics.uci.edu/~mlearn/mlrepository.html 1997 ฝ่าย . สารสนเทศและวิทยาการคอมพิวเตอร์มหาวิทยาลัยแคลิฟอร์เนียที่เออร์. [26] ตมิทเชลล์ การเรียนรู้เครื่อง McGraw ฮิลล์ 1997 [27] เอฟพระครูโวลต์และ Kolluri การสำรวจวิธีการในการปรับขึ้นขั้นตอนวิธีการอุปนัย การทำเหมืองข้อมูลและความรู้เกี่ยวกับการค้นพบที่ 2: 1-42, 1999
















































การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: