Decision trees are powerful classification algorithms that are becoming increasingly more popular with the growth of data mining
in the field of information systems. Popular decision tree algorithms include Quinlan’s ID3, C4.5, C5 [18, 19], and Breiman et
al.’s CART [20]. As the name implies, this technique recursively separates observations in branches to construct a tree for the
purpose of improving the prediction accuracy. CART builds classification and regression trees for predicting continuous
dependent variables (regression) and categorical predictor variables (classification). The classic CART algorithm was popularized
by Breiman et al. (Breiman, Friedman, Olshen, & Stone, 1984; see also Ripley, 1996). Although researchers are investigating
enhancing CART performance in classification problems, less research is done on enhancing CART performance in disease
diagnosis especially in diagnosis of heart disease. In this paper, existing method (CART) is applied to detect heart disease which
takes more time and more memory to produce the result. CART(Classification and Regression Tree) uses Gini index to measure
the impurity of a partition or set of training tuples. It can handle high dimensional categorical data. Decision Trees can also handle
continuous data (as in regression) but they must be converted to categorical data. The CART decision tree algorithm can be used
to build both classification trees (to classify categorical response variables) and regression trees (to forecast continuous response
variables). It can handle high dimensional categorical data. In most cases, the interpretation of results summarized in a tree is very
simple. This simplicity is useful not only for purposes of rapid classification of new observations (it is much easier to evaluate just
one or two logical conditions, than to compute classification scores for each possible group, or predicted values, based on all
predictors and using possibly some complex nonlinear model equations), but can also often yield a much simpler "model" for
explaining why observations are classified or predicted in a particular manner. The final results of using tree methods for
classification or regression can be summarized in a series of (usually few) logical if-then conditions (tree nodes). Therefore, there
is no implicit assumption that the underlying relationships between the predictor variables and the dependent variable are linear,
follow some specific non-linear link function, or that they are even monotonic in nature. Thus, tree methods are particularly well
suited for data mining tasks, where there is often little a priori knowledge nor any coherent set of theories or predictions regarding
which variables are related and how. In those types of data analyses, tree methods can often reveal simple relationships between
just a few variables that could have easily gone unnoticed using other analytic techniques.
ต้นไม้การตัดสินใจเป็นขั้นตอนวิธีการจำแนกที่มีประสิทธิภาพจะกลายเป็นที่นิยมมากขึ้นมากขึ้นกับการเติบโตของข้อมูลเหมืองแร่
ในด้านระบบข้อมูล ขั้นตอนวิธีต้นไม้การตัดสินใจยอดนิยมรวมถึง ควินแลนของ ID3 , โปรแกรม C4.5 , C5 [ 18 , 19 ] และ breiman et
อัล ซื้อ [ 20 ] เป็นชื่อนัย , เทคนิคนี้ recursively แยกสังเกตในสาขาการสร้างต้นไม้
วัตถุประสงค์ของการปรับปรุงค่าความถูกต้อง รถเข็นสร้างการจำแนกและการถดถอยต้นไม้ทำนายตัวแปรอย่างต่อเนื่อง
( ถดถอย ) และตัวแปรเชิงกลุ่ม ( หมวดหมู่ ) ขั้นตอนวิธีรถเข็นคลาสสิคถูก popularized
โดย breiman et al . ( breiman Friedman olshen & , , หิน , 1984 , ดูละคร , 1996 ) ถึงแม้ว่านักวิจัยได้ตรวจสอบ
การเพิ่มสมรรถนะรถในปัญหาการวิจัยน้อยทำในการเพิ่มประสิทธิภาพในการวินิจฉัยโรคโดยเฉพาะโรค
รถเข็นในการวินิจฉัยโรคหัวใจ ในกระดาษนี้ วิธีการที่มีอยู่ ( รถเข็น ) จะใช้เพื่อตรวจหาโรคหัวใจที่
ใช้เวลามากขึ้นและหน่วยความจำมากขึ้นเพื่อผลิตผล รถเข็น ( หมวดหมู่ต้นไม้ถดถอย ) ใช้วัด
ดัชนีจีนีความสกปรกของพาร์ทิชันหรือชุดของที่มีการฝึกอบรม มันสามารถจัดการกับสูงขนาดจำแนกประเภทข้อมูล ต้นไม้การตัดสินใจสามารถจัดการ
ข้อมูลอย่างต่อเนื่อง ( ในการ ) แต่พวกเขาจะต้องถูกแปลงเป็นข้อมูลเชิงคุณภาพ รถเข็นสามารถใช้ขั้นตอนวิธีต้นไม้ตัดสินใจ
สร้างทั้งหมวดหมู่ต้นไม้ ( จัดกลุ่มตัวแปรตอบสนองอย่างแท้จริง ) และสมการถดถอยต้นไม้ ( พยากรณ์
การตอบสนองอย่างต่อเนื่องตัวแปร ) มันสามารถจัดการกับสูงขนาดจำแนกประเภทข้อมูล ในกรณีส่วนใหญ่ , การตีความของผลสรุปในต้นไม้มาก
ง่ายๆ ความเรียบง่ายนี้จะเป็นประโยชน์ไม่เพียง แต่เพื่อวัตถุประสงค์ของการจัดหมวดหมู่ของข้อมูลใหม่อย่างรวดเร็ว ( มันเป็นเรื่องง่ายที่จะประเมินแค่
หนึ่งหรือสองตรรกะเงื่อนไข กว่าจะคำนวณคะแนนของแต่ละได้รับการจำแนกกลุ่ม หรือคาดการณ์ตาม
ค่าปัจจัยทำนายและใช้สมการที่ซับซ้อนบางอย่างอาจจะไม่เชิงเส้นแบบ ) แต่ก็มักจะทำให้ง่ายขึ้น " นางแบบ "
อธิบายเหตุผล สังเกตจะแบ่งหรือคาดการณ์ในบางลักษณะ ผลลัพธ์สุดท้ายของโดยใช้วิธีต้นไม้
การจำแนกหรือถดถอยสามารถสรุปในชุด ( ไม่กี่มักจะ ) ตรรกะถ้าเงื่อนไข ( โหนดต้นไม้ ) ดังนั้นจึงมี
ไม่มีนัยสมมติฐานพื้นฐานที่ความสัมพันธ์ระหว่างตัวแปรตัวแปรและตัวแปรเชิงเส้น ,
ตามเฉพาะบางเส้นเชื่อมโยงการทำงาน หรือแม้แต่อย่างเดียวที่พวกเขามีในธรรมชาติ ดังนั้นวิธีการที่ต้นไม้โดยเฉพาะอย่างยิ่งดี
เหมาะสำหรับงานเหมืองข้อมูลที่มักจะมีเพียงเล็กน้อยระหว่างความรู้หรือติดต่อกันชุดทฤษฎีหรือคาดคะเนเกี่ยวกับ
ซึ่งตัวแปรที่เกี่ยวข้องและวิธี ในประเภทของการวิเคราะห์ข้อมูล วิธีการ ต้นไม้ก็มักจะเปิดเผยความสัมพันธ์อย่างง่ายระหว่าง
เพียงไม่กี่ตัวที่สามารถไปสังเกตการใช้เทคนิคเชิงวิเคราะห์อื่น ๆ
การแปล กรุณารอสักครู่..