in improvement in classifier accuracy are made inthe simple first step การแปล - in improvement in classifier accuracy are made inthe simple first step ไทย วิธีการพูด

in improvement in classifier accura

in improvement in classifier accuracy are made in
the simple first steps. This is a phenomenon which
has been noticed by others (e.g., Rendell and Seshu
[37]; Shavlik, Mooney and Towell [41]; Mingers
[34]; Weiss, Galen and Tadepalli [45]; Holte [22]).
Holte [22], in particular, carried out an investigation
of this phenomenon. His “simple classifier” (called
1R) consists of a partition of a single variable, with
each cell of the partition possibly being assigned to
a different class: it is a multiple-split single-level tree
classifier. A search through the variables is used to
find that which yields the best predictive accuracy.
Holte compared this simple rule with C4.5, a more
sophisticated tree algorithm, finding that “on most
of the datasets studied, 1R’s accuracy is about 3
percentage points lower than C4’s.”
We carried out a similar analysis. Perhaps the
earliest classification method formally developed is
Fisher’s linear discriminant analysis [7]. Table 1 shows
misclassification rates for this method and for the
best performing method we could find in a search
of the literature (these data were abstracted from
the data accumulated by Jamain [23] and Jamain
and Hand [24]) for a randomly selected sample of
ten data sets. The first numerical column shows the
misclassification rate of the best method we found
(mT ), the second shows that of linear discriminant
analysis (mL), the third shows the default rule of assigning
every point to the majority class (m0) and
the final column shows the proportion of the difference
between the default rule and the best rule
which is achieved by linear discriminant analysis
[(m0 − mL)/(m0 − mT )]. It is likely that the best
rules, being the best of rules which many researchers
have applied, are producing results near the Bayes
error rate.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ปรับปรุงในความถูกต้องของ classifier ผลิตในตอนแรกง่าย ๆ นี้เป็นปรากฏการณ์ที่มีการสังเกต โดยผู้อื่น (เช่น เรนเดลล์และ Seshu[37]; Mooney, Shavlik และ Towell [41]; Mingers[34]; มีร์ กาเลน และ Tadepalli [45]; Holte [22])Holte [22], โดยเฉพาะ ดำเนินการสอบสวนปรากฏการณ์นี้ เขา "เชื่อ classifier" (เรียกว่า1R) ประกอบด้วยตัวแปรเดียว พาร์ติชันด้วยแต่ละเซลล์อาจถูกกำหนดให้กับพาร์ติชันระดับต่าง ๆ: เป็นต้นไม้ระดับเดียวหลายแยกclassifier การค้นหาผ่านตัวแปรที่ใช้ในการพบว่า ที่ทำให้ส่วนงานความถูกต้องHolte เปรียบเทียบกฎนี้ง่าย ด้วย C4.5 อื่น ๆแผนภูมิที่มีความซับซ้อนอัลกอริทึม ค้นหาที่ "ในที่สุดdatasets ศึกษา ความถูกต้องของ 1R เป็นประมาณ 3คะแนนเปอร์เซ็นต์ต่ำกว่าของ C4 "เราดำเนินการวิเคราะห์คล้ายกัน บางทีการวิธีจัดประเภทแรกสุดที่พัฒนาขึ้นอย่างเป็นกิจจะลักษณะของ Fisher discriminant เชิงวิเคราะห์ [7] ตารางที่ 1 แสดงราคาพิเศษ misclassification สำหรับวิธีการนี้ และสำหรับการส่วนทำวิธีเราสามารถค้นหาในการค้นหาวรรณกรรม (ข้อมูลเหล่านี้ได้ออกจากข้อมูลสะสม โดย Jamain [23] และ Jamainและมือ [24]) สำหรับตัวอย่างแบบสุ่มเลือกสิบชุดข้อมูล แสดงตัวเลขคอลัมน์แรกอัตรา misclassification เราพบวิธีที่ดีที่สุด(mT), ที่สองแสดงที่ discriminant เชิงเส้นการวิเคราะห์ (มล), ที่สามแสดงกฎเริ่มต้นของการกำหนดจุดทุกชั้นส่วนใหญ่ (m0) และคอลัมน์สุดท้ายแสดงสัดส่วนของความแตกต่างระหว่างกฎเริ่มต้นและกฎดีที่สุดซึ่งสามารถทำได้ โดยการวิเคราะห์ discriminant เชิงเส้น[(m0 − mL) /(m0 − mT)] มีแนวโน้มที่ดีสุดกฎ การดีสุดของกฎที่นักวิจัยหลาย ๆใช้ กำลังผลิตผลใกล้การ Bayesอัตราข้อผิดพลาด
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!

ในการปรับปรุงในความถูกต้องลักษณนามจะทำในขั้นตอนแรกที่เรียบง่าย นี่คือปรากฏการณ์ที่ได้รับการสังเกตโดยผู้อื่น (เช่นแรนเดลล์และ Seshu [37]; ค่าย Shavlik, Mooney และ Towell [41]; Mingers [34]; ไวสส์เลนและ Tadepalli [45]; Holte [22]). Holte [22] โดยเฉพาะอย่างยิ่งการดำเนินการสอบสวนของปรากฏการณ์นี้ ของเขา "ลักษณนามง่าย" (เรียกว่า1R) ประกอบด้วยพาร์ทิชันของตัวแปรเดียวกับมือถือของพาร์ทิชันแต่ละอาจจะถูกกำหนดให้กับระดับที่แตกต่างกันเป็นหลายแยกระดับเดียวต้นไม้ลักษณนาม ค้นหาผ่านตัวแปรที่ใช้ในการพบว่าที่ทำให้ความถูกต้องคาดการณ์ที่ดีที่สุด. Holte เทียบกฎง่ายๆนี้กับ C4.5, ขึ้นอัลกอริทึมต้นไม้ที่มีความซับซ้อนพบว่า"ในส่วนของชุดข้อมูลที่ศึกษาความถูกต้อง 1R เป็นเรื่องเกี่ยวกับ 3 คะแนนร้อยละ ต่ำกว่าของ C4. "เราดำเนินการวิเคราะห์ที่คล้ายกัน บางทีอาจจะเป็นวิธีการจัดหมวดหมู่ที่เก่าแก่ที่สุดคือการพัฒนาอย่างเป็นทางการวิเคราะห์จำแนกเชิงเส้นฟิชเชอร์[7] ตารางที่ 1 แสดงอัตราจำแนกสำหรับวิธีการนี้และสำหรับวิธีการที่มีประสิทธิภาพดีที่สุดที่เราสามารถหาในการค้นหาของวรรณกรรม(ข้อมูลเหล่านี้ถูกแยกออกจากข้อมูลสะสมโดย Jamain [23] และ Jamain และมือ [24]) สำหรับกลุ่มตัวอย่างที่สุ่มเลือก ของสิบชุดข้อมูล คอลัมน์แรกตัวเลขแสดงให้เห็นถึงอัตราการจำแนกของวิธีการที่ดีที่สุดที่เราพบ(MT) ที่สองแสดงให้เห็นว่าการจำแนกเชิงเส้นวิเคราะห์(มิลลิลิตร) ที่สามแสดงให้เห็นถึงการปกครองเริ่มต้นของการกำหนดจุดทุกระดับส่วนใหญ่(m0) และสุดท้ายคอลัมน์แสดงให้เห็นสัดส่วนของความแตกต่างระหว่างการปกครองเริ่มต้นและกฎที่ดีที่สุดที่จะทำได้โดยการวิเคราะห์จำแนกเชิงเส้น[(m0 - มิลลิลิตร) / (m0 - MT)] มันเป็นโอกาสที่ดีที่สุดกฎการที่ดีที่สุดของกฎที่นักวิจัยหลายคนได้ใช้กำลังการผลิตผลลัพธ์ที่ใกล้Bayes อัตราความผิดพลาด

































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ในการปรับปรุงความถูกต้องลักษณนามให้
ง่ายๆขั้นตอนแรก . นี้เป็นปรากฏการณ์ที่
ถูกสังเกตโดยผู้อื่น ( เช่น เรนเดล และ seshu
[ 37 ] ; shavlik และกระบวนการถึงมาก [ 41 ] ; mingers
[ 34 ] ; และไวส์ กาเลน tadepalli [ 45 ] ; holte [ 22 ] )
holte [ 22 ] , โดยเฉพาะ , ดําเนินการสืบสวน
ของปรากฏการณ์นี้ " ง่ายขนาด " ( เรียกว่า
คลิป ) ประกอบด้วยพาร์ติชันของตัวแปรเดียวกับ
เซลล์แต่ละเซลล์ของพาร์ทิชันที่ถูกมอบหมายให้
ระดับที่แตกต่าง : มันมีหลายแยกเดี่ยวระดับต้น
ลักษณนาม การค้นหาผ่านตัวแปรใช้

หาซึ่งให้ค่าความถูกต้องในการทำนายที่ดีที่สุด
holte เปรียบเทียบกฎนี้ง่าย ๆ ด้วยโปรแกรม C4.5 ขั้นตอนวิธีที่ซับซ้อนมากขึ้น
, ต้นไม้ , พบว่าส่วนใหญ่
"จากข้อมูลที่ศึกษา คลิป ความถูกต้องเป็นเรื่องเกี่ยวกับ 3
คะแนนร้อยละต่ำกว่า C4 . "
เราดำเนินการที่คล้ายกัน การวิเคราะห์ บางทีการการพัฒนาอย่างเป็นทางการเป็นวิธีเร็วที่สุด

ปลาเชิงเส้นการวิเคราะห์การจำแนกกลุ่ม ( Discriminant Analysis ) [ 7 ] ตารางที่ 1 แสดงราคาสำหรับวิธีการนี้ผิดพลาด

แสดงวิธีที่ดีที่สุดและเราอาจจะพบในการค้นหา
ของวรรณกรรม ( ข้อมูลเหล่านี้ถูกแยกจาก
ข้อมูลสะสม โดย jamain [ 23 ] และ jamain
และมือ [ 24 ] ) สำหรับการสุ่มเลือกตัวอย่าง
ชุดข้อมูล 10 คอลัมน์แรกแสดงผลผิดพลาด
อัตราวิธีที่ดีที่สุดที่เราพบ
( MT ) ที่สองแสดงให้เห็นว่าการวิเคราะห์จำแนกประเภท
เส้น ( มิลลิลิตร ) , ที่สามแสดงกฎของการเริ่มต้นทุกจุดให้ส่วนใหญ่เรียน

( m0 ) และคอลัมน์สุดท้ายแสดงสัดส่วนของความแตกต่างระหว่างค่า
กฎและกฎที่ดีที่สุด
ซึ่งได้จำแนกเชิงเส้นการวิเคราะห์
[ ( m0 − ( − m0 มิลลิลิตร / MT ) ] มันมีแนวโน้มว่า กฎที่ดีที่สุด
เป็นดีที่สุดของกฎซึ่งนักวิจัยหลายคน
ได้ประยุกต์ มีการผลิตผลลัพธ์ใกล้ Bayes
อัตราความผิดพลาด .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: