Sklansky and his students developed several piecewise linear discrimin การแปล - Sklansky and his students developed several piecewise linear discrimin ไทย วิธีการพูด

Sklansky and his students developed

Sklansky and his students developed several piecewise linear discriminants based on the principle of locally opposed clusters of objects. Wassel and Sklansky [368,335] suggested a procedure to train a linear split to minimize the error probability. Using this procedure, Sklansky and Michelotti [334] developed a system to induce a piece-wise linear classifier. Their method identifies the closest-opposed pairs of clusters in the data, and trains each linear discriminant locally. The final classifier produced by this method is a piecewise linear decision surface, not a tree. Foroutan [107] discovered that the resubstitution error rate of optimized piece-wise linear classifiers is nearly monotonic with respect to the number of features. Based on this result, Foroutan and Sklansky [108] suggest an effective feature selection procedure for linear splits that uses zero-one integer programming. Park and Sklansky [280,281] describe methods to induce linear tree classifiers and piece-wise linear discriminators. The main idea in these methods is to find hyperplanes that cut a maximal number of Tomek links. Tomek links of a data set connect opposed pairs of data points for which the circle of influence between the points doesn't contain any other points.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Sklansky และนักเรียนของพัฒนาหลาย piecewise discriminants เชิงเส้นโดยใช้หลักการของเครื่องตรงข้ามของวัตถุ Wassel และ Sklansky [368,335] แนะนำขั้นตอนการฝึกแบ่งเส้นตรงเพื่อลดความผิดพลาด ใช้ขั้นตอนนี้ Sklansky และ Michelotti [334] พัฒนาระบบเพื่อก่อให้เกิดการ piece-wise classifier เชิงเส้น วิธีการระบุคู่เทียบเคียงของคลัสเตอร์ข้อมูล และรถไฟ discriminant เชิงเส้นแต่ละเครื่อง Classifier ขั้นสุดท้ายที่ผลิต โดยวิธีนี้เป็นการ piecewise ตัดสินใจเชิงพื้นผิว ต้นไม้ไม่ Foroutan [107] พบว่า อัตราข้อผิดพลาด resubstitution ที่เหมาะ piece-wise คำนามภาษาเชิงเส้นเป็นเกือบ monotonic กับหมายเลขของคุณลักษณะการ ตามผลนี้ Foroutan และ Sklansky [108] แนะนำคุณลักษณะที่มีประสิทธิภาพเลือกกระบวนการสำหรับแยกเส้นที่ใช้เขียนโปรแกรมหนึ่งศูนย์จำนวนเต็ม พาร์คและ Sklansky [280,281] อธิบายวิธีชวนคำนามภาษาต้นไม้เชิงเส้น และ piece-wise discriminators เชิงเส้น ความคิดหลักในวิธีการเหล่านี้คือการ หา hyperplanes ที่ตัดตัวเลขสูงสุดของการเชื่อมโยง Tomek Tomek การเชื่อมโยงของชุดข้อมูลเชื่อมต่อคู่ตรงข้ามของจุดข้อมูลที่วงอิทธิพลระหว่างจุดไม่ประกอบด้วยจุดใด ๆ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
Sklansky และนักเรียนของเขาพัฒนา discriminants เชิงเส้นค่หลายบนพื้นฐานของหลักการของกลุ่มที่ไม่เห็นด้วยในท้องถิ่นของวัตถุ Wassel และ Sklansky [368335] แนะนำขั้นตอนในการฝึกอบรมเชิงเส้นแยกเพื่อลดความน่าจะเป็นข้อผิดพลาด ใช้ขั้นตอนนี้ Sklansky และ Michelotti [334] การพัฒนาระบบที่จะทำให้เกิดลักษณนามเชิงเส้นชิ้นที่ชาญฉลาด วิธีการของพวกเขาระบุคู่ตรงข้ามที่ใกล้เคียงที่สุดของกลุ่มในข้อมูลและรถไฟแต่ละจำแนกเชิงเส้นในประเทศ ลักษณนามสุดท้ายที่ผลิตโดยวิธีการนี​​้เป็นพื้นผิวการตัดสินใจเชิงเส้นค่ไม่ต้นไม้ Foroutan [107] พบว่า resubstitution อัตราความผิดพลาดของการเพิ่มประสิทธิภาพเชิงเส้นแยกแยะชิ้นฉลาดเกือบเนื่องที่เกี่ยวกับจำนวนของคุณสมบัติ บนพื้นฐานของผลนี้ Foroutan และ Sklansky [108] แนะนำที่มีประสิทธิภาพขั้นตอนการเลือกคุณลักษณะสำหรับแยกเชิงเส้นที่ใช้ในการเขียนโปรแกรมจำนวนเต็มศูนย์หนึ่ง Park และ Sklansky [280281] อธิบายวิธีการที่จะทำให้เกิดการจําแนกต้นไม้เชิงเส้นและชิ้นส่วนที่ชาญฉลาด d​​iscriminators เชิงเส้น แนวคิดหลักในวิธีการเหล่านี้คือการหา hyperplanes ที่ตัดจำนวนสูงสุดของการเชื่อมโยง Tomek การเชื่อมโยงของ Tomek ชุดข้อมูลที่เชื่อมต่อคู่ตรงข้ามของจุดข้อมูลที่วงกลมของอิทธิพลระหว่างจุดไม่ได้มีจุดอื่น ๆ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
sklansky และนักพัฒนาหลายเชิงเส้นเป็นช่วง discriminants ตามหลักการของภายใน ต่อต้านกลุ่มของวัตถุ และ wassel sklansky [ 368335 ] แนะนำขั้นตอนการฝึกแยกเชิงเส้นเพื่อลดความน่าจะเป็นของข้อผิดพลาด การใช้กระบวนการนี้ และ sklansky michelotti [ 334 ] พัฒนาระบบ เพื่อทำให้เกิดปัญญาเชิงเส้นชิ้นลักษณนามวิธีของพวกเขาระบุใกล้คู่ของกลุ่มต่อต้านในข้อมูลเชิงจำแนก และรถไฟในแต่ละท้องถิ่น สุดท้ายตัวที่ผลิตโดยวิธีนี้คือพื้นผิวการตัดสินใจเชิงเส้นเป็นช่วง ไม่ใช่ต้นไม้ foroutan [ 107 ] พบว่า resubstitution อัตราความผิดพลาดของชิ้นส่วนที่มีปัญญาเชิงเส้นเหมาะเกือบโมโนโทนิกเกี่ยวกับจำนวนของคุณสมบัติบนพื้นฐานของผลนี้ และ foroutan sklansky [ 108 ] แนะนำคุณลักษณะที่มีประสิทธิภาพการเลือกกระบวนการเชิงเส้นผ่าศูนย์หนึ่งจำนวนเต็มที่ใช้ในการเขียนโปรแกรม สวนสาธารณะและ sklansky [ 280281 ] อธิบายวิธีการเพื่อให้เกิดคำต้นไม้เชิงเส้นและชิ้นปัญญาเชิงเส้น discriminators . แนวคิดหลักในวิธีการเหล่านี้คือการค้นหา hyperplanes ที่ตัด tomek จำนวนสูงสุดของการเชื่อมโยงtomek การเชื่อมโยงของชุดข้อมูลเชื่อมต่อเทียบคู่ของจุดข้อมูลที่วงกลมของอิทธิพลระหว่างจุดไม่ประกอบด้วยใด ๆอื่น ๆจุด
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: