Roy and McCallum [8] describe a method to directlymaximize the expecte การแปล - Roy and McCallum [8] describe a method to directlymaximize the expecte ไทย วิธีการพูด

Roy and McCallum [8] describe a met

Roy and McCallum [8] describe a method to directly
maximize the expected error rate reduction, by estimating
the future error rate by a loss function. The loss functions
help the learner to select those instances that maximize the
confidence of the learner about the unlabeled data. Rather
than estimating the expected error on the full distribution,
this algorithm estimates it over a sample in the pool. The
authors base their class probability estimates and classification
on naive Bayes, however SVMs or other models with complex
parameter space are also recommended.
Osugi et al. [23] propose an active learning algorithm that
balances the exploration and exploitation while selecting a new
instance for labeling by the expert at each step. The algorithm
randomly chooses between exploration and exploitation at
each round and receives feedback on the effectiveness of the
exploration step, based on the performance of the classifier
trained on the explored instance.
Jain and Kapoor [25] studied active learning for large multiclass
problems. Most of the active learning algorithms are
inherently for binary classification and do not scale up to
the large number of classes. In this paper, they introduce a
probabilistic variant of the K-Nearest Neighbor method for
classification that can be seamlessly used for active learning
in multi-class scenarios.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Roy and McCallum [8] describe a method to directlymaximize the expected error rate reduction, by estimatingthe future error rate by a loss function. The loss functionshelp the learner to select those instances that maximize theconfidence of the learner about the unlabeled data. Ratherthan estimating the expected error on the full distribution,this algorithm estimates it over a sample in the pool. Theauthors base their class probability estimates and classificationon naive Bayes, however SVMs or other models with complexparameter space are also recommended.Osugi et al. [23] propose an active learning algorithm thatbalances the exploration and exploitation while selecting a newinstance for labeling by the expert at each step. The algorithmrandomly chooses between exploration and exploitation ateach round and receives feedback on the effectiveness of theexploration step, based on the performance of the classifiertrained on the explored instance.Jain and Kapoor [25] studied active learning for large multiclassproblems. Most of the active learning algorithms areinherently for binary classification and do not scale up tothe large number of classes. In this paper, they introduce aprobabilistic variant of the K-Nearest Neighbor method forclassification that can be seamlessly used for active learningin multi-class scenarios.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
และรอยแม็กคอล [8] อธิบายวิธีการในการโดยตรงเพิ่มลดอัตราความผิดพลาดที่คาดว่าจะโดยการประมาณอัตราการเกิดข้อผิดพลาดในอนาคตโดยฟังก์ชั่นการสูญเสีย ฟังก์ชั่นการสูญเสียช่วยให้ผู้เรียนสามารถเลือกอินสแตนซ์ที่เพิ่มความเชื่อมั่นของผู้เรียนเกี่ยวกับข้อมูลที่ไม่มีป้ายกำกับ แต่กว่าประมาณการที่คาดว่าจะเกิดข้อผิดพลาดในการกระจายเต็มรูปแบบขั้นตอนวิธีนี้ประเมินว่ามากกว่าตัวอย่างในสระว่ายน้ำ ผู้เขียนน่าจะเป็นฐานการประมาณการการเรียนและการจัดหมวดหมู่ของพวกเขาในวันที่ไร้เดียงสา Bayes แต่ SVMs หรือรูปแบบอื่น ๆ ที่มีความซับซ้อนพื้นที่พารามิเตอร์ยังมีการแนะนำ. Osugi et al, [23] เสนอขั้นตอนวิธีการเรียนรู้ที่ใช้งานที่ยอดการสำรวจและการแสวงหาผลประโยชน์ในขณะที่การเลือกใหม่เช่นสำหรับการติดฉลากโดยผู้เชี่ยวชาญในแต่ละขั้นตอน อัลกอริทึมสุ่มเลือกระหว่างการสำรวจและการแสวงหาผลประโยชน์ในแต่ละรอบและได้รับข้อเสนอแนะเกี่ยวกับประสิทธิภาพของขั้นตอนการตรวจสอบข้อเท็จจริงขึ้นอยู่กับประสิทธิภาพของตัวจําแนกที่ได้รับการฝึกฝนในกรณีการสำรวจ. เชนและ Kapoor [25] การศึกษาการเรียนรู้การใช้งานสำหรับแบบหลายขนาดใหญ่ปัญหา ส่วนใหญ่ของขั้นตอนวิธีการเรียนรู้การใช้งานที่มีเนื้อแท้สำหรับการจำแนกไบนารีและไม่ได้ไต่ขึ้นไปจำนวนมากของการเรียน ในบทความนี้พวกเขาแนะนำที่แตกต่างน่าจะเป็นวิธีการเพื่อนบ้านK-ที่ใกล้ที่สุดสำหรับการจัดหมวดหมู่ที่สามารถใช้ต่อเนื่องสำหรับการเรียนรู้การใช้งานในสถานการณ์หลายระดับ






















การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
รอยและ McCallum [ 8 ] อธิบายวิธีการโดยตรง
เพิ่มคาดอัตราความผิดพลาดลดลง โดยการประเมิน
อัตราความผิดพลาดในอนาคต โดยการสูญเสียฟังก์ชัน ฟังก์ชันการสูญเสีย
ช่วยให้ผู้เรียนเลือกอินสแตนซ์ ที่เพิ่มความมั่นใจ
ของผู้เรียนเกี่ยวกับข้อมูลที่ใกล้เคียงกัน ค่อนข้าง
กว่าประมาณคาดว่าข้อผิดพลาดในการกระจายเต็ม
ขั้นตอนวิธีนี้ประมาณการผ่านตัวอย่างในสระว่ายน้ำ
เขียนฐานเรียนการประมาณความน่าจะเป็นและการจำแนก
บน Naive Bayes อย่างไรก็ตามแบบหรือรุ่นอื่น ๆที่มีพื้นที่พารามิเตอร์ที่ซับซ้อน นอกจากนี้ยังแนะนำ
.
อุซางิ et al . [ 23 ] เสนอใช้อัลกอริทึมการเรียนรู้ที่
ยอดสำรวจและแสวงประโยชน์ในขณะที่การเลือกอินสแตนซ์ใหม่
สำหรับการติดฉลากโดยผู้เชี่ยวชาญในแต่ละขั้นตอนขั้นตอนวิธี
สุ่มเลือกระหว่างการสำรวจและการใช้ประโยชน์ในแต่ละรอบและได้รับการตอบรับใน

การสำรวจประสิทธิภาพของขั้นตอนที่ขึ้นอยู่กับประสิทธิภาพของแบบฝึกในการสำรวจตัวอย่าง
.
[ 25 ] และ Jain กาปูร์ ศึกษาการเรียนรู้ปัญหาหลาย
ขนาดใหญ่ ที่สุดของขั้นตอนวิธีการเรียนรู้แบบมี
โดยเนื้อแท้ประเภทไบนารี และไม่ปรับขึ้น

เลขขนาดใหญ่ของชั้นเรียน ในกระดาษนี้จะแนะนำ
ความน่าจะเป็นตัวแปรของวิธีการเพื่อนบ้านละสำหรับ
หมวดหมู่ที่สามารถใช้งานได้อย่างลงตัวในสถานการณ์การเรียนรู้
หลายชั้น
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: