Semi-supervised learning [24] is a well-known technique that makes use การแปล - Semi-supervised learning [24] is a well-known technique that makes use ไทย วิธีการพูด

Semi-supervised learning [24] is a

Semi-supervised learning [24] is a well-known technique that makes use of unlabelled data to improve classification performance.
One of the most commonly used semi-supervised learning algorithms is that of self-training. This technique is an
iterative process. Semi-supervised self-training tries to automatically label examples from unlabelled data and add them to
the initial training set in each learning cycle. The self-training process usually selects high confidence examples to add to the
training data. However, if the initial classifier in self-training is not good enough, there will be an increased probability of
adding examples having incorrect labels to the training set. Therefore, the addition of ‘‘noisy’’ examples not only cannot
increase the accuracy of the learning model, but will also gradually decrease the performance of the classifier. On the other
hand, self-training selects most confident examples to add to the training data. But these examples are not necessarily the
most informative instances (especially for discriminative classifiers, like SVM) for classifier improvement [16]. To solve these
problems, we combine the processes of self-training with active learning in order to enrich the initial training set with some
selected examples from unlabelled pool in the learning process. Active learning tries to select as few as possible the most
informative examples from unlabelled pool and label them by a human expert in order to add to the training set in an
iterative process. These two techniques (self-training and active learning) complement each other in order to increase the
performance of CLSC while reduce human labelling efforts.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
เรียนรู้มีกึ่ง [24] เป็นเทคนิคที่ทำให้รู้จักใช้ข้อมูล unlabelled เพื่อปรับปรุงประสิทธิภาพการจัดประเภทหนึ่งของอัลกอริทึมมีกึ่งเรียนมักใช้เป็นที่ฝึกอบรมด้วยตนเอง เทคนิคนี้เป็นการกระบวนการซ้ำ มีกึ่งตนเองฝึกอบรมพยายามป้ายตัวอย่างจากข้อมูล unlabelled และเพิ่มให้โดยอัตโนมัติการฝึกเริ่มต้นที่กำหนดในแต่ละรอบการเรียนรู้ การฝึกอบรมด้วยตนเองมักจะเลือกตัวอย่างความมั่นใจสูงเพื่อเพิ่มการข้อมูลการฝึกอบรม อย่างไรก็ตาม ถ้า classifier เริ่มต้นในการฝึกอบรมด้วยตนเองไม่ดีพอ จะมีความน่าเป็นการเพิ่มขึ้นของตัวอย่างเพิ่มมีป้ายชื่อที่ไม่ถูกต้องในชุดฝึกอบรม ดังนั้น การเพิ่มตัวอย่าง ''คะ '' ไม่เพียงไม่สามารถเพิ่มความแม่นยำของแบบจำลองการเรียนรู้ แต่จะลดประสิทธิภาพของ classifier ที่ยังค่อย ๆ อื่น ๆมือ การฝึกอบรมด้วยตนเองเลือกอย่างมั่นใจมากที่สุดเพื่อเพิ่มข้อมูลการฝึกอบรม แต่ตัวอย่างเหล่านี้ไม่จำเป็นต้องการอินสแตนซ์ข้อมูลมากที่สุด (โดยเฉพาะอย่างยิ่งสำหรับ discriminative คำนามภาษา เช่น SVM) ปรับปรุง classifier [16] การแก้ปัญหาเหล่านี้ปัญหา เรารวมกระบวนการของการฝึกอบรมด้วยตนเองพร้อมเรียนรู้งานเพื่อเพิ่มการฝึกเริ่มด้วยบางตัวอย่างที่เลือกจากกลุ่ม unlabelled ในกระบวนการเรียนรู้ เรียนรู้งานพยายามเลือกน้อยที่สุดมากที่สุดตัวอย่างข้อมูลจาก unlabelled สระว่ายน้ำ และป้าย โดยผู้เชี่ยวชาญที่มนุษย์เพิ่มการฝึกอบรมที่ตั้งในการกระบวนการซ้ำ เทคนิคเหล่านี้สอง (ฝึกอบรมด้วยตนเอง และใช้งานเรียนรู้) ช่วยเสริมเพื่อเพิ่มการประสิทธิภาพของ CLSC ขณะลดความพยายามจำกัดมนุษย์
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
การเรียนรู้กึ่งดูแล [24] เป็นเทคนิคที่รู้จักกันดีว่าทำให้การใช้ข้อมูลที่ไม่ติดฉลากเพื่อปรับปรุงประสิทธิภาพการจัดหมวดหมู่.
หนึ่งในที่สุดที่ใช้กันทั่วไปกึ่งดูแลขั้นตอนวิธีการเรียนรู้คือการฝึกอบรมด้วยตนเอง
เทคนิคนี้เป็นกระบวนการซ้ำ
กึ่งภายใต้การดูแลตนเองการฝึกอบรมพยายามที่จะติดป้ายโดยอัตโนมัติตัวอย่างจากข้อมูลที่ไม่ติดฉลากและเพิ่มให้การฝึกอบรมครั้งแรกที่ตั้งอยู่ในแต่ละรอบการเรียนรู้
ขั้นตอนการฝึกอบรมตัวเองมักจะเลือกตัวอย่างความเชื่อมั่นสูงในการเพิ่มข้อมูลการฝึกอบรม
แต่ถ้าลักษณนามเริ่มต้นในการฝึกอบรมตัวเองไม่ดีพอที่จะมีน่าจะเป็นที่เพิ่มขึ้นของการเพิ่มตัวอย่างที่มีฉลากไม่ถูกต้องไปยังชุดการฝึกอบรม ดังนั้นนอกเหนือจาก '' ที่มีเสียงดัง '' ตัวอย่างที่ไม่เพียง
แต่ไม่สามารถเพิ่มความถูกต้องของรูปแบบการเรียนรู้แต่จะยังค่อยๆลดประสิทธิภาพการทำงานของลักษณนามที่ ที่อื่น ๆ
มือตัวเองเลือกตัวอย่างการฝึกอบรมมีความเชื่อมั่นมากที่สุดในการเพิ่มข้อมูลการฝึกอบรม แต่ตัวอย่างเหล่านี้ไม่จำเป็นต้องเป็นกรณีที่ข้อมูลมากที่สุด (โดยเฉพาะสำหรับจำแนกแยกแยะเช่น SVM) สำหรับการปรับปรุงจําแนก [16] เพื่อแก้ปัญหาเหล่านี้ปัญหาเรารวมกระบวนการของการฝึกอบรมด้วยตนเองกับการเรียนรู้การใช้งานในการสั่งซื้อเพื่อเพิ่มการฝึกอบรมครั้งแรกชุดที่มีบางตัวอย่างที่เลือกมาจากการปิดฉลากในกระบวนการเรียนรู้ การเรียนรู้ที่ใช้งานพยายามที่จะเลือกไม่กี่เท่าที่เป็นไปได้มากที่สุดตัวอย่างข้อมูลจากสระว่ายน้ำและการปิดฉลากฉลากพวกเขาโดยผู้เชี่ยวชาญของมนุษย์เพื่อที่จะเพิ่มให้กับชุดการฝึกอบรมในกระบวนการซ้ำ ทั้งสองเทคนิค (การฝึกอบรมด้วยตนเองและการเรียนรู้การใช้งาน) เติมเต็มซึ่งกันและกันในการสั่งซื้อเพื่อเพิ่มประสิทธิภาพการทำงานของCLSC ในขณะที่ความพยายามในการลดการติดฉลากของมนุษย์





การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: