In this paper, we proposed a new model by combining active learning an การแปล - In this paper, we proposed a new model by combining active learning an ไทย วิธีการพูด

In this paper, we proposed a new mo

In this paper, we proposed a new model by combining active learning and self-training in order to reduce the human
labelling effort and increase the classification performance in cross-lingual sentiment classification. In this model, first, unlabeled data were translated from the target language into the source language. Following this, they were then augmented
into initial training data in the source language using active learning and self-training. We also considered a density measure
to avoid the selection of outlier examples from unlabelled data and thus increase the representativeness of the selected
examples for manual labelling in the active learning algorithm. We applied this method to cross-lingual sentiment classification
datasets in three different languages and compared the performance of the proposed model with some baseline methods.
The experimental results showed that the proposed model outperformed the baseline methods in almost all datasets.
These results also showed that the incorporation of unlabelled data from the target language can effectively improve the performance of CLSC. The experimental results further showed that employing automatic labelling, along with active learning,
can increase the speed of the learning process and therefore reduce the manual labelling workload. Experiments also demonstrated that considering the density of unlabelled data in the query function of active learning can be very efficient when
selecting the most representative and informative examples for manual labelling.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ในเอกสารนี้ เราเสนอรูปแบบใหม่โดยใช้การเรียนรู้ และฝึกตนเองเพื่อลดมนุษย์ฉลากความพยายามและเพิ่มประสิทธิภาพการจัดประเภทในการจัดประเภทความเชื่อมั่นโดยข้าม ในรุ่นนี้ ข้อมูลแรก ไม่ได้แปลจากภาษาเป้าหมายเป็นภาษาต้นฉบับ ต่อนี้ พวกเขาถูกแล้วออกเมนต์เป็นข้อมูลการฝึกอบรมเบื้องต้นในภาษาต้นฉบับใช้เรียนรู้ และการฝึกอบรมด้วยตนเองใช้งานอยู่ เรายังถือว่าเป็นการวัดความหนาแน่นหลีกเลี่ยงการเลือกตัวอย่าง outlier จากข้อมูล unlabelled และจึง เพิ่ม representativeness ที่เลือกตัวอย่างฉลากในอัลกอริทึมใช้เรียนรู้ด้วยตนเอง เราใช้วิธีนี้เพื่อจัดประเภทความเชื่อมั่นโดยข้ามdatasets ในสามภาษา และเปรียบเทียบประสิทธิภาพของรูปแบบการนำเสนอ ด้วยวิธีการพื้นฐานบางอย่างผลการทดลองพบว่า แบบจำลองนำเสนอ outperformed วิธีพื้นฐานใน datasets เกือบทั้งหมดผลลัพธ์เหล่านี้ยังแสดงให้เห็นว่า ในการประสานข้อมูล unlabelled จากภาษาเป้าหมายอย่างมีประสิทธิภาพสามารถเพิ่มประสิทธิภาพของ CLSC ผลการทดลองเพิ่มเติมพบว่า employing อัตโนมัติฉลาก พร้อมเรียนรู้งานสามารถเพิ่มความเร็วของกระบวนการเรียนรู้ และลดปริมาณ labelling ด้วยตนเองดังนั้น การทดลองยังแสดงว่า พิจารณาความหนาแน่นของข้อมูล unlabelled ในฟังก์ชันการสอบถามการเรียนรู้ใช้งานได้อย่างมีประสิทธิภาพมากเมื่อเลือกตัวอย่างข้อมูล และพนักงานมากที่สุดสำหรับการพิมพ์ฉลากด้วยตนเอง
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!

ในบทความนี้เรานำเสนอรูปแบบใหม่โดยการรวมการเรียนรู้การใช้งานและการฝึกอบรมด้วยตนเองเพื่อลดมนุษย์พยายามติดฉลากและการเพิ่มประสิทธิภาพการจัดหมวดหมู่ในการจำแนกความเชื่อมั่นข้ามภาษา ในรูปแบบนี้เป็นครั้งแรกที่ไม่มีป้ายกำกับข้อมูลที่ได้รับการแปลจากภาษาเป้าหมายเป็นภาษาแหล่งที่มา
ต่อไปนี้พวกเขาจะถูกเติมแล้วเป็นข้อมูลในการฝึกอบรมครั้งแรกที่มาภาษาที่ใช้ในการเรียนรู้การใช้งานและการฝึกอบรมด้วยตนเอง นอกจากนี้เรายังถือเป็นตัวชี้วัดความหนาแน่นของการหลีกเลี่ยงการเลือกตัวอย่างจากขอบเขตข้อมูลที่ไม่ติดฉลากและทำให้เพิ่มมูลการเลือกตัวอย่างสำหรับการติดฉลากด้วยตนเองในขั้นตอนวิธีการเรียนรู้ที่ใช้งานอยู่ เราใช้วิธีข้ามภาษาจำแนกความเชื่อมั่นนี้ชุดข้อมูลในสามภาษาที่แตกต่างกันและเมื่อเทียบกับผลการดำเนินงานของรูปแบบที่นำเสนอด้วยวิธีการพื้นฐานบาง. ผลการทดลองแสดงให้เห็นว่ารูปแบบที่นำเสนอประสิทธิภาพสูงกว่าวิธีการพื้นฐานในเกือบทุกชุดข้อมูล. ผลเหล่านี้ยังแสดงให้เห็นว่า การรวมตัวกันของข้อมูลจากการปิดฉลากภาษาเป้าหมายได้อย่างมีประสิทธิภาพสามารถปรับปรุงประสิทธิภาพของ CLSC ผลการทดลองแสดงให้เห็นว่าต่อไปการจ้างการติดฉลากอัตโนมัติพร้อมกับการเรียนรู้การใช้งานสามารถเพิ่มความเร็วของกระบวนการเรียนรู้และดังนั้นจึงลดภาระงานติดฉลากคู่มือ การทดลองยังแสดงให้เห็นว่าการพิจารณาความหนาแน่นของข้อมูลป้ายกำกับในการทำงานแบบสอบถามของการเรียนรู้ที่ใช้งานจะสามารถมีประสิทธิภาพมากเมื่อการเลือกตัวอย่างตัวแทนมากที่สุดและให้ข้อมูลสำหรับการติดฉลากคู่มือ







การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: