In this section, our proposed method is compared with six baseline met การแปล - In this section, our proposed method is compared with six baseline met ไทย วิธีการพูด

In this section, our proposed metho

In this section, our proposed method is compared with six baseline methods. We set k in the kNN density measure to 20
for all the experiments. We also used p ¼ n ¼ 5 for the self-training algorithm and selected one unlabelled example in each
cycle of active learning for the manual labelling. The total number of iterations was set to 50 iterations for all iterative
algorithms. This setting meant that, in total, 50 unlabelled examples were selected for manual labelling during the learning
process and 500 unlabelled examples were labelled automatically. After a full learning process, the test data were presented
to the learned classifier for evaluation. Table 2 shows the comparison results after the full learning process. As we can see,
our proposed method showed a better performance in all datasets, especially with regard to accuracy.
Because active learning based models benefit from the information of 50 manually-labelled examples during their
learning process, we added extra labelled samples (50 samples) from the source language to the training sets of the SCL
and SVM-MT models in order to create the same condition for all comparing models. By comparing all semi-supervised
and active learning based methods with SVM-MT model in Table 2, we can conclude that the incorporation of unlabelled
data from the target language into the learning process can effectively improve the performance of cross-lingual sentiment
classification. Also, as we can see in this table, DBAST and AST models demonstrate better performance in comparison to AL
and ST after the full learning process. This supports the idea that the combination of active learning and self-training processes
can result in a better classification than each individual approach. Moreover, the DBAST model outperforms the
AST model in all datasets. This shows that using the density measure of unlabelled examples has a beneficial effect upon
selecting the most representative examples for manual labelling.
As we can see, different languages show different accuracies in cross-lingual sentiment classification. This difference can
be interpreted from two points of views. First, sentiment classification shows diverse performance in different languages due
to the disparity in the structure of languages when expressing the sentimental data even in the same domain (e.g. book
review domain). Next, automatic machine translation systems perform translation of varying quality in different languages
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ในส่วนนี้ วิธีการนำเสนอของเรามีการเปรียบเทียบ ด้วยวิธีพื้นฐาน 6 เราตั้งค่า k ในการวัดความหนาแน่น kNN ให้ 20สำหรับการทดลองทั้งหมด นอกจากนี้เรายังใช้ p ¼ n ¼ 5 ขั้นตอนวิธีการฝึกอบรมด้วยตนเองและเลือกอย่าง unlabelled หนึ่งในแต่ละวงจรการเรียนรู้ที่ใช้งานอยู่สำหรับฉลากด้วยตนเอง จำนวนการเกิดซ้ำถูกตั้งค่าให้ทำซ้ำ 50 สำหรับซ้ำทั้งหมดอัลกอริทึมการ การตั้งค่านี้หมายความ ว่า รวม ตัวอย่าง unlabelled 50 ถูกเลือกสำหรับการพิมพ์ฉลากด้วยตนเองในระหว่างการเรียนรู้กระบวนการและตัวอย่าง unlabelled 500 ถูกมันโดยอัตโนมัติ หลังจากกระบวนการเรียนรู้เต็มรูปแบบ มีแสดงข้อมูลทดสอบการ classifier เรียนรู้ประเมินผล ตารางที่ 2 แสดงผลการเปรียบเทียบหลังจากการเรียนรู้เต็มรูปแบบ เราสามารถดูวิธีการนำเสนอของเราแสดงให้เห็นประสิทธิภาพที่ดีในทั้งหมด datasets โดยเฉพาะอย่างยิ่งเกี่ยวกับความถูกต้องเนื่องจากการเรียนรู้การใช้งานตามรูปแบบที่ได้รับประโยชน์จากข้อมูลตัวอย่างด้วยตนเองมัน 50 ระหว่างพวกเขากระบวนการเรียนรู้ เราเพิ่มตัวอย่างเสริมมัน (50 ตัวอย่าง) จากภาษาต้นฉบับชุดฝึกของ SCLและรุ่นเปรียบเทียบรุ่น SVM MT เพื่อสร้างเงื่อนไขเดียวกันทั้งหมด โดยการเปรียบเทียบกึ่งมีและเรียนรู้งานตามวิธีกับ SVM MT ในตาราง 2 เราสามารถสรุปได้ว่า การจดทะเบียนของ unlabelledข้อมูลจากภาษาเป้าหมายเป็นกระบวนการเรียนรู้อย่างมีประสิทธิภาพสามารถเพิ่มประสิทธิภาพของความเชื่อมั่นโดยข้ามจัดประเภทการ ยัง เช่นที่เราเห็นในตารางนี้ DBAST และ AST รุ่นแสดงให้เห็นถึงประสิทธิภาพที่ดีขึ้น โดยอัลและเซนต์หลังจากกระบวนการเรียนรู้เต็มรูปแบบ นี้สนับสนุนความคิดที่ประมวลผลชุดการเรียนรู้ และการฝึกอบรมด้วยตนเองใช้งานอยู่สามารถทำการจัดประเภทดีกว่าแต่ละวิธีการแต่ละ นอกจากนี้ รุ่น DBAST outperformsรุ่น AST ใน datasets ทั้งหมด ฟิลด์นี้แสดงว่า ใช้วัดความหนาแน่นของตัวอย่างที่ unlabelled ได้ผลประโยชน์ตามเลือกตัวอย่างพนักงานมากที่สุดสำหรับการพิมพ์ฉลากด้วยตนเองเราสามารถดู ภาษาแสดง accuracies แตกต่างกันในการจัดประเภทความเชื่อมั่นโดยข้าม ความแตกต่างนี้สามารถสามารถตีความจากสองจุดของมุมมอง ครั้งแรก การจัดประเภทความเชื่อมั่นแสดงประสิทธิภาพที่หลากหลายในภาษาครบกำหนดการ disparity ในโครงสร้างของภาษาเมื่อแสดงข้อมูลในโดเมนเดียวกัน (เช่นจองอันอ่อนหวานตรวจสอบโดเมน) ระบบแปลภาษาด้วยเครื่องอัตโนมัติ ถัดไปทำการแปลคุณภาพแตกต่างกันในภาษาต่าง ๆ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ในส่วนนี้นำเสนอวิธีการของเราคือเมื่อเทียบกับหกวิธีพื้นฐาน เราตั้งค่า k ในความหนาแน่นของ kNN วัดถึง 20
สำหรับการทดลองทั้งหมด นอกจากนี้เรายังใช้พี¼¼ n 5
ขั้นตอนวิธีการฝึกอบรมด้วยตนเองและการเลือกตัวอย่างป้ายกำกับในแต่ละรอบของการเรียนรู้การใช้งานสำหรับติดฉลากคู่มือ จำนวนรวมของการทำซ้ำถูกกำหนดให้ 50
ซ้ำซ้ำสำหรับทุกขั้นตอนวิธีการ การตั้งค่านี้หมายความว่าในทั้งหมด 50
ตัวอย่างป้ายกำกับที่ถูกเลือกสำหรับการติดฉลากคู่มือในช่วงการเรียนรู้กระบวนการและ500 ตัวอย่างป้ายกำกับมีป้ายโดยอัตโนมัติ
หลังจากขั้นตอนการเรียนรู้เต็มรูปแบบการทดสอบข้อมูลที่ถูกนำเสนอให้กับลักษณนามเรียนรู้สำหรับการประเมินผล ตารางที่ 2 แสดงผลการเปรียบเทียบหลังจากที่กระบวนการเรียนรู้อย่างเต็มรูปแบบ
ในฐานะที่เราสามารถมองเห็นวิธีการที่นำเสนอของเราแสดงให้เห็นว่าผลการดำเนินงานที่ดีขึ้นในชุดข้อมูลทั้งหมดโดยเฉพาะอย่างยิ่งในเรื่องเกี่ยวกับความถูกต้อง.
เพราะการเรียนรู้การใช้งานรูปแบบตามได้รับประโยชน์จากข้อมูลที่ 50
ตัวอย่างด้วยตนเองที่มีข้อความในช่วงของพวกเขากระบวนการเรียนรู้เราได้เพิ่มกลุ่มตัวอย่างที่มีข้อความพิเศษ(50 ตัวอย่าง ) จากภาษาต้นฉบับให้กับชุดการฝึกอบรมของ SCL
และรูปแบบ SVM-MT เพื่อสร้างสภาพเดิมสำหรับรุ่นเปรียบเทียบทั้งหมด โดยการเปรียบเทียบทั้งหมดกึ่งภายใต้การดูแลการเรียนรู้และการใช้งานวิธีการขึ้นอยู่กับรูปแบบ SVM-MT ในตารางที่ 2 เราสามารถสรุปได้ว่าการรวมตัวกันของป้ายกำกับข้อมูลจากภาษาเป้าหมายเข้าสู่กระบวนการการเรียนรู้ได้อย่างมีประสิทธิภาพสามารถปรับปรุงประสิทธิภาพของความเชื่อมั่นข้ามลิ้นการจัดหมวดหมู่ นอกจากนี้ในขณะที่เราสามารถมองเห็นในตารางนี้ DBAST และรูปแบบ AST แสดงให้เห็นถึงประสิทธิภาพที่ดีขึ้นเมื่อเทียบกับอัลและST หลังจากที่กระบวนการเรียนรู้อย่างเต็มรูปแบบ นี้สนับสนุนความคิดที่ว่าการรวมกันของการเรียนรู้การใช้งานและกระบวนการฝึกอบรมด้วยตนเองที่จะส่งผลในการจัดหมวดหมู่ที่ดีกว่าในแต่ละวิธีการของแต่ละบุคคล นอกจากนี้รูปแบบ DBAST มีประสิทธิภาพดีกว่ารุ่นเอเอสทีในชุดข้อมูลทั้งหมด นี้แสดงให้เห็นว่าการใช้ตัวชี้วัดความหนาแน่นของตัวอย่างป้ายกำกับมีผลประโยชน์อยู่กับการเลือกตัวอย่างตัวแทนมากที่สุดสำหรับการติดฉลากคู่มือ. ในฐานะที่เราสามารถมองเห็นภาษาที่แตกต่างแสดงความถูกต้องที่แตกต่างกันในการจำแนกความเชื่อมั่นข้ามภาษา ความแตกต่างนี้สามารถตีความได้จากสองจุดของมุมมอง ครั้งแรกที่จัดหมวดหมู่ความเชื่อมั่นแสดงให้เห็นผลการดำเนินงานที่มีความหลากหลายในภาษาที่แตกต่างกันเนื่องจากการเหลื่อมล้ำในโครงสร้างของภาษาที่เมื่อแสดงความซาบซึ้งข้อมูลแม้ในโดเมนเดียวกัน(เช่นหนังสือโดเมนความคิดเห็น) ถัดไประบบเครื่องแปลภาษาอัตโนมัติดำเนินการแปลภาษาที่แตกต่างกันที่มีคุณภาพในภาษาที่แตกต่าง










การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
在这部分,我们的方法是与基线相比,六proposed set方法。我们在kNN密度K到20程序所有的experiments。我们也用P¼¼5 N为选择的算法和一个未标记的例子self-training在每个主动的学习周期为手动的标签。iterations number of set)是一个总50 iterative iterations所有这一算法,在与ManagedSystemElement。总50未标记,选择标签为examples是要学习手册使用标记和未标记examples 500是一个学习的过程。在自动测试数据,是presented为评价classifier到学会了比较。表2凝集的结果。作为全过程的学习后,我们可以见我们的方法是一个更好的性能proposed showed datasets,尤其是在考虑到所有与精度。基于主动学习的模型,因为在从最50 manually-labelled examples在他们的信息学习过程中,我们50说额外的标记样本)(样本训练,从最简单的到套语言SCL。在对模型的创建和SVM-MT顺序相同。在所有条件都semi-supervised comparing comparing模型主动学习方法和基于模型2与SVM-MT表,我们可以在这incorporation的未标记的conclude目标数据从最为有效地学习语言的过程可以提高性能的cross-lingual情绪。同时,作为分类。我们可以看到在这个模型中,DBAST和AST demonstrate更好的性能比较Al之后的学习过程和ST的新的想法。这是supports组合的主动学习和self-training过程。在一个更好的分类结果比不individual方法。此外,每个模型的DBAST outperforms在这个模型datasets)。所有的程序使用密度是凝集的效应已经在一个未标记examples beneficial为要求最examples代表以手动的标签。因此,我们可以看到:在不同情绪,不同accuracies语的差异。这cross-lingual分类可以二是从点的视图interpreted情绪。第一,在不同的语diverse凝集性能分类由于到的差距在sentimental语表达的结构时,即使在相同的数据域(如书。下一个域)。评论翻译机翻译,系统自动在不同质量的不同perform语
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: