all the experiments. We also used p ¼ n ¼ 5 for the self-training algo การแปล - all the experiments. We also used p ¼ n ¼ 5 for the self-training algo ไทย วิธีการพูด

all the experiments. We also used p

all the experiments. We also used p ¼ n ¼ 5 for the self-training algorithm and selected one unlabelled example in each
cycle of active learning for the manual labelling. The total number of iterations was set to 50 iterations for all iterative
algorithms. This setting meant that, in total, 50 unlabelled examples were selected for manual labelling during the learning
process and 500 unlabelled examples were labelled automatically. After a full learning process, the test data were presented
to the learned classifier for evaluation. Table 2 shows the comparison results after the full learning process. As we can see,
our proposed method showed a better performance in all datasets, especially with regard to accuracy.
Because active learning based models benefit from the information of 50 manually-labelled examples during their
learning process, we added extra labelled samples (50 samples) from the source language to the training sets of the SCL
and SVM-MT models in order to create the same condition for all comparing models. By comparing all semi-supervised
and active learning based methods with SVM-MT model in Table 2, we can conclude that the incorporation of unlabelled
data from the target language into the learning process can effectively improve the performance of cross-lingual sentiment
classification. Also, as we can see in this table, DBAST and AST models demonstrate better performance in comparison to AL
and ST after the full learning process. This supports the idea that the combination of active learning and self-training processes
can result in a better classification than each individual approach. Moreover, the DBAST model outperforms the
AST model in all datasets. This shows that using the density measure of unlabelled examples has a beneficial effect upon
selecting the most representative examples for manual labelling.
As we can see, different languages show different accuracies in cross-lingual sentiment classification. This difference can
be interpreted from two points of views. First, sentiment classification shows diverse performance in different languages due
to the disparity in the structure of languages when expressing the sentimental data even in the same domain (e.g. book
review domain). Next, automatic machine translation systems perform translation of varying quality in different languages
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
การทดลองทั้งหมด นอกจากนี้เรายังใช้ p ¼ n ¼ 5 ขั้นตอนวิธีการฝึกอบรมด้วยตนเองและเลือกอย่าง unlabelled หนึ่งในแต่ละวงจรการเรียนรู้ที่ใช้งานอยู่สำหรับฉลากด้วยตนเอง จำนวนการเกิดซ้ำถูกตั้งค่าให้ทำซ้ำ 50 สำหรับซ้ำทั้งหมดอัลกอริทึมการ การตั้งค่านี้หมายความ ว่า รวม ตัวอย่าง unlabelled 50 ถูกเลือกสำหรับการพิมพ์ฉลากด้วยตนเองในระหว่างการเรียนรู้กระบวนการและตัวอย่าง unlabelled 500 ถูกมันโดยอัตโนมัติ หลังจากกระบวนการเรียนรู้เต็มรูปแบบ มีแสดงข้อมูลทดสอบการ classifier เรียนรู้ประเมินผล ตารางที่ 2 แสดงผลการเปรียบเทียบหลังจากการเรียนรู้เต็มรูปแบบ เราสามารถดูวิธีการนำเสนอของเราแสดงให้เห็นประสิทธิภาพที่ดีในทั้งหมด datasets โดยเฉพาะอย่างยิ่งเกี่ยวกับความถูกต้องเนื่องจากการเรียนรู้การใช้งานตามรูปแบบที่ได้รับประโยชน์จากข้อมูลตัวอย่างด้วยตนเองมัน 50 ระหว่างพวกเขากระบวนการเรียนรู้ เราเพิ่มตัวอย่างเสริมมัน (50 ตัวอย่าง) จากภาษาต้นฉบับชุดฝึกของ SCLและรุ่นเปรียบเทียบรุ่น SVM MT เพื่อสร้างเงื่อนไขเดียวกันทั้งหมด โดยการเปรียบเทียบกึ่งมีและเรียนรู้งานตามวิธีกับ SVM MT ในตาราง 2 เราสามารถสรุปได้ว่า การจดทะเบียนของ unlabelledข้อมูลจากภาษาเป้าหมายเป็นกระบวนการเรียนรู้อย่างมีประสิทธิภาพสามารถเพิ่มประสิทธิภาพของความเชื่อมั่นโดยข้ามจัดประเภทการ ยัง เช่นที่เราเห็นในตารางนี้ DBAST และ AST รุ่นแสดงให้เห็นถึงประสิทธิภาพที่ดีขึ้น โดยอัลและเซนต์หลังจากกระบวนการเรียนรู้เต็มรูปแบบ นี้สนับสนุนความคิดที่ประมวลผลชุดการเรียนรู้ และการฝึกอบรมด้วยตนเองใช้งานอยู่สามารถทำการจัดประเภทดีกว่าแต่ละวิธีการแต่ละ นอกจากนี้ รุ่น DBAST outperformsรุ่น AST ใน datasets ทั้งหมด ฟิลด์นี้แสดงว่า ใช้วัดความหนาแน่นของตัวอย่างที่ unlabelled ได้ผลประโยชน์ตามเลือกตัวอย่างพนักงานมากที่สุดสำหรับการพิมพ์ฉลากด้วยตนเองเราสามารถดู ภาษาแสดง accuracies แตกต่างกันในการจัดประเภทความเชื่อมั่นโดยข้าม ความแตกต่างนี้สามารถสามารถตีความจากสองจุดของมุมมอง ครั้งแรก การจัดประเภทความเชื่อมั่นแสดงประสิทธิภาพที่หลากหลายในภาษาครบกำหนดการ disparity ในโครงสร้างของภาษาเมื่อแสดงข้อมูลในโดเมนเดียวกัน (เช่นจองอันอ่อนหวานตรวจสอบโดเมน) ระบบแปลภาษาด้วยเครื่องอัตโนมัติ ถัดไปทำการแปลคุณภาพแตกต่างกันในภาษาต่าง ๆ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ทุกการทดลอง นอกจากนี้เรายังใช้พี¼¼ n 5
ขั้นตอนวิธีการฝึกอบรมด้วยตนเองและการเลือกตัวอย่างป้ายกำกับในแต่ละรอบของการเรียนรู้การใช้งานสำหรับติดฉลากคู่มือ จำนวนรวมของการทำซ้ำถูกกำหนดให้ 50
ซ้ำซ้ำสำหรับทุกขั้นตอนวิธีการ การตั้งค่านี้หมายความว่าในทั้งหมด 50
ตัวอย่างป้ายกำกับที่ถูกเลือกสำหรับการติดฉลากคู่มือในช่วงการเรียนรู้กระบวนการและ500 ตัวอย่างป้ายกำกับมีป้ายโดยอัตโนมัติ
หลังจากขั้นตอนการเรียนรู้เต็มรูปแบบการทดสอบข้อมูลที่ถูกนำเสนอให้กับลักษณนามเรียนรู้สำหรับการประเมินผล ตารางที่ 2 แสดงผลการเปรียบเทียบหลังจากที่กระบวนการเรียนรู้อย่างเต็มรูปแบบ
ในฐานะที่เราสามารถมองเห็นวิธีการที่นำเสนอของเราแสดงให้เห็นว่าผลการดำเนินงานที่ดีขึ้นในชุดข้อมูลทั้งหมดโดยเฉพาะอย่างยิ่งในเรื่องเกี่ยวกับความถูกต้อง.
เพราะการเรียนรู้การใช้งานรูปแบบตามได้รับประโยชน์จากข้อมูลที่ 50
ตัวอย่างด้วยตนเองที่มีข้อความในช่วงของพวกเขากระบวนการเรียนรู้เราได้เพิ่มกลุ่มตัวอย่างที่มีข้อความพิเศษ(50 ตัวอย่าง ) จากภาษาต้นฉบับให้กับชุดการฝึกอบรมของ SCL
และรูปแบบ SVM-MT เพื่อสร้างสภาพเดิมสำหรับรุ่นเปรียบเทียบทั้งหมด โดยการเปรียบเทียบทั้งหมดกึ่งภายใต้การดูแลการเรียนรู้และการใช้งานวิธีการขึ้นอยู่กับรูปแบบ SVM-MT ในตารางที่ 2 เราสามารถสรุปได้ว่าการรวมตัวกันของป้ายกำกับข้อมูลจากภาษาเป้าหมายเข้าสู่กระบวนการการเรียนรู้ได้อย่างมีประสิทธิภาพสามารถปรับปรุงประสิทธิภาพของความเชื่อมั่นข้ามลิ้นการจัดหมวดหมู่ นอกจากนี้ในขณะที่เราสามารถมองเห็นในตารางนี้ DBAST และรูปแบบ AST แสดงให้เห็นถึงประสิทธิภาพที่ดีขึ้นเมื่อเทียบกับอัลและST หลังจากที่กระบวนการเรียนรู้อย่างเต็มรูปแบบ นี้สนับสนุนความคิดที่ว่าการรวมกันของการเรียนรู้การใช้งานและกระบวนการฝึกอบรมด้วยตนเองที่จะส่งผลในการจัดหมวดหมู่ที่ดีกว่าในแต่ละวิธีการของแต่ละบุคคล นอกจากนี้รูปแบบ DBAST มีประสิทธิภาพดีกว่ารุ่นเอเอสทีในชุดข้อมูลทั้งหมด นี้แสดงให้เห็นว่าการใช้ตัวชี้วัดความหนาแน่นของตัวอย่างป้ายกำกับมีผลประโยชน์อยู่กับการเลือกตัวอย่างตัวแทนมากที่สุดสำหรับการติดฉลากคู่มือ. ในฐานะที่เราสามารถมองเห็นภาษาที่แตกต่างแสดงความถูกต้องที่แตกต่างกันในการจำแนกความเชื่อมั่นข้ามภาษา ความแตกต่างนี้สามารถตีความได้จากสองจุดของมุมมอง ครั้งแรกที่จัดหมวดหมู่ความเชื่อมั่นแสดงให้เห็นผลการดำเนินงานที่มีความหลากหลายในภาษาที่แตกต่างกันเนื่องจากการเหลื่อมล้ำในโครงสร้างของภาษาที่เมื่อแสดงความซาบซึ้งข้อมูลแม้ในโดเมนเดียวกัน(เช่นหนังสือโดเมนความคิดเห็น) ถัดไประบบเครื่องแปลภาษาอัตโนมัติดำเนินการแปลภาษาที่แตกต่างกันที่มีคุณภาพในภาษาที่แตกต่าง










การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การทดลองทั้งหมด เรายังใช้ P ¼ N ¼ 5 สำหรับตนเองและฝึกวิธีเลือกตัวอย่างหนึ่ง unlabelled ในแต่ละวงจรของการเรียนรู้สำหรับคู่มือฉลาก . จํานวนซ้ำตั้ง 50 รอบ สำหรับวนซ้ำอัลกอริธึม การตั้งค่านี้หมายถึงว่า จำนวน 50 ตัวอย่าง unlabelled สุ่มฉลากคู่มือในการเรียนรู้กระบวนการและ 500 unlabelled ตัวอย่างเป็นข้อความโดยอัตโนมัติ หลังจากการเรียนรู้เต็มรูปแบบ , ข้อมูลทดสอบที่ถูกนำเสนอเพื่อเรียนรู้ลักษณนามสำหรับการประเมินผล ตารางที่ 2 แสดงการเปรียบเทียบผลที่ได้หลังจากกระบวนการการเรียนรู้เต็มรูปแบบ อย่างที่เราเห็นเราเสนอวิธีทดสอบประสิทธิภาพที่ดีขึ้นในข้อมูลทั้งหมด โดยเฉพาะอย่างยิ่งในเรื่องความถูกต้องเพราะใช้ประโยชน์จากข้อมูลในรูปแบบการเรียนรู้ด้วยตนเองว่าอยู่ในช่วง 50 ตัวอย่างกระบวนการเรียนรู้ เราเพิ่มพิเศษข้อความตัวอย่าง ( 50 ตัวอย่าง ) จากภาษาแหล่งที่มากับชุดการฝึกของ SCLและรุ่น svm-mt เพื่อสร้างเงื่อนไขเดียวกันทั้งหมด เทียบรุ่น โดยการเปรียบเทียบทั้งหมดกึ่งควบคุมและใช้งานโดยวิธีการเรียนแบบ svm-mt ใน 2 โต๊ะ เราสามารถสรุปได้ว่า การ unlabelledข้อมูลจากภาษาเป้าหมายในการเรียนรู้ได้อย่างมีประสิทธิภาพสามารถเพิ่มประสิทธิภาพของความเชื่อมั่นข้ามภาษาการจำแนกประเภท นอกจากนี้ อย่างที่เราเห็นในโต๊ะนี้ รุ่น dbast และ AST แสดงประสิทธิภาพที่ดีขึ้นในการเปรียบเทียบกับ อัลและเซนต์ หลังจากกระบวนการการเรียนรู้เต็มรูปแบบ นี้สนับสนุนความคิดที่ว่า การรวมกันของการเรียนรู้ด้วยตนเอง และกระบวนการฝึกอบรมได้ผลในการจำแนกได้ดีกว่าวิธีที่แต่ละบุคคล นอกจากนี้ รูปแบบ dbast มีประสิทธิภาพดีกว่ารุ่น AST ในชุดข้อมูล นี้แสดงให้เห็นว่าการใช้วัดความหนาแน่นของตัวอย่าง unlabelled มีผลประโยชน์บนการเลือกตัวอย่างที่เป็นตัวแทนส่วนใหญ่คู่มือฉลาก .ในฐานะที่เราสามารถมองเห็น ต่างภาษา แสดงความเชื่อมั่นในความถูกต้องที่แตกต่างกันข้ามด้านการจำแนกประเภท ความแตกต่างนี้สามารถถูกตีความจากมุมมองของจุดสอง ก่อนการแสดงหลากหลายการแสดงความเชื่อมั่นในภาษาต่าง ๆเนื่องจากเพื่อความแตกต่างในโครงสร้างของภาษาเมื่อแสดงข้อมูลอ่อนไหวแม้ใน domain เดียวกัน ( หนังสือเช่นตรวจสอบโดเมน ) ถัดไป , ระบบแปลภาษาอัตโนมัติแสดงการแปลที่มีคุณภาพในภาษาต่าง ๆ
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: