Automatic Derivation of Reward StructuresIn this paper we propose to f การแปล - Automatic Derivation of Reward StructuresIn this paper we propose to f ไทย วิธีการพูด

Automatic Derivation of Reward Stru

Automatic Derivation of Reward Structures
In this paper we propose to follow an automated approach to solve this problem. Specifically, we devise a genetic algorithm (GA) [23] to explore the search space of possible reward functions for a given objective function. 4 Genetic algorithms (GAs) [23] are a heuristic search technique that is based on evolutionary processes. GA starts by randomly generating a population space of individuals,where each individual is a candidate solution for the problem being solved. Typically individuals in the population set are represented in binary as strings of 0’s and 1’s, but other encodings are also possible. Evolution is performed in generations and it starts by evaluating the fitness of the initial population according to an objective function. (Evaluation means simulations of candidate DRAM schedulers in our case.) Based on the fitness of individuals in the population set, the next generation of individuals are determined stochastically using some form of fitness based selection technique. These new individuals are then further evolved using operations like crossover and mutation, which leaves us with a population for the next generation. This is done iteratively until a certain number of generations has been evolved, or when a certain fitness level has been reached, after which the search is terminated. While many of the individuals in the initial population might not do anything useful, the evolutionary nature of GAs allow some of them to evolve into meaningful, high-performing solutions, and shed the rest in the process. In our GA, each individual in the population stores rewards for each of the eight actions that can be performed by the scheduler. Initially, these rewards are randomly generated. We evaluate our initial population by conducting execution-driven simulations with each individual’s memory
scheduler configuration, using a small subset of our application set5 and determining the fitness of each individual. The fitness-based selection criteria that we use is tournament selection combined with elitist selection [23, 19]. To perform crossover, we randomly pick two individuals and
swap the reward values of an action. Mutation is performed by randomly replacing the reward of an action with another value. Multiple-point crossover and mutations are performed
---------------------------------
4 We did try โ€œsimplerโ€ search techniques, such as manual trialand-error or automatic hill-climbing with random restarts and momentum, but the end result was significantly inferior. We believe GA offers a good trade-off between simplicity and effectiveness in this context.
5 The applications that we use for training are fft, mg, and radix (Section 5.2). We picked these because they are the fastest to simulate among the parallel applications that we evaluate. By using a small subset, picked not based on behavior but simply on execution time, we speed up training and at the same time minimize the chance of overfitting the final solution to our application set.
------------------------------------
in our experiments, which means that reward values can be swapped or replaced multiple times within a given individual. Once we have the population set for the next generation, it is evaluated against the fitness criteria, and this iterative evolutionary search process continues until we reach 50 generations, at the end of which we are left with a set of rewards, one per possible action, which together constitute our reward function.
In theory, it should be possible to periodically re-calibrate the reward values as the application goes through different execution phases. These rewards would need to be re-learned on the fi‚y by the hardware. We are currently investigating
this aspect, but in this paper we confine our solution to static rewards learned offi‚ine, which still yields good results and simplifies the design of the scheduler (as we will see, the reward structure is just a small table).
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
รากศัพท์อัตโนมัติของโครงสร้างรางวัล
ในบทความนี้เราเสนอที่จะทำตามวิธีการอัตโนมัติในการแก้ปัญหานี้ specifi ยถอนรากถอนโคนเราประดิษฐ์ขั้นตอนวิธีพันธุกรรม (GA) [23] ในการสำรวจพื้นที่การค้นหาของฟังก์ชั่นของรางวัลที่เป็นไปได้สำหรับฟังก์ชันวัตถุประสงค์ที่กำหนด 4 ขั้นตอนวิธีทางพันธุกรรม (gas) [23] เป็นเทคนิคการค้นหาการแก้ปัญหาที่เป็นไปตามกระบวนการวิวัฒนาการga เริ่มต้นด้วยการสร้างพื้นที่สุ่มประชากรของบุคคลที่แต่ละผู้สมัครเป็นวิธีการแก้ปัญหาที่มีการแก้ไข โดยปกติบุคคลที่อยู่ในชุดประชากรจะแสดงในไบนารีเป็นสตริงของ 0 และ 1 แต่การเข้ารหัสอื่น ๆ ยังเป็นไปได้วิวัฒนาการจะดำเนินการในรุ่นและจะเริ่มโดยการประเมิน tness สายยของประชากรเริ่มต้นเป็นไปตามฟังก์ชันวัตถุประสงค์ (หมายถึงการประเมินผลการจำลองจากกำหนดการของ DRAM สมัครในกรณีของเรา.) ตาม tness สายยของบุคคลที่อยู่ในชุดประชากรรุ่นต่อไปของบุคคลที่จะถูกกำหนด stochastically โดยใช้รูปแบบของสายยเทคนิคการเลือก tness ตามบางบุคคลเหล่านี้ใหม่จะแล้วพัฒนาไปใช้ดำเนินการเช่นครอสโอเวอร์และการกลายพันธุ์ซึ่งจะทำให้เรามีประชากรสำหรับรุ่นต่อไป นี้จะทำซ้ำจนกว่าจะมีจำนวนหนึ่งของคนรุ่นต่อไปได้รับการพัฒนาหรือเมื่อบางสายระดับ tness ยได้รับถึงหลังจากที่การค้นหาจะถูกยกเลิกขณะที่หลายคนในประชากรเริ่มต้นไม่อาจจะทำอะไรที่เป็นประโยชน์, วิวัฒนาการธรรมชาติของก๊าซให้บางส่วนของพวกเขาที่จะพัฒนาเป็นความหมายการแก้ปัญหาที่มีประสิทธิภาพสูงและหลั่งส่วนที่เหลืออยู่ในขั้นตอน ใน ga ของเราในแต่ละร้านค้าที่ประชากรรางวัลสำหรับแต่ละแปดกระทำที่สามารถดำเนินการโดยการจัดตารางเวลา ในขั้นต้นรางวัลเหล่านี้จะถูกสร้างขึ้นแบบสุ่ม เราประเมินประชากรของเราเริ่มต้นโดยการดำเนินการจำลองการดำเนินการที่ขับเคลื่อนด้วยกับแต่ละโ€หน่วยความจำ
กำหนดการ confi guration ยใช้เซตย่อยขนาดเล็กของโปรแกรมของเรา set5 และกำหนด tness สายยของแต่ละบุคคล สายย tness ตามเกณฑ์การคัดเลือกที่เราใช้ในการเลือกทัวร์นาเมนต์รวมกับการเลือกชั้นนำ [23, 19]เพื่อดำเนินการครอสโอเวอร์เราสุ่มเลือกสองบุคคลและ
สลับค่าตอบแทนของการกระทำ การกลายพันธุ์จะดำเนินการโดยการสุ่มเปลี่ยนรางวัลของการกระทำที่มีค่าอื่น ครอสโอเวอร์หลายจุดและการกลายพันธุ์ที่จะดำเนินการ ---------------------------------

4 เราไม่ลองเนโฌ ยง่ายเนโฌยเทคนิคการค้นหา,เช่นคู่มือ trialand ข้อผิดพลาดหรือโดยอัตโนมัติเนินเขาปีนเขากับรีสตาร์ทสุ่มและโมเมนตัม แต่ผลสุดท้ายคือยอย่างมีนัยสำคัญด้อย cantly เราเชื่อว่า ga มีดีค้าออกระหว่างความเรียบง่ายและความมีประสิทธิผลในบริบทนี้.
5 โปรแกรมที่เราใช้สำหรับการฝึกอบรม FFT, มิลลิกรัมและ Radix (5.2)ที่เราเลือกเหล่านี้เพราะพวกเขาเป็นที่เร็วที่สุดในการจำลองในการใช้งานแบบขนานที่เราประเมิน โดยใช้ส่วนย่อยเล็กหยิบไม่ได้ขึ้นอยู่กับพฤติกรรม แต่เพียงเมื่อเวลาดำเนินการเราเร่งการฝึกอบรมและในเวลาเดียวกันลดโอกาสของ overfi ย tting สาย​​ยสารละลาย NAL ชุดโปรแกรมของเรา.
------
------------------------------ ในการทดลองของเราซึ่งหมายความว่าค่าตอบแทนที่สามารถสลับหรือเปลี่ยนใหม่หลายครั้งในแต่ละที่กำหนด กระบวนการค้นหาเมื่อเรามีประชากรที่ตั้งไว้สำหรับคนรุ่นต่อไปก็จะถูกประเมินเทียบกับสายย tness เกณฑ์และเรื่องนี้ซ้ำแล้วซ้ำอีกวิวัฒนาการต่อไปจนกว่าเราไปถึง 50 รุ่นในตอนท้ายของที่เราจะเหลือชุดของผลตอบแทนต่อหนึ่ง การกระทำที่เป็นไปได้ซึ่งรวมเป็นฟังก์ชั่นได้รับรางวัลของเรา
ในทฤษฎีมันควรจะเป็นไปได้ที่จะเป็นระยะ re-ปรับค่าตอบแทนเ​​ป็นโปรแกรมที่จะไปผ่านขั้นตอนการดำเนินการที่แตกต่างกัน รางวัลเหล่านี้จะต้องมีการ re-เรียนรู้เมื่อสายโ€ y จากฮาร์ดแวร์ เรากำลังตรวจสอบ
ด้านนี้ แต่ในบทความนี้เรา confi ย ne แก้ปัญหาของเราให้ผลตอบแทนคงที่ได้เรียนรู้ Offi โ€ Ine,ซึ่งยังคงให้ผลลัพธ์ที่ดีและ simplifi ย es การออกแบบของตารางเวลา (ที่เราจะเห็นโครงสร้างของรางวัลเป็นเพียงโต๊ะเล็ก).
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
มาอัตโนมัติรางวัลโครงสร้าง
ในเอกสารนี้ เราเสนอตามวิธีการอัตโนมัติเพื่อแก้ปัญหานี้ Specifi cally เราประดิษฐ์ขั้นตอนวิธีพันธุกรรม (GA) [23] การสำรวจพื้นที่การค้นหาของรางวัลได้ฟังก์ชันฟังก์ชันวัตถุประสงค์ที่กำหนด อัลกอริทึมใช้พันธุกรรม 4 (แก๊ส) [23] แล้วค้นหาเทคนิคที่ใช้ในกระบวนการวิวัฒนาการได้ GA เริ่ม โดยการสร้างพื้นที่ประชากรบุคคล โซลูชันตัวเลือกสำหรับการแก้ปัญหาแต่ละคนโดยการสุ่ม โดยทั่วไปจะแสดงในฐานสองบุคคลในประชากรที่เป็นสายของ 0 และ 1 แต่เข้ารหัสอื่น ๆ ก็ได้ ดำเนินการวิวัฒนาการในรุ่น และจะเริ่มต้น โดย tness ไร้สายของประชากรเริ่มต้นตามฟังก์ชันวัตถุประสงค์การประเมิน (ประเมินความ จำลอง schedulers DRAM ผู้สมัครในกรณีของเรา) ตาม fi tness บุคคลในชุดประชากร ของบุคคลจะถูก stochastically โดยใช้รูปแบบของ tness ไร้สายโดยใช้เทคนิคการเลือกการ บุคคลเหล่านี้ใหม่อยู่แล้วเพิ่มเติมพัฒนาใช้การดำเนินงานเช่นแบบไขว้และการกลายพันธุ์ ที่เหลือเราประชากรในรุ่นต่อไป นี้จะกระทำซ้ำ ๆ จนกว่ามีการพัฒนาหลายรุ่น หรือเมื่อไร้สาย tness ระดับแล้ว หลังจากการค้นหาจบ ในขณะที่หลายคนในประชากรเริ่มต้นทำสิ่งที่มีประโยชน์ ธรรมชาติวิวัฒนาการของก๊าซทำให้บางส่วนของพวกเขาเพื่อพัฒนาเป็นโซลูชั่นที่มีความหมาย รายได้สูง และส่วนเหลือในกระบวนการผลัด ใน GA ของเรา แต่ละคนในประชากรเก็บรางวัลสำหรับแต่ละการดำเนินการ 8 ที่สามารถดำเนินการ โดยตัวจัดกำหนดการ เริ่มต้น รางวัลเหล่านี้จะถูกสร้างขึ้นแบบสุ่ม เราประเมินประชากรของเราเริ่มต้น โดยทำการจำลองการดำเนินการขับเคลื่อน ด้วยหน่วยความจำของแต่ละบุคคล
กำหนดการ confi guration ใช้ชุดย่อยขนาดเล็กของ set5 แอพลิเคชันของเรา และกำหนด tness ไร้สายของแต่ละคน เกณฑ์การเลือกใช้ tness ไร้สายที่เราใช้เป็นตัวเลือกการแข่งขันพร้อมกับเลือก elitist [23, 19] ทำแบบไขว้ เราสุ่มรับบุคคลที่สอง และ
สลับค่าสะสมของการดำเนินการ ดำเนินการกลายพันธุ์ โดยสุ่มแทนรางวัลของการดำเนินการกับค่าอื่น มีดำเนินการหลายจุดไขว้และกลายพันธุ์
--
4 ที่เราได้ลองเครดิต$ simplerโ$ ค้นเทคนิค เช่น trialand-ข้อผิดพลาดด้วยตนเองหรืออัตโนมัติเขาปีนเริ่มระบบสุ่ม และโมเมนตัม แต่ปลาย ผลมีความเป็นรอง cantly เราเชื่อว่า GA มี trade-off ดีระหว่างความเรียบง่ายและประสิทธิภาพในบริบทนี้
5 เราใช้สำหรับการฝึกอบรมมี fft, mg และฐาน (ส่วน 5.2) เรารับของเหล่านี้เพราะเป็นที่เร็วที่สุดเพื่อจำลองการทำงานระหว่างโปรแกรมประยุกต์แบบขนานที่เราประเมิน โดยชุดย่อยขนาดเล็ก รับทำงานไม่ตามแต่เพียงในเวลาดำเนินการ เราเร่งฝึกอบรม และในเวลาเดียวกันลดโอกาสของ overfi tting nal โซลูชันไร้สายกับชุดแอพลิเคชันของเรา
-
ในการทดลองของเรา ซึ่งหมายความ ว่า ค่าตอบแทนสามารถสลับ หรือเปลี่ยนหลายครั้งในแต่ละที่กำหนด เมื่อเรามีประชากรตั้งสำหรับรุ่นต่อไป ถูกประเมินกับเกณฑ์ tness ไร้สาย และกระบวนการนี้ซ้ำค้นหาวิวัฒนาการอย่างต่อเนื่องจนกว่าเราถึงรุ่น 50 ท้ายที่เราจะเหลือไว้กับชุดของรางวัล หนึ่งต่อการกระทำที่เป็นไปได้ กันซึ่งเป็นฟังก์ชันของรางวัล
ในทฤษฎี คุณควรสามารถปรับเป็นระยะ ๆ อีกเทียบค่ารางวัลเป็นแอพลิเคชันไปผ่านขั้นตอนการดำเนินการต่าง ๆ รางวัลเหล่านี้จะจำเป็นต้องเรียนรู้ใหม่ในการ fi'y โดยฮาร์ดแวร์ ในปัจจุบันตรวจ
ด้านนี้ แต่ในกระดาษเรา confi มุโซลูชั่นของเรากับรางวัลคงเรียนรู้ offi'ine ทำที่ยังคงให้ผลลัพธ์ที่ดีและ simplifi es การออกแบบของตัวจัดกำหนดการ (เราจะเห็น โครงสร้างผลตอบแทนเป็นเพียงตารางเล็ก) .
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
โดยอัตโนมัติได้มาเป็นการตอบแทน
โครงสร้างในเอกสารนี้เราเสนอที่จะทำตามแนวทางโดยอัตโนมัติในการแก้ไขปัญหานี้ specifi  นั้นเราทำพินัยกรรมยกให้อัลกอริธึมทางพันธุกรรม(, GA )[ 23 ]เพื่อการสำรวจพื้นที่การค้นหาของการทำงานรางวัลที่เป็นไปได้สำหรับการทำงานโดยมีวัตถุประสงค์ให้ 4 ทางพันธุกรรมอัลกอริธึม(แก๊ส)[ 23 ]มีเทคนิคการค้นหาเ้กิดซึ่งขึ้นอยู่กับกระบวนการวิวัฒนาการGA จะเริ่มต้นโดยการสร้างแบบสุ่มพื้นที่ประชากรของผู้ใช้บริการแบบเฉพาะรายที่แต่ละบุคคลคือโซลูชันผู้สมัครรับเลือกตั้งสำหรับปัญหาที่แก้ไขได้ โดยทั่วไปแล้วผู้ใช้บริการแบบเฉพาะรายในตั้งค่าจำนวนประชากรที่จะแสดงในไบนารีเป็นสตริงของ 0 และ 1 ' sbut การเข้ารหัสอื่นๆคือเป็นไปได้การพัฒนาจะมีการดำเนินการในรุ่นและจะเริ่มต้นโดยการประเมิน ไฟร์  tness ของประชากรครั้งแรกในการทำงานตามเป้าหมายที่ (การประเมินหมายถึงการจำลองของ DRAM ก้าวล้ำผู้สมัครรับเลือกตั้งในกรณีของเรา)ที่ใช้ ไฟร์  tness ของผู้ใช้บริการแบบเฉพาะรายในตั้งค่าจำนวนประชากรที่รุ่นถัดไปของผู้ใช้บริการแบบเฉพาะรายจะได้รับการกำหนด stochastically โดยใช้รูปแบบบางอย่างของเทคนิคการเลือกไวน์ ไฟร์  tness ใช้ผู้ใช้บริการแบบเฉพาะรายใหม่เหล่านี้จะมาแล้วคือมันเหมือนกับการใช้การทำงานและครอสโอเวอร์ซึ่งใบเรามีประชากรในอนาคตต่อไป โรงแรมแห่งนี้คือทำ HOMER เพื่อจะได้ไม่เล็กจนกว่าจำนวนหนึ่งของคนรุ่นได้รับการพัฒนาอย่างรวดเร็วหรือเมื่อระดับ ไฟร์  tness บางอย่างที่ได้รับการมาถึงหลังจากที่การค้นหาจะสิ้นสุดลงในขณะที่จำนวนมากของผู้ใช้บริการแบบเฉพาะรายในจำนวนประชากรครั้งแรกที่อาจไม่ได้ทำอะไรที่มีประโยชน์ธรรมชาติวิวัฒนาการของก๊าซให้บางคนในการพัฒนาปรับปรุงเพื่อให้สอดรับกับโซลูชัน ประสิทธิภาพ สูงนี้มีความหมายและโรงเก็บส่วนที่เหลือในขั้นตอนนี้ ใน, GA ของแต่ละคนแต่ละคนในร้านค้าจำนวนประชากรที่รับรางวัลสำหรับแปดสิ่งที่สามารถทำได้โดยที่แต่ละตัวจัดตารางเวลา ในครั้งแรกรางวัลเหล่านี้จะสร้างแบบสุ่ม เราประเมินประชากรครั้งแรกของเราโดยการจำลองการประมวลผล - ขับรถพร้อมด้วยของแต่ละบุคคลแต่ละหน่วยความจำ
ตัวจัดตารางเวลา confi  กำหนดโครงแบบโดยใช้ชุดย่อยขนาดเล็กของแอปพลิเคชันของเราตั้ง 5 และการกำหนด ไฟร์  tness ของแต่ละคน เกณฑ์ในการ เลือก  tness - ใช้ไฮน์ไฟร์ที่เราใช้เป็นทางเลือกทัวร์นาเมนต์ประกอบด้วยการเลือกเกมส์หนักๆ[ 2319 ]ในการครอสโอเวอร์แบบสุ่มเรารับสองและในแบบเฉพาะราย
hot swap ค่าเงินรางวัลของการดำเนินการที่ คือมันจะดำเนินการโดยสุ่มการใส่เงินรางวัลที่ได้รับจากการกระทำที่มีค่าอื่น ท่าพิคอัพแล้วครอสโอเวอร์เข้าไปเปลี่ยนแปลงรหัสและหลายจุดทำ
---------------------------------
4 เราก็ลองใช้เทคนิคโ€™€™ œ simplerโ การค้นหาเช่น trialand คู่มือ - เกิดข้อผิดพลาดหรืออัตโนมัติ Hill - ปีนพร้อมด้วยแรงและรีสตาร์ทแบบสุ่มแต่ผลลัพธ์ที่ได้อย่างแน่ชัด ว่า  cantly ด้อยกว่า. เราเชื่อว่า, GA จัดให้บริการที่ดีการค้า - ปิดระหว่างความเรียบง่ายและ ประสิทธิภาพ ในบริบทนี้.
5 แอปพลิเคชันที่เราใช้สำหรับการฝึกอบรมมี FFT มก.และ radix (หัวข้อที่ 5.2 )เราจะไปรับท่านนี้เพราะพวกเขามีความเร็วในการจำลองการในแอปพลิเคชันแบบคู่ขนานที่เราประเมิน โดยการใช้ชุดคำสั่งย่อยขนาดเล็กที่ไปรับท่านไม่ได้ใช้ในการทำงานแต่ในเวลาในการประมวลผลเราเพิ่มความเร็วและการฝึกอบรมในเวลาเดียวกับที่ลดโอกาสของโซลูชัน tting ที่ ไฟร์  overfi  คณะกรรมการนโยบายพลังงานแห่งชาติในการตั้งค่าแอปพลิเคชันของเรา.
------------------------------------
ในการทดลองของเราซึ่งหมายความว่าค่าเงินรางวัลสามารถสลับหรือเปลี่ยนหลายครั้งในแต่ละตัวให้ เมื่อเรามีประชากรที่ตั้งค่าไว้สำหรับรุ่นถัดไปที่จะได้รับการประเมินผลเปรียบเทียบกับเกณฑ์ ไฟร์  tness และขั้นตอนการค้นหาฝึกฝนตามวิวัฒนาการนี้จะยังคงดำเนินต่อไปจนกว่าเราจะได้เข้าถึงยัง 50 คนรุ่นที่สิ้นสุดที่เราจะได้อยู่พร้อมด้วยชุดที่หนึ่งของสิทธิประโยชน์ต่อการดำเนินการที่เป็นไปได้ซึ่งร่วมกันทำงานเป็นรางวัลของเรา
ในทางทฤษฎีนั้นควรจะเป็นไปได้เพื่อการปรับตั้งค่าให้รางวัลที่เป็นแอปพลิเคชันที่จะผ่านขั้นตอนการทำงานแตกต่างกันเป็นระยะๆ รางวัลเหล่านี้จะต้องได้รับการเรียนรู้ได้ด้วยตัวเองที่ไฟร์' y ด้วยฮาร์ดแวร์ เรามีการสอบสวนคดีนี้
ลักษณะนี้แต่ในเอกสารนี้เรา confi  ทางด้านทิศตะวันออกเฉียงเหนือด้วยโซลูชันของเราเพื่อรับรางวัลคงที่ได้เรียนรู้ประสบผลสำเร็จ'เกี่ยวกับอยู่ในขณะนี้ซึ่งยังคงอัตราผลตอบแทน simplifi และผลลัพธ์ที่ ดี  ES การออกแบบตัวจัดตารางเวลาที่(ดังที่เราจะได้เห็นโครงสร้างที่คุณได้รับมีเพียงโต๊ะขนาดเล็ก)..
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: