Organisations are increasingly generating large volumes of dataas resu การแปล - Organisations are increasingly generating large volumes of dataas resu ไทย วิธีการพูด

Organisations are increasingly gene

Organisations are increasingly generating large volumes of data
as result of instrumented business processes, monitoring of user
activity [14,127], web site tracking, sensors, finance, accounting,
among other reasons. With the advent of social network Web sites,
users create records of their lives by daily posting details of activities they perform, events they attend, places they visit, pictures they take, and things they enjoy and want. This data deluge
is often referred to as Big Data [99,55,17]; a term that conveys the
challenges it poses on existing infrastructure with respect to storage, management, interoperability, governance, and analysis of the
data.
In today’s competitive market, being able to explore data to understand customer behaviour, segment customer base, offer customised services, and gain insights from data provided by multiple
sources is key to competitive advantage. Although decision makers
would like to base their decisions and actions on insights gained
from this data [43], making sense of data, extracting non obvious
patterns, and using these patterns to predict future behaviour are
not new topics. Knowledge Discovery in Data (KDD) [50] aims to
extract non obvious information using careful and detailed analysis and interpretation. Data mining [133,84], more specifically,
aims to discover previously unknown interrelations among apparently unrelated attributes of data sets by applying methods from
several areas including machine learning, database systems, and
statistics. Analytics comprises techniques of KDD, data mining, text
mining, statistical and quantitative analysis, explanatory and predictive models, and advanced and interactive visualisation to drive
decisions and actions [43,42,63].
Fig. 1 depicts the common phases of a traditional analytics workflow for Big Data. Data from various sources, including
databases, streams, marts, and data warehouses, are used to build
models. The large volume and different types of the data can demand pre-processing tasks for integrating the data, cleaning it, and
filtering it. The prepared data is used to train a model and to estimate its parameters. Once the model is estimated, it should be validated before its consumption. Normally this phase requires the use
of the original input data and specific methods to validate the created model. Finally, the model is consumed and applied to data as
it arrives. This phase, called model scoring, is used to generate predictions, prescriptions, and recommendations. The results are interpreted and evaluated, used to generate new models or calibrate
existing ones, or are integrated to pre-processed data.
Analytics solutions can be classified as descriptive, predictive,
or prescriptive as illustrated in Fig. 2. Descriptive analytics
uses historical data to identify patterns and create management
reports; it is concerned with modelling past behaviour. Predictive
analytics attempts to predict the future by analysing current and
historical data. Prescriptive solutions assist analysts in decisions by
determining actions and assessing their impact regarding business
objectives, requirements, and constraints.
Despite the hype about it, using analytics is still a labour intensive endeavour. This is because current solutions for analytics are
often based on proprietary appliances or software systems built for
general purposes. Thus, significant effort is needed to tailor such
solutions to the specific needs of the organisation, which includes
integrating different data sources and deploying the software on
the company’s hardware (or, in the case of appliances, integrating the appliance hardware with the rest of the company’s systems) [120]. Such solutions are usually developed and hosted on
the customer’s premises, are generally complex, and their operations can take hours to execute. Cloud computing provides an interesting model for analytics, where solutions can be hosted on
the Cloud and consumed by customers in a pay-as-you-go fashion.
For this delivery model to become reality, however, several technical issues must be addressed, such as data management, tuning
of models, privacy, data quality, and data currency.
This work highlights technical issues and surveys existing work
on solutions to provide analytics capabilities for Big Data on the
Cloud. Considering the traditional analytics workflow presented in
Fig. 1, we focus on key issues in the phases of an analytics solution.
With Big Data it is evident that many of the challenges of Cloud
analytics concern data management, integration, and processing.
Previous work has focused on issues such as data formats, data
representation, storage, access, privacy, and data quality. Section 3
presents existing work addressing these challenges on Cloud environments. In Section 4, we elaborate on existing models to provide
and evaluate data models on the Cloud. Section 5 describes solutions for data visualisation and customer interaction with analytics solutions provided by a Cloud. We also highlight some of the
business challenges posed by this delivery model when we discuss
service structures, service level agreements, and business models.
Security is certainly a key challenge for hosting analytics solutions
on public Clouds. We consider, however, that security is an extensive topic and would hence deserve a study of its own. Therefore,
security and evaluation of data correctness [130] are out of scope
of this survey.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
Organisations are increasingly generating large volumes of dataas result of instrumented business processes, monitoring of useractivity [14,127], web site tracking, sensors, finance, accounting,among other reasons. With the advent of social network Web sites,users create records of their lives by daily posting details of activities they perform, events they attend, places they visit, pictures they take, and things they enjoy and want. This data delugeis often referred to as Big Data [99,55,17]; a term that conveys thechallenges it poses on existing infrastructure with respect to storage, management, interoperability, governance, and analysis of thedata.In today’s competitive market, being able to explore data to understand customer behaviour, segment customer base, offer customised services, and gain insights from data provided by multiplesources is key to competitive advantage. Although decision makerswould like to base their decisions and actions on insights gainedfrom this data [43], making sense of data, extracting non obviouspatterns, and using these patterns to predict future behaviour arenot new topics. Knowledge Discovery in Data (KDD) [50] aims toextract non obvious information using careful and detailed analysis and interpretation. Data mining [133,84], more specifically,aims to discover previously unknown interrelations among apparently unrelated attributes of data sets by applying methods fromseveral areas including machine learning, database systems, andstatistics. Analytics comprises techniques of KDD, data mining, textmining, statistical and quantitative analysis, explanatory and predictive models, and advanced and interactive visualisation to drivedecisions and actions [43,42,63].Fig. 1 depicts the common phases of a traditional analytics workflow for Big Data. Data from various sources, includingdatabases, streams, marts, and data warehouses, are used to buildmodels. The large volume and different types of the data can demand pre-processing tasks for integrating the data, cleaning it, andfiltering it. The prepared data is used to train a model and to estimate its parameters. Once the model is estimated, it should be validated before its consumption. Normally this phase requires the useof the original input data and specific methods to validate the created model. Finally, the model is consumed and applied to data asit arrives. This phase, called model scoring, is used to generate predictions, prescriptions, and recommendations. The results are interpreted and evaluated, used to generate new models or calibrateexisting ones, or are integrated to pre-processed data.Analytics solutions can be classified as descriptive, predictive,or prescriptive as illustrated in Fig. 2. Descriptive analyticsuses historical data to identify patterns and create managementreports; it is concerned with modelling past behaviour. Predictiveanalytics attempts to predict the future by analysing current and
historical data. Prescriptive solutions assist analysts in decisions by
determining actions and assessing their impact regarding business
objectives, requirements, and constraints.
Despite the hype about it, using analytics is still a labour intensive endeavour. This is because current solutions for analytics are
often based on proprietary appliances or software systems built for
general purposes. Thus, significant effort is needed to tailor such
solutions to the specific needs of the organisation, which includes
integrating different data sources and deploying the software on
the company’s hardware (or, in the case of appliances, integrating the appliance hardware with the rest of the company’s systems) [120]. Such solutions are usually developed and hosted on
the customer’s premises, are generally complex, and their operations can take hours to execute. Cloud computing provides an interesting model for analytics, where solutions can be hosted on
the Cloud and consumed by customers in a pay-as-you-go fashion.
For this delivery model to become reality, however, several technical issues must be addressed, such as data management, tuning
of models, privacy, data quality, and data currency.
This work highlights technical issues and surveys existing work
on solutions to provide analytics capabilities for Big Data on the
Cloud. Considering the traditional analytics workflow presented in
Fig. 1, we focus on key issues in the phases of an analytics solution.
With Big Data it is evident that many of the challenges of Cloud
analytics concern data management, integration, and processing.
Previous work has focused on issues such as data formats, data
representation, storage, access, privacy, and data quality. Section 3
presents existing work addressing these challenges on Cloud environments. In Section 4, we elaborate on existing models to provide
and evaluate data models on the Cloud. Section 5 describes solutions for data visualisation and customer interaction with analytics solutions provided by a Cloud. We also highlight some of the
business challenges posed by this delivery model when we discuss
service structures, service level agreements, and business models.
Security is certainly a key challenge for hosting analytics solutions
on public Clouds. We consider, however, that security is an extensive topic and would hence deserve a study of its own. Therefore,
security and evaluation of data correctness [130] are out of scope
of this survey.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
องค์กรมีมากขึ้นการสร้างปริมาณข้อมูลขนาดใหญ่เป็นผลมาจากกระบวนการทางธุรกิจ instrumented การตรวจสอบของผู้ใช้กิจกรรม[14127], การติดตามเว็บไซต์เซ็นเซอร์, การเงิน, การบัญชี, ด้วยเหตุผลอื่น ๆ กับการถือกำเนิดของเว็บไซต์เครือข่ายทางสังคมที่ผู้ใช้สร้างระเบียนของชีวิตของพวกเขาโดยการโพสต์รายละเอียดกิจกรรมประจำวันของพวกเขาดำเนินการเหตุการณ์พวกเขาเข้าร่วม, สถานที่พวกเขาเข้าชมภาพที่พวกเขาใช้เวลาและสิ่งที่พวกเขาได้และต้องการ น้ำท่วมข้อมูลนี้มักจะถูกเรียกว่าข้อมูลขนาดใหญ่ [99,55,17]; คำที่บ่งบอกถึงความเป็นความท้าทายที่มันโพสท่าในโครงสร้างพื้นฐานที่มีอยู่เกี่ยวกับการจัดเก็บการจัดการการทำงานร่วมกันการกำกับดูแลและการวิเคราะห์ข้อมูล. การแข่งขันในตลาดวันนี้ความสามารถในการสำรวจข้อมูลเพื่อทำความเข้าใจพฤติกรรมของลูกค้าส่วนฐานลูกค้าบริการที่กำหนดเองเสนอ และได้รับข้อมูลเชิงลึกจากข้อมูลที่มาจากหลายแหล่งที่มาเป็นกุญแจสำคัญที่เปรียบในการแข่งขัน แม้ว่าผู้มีอำนาจตัดสินใจอยากจะตัดสินใจและการกระทำของพวกเขาในข้อมูลเชิงลึกที่ได้รับจากข้อมูลนี้[43] ทำให้ความรู้สึกของข้อมูลการสกัดที่เห็นได้ชัดไม่ใช่รูปแบบและการใช้รูปแบบเหล่านี้ในการทำนายพฤติกรรมในอนาคตมีความไม่หัวข้อใหม่ การค้นพบความรู้ในข้อมูล (KDD) [50] มีเป้าหมายที่จะดึงข้อมูลที่ไม่ชัดเจนโดยใช้การวิเคราะห์ความระมัดระวังและมีรายละเอียดและการตีความ การทำเหมืองข้อมูล [133,84] มากขึ้นโดยเฉพาะมีจุดมุ่งหมายที่จะค้นพบก่อนหน้านี้ที่ไม่รู้จักสัมพันธ์ในหมู่คุณลักษณะที่ไม่เกี่ยวข้องที่เห็นได้ชัดของชุดข้อมูลโดยใช้วิธีการจากหลายพื้นที่รวมทั้งการเรียนรู้เครื่อง, ระบบฐานข้อมูลและสถิติ Analytics ประกอบด้วยเทคนิคการ KDD การทำเหมืองข้อมูลข้อความการทำเหมืองแร่การวิเคราะห์ทางสถิติเชิงปริมาณและรูปแบบการอธิบายและการคาดการณ์และการสร้างภาพขั้นสูงและการโต้ตอบที่จะขับรถตัดสินใจและการกระทำ[43,42,63]. รูป 1 แสดงให้เห็นถึงขั้นตอนทั่วไปของการวิเคราะห์แบบดั้งเดิมเวิร์กโฟลว์สำหรับข้อมูลขนาดใหญ่ ข้อมูลจากแหล่งข้อมูลต่าง ๆ รวมทั้งฐานข้อมูลสตรีม, มาร์ทและคลังข้อมูลที่ใช้ในการสร้างแบบจำลอง ปริมาณที่มีขนาดใหญ่และประเภทที่แตกต่างกันของข้อมูลที่สามารถเรียกร้องงานก่อนการประมวลผลสำหรับการบูรณาการข้อมูลการทำความสะอาดมันและกรอง ข้อมูลที่เตรียมไว้ถูกนำมาใช้ในการฝึกอบรมและรูปแบบในการประมาณพารามิเตอร์ เมื่อรูปแบบเป็นที่คาดกันก็ควรจะตรวจสอบก่อนที่จะบริโภค โดยปกติขั้นตอนนี้ต้องใช้ในการป้อนข้อมูลเดิมและวิธีการที่เฉพาะเจาะจงในการตรวจสอบรูปแบบที่สร้างขึ้น สุดท้ายรูปแบบการบริโภคและนำไปใช้เป็นข้อมูลที่จะมาถึง ขั้นตอนนี้เรียกว่าการให้คะแนนแบบถูกนำมาใช้เพื่อสร้างการคาดการณ์ใบสั่งยาและข้อเสนอแนะ ผลที่จะตีความและประเมินผลที่ใช้ในการสร้างรูปแบบใหม่หรือสอบเทียบที่มีอยู่หรือมีการบูรณาการเพื่อเตรียมการประมวลผลข้อมูล. โซลูชั่น Analytics สามารถจัดเป็นพรรณนาทำนายหรือกำหนดดังแสดงในรูปที่ 2. การวิเคราะห์เชิงพรรณนาใช้ข้อมูลทางประวัติศาสตร์เพื่อระบุรูปแบบการบริหารจัดการและสร้างรายงาน; มันเป็นเรื่องที่เกี่ยวข้องกับพฤติกรรมที่ผ่านมาการสร้างแบบจำลอง การคาดการณ์การวิเคราะห์ความพยายามที่จะทำนายอนาคตโดยการวิเคราะห์ในปัจจุบันและข้อมูลทางประวัติศาสตร์ การแก้ปัญหาที่กำหนดให้ความช่วยเหลือนักวิเคราะห์ในการตัดสินใจโดยกำหนดดำเนินการและการประเมินผลกระทบของพวกเขาเกี่ยวกับธุรกิจวัตถุประสงค์ความต้องการและข้อจำกัด . แม้จะมี hype เกี่ยวกับมันโดยใช้การวิเคราะห์ก็ยังคงเป็นความพยายามแรงงานเข้มข้น เพราะนี่คือการแก้ปัญหาในปัจจุบันสำหรับการวิเคราะห์จะตามมักจะเกี่ยวกับเครื่องใช้ไฟฟ้าที่เป็นกรรมสิทธิ์หรือระบบซอฟต์แวร์ที่สร้างขึ้นมาเพื่อวัตถุประสงค์ทั่วไป ดังนั้นความพยายามอย่างมีนัยสำคัญที่จำเป็นในการปรับแต่งเช่นโซลูชั่นเพื่อตอบสนองความต้องการที่เฉพาะเจาะจงขององค์กรซึ่งรวมถึงการบูรณาการแหล่งข้อมูลที่แตกต่างกันและการปรับใช้ซอฟต์แวร์บนฮาร์ดแวร์ของบริษัท ฯ (หรือในกรณีของเครื่องใช้ในการบูรณาการฮาร์ดแวร์เครื่องกับส่วนที่เหลือของ ระบบของ บริษัท ฯ ) [120] การแก้ปัญหาดังกล่าวได้รับการพัฒนาและมักจะเป็นเจ้าภาพในสถานที่ของลูกค้าที่มีความซับซ้อนโดยทั่วไปและการดำเนินงานของพวกเขาสามารถใช้เวลาในการดำเนินการ คอมพิวเตอร์เมฆให้เป็นรูปแบบที่น่าสนใจสำหรับการวิเคราะห์ที่สามารถแก้ปัญหาเป็นเจ้าภาพในเมฆและบริโภคโดยลูกค้าในการจ่ายเงินตามที่คุณไปแฟชั่น. สำหรับรูปแบบการส่งนี้จะกลายเป็นความเป็นจริง แต่ปัญหาทางเทคนิคหลายจะต้องได้รับการแก้ไขเช่น การจัดการข้อมูลการปรับแต่งรูปแบบความเป็นส่วนตัวของข้อมูลที่มีคุณภาพและสกุลเงินข้อมูล. งานนี้ไฮไลท์ปัญหาทางเทคนิคและการสำรวจการทำงานที่มีอยู่ในการแก้ปัญหาเพื่อให้ความสามารถในการวิเคราะห์ข้อมูลขนาดใหญ่สำหรับบนระบบคลาวด์ เมื่อพิจารณาถึงขั้นตอนการทำงานการวิเคราะห์แบบดั้งเดิมที่นำเสนอในรูป 1, เรามุ่งเน้นในประเด็นที่สำคัญในขั้นตอนของการแก้ปัญหาการวิเคราะห์. กับข้อมูลขนาดใหญ่จะเห็นว่าหลายความท้าทายของเมฆการวิเคราะห์การจัดการข้อมูลความกังวลบูรณาการและการประมวลผล. การทำงานก่อนหน้าได้มุ่งเน้นในประเด็นต่าง ๆ เช่นรูปแบบข้อมูลข้อมูลแทนการจัดเก็บข้อมูลการเข้าถึงข้อมูลส่วนบุคคลและข้อมูลที่มีคุณภาพ มาตรา 3 ให้นำเสนอผลงานที่มีอยู่กับความท้าทายเหล่านี้บนสภาพแวดล้อมคลาวด์ ในหมวดที่ 4 เราทำอย่างละเอียดในรูปแบบที่มีอยู่เพื่อให้การและประเมินผลแบบจำลองข้อมูลบนระบบคลาวด์ หมวดที่ 5 อธิบายโซลูชั่นสำหรับการแสดงข้อมูลและการปฏิสัมพันธ์กับลูกค้าด้วยโซลูชั่นการวิเคราะห์ที่จัดไว้ให้โดยเมฆ นอกจากนี้เรายังเน้นบางส่วนของความท้าทายทางธุรกิจที่เกิดจากรูปแบบการส่งนี้เมื่อเราหารือเกี่ยวกับโครงสร้างการให้บริการข้อตกลงระดับการให้บริการและรูปแบบธุรกิจ. การรักษาความปลอดภัยอย่างแน่นอนความท้าทายที่สำคัญสำหรับการโฮสต์โซลูชั่นการวิเคราะห์ในเมฆสาธารณะ เราพิจารณา แต่การรักษาความปลอดภัยที่เป็นหัวข้อที่กว้างขวางและด้วยเหตุนี้จะได้รับการศึกษาของตัวเอง ดังนั้นการรักษาความปลอดภัยและการประเมินผลความถูกต้องของข้อมูล [130] จะออกจากขอบเขตของการสำรวจครั้งนี้



























































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
องค์กรเพื่อสร้างปริมาณมากของข้อมูล instrumented
เป็นผลจากกระบวนการทางธุรกิจ , การตรวจสอบกิจกรรมของผู้ใช้ 14127
[ ] , เว็บไซต์ติดตาม , เซ็นเซอร์ , การเงิน , การบัญชี ,
ระหว่างเหตุผลอื่น ๆ กับการมาถึงของเว็บไซต์เครือข่ายทางสังคม
ผู้ใช้สร้างประวัติของชีวิต โดยทุกวัน โพสต์รายละเอียดของกิจกรรมที่พวกเขาดำเนินการ เหตุการณ์ที่พวกเขาเข้าร่วม สถานที่ที่พวกเขาเข้าชมภาพที่พวกเขาใช้และสิ่งที่พวกเขาชอบ และต้องการ นี้น้ําท่วมข้อมูล
มักจะเรียกว่าใหญ่ข้อมูล [ 99,55,17 ] ; ระยะที่สื่อถึงความท้าทายในโครงสร้างพื้นฐานที่มีอยู่
โพสเกี่ยวกับกระเป๋า , การจัดการ หรือ ธรรมาภิบาล และการวิเคราะห์ข้อมูล
.
ในตลาดการแข่งขันของวันนี้ ได้สำรวจข้อมูลเพื่อเข้าใจพฤติกรรมของลูกค้ากลุ่มลูกค้าฐานเสนอการปรับแต่งบริการ และรับข้อมูลเชิงลึกจากข้อมูลที่มาจากหลายแหล่ง
คือ คีย์เพื่อประโยชน์ในการแข่งขัน แม้ว่าการตัดสินใจ
จะฐานการตัดสินใจและการกระทำในข้อมูลเชิงลึกที่ได้รับจากข้อมูลนี้
[ 43 ] ทำให้ความรู้สึกของข้อมูล , การแยกรูปแบบชัดเจน
โนน และใช้รูปแบบเหล่านี้เพื่อทำนายพฤติกรรมในอนาคต
หัวข้อใหม่ไม่ได้การค้นพบความรู้ในข้อมูล ( KDD ) [ 50 ] มุ่ง
สกัดไม่ชัดเจนข้อมูลโดยใช้การวิเคราะห์ระมัดระวังและรายละเอียดและการตีความ การทำเหมืองข้อมูล 133,84 [ ] , มากขึ้นโดยเฉพาะ ,
มีวัตถุประสงค์เพื่อค้นพบที่ไม่รู้จักก่อนหน้านี้ดูเหมือนว่าไม่เกี่ยวข้อง interrelations ระหว่างคุณลักษณะของชุดข้อมูลโดยการใช้วิธีการจากหลายพื้นที่ รวมถึงการเรียนรู้

เครื่องระบบฐานข้อมูลและสถิติการวิเคราะห์โดยเทคนิค KDD , เหมือง , เหมืองข้อมูลข้อความ
, การวิเคราะห์ทางสถิติและเชิงปริมาณ รูปแบบการอธิบายและทำนาย และขั้นสูง และแบบภาพไดรฟ์การตัดสินใจและการกระทำ 43,42,63
[ ]
รูปที่ 1 แสดงขั้นตอนทั่วไปของการวิเคราะห์แบบเวิร์กโฟลว์ข้อมูลใหญ่ ข้อมูลจากแหล่งต่างๆรวมทั้ง
ฐานข้อมูล , ลําธาร , มีนาคม , และคลังสินค้าข้อมูลจะใช้ในการสร้าง
รุ่น ปริมาณมากและประเภทที่แตกต่างกันของข้อมูลความต้องการการประมวลผลงานสำหรับการบูรณาการข้อมูล การทําความสะอาดและ
กรองมัน เตรียมข้อมูลที่จะใช้ในการฝึกอบรมรูปแบบและประเมินพารามิเตอร์ เมื่อโมเดลเป็นประมาณ ควรตรวจสอบก่อนการบริโภคของ ปกติขั้นตอนนี้ต้องใช้
จากข้อมูลเดิมข้อมูลและวิธีการที่เฉพาะเจาะจงในการตรวจสอบที่สร้างขึ้นแบบ สุดท้ายรูปแบบการบริโภคและการประยุกต์ใช้ข้อมูล
มันจะมาถึง ขั้นตอนนี้ เรียกว่าระบบการให้คะแนนที่ใช้ในการสร้างคาดคะเน , ใบสั่งยา , และข้อเสนอแนะ ผลลัพธ์จะถูกตีความและประเมินที่ใช้ในการสร้างโมเดลใหม่ หรือปรับ
ที่มีอยู่หรือเพื่อบูรณาการข้อมูล
ก่อนแปรรูปAnalytics โซลูชั่นที่สามารถจัดเป็นเชิงพรรณนา , สะกดคํา
, หรือเป็นภาพประกอบในรูปที่ 2 เชิงพรรณนาวิเคราะห์
ใช้ข้อมูลทางประวัติศาสตร์ระบุรูปแบบและสร้างรายงานการจัดการ
; มันเกี่ยวข้องกับแบบจำลองพฤติกรรมที่ผ่านมา ทำนาย
Analytics ความพยายามที่จะทำนายอนาคตและปัจจุบัน โดยวิเคราะห์
ข้อมูลทางประวัติศาสตร์ โซลูชั่นที่ช่วยในการตัดสินใจ โดยนักวิเคราะห์คํา
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: