ABSTRACTLearn-and-Optimize (LaO) is a generic surrogate basedmethod fo การแปล - ABSTRACTLearn-and-Optimize (LaO) is a generic surrogate basedmethod fo ไทย วิธีการพูด

ABSTRACTLearn-and-Optimize (LaO) is

ABSTRACT
Learn-and-Optimize (LaO) is a generic surrogate based
method for parameter tuning combining learning and optimization.
In this paper LaO is used to tune Divide-and-
Evolve (DaE), an Evolutionary Algorithm for AI Planning.
The LaO framework makes it possible to learn the relation
between some features describing a given instance and
the optimal parameters for this instance, thus it enables
to extrapolate this knowledge to unknown instances in the
same domain. Moreover, the learned relation is used as a
surrogate-model to accelerate the search for the optimal parameters.
It hence becomes possible to solve intra-domain
and extra-domain generalization in a single framework. The
proposed implementation of LaO uses an Arti cial Neural
Network for learning the mapping between features and optimal
parameters, and the Covariance Matrix Adaptation
Evolution Strategy for optimization. Results demonstrate
that LaO is capable of improving the quality of the DaE results
even with only a few iterations. The main limitation of
the DaE case-study is the limited amount of meaningful features
that are available to describe the instances. However,
the learned model reaches almost the same performance on
the test instances, which means that it is capable of generalization.
Categories and Subject Descriptors
I.2.6 [Computing Methodologies]: Arti cial Intelligence
Learning Parameter learning
General Terms
Theory
Keywords
parameter tuning, AI Planning, evolutionary algorithms
1. INTRODUCTION
Permission to make digital or hard copies of all or part of this work for
personal or classroom use is granted without fee provided that copies are
not made or distributed for profit or commercial advantage and that copies
bear this notice and the full citation on the first page. To copy otherwise, to
republish, to post on servers or to redistribute to lists, requires prior specific
permission and/or a fee.
GECCO’11, July 12–16, 2011, Dublin, Ireland.
Copyright 2011 ACM 978-1-4503-0690-4/11/07 ...$10.00.
Parameter tuning is basically a general optimization problem
applied o -line to nd the best parameters for complex
algorithms, for example for Evolutionary Algorithms (EAs).
Whereas the eciency of EAs has been demonstrated on
several application domains [29, 18], they usually need computationally
expensive parameter tuning. Consequently, one
is tempted to use either the default parameters of the framework
he is using, or parameter values given in the literature
for problems that are similar to his one.
Being a general optimization problem, there are as many
parameter tuning algorithms as optimization techniques [7,
19]. However, several specialized methods have been proposed,
and the most prominent ones today are Racing [5],
REVAC [21], SPO [2], and ParamILS [14]. All these approaches
face the same crucial generalization issue: can a
parameter set that has been optimized for a given problem
be successfully used for another one? The answer of course
depends on the similarity of both problems. However, even
in an optimization domain as precisely de ned as AI Planning,
there are very few results describing meaningful similarity
measures between problem instances. Moreover, until
now, suciently precise and accurate features have not been
speci ed that would allow the user to accurately describe the
problem, so that the optimal parameter-set could be learned
from this feature-set, and carried on to other problems with
similar description. To the best of our knowledge, no design
of a general learning framework has been proposed, and no
general experiments have been carried out yet with some
representative domains of AI planning.
In the SAT domain, however, one work must be given as an
example of what can be done along those lines. In [13], many
relevant features have been gathered based on half a century
of SAT-research, and hundreds of papers. Extensive parameter
tuning on several thousands of instances has allowed
the authors to learn, using function regression, a meaningful
mapping between the features and the running-time of
a given SAT solver with given parameters. Optimizing this
model makes it possible to choose the optimal parameters
for a given (unknown) instance. The present paper aims at
generalizing this work made in AI planning, with one major
di erence: the target will be here to optimize the tness
value for a given runtime, and not the runtime to solution {
as the optimal solution is generally not known for AI planning
problems.
Unfortunately, until now, nobody has yet proposed a set of
features for AI Planning problems in general, that would
be sucient to describe the characteristics of a problem,
like was done in the SAT domain [13]. This paper makes a
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
บทคัดย่อเรียนรู้ และปรับปรุง (ลาว) เป็นตัวแทนทั่วไปที่ใช้วิธีการรวมการเรียนรู้และเพิ่มประสิทธิภาพในการปรับแต่งพารามิเตอร์ในเอกสารนี้ ใช้เลาฟังแบ่ง- และ -พัฒนา (แด), อัลกอริทึมการวิวัฒนาการสำหรับ AI วางแผนการกรอบงานลาวทำให้เรียนรู้ความสัมพันธ์ระหว่างคุณลักษณะบางอย่างของอินสแตนซ์การอธิบาย และพารามิเตอร์เหมาะสมสำหรับอินสแตนซ์นี้ จึงช่วยให้การ extrapolate ความรู้นี้กับอินสแตนซ์ที่ไม่รู้จักในโดเมนเดียวกัน นอกจากนี้ ใช้ความสัมพันธ์ของการเรียนรู้เป็นการตัวแทนแบบจำลองเพื่อเร่งหาพารามิเตอร์เหมาะสมดังนั้นจะสามารถแก้ไขโดเมนภายในและโดเมนเพิ่ม generalization ในกรอบเดียว ที่นำเสนอของลาวใช้ Neural ซึ่งกันและกันเป็นอาเครือข่ายเรียนรู้การแม็ประหว่างคุณลักษณะ และเหมาะสมพารามิเตอร์ และปรับเมตริกซ์ความแปรปรวนร่วมวิวัฒนาการการกลยุทธ์การเพิ่มประสิทธิภาพ แสดงให้เห็นถึงผลลัพธ์ลาวที่มีความสามารถในการปรับปรุงคุณภาพของผลแดแม้จะ มีเพียงกี่ซ้ำ ข้อจำกัดหลักของศึกษากรณีของการแดเป็นจำนวนจำกัดของความหมายที่มีการอธิบายการอินสแตนซ์ อย่างไรก็ตามแบบเรียนรู้ถึงเกือบเดียวกันประสิทธิภาพการทำงานบนการทดสอบกรณี ซึ่งหมายความ ว่า มีความสามารถใน generalizationประเภทและตัวบอกเรื่องI.2.6 [วิธีการใช้งาน]: Arti ปัญญาซึ่งกันและกันเรียนรู้เรียนรู้พารามิเตอร์เงื่อนไขทั่วไปทฤษฎีคำสำคัญพารามิเตอร์ที่ปรับแต่ง AI วางแผน อัลกอริทึมเชิงวิวัฒนาการ1. บทนำสิทธิ์ในการทำดิจิตอลหรือสิ่งพิมพ์ทั้งหมดหรือส่วนหนึ่งของงานนี้ใช้ส่วนตัวหรือห้องเรียนได้รับ โดยไม่มีค่าธรรมเนียมที่มีสำเนาไม่ทำ หรือกระจายกำไร หรือประโยชน์ทางการค้า และสำเนาที่หมีนี้ประกาศและอ้างอิงเต็มหน้าแรก การคัดลอกอื่น การประกาศใหม่ การลงรายการบัญชีบนเซิร์ฟเวอร์ หรือกระจายไปยังรายการ ต้องการเฉพาะก่อนสิทธิ์และ/หรือค่าธรรมเนียมGECCO'11, 12 – 16 กรกฎาคม 2554 ดับลิน ไอร์แลนด์ลิขสิทธิ์ 2011 พลอากาศ 978-1-4503-0690-4/11/07... $10.00โดยทั่วไปปรับแต่งพารามิเตอร์เป็นปัญหาทั่วไปประสิทธิภาพสูงสุดใช้ o - บรรทัดกับ nd พารามิเตอร์ที่ดีที่สุดสำหรับคอมเพล็กซ์กระบวน เช่นสำหรับอัลกอริทึมเชิงวิวัฒนาการ (EAs)ในขณะที่ ciency อีของ EAs ได้ ถูกแสดงบนโดเมนโปรแกรมประยุกต์หลาย [29, 18], พวกเขามักจะต้อง computationallyปรับแต่งพารามิเตอร์ราคาแพง ดังนั้น หนึ่งคืออยากใช้เป็นพารามิเตอร์เริ่มต้นของกรอบเขาใช้ หรือค่าพารามิเตอร์ที่กำหนดในวรรณคดีสำหรับปัญหาที่คล้ายกับของเขาเป็นปัญหาทั่วไปปรับให้เหมาะสม มีมากพารามิเตอร์การปรับอัลกอริทึมเป็นเทคนิคเพิ่มประสิทธิภาพ [719] . อย่างไรก็ตาม วิธีการเฉพาะต่าง ๆ ได้รับการเสนอชื่อและโดดเด่นที่สุดวันนี้มีแข่งรถ [5],REVAC [21], [2] SPO ก ParamILS [14] วิธีเหล่านี้ทั้งหมดเผชิญปัญหา generalization สำคัญเดียวกัน: สามารถเป็นชุดพารามิเตอร์ที่ปรับให้เหมาะสำหรับปัญหาที่กำหนดเสร็จเรียบร้อยใช้อื่น คำตอบของหลักสูตรขึ้นอยู่กับความคล้ายของปัญหาทั้งสอง อย่างไรก็ตาม แม้แต่ในโดเมนเป็นแม่นยำเดเน็ดว่า AI การวางแผนเพิ่มประสิทธิภาพการมีผลน้อยมากที่อธิบายความคล้ายคลึงกันที่มีความหมายวัดระหว่างอินสแตนซ์ของปัญหา นอกจากนี้ จนกระทั่งตอนนี้ su ciently ความ แม่นยำคุณลักษณะไม่ได้รับspeci ed ที่จะช่วยให้ผู้ใช้สามารถอธิบายได้ถูกต้องปัญหา เพื่อให้สามารถเรียนชุดพารามิเตอร์ที่เหมาะสมจากนี้ ชุดคุณลักษณะ และจำหน่ายไปยังปัญหาอื่น ๆ ด้วยลักษณะคล้ายกัน กับความรู้ของเรา ไม่ออกของกรอบการเรียนรู้ทั่วไปได้รับการเสนอชื่อ และไม่มีการดำเนินการทดลองทั่วไปออก ยัง มีบางโดเมนที่พนักงานของ AI มีการวางแผนในโดเสาร์ อย่างไรก็ตาม งานหนึ่งต้องได้รับเป็นการตัวอย่างของสิ่งที่สามารถทำได้ตามบรรทัด ใน [13], มากคุณลักษณะที่เกี่ยวข้องได้ถูกรวบรวมขึ้นในครึ่งศตวรรษเสาร์วิจัย และหลายร้อยของเอกสาร พารามิเตอร์อย่างละเอียดปรับแต่งบนอินสแตนซ์หลายพันได้รับอนุญาตผู้เขียนเรียนรู้ ใช้ฟังก์ชันถดถอย การสื่อความหมายการแม็ประหว่างคุณลักษณะและเวลาทำงานของโปรแกรมแก้ปัญหา SAT กำหนดมีกำหนดพารามิเตอร์ เพิ่มประสิทธิภาพนี้รูปแบบทำให้เลือกพารามิเตอร์เหมาะสมสำหรับอินสแตนซ์ (ไม่รู้จัก) กำหนด ปัจจุบันกระดาษมีวัตถุประสงค์งานนี้ทำในการวางแผน มีวิชาหนึ่งอาย generalizingdi erence: เป้าหมายมีการ ปรับ tness การค่าการรันไทม์ที่กำหนด ไม่รันไทม์การโซลูชัน{เป็นโซลูชั่นเหมาะสมโดยทั่วไปไม่ทราบสำหรับ AI วางแผนปัญหาอับ จนถึงขณะนี้ ไม่มีใครได้ยังนำเสนอชุดของลักษณะปัญหา AI วางแผนทั่วไป ที่ต้องสามารถ su cient เพื่ออธิบายลักษณะของปัญหาต้องไม่ทำในโดเสาร์ [13] ทำให้เอกสารนี้เป็น
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
บทคัดย่อ
เรียนรู้และเพิ่มประสิทธิภาพ (ลาว) เป็นตัวแทนทั่วไปตาม
วิธีการปรับแต่งพารามิเตอร์การรวมการเรียนรู้และการเพิ่มประสิทธิภาพ.
ในกระดาษนี้ลาวจะใช้ในการปรับแต่ง Divide-and-
วิวัฒนาการ (DAE) วิวัฒนาการขั้นตอนวิธีการวางแผนสำหรับ AI.
กรอบลาว ทำให้มันเป็นไปได้ที่จะเรียนรู้ความสัมพันธ์
ระหว่างคุณสมบัติบางอย่างที่อธิบายตัวอย่างที่กำหนดและ
พารามิเตอร์ที่เหมาะสมที่สุดสำหรับกรณีนี้จึงช่วยให้
การคาดการณ์ความรู้ในการกรณีที่ไม่รู้จักนี้ใน
โดเมนเดียวกัน นอกจากนี้ยังมีความสัมพันธ์ที่ได้เรียนรู้ที่จะใช้เป็น
ตัวแทนรุ่นเพื่อเร่งค้นหาสำหรับพารามิเตอร์ที่เหมาะสม.
มันจึงเป็นไปได้ที่จะแก้โดเมนภายใน
และลักษณะทั่วไปเป็นพิเศษโดเมนในกรอบเดียว
การดำเนินการเสนอลาวใช้ Arti ทางการประสาท
เครือข่ายสำหรับการเรียนรู้การทำแผนที่ระหว่างคุณสมบัติและดีที่สุด
พารามิเตอร์และแปรปรวนเมทริกซ์ปรับ
กลยุทธ์วิวัฒนาการในการเพิ่มประสิทธิภาพ แสดงให้เห็นถึงผล
ที่ลาวมีความสามารถในการปรับปรุงคุณภาพของแดส่งผลให้
แม้จะมีเพียงไม่กี่ซ้ำ ข้อ จำกัด หลักของ
แดกรณีศึกษาเป็นจำนวนเงินที่ จำกัด ของคุณสมบัติที่มีความหมาย
ที่มีอยู่เพื่ออธิบายกรณี อย่างไรก็ตาม
รูปแบบการเรียนรู้ถึงประสิทธิภาพการทำงานเกือบเหมือนกันใน
กรณีการทดสอบซึ่งหมายความว่ามันเป็นความสามารถในการทั่วไป.
หมวดหมู่และอธิบายเรื่อง
I.2.6 [วิธีคอมพิวเตอร์]: Arti ข่าวกรองทางการ
เรียนรู้การเรียนรู้พารามิเตอร์
เงื่อนไขทั่วไป
ทฤษฎี
คำ
พารามิเตอร์ปรับ AI การวางแผนขั้นตอนวิธีวิวัฒนาการ
1 บทนำ
อนุญาตให้ทำสำเนาดิจิตอลหรือหนักของทั้งหมดหรือบางส่วนของการทำงานในการนี้
การใช้งานส่วนตัวหรือห้องเรียนจะได้รับโดยไม่เสียค่าธรรมเนียมให้สำเนาจะ
ไม่ได้ทำหรือการกระจายเพื่อหากำไรหรือประโยชน์ในเชิงพาณิชย์และที่สำเนา
แบกนี้และแจ้งให้ทราบล่วงหน้าอ้างอิงเต็มรูปแบบครั้งแรก หน้า ในการคัดลอกอย่างอื่นเพื่อ
เผยแพร่โพสต์บนเซิร์ฟเวอร์หรือเพื่อแจกจ่ายไปยังรายการที่ต้องการที่เฉพาะเจาะจงก่อน
ได้รับอนุญาตและ / หรือค่าธรรมเนียม.
GECCO'11, 12-16 กรกฎาคม 2011, ดับลินไอร์แลนด์.
สงวนลิขสิทธิ์ พ.ศ. 2011 พลอากาศเอก 978-1-4503 -0690-4 / 7/11 ... $ 10.00.
การปรับแต่งพารามิเตอร์นั้นเป็นปัญหาการเพิ่มประสิทธิภาพทั่วไป
ใช้ o? -line ไปครั้งพารามิเตอร์ที่ดีที่สุดสำหรับซับซ้อน
ขั้นตอนวิธีการเช่นวิวัฒนาการอัลกอริทึม (EAs).
ในขณะที่อีขาดเพียง? ของ EAs ได้รับการพิสูจน์ใน
โดเมนโปรแกรมประยุกต์หลาย [29, 18] พวกเขามักจะต้องคำนวณ
ค่าพารามิเตอร์การปรับแต่งที่มีราคาแพง ดังนั้นหนึ่ง
คืออยากจะใช้ค่าเริ่มต้นของกรอบ
เขาใช้หรือค่าพารามิเตอร์ที่กำหนดในวรรณคดี
สำหรับปัญหาที่คล้ายกับเขา.
เป็นปัญหาการเพิ่มประสิทธิภาพโดยทั่วไปมีเป็นจำนวนมาก
ขั้นตอนวิธีการปรับแต่งพารามิเตอร์เป็นเทคนิคการเพิ่มประสิทธิภาพ [7,
19] อย่างไรก็ตามวิธีการเฉพาะหลายคนได้รับการเสนอชื่อ
และเป็นคนที่โดดเด่นที่สุดในวันนี้จะแข่ง [5],
Revac [21], SPO [2] และ ParamILS [14] ทุกวิธีการเหล่านี้
ต้องเผชิญกับปัญหาทั่วไปที่สำคัญเหมือนกัน: สามารถ
ตั้งค่าพารามิเตอร์ที่ได้รับการปรับให้เหมาะสมกับปัญหาที่กำหนด
ใช้ประสบความสำเร็จสำหรับอีกคนหนึ่ง? คำตอบที่แน่นอน
ขึ้นอยู่กับความคล้ายคลึงกันของปัญหาทั้งสอง อย่างไรก็ตามแม้
ในโดเมนเพิ่มประสิทธิภาพในขณะที่แม่นยำ ned เป็น AI วางแผน
มีผลน้อยมากที่มีความหมายคล้ายคลึงกันอธิบาย
มาตรการระหว่างกรณีปัญหาที่เกิดขึ้น ยิ่งไปกว่านั้นจนถึง
ตอนนี้ซู? ciently คุณสมบัติแม่นยำและถูกต้องไม่ได้
เอ็ด speci ที่จะช่วยให้ผู้ใช้ที่จะต้องอธิบาย
ปัญหาที่เกิดขึ้นเพื่อให้เหมาะสมที่สุดพารามิเตอร์ที่ตั้งไว้อาจจะได้เรียนรู้
จากคุณลักษณะชุดนี้และดำเนินการเกี่ยวกับปัญหาอื่น ๆ ด้วย
คำอธิบายที่คล้ายกัน ที่ดีที่สุดของความรู้ของเราไม่มีการออกแบบ
ของกรอบการเรียนรู้ทั่วไปได้รับการเสนอและไม่มี
การทดลองทั่วไปได้รับการดำเนินการยังมีบางส่วน
โดเมนตัวแทนของการวางแผนไอ.
ในโดเมน SAT แต่หนึ่งในการทำงานจะต้องได้รับในฐานะที่เป็น
ตัวอย่าง ของสิ่งที่สามารถทำได้ตามเส้นที่ ใน [13] หลาย
คุณสมบัติที่เกี่ยวข้องได้รับการรวบรวมอยู่บนพื้นฐานของครึ่งศตวรรษ
ของ SAT-วิจัยและร้อยของเอกสาร พารามิเตอร์ที่กว้างขวาง
การปรับแต่งหลายต่อหลายพันกรณีได้รับอนุญาตให้
เขียนในการเรียนรู้โดยใช้ฟังก์ชั่นการถดถอย, ความหมาย
การทำแผนที่ระหว่างคุณสมบัติและการทำงานเวลา
แก้ SAT รับกับพารามิเตอร์ที่กำหนด การเพิ่มประสิทธิภาพนี้
รูปแบบจะทำให้มันเป็นไปได้ที่จะเลือกพารามิเตอร์ที่เหมาะสมที่สุด
สำหรับการได้รับ (ไม่ทราบ) เช่น กระดาษในปัจจุบันมีจุดมุ่งหมายที่
generalizing การทำงานที่เกิดขึ้นในการวางแผน AI นี้กับคนที่สำคัญ
การตั้ง di: เป้าหมายจะอยู่ที่นี่เพื่อเพิ่มประสิทธิภาพ tness
ค่าสำหรับรันไทม์ที่กำหนดและไม่ได้ใช้งานจริงเพื่อแก้ปัญหา {
เป็นทางออกที่ดีที่สุดคือไม่เป็นที่รู้จักโดยทั่วไป สำหรับการวางแผน AI
ปัญหา.
แต่น่าเสียดายที่จนถึงขณะนี้ไม่มีใครได้ยังนำเสนอชุดของ
คุณสมบัติสำหรับ AI ปัญหาการวางแผนโดยทั่วไปที่จะ
เป็นซู? เพียงพอที่จะอธิบายลักษณะของปัญหาที่
เหมือนได้ทำในโดเมน SAT [13] กระดาษนี้จะทำให้
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
นามธรรม
เรียนรู้และปรับ ( ลาว ) เป็นตัวแทนโดยทั่วไปวิธีสำหรับการปรับแต่งรวมการเรียนรู้

และการหาพารามิเตอร์ ในกระดาษนี้ถูกใช้เพื่อปรับแต่งและแบ่งลาว -
คาย ( แด ) เป็นขั้นตอนวิธีเชิงวิวัฒนาการสำหรับ AI การวางแผน .
กรอบลาวทำให้มันเป็นไปได้ที่จะเรียนรู้ความสัมพันธ์ระหว่างคุณลักษณะบางอย่างอธิบาย
ให้ตัวอย่างและ
พารามิเตอร์ที่ดีที่สุดสำหรับตัวอย่างนี้ดังนั้นมันจึงช่วยให้
extrapolate ความรู้นี้ไปที่อินสแตนซ์ใน
โดเมนเดียวกัน นอกจากนี้ ยังได้เรียนรู้เกี่ยวกับใช้เป็น
นางแบบตัวแทนเร่งค้นหาค่าพารามิเตอร์ที่เหมาะสมที่สุด มันจึงกลายเป็นไปได้ที่จะแก้ปัญหา

เมนภายในและการเพิ่มโดเมนในกรอบเดียว การนำเสนอ
ของลาวใช้ กิ่ ประสาท
เครือข่ายเพื่อการเรียนรู้แผนที่ระหว่างคุณลักษณะและพารามิเตอร์ที่เหมาะสมและความแปรปรวนร่วมแบบ

วิวัฒนาการกลยุทธ์การเพิ่มประสิทธิภาพ ผลลัพธ์ที่แสดงให้เห็นถึง
ที่ลาว สามารถปรับปรุงคุณภาพของแดผลลัพธ์
แม้มีเพียงไม่กี่รอบ . ข้อจำกัดหลักของกรณีศึกษา
แดจำกัดความหมายคุณลักษณะ
ที่มีอยู่เพื่ออธิบายกรณีอย่างไรก็ตาม เรียนรู้รูปแบบ
ถึงเกือบเดียวกันการปฏิบัติ
กรณีทดสอบซึ่งหมายความว่ามันมีความสามารถในการ .
หมวดหมู่และหัวข้อใน
i.2.6 [ คอมพิวเตอร์ ] : วิธีการแห่งปัญญา ่


ทฤษฎีเงื่อนไขการเรียนรู้การเรียนรู้ค่า

คำสำคัญ การปรับค่าพารามิเตอร์ทั่วไป , ไอ การวางแผน คนแรกของหัวใจ คนสุดท้ายของชีวิต
1 . บทนำ
อนุญาตให้สำเนาดิจิตอลหรือฮาร์ดดิสก์ทั้งหมดหรือบางส่วนของงานนี้
ใช้ส่วนตัวหรือเรียนจะได้รับโดยไม่เสียค่าธรรมเนียมให้เสมือน
ไม่ได้หรือจำหน่ายกำไรหรือประโยชน์เชิงพาณิชย์ และสำเนา
หมีแจ้งให้ทราบนี้และการอ้างอิงเต็มในหน้าแรก เพื่อคัดลอกหรือ

พิมพ์เพื่อโพสต์บนเซิร์ฟเวอร์หรือเพื่อแจกจ่ายไปยังรายการที่ต้องการที่เฉพาะเจาะจงก่อน
อนุญาตและ / หรือค่า
gecco ' 11 , 12 กรกฎาคม– 16 , 2011 , ดับลิน , ไอร์แลนด์ 978-1-4503-0690-4 ACM
ลิขสิทธิ์ 2011 / 11 / 07 . . . . . . . $ 10.00 .
การปรับค่าพารามิเตอร์ที่เหมาะสมโดยทั่วไปทั่วไปปัญหา
o - ใช้สาย ครั้งที่ดีที่สุดพารามิเตอร์สำหรับขั้นตอนวิธีการที่ซับซ้อน
ตัวอย่างสำหรับ คนแรกของหัวใจ คนสุดท้ายของชีวิต ( EAS )
1 E  ประสิทธิภาพของ EAS ได้แสดงบนโดเมนโปรแกรมประยุกต์หลาย 29
[ 18 ]
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: