step toward a framework for parameter tuning applied generallyto AI Pl การแปล - step toward a framework for parameter tuning applied generallyto AI Pl ไทย วิธีการพูด

step toward a framework for paramet

step toward a framework for parameter tuning applied generally
to AI Planning and proposes a preliminary set of features.
The Learn-and-Optimize (LaO) framework consists
of the combination of optimizing (i.e., parameter tuning)
and learning, i.e., nding the mapping between features and
best parameters. Furthermore, the results of learning will already
be useful to further the optimization phases, using the
learned model as in standard surrogate-model based techniques
(see e.g., [1] for a Gaussian-process-based approach).
LaO can of course be applied to any target optimization
methodology that requires parameter tuning. In this paper,
the target optimization technique is an Evolutionary
Algorithm (EA), more precisely the evolutionary AI planner
called Divide-and-Evolve (DaE). However, DaE will be
here considered as a black-box algorithm, without any modi-
cation for the purpose of this work compared to its original
version described in [17].
The paper is organized as follows: AI Planning Problems are
brie
y introduced in section 2. Section 3 describes the and
the classical YAHSP solver and the evolutionary Divide-and-
Evolve algorithm. Section 4 introduces the original, top level
parameter tuning method, Learn-and-Optimize. The case
study presented in Section 5 applies LaO to DaE, following
the rules of the International Planning Competition 2011 {
Learning Track. Finally, conclusions are drawn and further
directions of research are proposed in Section 6.
2. AI PLANNING
An Arti cial Intelligence (AI) planning problem is de ned
by the triplet of an initial state, a goal state, and a set
of possible actions. An action modi es the current state
and can only be applied if certain conditions are met. A
solution plan to a planning problem is an ordered list of
actions, whose execution from the initial state achieves the
goal state. The quality criterion of a plan depends on the
type of available actions: in the simplest case (e.g. STRIPS
domain), it is the number of actions; it may also be the
total cost of the pan for actions with cost; and it is the total
duration of the plan, aka makespan, for temporal problems
with so called durative actions.
Domain-independent planners rely on the Planning Domain
De nition Language PDDL2.1 [8]. The history of PDDL is
closely related to the di erent editions of the International
Planning Competitions (IPCs http://ipc.icaps-conference.
org/), and the problems submitted to the participants, written
in PDDL, are still the main benchmarks in AI Planning.
The description of a planning problem consists of two separate
parts usually placed in two di erent les: the generic
domain on the one hand and a speci c instance scenario
on the other hand. The domain le speci es object types
and predicates, which de ne possible states, and actions,
which de ne possible state changes. The instance scenario
declares the actual objects of interest, gives the initial state
and provides a description of the goal. A state is described
by a set of atomic formulae, or atoms. An atom is de-
ned by a predicate followed by a list of object identi ers:
(PREDICATE NAME OBJ1 ... OBJN).
The initial state is complete, whereas the goal might be a
partial state. An action is composed of a set of preconditions
and a set of e ects, and applies to a list of variables given
as arguments, and possibly a duration or a cost. Preconditions
are logical constraints which apply domain predicates
to the arguments and trigger the e ects when they are satis-
ed. E ects enable state transitions by adding or removing
atoms.
A solution plan to a planning problem is a consistent schedule
of grounded actions whose execution in the initial state
leads to a state that contains the goal state, i.e., where all
atoms of the problem goal are true. A planning problem
de ned on domain D with initial state I and goal G will be
denoted in the following as PD(I;G).
3. DIVIDE-AND-EVOLVE
Early approaches to AI Planning using Evolutionary Algorithms
directly handled possible solutions, i.e. possible
plans: an individual is an ordered sequence of actions see
[25, 20, 27, 28, 6]. However, as it is often the case in Evolutionary
Combinatorial optimization, those direct encoding
approaches have limited performance in comparison to
the traditional AI planning approaches. Furthermore, hybridization
with classical methods has been the way to success
in many combinatorial domains, as witnessed by the
fruitful emerging domain of memetic algorithms [11]. Along
those lines, though relying on an original memetization"
principle, a novel hybridization of Evolutionary Algorithms
(EAs) with AI Planning, termed Divide-and-Evolve (DaE)
has been proposed [23, 24]. For a complete formal description,
see [16].
The basic idea of DaE in order to solve a planning task
PD(I;G) is to nd a sequence of states S1; : : : ; Sn, and to use
some embedded planner to solve the series of planning problems
PD(Sk; Sk+1), for k 2 [0; n] (with the convention that
S0 = I and Sn+1 = G). The generation and optimization of
the sequence of states (Si)i2[1;n] is driven by an evolutionary
algorithm. The tness (makespan or total cost) of a list
of partial states S1; : : : ; Sn is computed by repeatedly calling
the external 'embedded' planner to solve the sequence of
problems PD(Sk; Sk+1), fk = 0; : : : ; ng. The concatenation
of the corresponding plans (possibly with some compression
step) is a solution of the initial problem. Any existing planner
can be used as embedded planner, but since guaranty
of optimality at all calls is not mandatory in order for DaE
to obtain good quality results [16], a sub-optimal, but fast
planner is used: YAHSP [26] is a lookahead strategy planning
system for sub-optimal planning which uses the actions
in the relaxed plan to compute reachable states in order to
speed up the search process.
A state is a list of atoms built over the set of predicates and
the set of object instances. However, searching the space of
complete states would result in a rapid explosion of the size
of the search space. Moreover, goals of planning problem
need only to be de ned as partial states. It thus seems
more practical to search only sequences of partial states,
and to limit the choice of possible atoms used within such
partial states. However, this raises the issue of the choice
of the atoms to be used to represent individuals, among all
possible atoms. The result of the previous experiments on
di erent domains of temporal planning tasks from the IPC
benchmark series [3] demonstrates the need for a very careful
choice of the atoms that are used to build the partial states.
The method used to build the partial states is based on
an estimation of the earliest time from which an atom can
become true. Such estimation can be obtained by any admissible
heuristic function (e.g h1; h2::: [12]). The possible
start times are then used in order to restrict the candidate
atoms for each partial state. A partial state is built at a
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ใช้ขั้นตอนกรอบงานสำหรับการปรับแต่งพารามิเตอร์ทั่วไปการวางแผนไอ และเสนอชุดคุณลักษณะเบื้องต้นประกอบด้วยกรอบการเรียนรู้ และปรับปรุง (ลาว)ของการรวมกันของประสิทธิภาพสูงสุด (พารามิเตอร์เช่น ปรับแต่ง)และเรียน รู้ เช่น nding การแม็ประหว่างคุณลักษณะ และพารามิเตอร์ที่ดีที่สุด นอกจากนี้ ผลการเรียนรู้จะเรียบร้อยเป็นประโยชน์เพิ่มเติมขั้นตอนเพิ่มประสิทธิภาพ การใช้รูปแบบการเรียนรู้ในมาตรฐานตัวแทนแบบจำลองโดยใช้เทคนิค(ดูเช่น, [1] เป็น Gaussian-กระบวนการปฏิบัติตาม)ลาวแน่นอนใช้ปรับเป้าหมายใด ๆวิธีที่ต้องการปรับแต่งพารามิเตอร์ ในเอกสารนี้เทคนิคเพิ่มประสิทธิภาพเป้าหมายมีการ Evolutionaryอัลกอริทึม (EA), ได้แม่นยำมากวิวัฒนาการ AI วางแผนการเรียกว่าแบ่ง และพัฒนา (แด) อย่างไรก็ตาม แดจะที่นี่ถือว่าเป็นกล่องดำอัลกอริทึม โดย modi ใด ๆ - cation เพื่องานนี้เมื่อเทียบกับเดิมรุ่นที่ระบุไว้ใน [17]จัดกระดาษเป็นดังนี้: มีปัญหาการวางแผนไอบรีฮาร์ดดิ้งy ในส่วน 2 หมวดที่ 3 อธิบายการ และโปรแกรมแก้ปัญหา YAHSP คลาสสิกและแบ่งวิวัฒนาการ- และ -พัฒนาอัลกอริทึม ส่วน 4 ระดับเดิม สูงสุดที่แนะนำวิธี เรียนรู้ และเพิ่มประสิทธิภาพการปรับแต่งพารามิเตอร์ กรณีและปัญหาศึกษาที่นำเสนอใน 5 ส่วนใช้ลาวแด ต่อไปนี้กฎของ{2011 การแข่งขันนานาชาติวางแผนเรียนรู้ติดตาม ในที่สุด ถูกวาด และเพิ่มเติมมีการนำเสนอทิศทางงานวิจัยใน 6 ส่วน2. AI วางแผนมีอาร์ติซึ่งกันและกัน Intelligence (AI) วางแผนปัญหาคือ เน็ด เดอโดย triplet เป็นสถานะเริ่มต้น สถานะเป้าหมาย และชุดของการดำเนินการได้ Es modi ดำเนินการสถานะปัจจุบันและสามารถจะใช้ถ้าตรงตามเงื่อนไขบางอย่าง Aรายการสินค้ามีแผนแก้ปัญหาปัญหาวางแผนการดำเนินการ การได้รับซึ่งการดำเนินการจากสถานะเริ่มต้นสถานะเป้าหมาย ขึ้นอยู่กับเกณฑ์คุณภาพของแผนการประเภทของงาน: ในกรณีที่ง่ายที่สุด (เช่นแถบโดเมน), เป็นหมายเลขของการดำเนินการ นอกจากนี้ยังอาจจะต้นทุนรวมของแพนสำหรับการดำเนินการกับต้นทุน และผลรวมระยะเวลาของแผน aka makespan ปัญหาชั่วคราวมีสิ่งที่เรียกว่าการดำเนินการ durativeใช้วางแผนอิสระโดเมนโดเมนการวางแผนเด nition PDDL2.1 ภาษา [8] ประวัติของ PDDLสัมพันธ์ใกล้ชิดกับรุ่น erent ดีของนานาชาติที่วางแผนการแข่งขัน (IPCs http://ipc.icaps-conferenceองค์กร /), และปัญหาที่ส่งผู้เข้าร่วม เขียนใน PDDL ได้ยังเกณฑ์มาตรฐานหลักในการวางแผนไอคำอธิบายของปัญหาในการวางแผนประกอบด้วยสองส่วนที่มักจะอยู่ในสองดิ erent เลส: ทั่วไปโดเมนบนมือหนึ่งและสถานการณ์สมมติตัวอย่าง c speciในทางตรงข้าม โดเมนเลอ speci es ชนิดออบเจ็กต์และเพรดิเคต ที่สุดมุเดออเมริกา และการดำเนินการที่เดอมุสามารถเปลี่ยนสถานะ ตัวอย่างสถานการณ์ประกาศวัตถุจริงที่น่าสนใจ ทำให้สถานะเริ่มต้นรวมทั้งคำอธิบายของเป้าหมาย อธิบายรัฐโดยชุดของสูตรอะตอม อะตอม อะตอมจะเดอ- บริษัทฯ โดยเพรดิเคตการตามรายการของวัตถุ identi สกู๊ป:(ชื่อบท OBJ1... OBJN)สถานะเริ่มต้นเสร็จสมบูรณ์ ในขณะที่เป้าหมายอาจเป็นรัฐบางส่วน การดำเนินการประกอบด้วยชุดของเงื่อนไขเบื้องต้นและชุดของอี ects และใช้กับรายการของตัวแปรที่กำหนดเป็น อาร์กิวเมนต์ และอาจรวมถึงระยะเวลา หรือต้นทุน เงื่อนไขเบื้องต้นมีข้อจำกัดทางตรรกะที่ใช้เพรดิเคตของโดเมนอาร์กิวเมนต์และทริกเกอร์ ects อีเมื่อ satis- อุตสาหกรรมมหาบัณฑิตอี ects เปิดเปลี่ยนสถานะ โดยการเพิ่ม หรือเอาออกอะตอมแผนการแก้ปัญหาปัญหาการวางแผนเป็นเวลาสอดคล้องกันการป่นเล็กน้อยซึ่งการดำเนินการในสถานะเริ่มต้นนำไปสู่รัฐที่ประกอบด้วยสถานะเป้าหมาย เช่น ซึ่งทั้งหมดอะตอมของเป้าหมายปัญหาเป็นจริง ปัญหาวางแผนโดยเดบนโดเมน D กับฉันและเป้าหมาย G จะเป็นสถานะเริ่มต้นสามารถบุในต่อไปนี้เป็น PD (I G)3. แบ่ง และพัฒนาแนวช่วง AI วางแผนโดยใช้อัลกอริทึมเชิงวิวัฒนาการจัดการปัญหา เช่นได้โดยตรงแผน: บุคคลเป็นลำดับการสั่งการดำเนินการของ[25, 20, 27, 28, 6] อย่างไรก็ตาม มันมักจะเป็นกรณีใน Evolutionaryเพิ่มประสิทธิภาพปัญหา ผู้ตรงเข้าวิธีมีจำกัดประสิทธิภาพเปรียบเทียบแบบ AI วางแผนวิธีการ นอกจากนี้ hybridizationวิธีคลาสสิกที่ได้รับวิธีสู่ความสำเร็จในหลายปัญหาโดเมน เป็น witnessed โดยโดเมนเกิดประสบของอัลกอริทึมขั้น [11] ตามบรรทัดเหล่านั้น แต่ อาศัยอยู่ใน memetization เดิม"หลัก hybridization นวนิยายของอัลกอริทึมเชิงวิวัฒนาการ(EAs) กับ AI วางแผน เรียกว่าแบ่ง และพัฒนา (แด)ได้รับการเสนอชื่อ [23, 24] สำหรับคำอธิบายอย่างสมบูรณ์ดู [16]ความคิดพื้นฐานของแดการงานการวางแผนPD (I G) คือ nd ลำดับของอเมริกา S1 : : : ; Sn และ การใช้วางแผนบางอย่างฝังตัวเพื่อแก้ไขชุดปัญหาวางแผนPD (Sk Sk + 1), สำหรับ k 2 [0; n] (มีการประชุมที่S0 =ฉัน และ Sn + 1 = G) สร้างและเพิ่มประสิทธิภาพของลำดับของอเมริกา (ซี) i2 [1; n] ขับเคลื่อน โดยมีวิวัฒนาการอัลกอริทึมการ Tness (makespan หรือรวมทุน) ของรายการบางส่วนรัฐ S1 : : : ; Sn ที่คำนวณ โดยการเรียกซ้ำวางแผน 'ฝัง' ภายนอกแก้ลำดับของปัญหา PD (Sk Sk + 1), fk = 0 : : : ; ng การเรียงต่อกันแผนที่สอดคล้องกัน (อาจจะมีการบีบอัดบางขั้นตอน) คือ การแก้ไขปัญหาเบื้องต้น วางแผนใด ๆ ที่มีอยู่สามารถใช้วางแผนฝังตัว แต่เนื่อง จากสัญญาค้ำประกันของ optimality ที่เรียกทั้งหมดไม่ใช่บังคับให้แดรับดีคุณภาพ [16], การย่อยดีที่สุด แต่อย่างรวดเร็วใช้วางแผน: YAHSP [26] เป็น lookahead การวางแผนกลยุทธ์ระบบการวางแผนเหมาะสมย่อยซึ่งใช้การดำเนินการแผนการคำนวณเข้าอเมริกาเพื่อผ่อนคลายความเร็วในการค้นหารัฐเป็นรายการของอะตอมที่สร้างขึ้นผ่านชุดของเคต และชุดของอินสแตนซ์ของวัตถุ อย่างไรก็ตาม ค้นหาช่องว่างของอเมริกาที่สมบูรณ์จะส่งผลให้กระจายอย่างรวดเร็วของขนาดค้นหาพื้นที่ นอกจากนี้ เป้าหมายของปัญหาวางแผนต้องเฉพาะ เด ned เป็นอเมริกาบางส่วน มันจึงดูเหมือนว่าขึ้นปฏิบัติการค้นหาลำดับของรัฐบางส่วนและเพื่อจำกัดทางเลือกของอะตอมได้ใช้ภายในเช่นอเมริกาบางส่วน อย่างไรก็ตาม นี้ระดมปัญหาของตัวเลือกของอะตอมจะใช้ถึงบุคคล หมู่ทั้งหมดอะตอมได้ ผลการทดลองก่อนหน้านี้ในโดเมน erent ดิงานวางแผนชั่วคราวจากการ IPCมาตรฐานชุด [3] แสดงให้เห็นถึงต้องระมัดระวังมากทางเลือกของอะตอมที่ใช้ในการสร้างรัฐบางส่วนวิธีที่ใช้ในการสร้างรัฐบางส่วนอยู่การประเมินครั้งแรกสุดที่อะตอมสามารถเป็นจริง การประเมินดังกล่าวสามารถได้รับ โดยมี admissibleฟังก์ชันแล้ว (เช่น h1; h2::: [12]) สุดเริ่มแล้วใช้เวลาการจำกัดผู้สมัครอะตอมในแต่ละรัฐบางส่วน รัฐบางส่วนอยู่ที่การ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ก้าวไปสู่กรอบการทำงานสำหรับการปรับแต่งพารามิเตอร์ที่ใช้โดยทั่วไป
ในการวางแผนและ AI เสนอชุดของคุณสมบัติเบื้องต้น.
เรียนรู้และเพิ่มประสิทธิภาพ (ลาว) ประกอบด้วยกรอบ
ของการรวมกันของการเพิ่มประสิทธิภาพ (เช่นการปรับแต่งพารามิเตอร์)
และการเรียนรู้คือการทำแผนที่ nding ระหว่างคุณสมบัติและ
พารามิเตอร์ที่ดีที่สุด นอกจากนี้ผลของการเรียนรู้ที่มีอยู่แล้วจะ
เป็นประโยชน์ในการส่งเสริมการเพิ่มประสิทธิภาพขั้นตอนโดยใช้
รูปแบบการเรียนรู้ที่เป็นตัวแทนในมาตรฐานตามรูปแบบเทคนิค
(ดูเช่น [1] สำหรับ Gaussian กระบวนการที่ใช้วิธีการ).
ลาวสามารถของหลักสูตรจะ นำไปใช้ในการเพิ่มประสิทธิภาพเป้าหมายใด ๆ
วิธีการที่ต้องมีการปรับแต่งพารามิเตอร์ ในบทความนี้
เทคนิคการเพิ่มประสิทธิภาพเป้าหมายเป็นวิวัฒนาการ
ขั้นตอนวิธี (EA) อย่างแม่นยำมากขึ้นวางแผน AI วิวัฒนาการ
ที่เรียกว่าแบ่งและวิวัฒนาการ (DAE) อย่างไรก็ตามแดจะได้รับการ
พิจารณาที่นี่เป็นอัลกอริทึมกล่องดำโดยไม่ต้องมี modi-
ไอออนบวกเพื่อจุดประสงค์ของงานนี้เมื่อเทียบกับเดิม
. รุ่นที่อธิบายไว้ใน [17]
กระดาษมีการจัดระเบียบดังต่อไปนี้: AI ปัญหาการวางแผนมีการ
บรี
y ที่แนะนำ ในส่วนที่ 2 ส่วนที่ 3 อธิบายและ
แก้ YAHSP คลาสสิกและแบ่ง-and-วิวัฒนาการ
ขั้นตอนวิธีการวิวัฒนาการ หมวดที่ 4 การแนะนำเดิมที่ระดับบนสุดของ
วิธีการปรับแต่งพารามิเตอร์เรียนรู้และเพิ่มประสิทธิภาพ กรณี
ศึกษาที่นำเสนอในมาตรา 5 ใช้ลาวแดตาม
กฎของการแข่งขันการวางแผนนานาชาติ 2011 {
ติดตามการเรียนรู้ สุดท้ายได้ข้อสรุปจะมีการวาดและต่อ
ทิศทางของการวิจัยจะนำเสนอในมาตรา 6
2 AI วางแผน
Arti ข่าวกรองทางการ (AI) ปัญหาการวางแผนเป็น de ned
โดยแฝดของสถานะเริ่มต้นของรัฐเป้าหมายและชุด
ของการกระทำที่เป็นไปได้ Modi กระทำ es สถานะปัจจุบัน
และสามารถนำไปใช้ถ้าเงื่อนไขตรง
แผนวิธีการแก้ปัญหาการวางแผนเป็นรายการสั่งซื้อของ
การกระทำที่มีการดำเนินการจากสถานะเริ่มต้นประสบความสำเร็จใน
เป้าหมายของรัฐ เกณฑ์คุณภาพของแผนขึ้นอยู่กับ
ประเภทของการกระทำที่มี: ในกรณีที่ง่าย (เช่นแถบ
โดเมน) มันเป็นจำนวนของการกระทำนั้น มันก็อาจจะ
มีค่าใช้จ่ายรวมของกระทะสำหรับการกระทำที่มีค่าใช้จ่าย; และมันก็เป็นรวม
ระยะเวลาของแผนอาคา makespan สำหรับปัญหาที่เกิดขึ้นชั่วขณะ
ที่มีการกระทำที่เรียกว่า durative.
วางแผนโดเมนอิสระพึ่งพาการวางแผนโดเมน
De nition ภาษา PDDL2.1 [8] ประวัติศาสตร์ของ PDDL จะ
เกี่ยวข้องกับ di รุ่นต่างกันของนานาชาติ
การแข่งขันการวางแผน (IPCs http:. //ipc.icaps-conference
org /) และปัญหาที่ส่งไปยังผู้เข้าร่วมที่เขียน
ใน PDDL ยังคงหลัก มาตรฐานในการวางแผนไอ.
รายละเอียดของปัญหาการวางแผนประกอบด้วยสองแยก
ชิ้นส่วนที่มักจะวางไว้ในสองดิต่างกัน les: ทั่วไป
โดเมนในสถานการณ์ที่มือข้างหนึ่งและ speci คเช่น
ในมืออื่น ๆ โดเมน speci เอ le ประเภทวัตถุ
และภาคซึ่งสหรัฐฯเป็นไปได้ที่ภาคตะวันออกเฉียงเหนือ, และการกระทำ
ซึ่งเป็นภาคตะวันออกเฉียงเหนือการเปลี่ยนแปลงสถานะที่เป็นไปได้ สถานการณ์เช่น
ประกาศวัตถุที่เกิดขึ้นจริงที่น่าสนใจให้สถานะเริ่มต้น
และให้รายละเอียดของเป้าหมาย รัฐอธิบายไว้
โดยชุดของสูตรอะตอมหรืออะตอม อะตอม de-
ned โดยสรุปตามด้วยรายการของ ERS วัตถุระบุ:
. (กริยาชื่อ obj1 ... OBJN)
สถานะเริ่มต้นจะเสร็จสมบูรณ์ในขณะที่เป้าหมายอาจจะมี
บางส่วนของรัฐ การกระทำที่ประกอบด้วยชุดของปัจจัยพื้นฐาน
และชุดของ e ECTS? และนำไปใช้กับรายชื่อของตัวแปรที่กำหนด
เป็นข้อโต้แย้งและอาจระยะเวลาหรือค่าใช้จ่าย เงื่อนไข
ข้อ จำกัด ตรรกะที่ใช้โดเมนภาค
การขัดแย้งและเรียกอี? ECTS เมื่อพวกเขาพึงพอใจใน
เอ็ด อี ECTS ช่วยให้การเปลี่ยนสถานะโดยเพิ่มหรือลบ
อะตอม.
แผนวิธีการแก้ปัญหาคือการวางแผนตารางเวลาที่สอดคล้องกัน
ของการกระทำที่มีเหตุผลที่มีการดำเนินการในสถานะเริ่มต้น
นำไปสู่รัฐที่มีเป้าหมายของรัฐคือการที่ทุก
อะตอมของปัญหา เป้าหมายนี้เป็นจริง ปัญหาการวางแผน
de ned ในโดเมน D กับสถานะเริ่มต้นและเป้าหมายของผม G จะถูก
แสดงในต่อไปนี้เป็น PD (ฉัน; G).
3 แบ่ง-AND-EVOLVE
ต้นวิธีการวางแผนการใช้ไอวิวัฒนาการขั้นตอนวิธี
การจัดการโดยตรงโซลูชั่นที่เป็นไปได้คือเป็นไปได้ที่
แผน: บุคคลเป็นลำดับของการกระทำที่เห็น
[25, 20, 27, 28, 6] อย่างไรก็ตามในขณะที่มันมักจะเป็นกรณีในวิวัฒนาการ
การเพิ่มประสิทธิภาพ Combinatorial ผู้เข้ารหัสโดยตรง
วิธีการได้รับการ จำกัด ผลการดำเนินงานในการเปรียบเทียบกับ
การวางแผนแบบดั้งเดิม AI วิธี นอกจากนี้การผสมพันธุ์
ด้วยวิธีการคลาสสิกที่ได้รับวิธีการที่จะประสบความสำเร็จ
ในโดเมน combinatorial จำนวนมากเท่าที่เห็นจาก
โดเมนที่เกิดขึ้นใหม่มีผลของขั้นตอนวิธี memetic [11] พร้อม
เส้นที่แม้ว่าจะอาศัยเดิม memetization "
หลักการผสมพันธุ์นวนิยายของอัลกอริทึมวิวัฒนาการ
(EAs) กับเอไอวางแผนเรียกว่าแบ่งและวิวัฒนาการ (DAE)
ได้รับการเสนอ [23 24]. สำหรับคำอธิบายอย่างเป็นทางการที่สมบูรณ์ ,
. ดู [16]
แนวคิดพื้นฐานของ DAE เพื่อที่จะแก้งานวางแผน
PD (ฉัน; G) คือการครั้งลำดับของรัฐ S1;:::; Sn และใช้งาน
บางอย่างที่ฝังวางแผนในการแก้ชุดของ ปัญหาการวางแผน
PD (Sk; Sk + 1) สำหรับ 2 k [0; n] (ที่มีการประชุมที่
. S0 = I และ Sn + 1 = G) การสร้างและการเพิ่มประสิทธิภาพของการ
ลำดับของรัฐ (Si) i2 [1 ; n] จะขับเคลื่อนด้วยวิวัฒนาการ
ขั้นตอนวิธี tness (ต้นทุน makespan หรือทั้งหมด) ของรายการ.
ของรัฐบางส่วน S1;:::; Sn คำนวณด้วยซ้ำเรียก
ภายนอก 'ฝัง' วางแผนในการแก้ลำดับของ
ปัญหา PD ( Sk; Sk + 1), fk = 0;:::. งะเรียงต่อกัน
ของแผนการที่สอดคล้องกัน (อาจจะมีการบีบอัดบาง
ขั้นตอน) เป็นวิธีการแก้ปัญหาใด ๆ เริ่มต้นวางแผนที่มีอยู่.
สามารถใช้เป็นที่ฝังวางแผน แต่เนื่องจาก รับประกัน
ของ optimality ทุกสายที่ไม่จำเป็นเพื่อให้แด
เพื่อให้ได้ผลลัพธ์ที่มีคุณภาพดี [16], ย่อยที่ดีที่สุด แต่อย่างรวดเร็ว
วางแผนจะใช้: YAHSP [26] คือการวางแผนกลยุทธ์ lookahead
ระบบสำหรับการวางแผนการย่อยที่ดีที่สุดที่ใช้ การดำเนินการ
ในแผนผ่อนคลายในการคำนวณรัฐสามารถเข้าถึงได้เพื่อ
เพิ่มความเร็วในการค้นหา.
รัฐคือรายการของอะตอมสร้างขึ้นเมื่อกว่าชุดของภาคและ
ชุดของกรณีวัตถุ อย่างไรก็ตามการค้นหาพื้นที่ของ
รัฐที่สมบูรณ์จะส่งผลให้เกิดการระเบิดอย่างรวดเร็วของขนาด
ของพื้นที่การค้นหา นอกจากนี้เป้าหมายของปัญหาการวางแผน
ต้องการเพียงจะเป็น ned เป็นรัฐบางส่วน มันจึงดูเหมือน
จริงมากขึ้นในการค้นหาลำดับเดียวของรัฐบางส่วน
และ จำกัด ทางเลือกของอะตอมที่เป็นไปได้ใช้ภายในเช่น
รัฐบางส่วน แต่นี้ก่อให้เกิดปัญหาในการเลือก
ของอะตอมที่จะใช้เพื่อเป็นตัวแทนของประชาชนในทุก
อะตอมที่เป็นไปได้ ผลการทดลองก่อนหน้านี้ใน
ดิ? โดเมนต่างกันของการวางแผนงานชั่วคราวจาก IPC
ชุดมาตรฐาน [3] แสดงให้เห็นถึงความจำเป็นในการระมัดระวังเป็นอย่างมาก
ทางเลือกของอะตอมที่ใช้ในการสร้างรัฐบางส่วน.
วิธีการที่ใช้ในการสร้างบางส่วน รัฐจะขึ้นอยู่กับ
การประมาณเวลาที่เร็วที่สุดจากการที่อะตอมสามารถ
กลายเป็นความจริง การประมาณค่าดังกล่าวได้โดยการใด ๆ ที่ยอมรับ
ฟังก์ชั่นการแก้ปัญหา (เช่น h1; h2 ::: [12]) เป็นไปได้
เวลาเริ่มถูกนำมาใช้เพื่อ จำกัด ผู้สมัคร
อะตอมสำหรับแต่ละรัฐบางส่วน รัฐบางส่วนที่ถูกสร้างขึ้น
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ขั้นตอนสู่กรอบสำหรับการปรับแต่งที่ใช้โดยทั่วไป
อัยวางแผนพารามิเตอร์และเสนอชุดเบื้องต้น เรียนรู้และปรับคุณสมบัติ .

( ลาว ) กรอบของการรวมกันของการประกอบ ( เช่น การปรับค่าพารามิเตอร์ )
และการเรียนรู้ เช่น การส่ง การทำแผนที่ระหว่างคุณลักษณะและ
ดีที่สุดค่า นอกจากนี้ผลของการเรียนรู้จะอยู่แล้ว
เป็นประโยชน์ต่อการหาระยะการเรียนรู้รูปแบบในมาตรฐาน

ตามเทคนิคตัวแทนรุ่น ( ดูเช่น [ 1 ] สำหรับวิธีการตามกระบวนการเสียน )
ลาวของหลักสูตรสามารถใช้กับเป้าหมายที่ต้องมีการปรับค่าพารามิเตอร์ที่เหมาะสม
วิธีการ . ในกระดาษนี้
เป้าหมายเพิ่มประสิทธิภาพเทคนิคขั้นตอนวิธีเชิงวิวัฒนาการ
( EA )อย่างแม่นยำมากขึ้นวิวัฒนาการ AI วางแผน
เรียกว่าแบ่ง และคาย ( แด ) แต่แดจะ
ที่นี่ถือว่าเป็นขั้นตอนวิธีกล่องสีดำไม่มี Modi -
ไอออนบวกสำหรับวัตถุประสงค์ของงานนี้เมื่อเทียบกับรุ่นเดิม
ที่อธิบายไว้ใน [ 17 ] .
กระดาษจัดดังนี้ ไอ การวางแผนมีปัญหา

Y บรีแนะนำในส่วนที่ 2 ส่วนที่ 3 อธิบายและ
คลาสสิก yahsp แก้และวิวัฒนาการแบ่งและ -
คิดค้นขั้นตอนวิธี ส่วนที่ 4 แนะนำเดิมที่ระดับบนสุด
พารามิเตอร์วิธีเรียนรู้และเพิ่มประสิทธิภาพ . กรณีการศึกษาที่นำเสนอในส่วนที่ 5 ใช้

ลาวแด ตามกฎของต่างประเทศการวางแผนการแข่งขัน 2011 {
การเรียนรู้ติดตาม สุดท้าย สรุปวาดและต่อไป
ทิศทางของการวิจัยได้ถูกนำเสนอในส่วน 6 .
2 ไอวางแผน
เป็น ่แห่งปัญญา ( AI ) ปัญหาการวางแผน เดอ เน็ด
โดยสามของรัฐเริ่มต้น เป้าหมายของรัฐ และชุด
ของการกระทำที่เป็นไปได้ การกระทำ Modi ES
สถานะปัจจุบันและสามารถใช้ได้ถ้าเงื่อนไขบางอย่างจะได้พบกับ เป็นโซลูชั่นที่มีปัญหาการวางแผนแผน

เป็นสั่งรายการของการกระทำ
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: