Table 3: For each method (default, CMA-ES, Genetransfereror ANN), the  การแปล - Table 3: For each method (default, CMA-ES, Genetransfereror ANN), the  ไทย วิธีการพูด

Table 3: For each method (default,

Table 3: For each method (default, CMA-ES, Genetransferer
or ANN), the percentage of instances on which this
method gave the best parameter set. Each cell shows 2 gures:
the rst one considers all occurrences of a method, no
matter if another method also lead an equivalent parameter
set, as good as the rst one. The second gures only considers
the rst method (from left to right) that discovered the
best parameter-set.
ations of CMA-ES, followed by one ANN training and one
Genetransferer. Due to the time constraints, only few iterations
of LaO were run. For example in domain Grid only
10 and CMA-ES was called 50 times in total.
The ANN had 3 fully connected layers, the layers had all
12 neurons, corresponding to the number or parameters and
features, respectively. Standard back-propagation algorithm
was used for learning (the default in FANN). In one iteration
of LaO, the ANN was only trained for 50 iterations (aka
epochs) without reseting the weights, in order to i- avoid
over-training, and ii- making a gradual transition from the
previous best parameter-set to the new best one, and eventually
try some intermediate values. Hence, in domain Grid,
over the 10 iterations of LaO, 500 iterations (epochs) of the
ANN were carried out in total. However, note that the best
parameters were trained with much fewer iterations, depending
on the time of their discovery. In the worst case, if the
best parameter was found in the last iteration of LaO, it was
trained for only 50 epochs (and not used anymore). This explains
why retraining is needed in the end.
A parameter-set in LaO may come from di erent sources,
namely it can be the default parameter-set, or coming from
CMA-ES, the Genetransferer, or as a result of applying
the trained ANN to the instance features. Table 3 shows
how each source contributes to the best overall parametersettings.
For each possible source, the rst number is the
ratio the source contributed to the best result if tie-breaks
are taken into account, the second number shows the same,
if only the rst best parameter-set is taken into account.
Note that the order of the calling of the "sources" in LaO
is the same as it is in the table: for example if CMA-ES
found a di erent parameter-settings with the same tness
than the default, this case is not included in the rst ratio,
but is in the second. Analyzing both numbers leads to
the following conclusions: for domain Mprime, the default
parameter-settings was the optimal for 45% of the instances.
However, only in 2% of the instances there was no other
parameter-setting found with the same quality. The reason
for this is that makespan values for Mprime are mostly single
digit numbers. Consequently, there is no possibility for a
small improvement, an improvement is more rare (55%) but
those improvement are naturally high in ratio. In the domain
Freecell, the share of ANN is quite high (18%), moreover
we can see that in most cases, the other sources did
not nd a parameter-set with the same performance (17%).
While Genetransferer in Freecell take equal share (18%) of
all the best parameters, but only a part of them (8%) were
unique. Note that CMA-ES was returning the rst hint in
each iteration and had 5 times more possibilities than the
ANN. Taking this into account, it is clear that both the
ANN and Genetransferer made an important contribution
to optimization.
LaO has been running for several weeks on a cluster. But
this cluster was not dedicated to our experiments, i.e. only
a small number of 4 or 8-core processors were available for
each domain on average. After stopping LaO, retraining was
made with 300 ANN epochs with the best data, because
the ANN's saved directly from LaO may be under-trained.
The MSE error of the ANN did not decrease using more
epochs, which indicates that 300 iterations are enough at
least for this amount of data and for this size of the ANN.
Tests with 1000 iterations did not produce better results and
neither training the ANN uniquely with the rst found best
parameters.
The controlled parameters of DaE are described in table 2.
For a detailed description of these parameters, see [4]. The
feature-set consists of 12 features. The rst 5 features are
computed from the domain le, after the initial grounding
of YAHSP: number of
uents, goals, predicates, objects and
types. One further feature we think could even be more
important is called mutex-density, which is the number of
mutexes divided by the number of all
uent-pairs. Since
mutexes are kind of obstacles in planning, higher density
indicates more diculty in nding the solution. We also
kept 6 less important features: number of lines, words and
byte-count - obtained by the linux command "wc" - of the
instance and the domain le. These features were kept only
for historical reasons: they were used in the beginning as
some "dummy" features.
Since testing was also carried out on the cluster, the termination
criterion for testing was also the number of evaluations
for each instance. For evaluation the quality-improvement
the quality-ratio metric de ned in IPC competitions was
used. The baseline qualities come from the default parametersetting.
The ratio of the tness value for the default parameter
and the tuned parameter was computed and average
was taken over the instances in the train or test-set.
Q =
Fitnessbaseline
Fitnesstuned
(2)
Note that there was no unsolved instance in the training set,
because they were dropped from the experiment if they were
not solved with the default parameters.
Table 1 presents several quality-improvement ratios. Label
"in LaO"means that the best found parameter is compared
to the default. By de nition, this ratio can never be less than
1, because the default values are the starting point of the
optimizations. This improvement indicated by high qualityratio
is already useful if the very same instances used in
training have to be optimized. Quality-improvement ratios
for the retrained ANN on both the training-set and the testset
are also presented. In these later cases, numbers less then
1 are possible (the parameters resulting from the retrained
ANN can have worse results than the ones given by the
default parameters), but were rare. As it can be seen in table
1, some quality-gain in training was consistently achieved,
but the transfer of this improvement to the ANN-model was
only partial. The phenomenon can appear because i- of the
unambiguity of the mapping, or because ii- the ANN is not
complex enough for the mapping, or, and most probably,
because the feature-set is not representative enough.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ตาราง 3: สำหรับแต่ละวิธี (เริ่มต้น CMA-ES, Genetransfererหรือแอน), เปอร์เซ็นต์ของกรณีในที่นี้วิธีให้ชุดพารามิเตอร์ดีที่สุด แต่ละเซลล์แสดง 2 gures:บริษัทอาร์เอสทีหนึ่งพิจารณาเหตุการณ์ทั้งหมดของวิธีการ ไม่ว่าวิธีอื่นนอกจากนี้ยังนำพารามิเตอร์เทียบเท่าตั้งค่า ดีเป็นบริษัทอาร์เอสทีหนึ่ง Gures ที่สองพิจารณาเท่านั้นrst วิธีการ (จากซ้ายไปขวา) ที่พบในส่วนพารามิเตอร์ชุดations ของ CMA-ES ตาม ด้วยแอนหนึ่งฝึกและหนึ่งGenetransferer เนื่องจากข้อจำกัดเวลา เพียงไม่กี่ซ้ำของลาวถูกเรียกใช้ ตัวอย่างในโดตารางเท่านั้น10 และ CMA ES ถูกเรียก 50 ครั้งรวมแอนที่ได้เชื่อมต่อทั้งหมดชั้น 3 ชั้นมีทั้งหมดneurons 12 ที่สอดคล้องกับหมายเลขหรือพารามิเตอร์ และคุณสมบัติ ตามลำดับ อัลกอริทึมกลับเผยแพร่มาตรฐานใช้ในการเรียนรู้ (เริ่มต้นใน FANN) ในการเกิดซ้ำหนึ่งของลาว แอนได้เฉพาะการฝึกอบรมสำหรับ 50 ซ้ำ (akaepochs) โดย reseting น้ำหนัก ลำดับไป i - หลีกเลี่ยงฝึกอบรมมากเกินไป และ ทำ ii เปลี่ยนสมดุลจากการส่วนก่อนหน้านี้พารามิเตอร์ชุดหนึ่งสุดใหม่ และในที่สุดค่าบางค่ากลางได้ ดังนั้น ในโดเมนกริดช่วงแผน 10 ของลาว 500 ซ้ำ (epochs) ของการแอนน์ได้ดำเนินการทั้งหมด อย่างไรก็ตาม หมายเหตุที่ดีสุดมีฝึกซ้ำน้อยมาก ขึ้นอยู่กับพารามิเตอร์เวลาของการค้นพบของพวกเขา ในกรณีเลวร้ายที่สุด ถ้าการพารามิเตอร์ที่ดีที่สุดพบในการเกิดซ้ำของลาว สุดท้ายก็การฝึกอบรมสำหรับ epochs 50 เท่านั้น (และไม่ใช้อีกต่อไป) นี้อธิบายทำไม retraining ต้องในสุดตั้งค่าพารามิเตอร์ในลาวอาจมาจากแหล่งดี erentคือ สามารถเริ่มต้นการตั้ง ค่าพารามิเตอร์ หรือมาจากCMA ES, Genetransferer หรือ จากการใช้แอนน์ฝึกงานคุณสมบัติของอินสแตนซ์ ตาราง 3 แสดงว่าแต่ละแหล่งจัดสรรไป parametersettings โดยรวมดีที่สุดสำหรับแต่ละแหล่ง หมายเลข rst คือการอัตราส่วนต้นส่วนว่าถ้าผูกแบ่งพิจารณา หมายเลขที่สองแสดงเหมือนกันถ้าเฉพาะ rst ส่วนพารามิเตอร์ชุดจะนำมาพิจารณาหมายเหตุว่า ลำดับของการเรียก "แหล่ง" ในลาวเป็นเหมือนกันในตาราง: เช่นถ้า CMA ESพบ erent ดิการตั้งค่าพารามิเตอร์กับ tness เดียวกันค่าเริ่มต้น กรณีนี้จะไม่รวมในอัตราส่วนบริษัทอาร์เอสทีแต่เป็นที่สอง วิเคราะห์ทั้งตัวเลขที่นำไปสู่ข้อสรุปต่อไปนี้: Mprime เริ่มต้นโดเมนตั้งค่าพารามิเตอร์สูงสุด 45% ของอินสแตนซ์ได้อย่างไรก็ตาม เท่านั้นใน% 2 ของอินสแตนซ์ที่ มีไม่อื่น ๆพารามิเตอร์การตั้งค่าพบกับคุณภาพเดียวกัน เหตุผลนี้คือค่า makespan Mprime ส่วนใหญ่เดี่ยวตัวเลข ดังนั้น มีไม่มีความเป็นไปได้สำหรับการปรับปรุงขนาดเล็ก การปรับปรุงมีมากน้อย (55%) แต่ปรับปรุงเหล่านั้นจะสูงตามธรรมชาติในอัตราส่วน ในโดเมนFreecell ส่วนแบ่งของแอนเป็นค่อนข้างสูง (18%), นอกจากนี้เราจะเห็นว่า ในกรณีส่วนใหญ่ แหล่งที่มาไม่ได้ไม่ nd ชุดพารามิเตอร์กับประสิทธิภาพการทำงานเดียวกัน (17%)ในขณะที่ Genetransferer ในเกม Freecell จะเท่าหุ้น (18%) ของมีพารามิเตอร์ที่ดีที่สุดทั้งหมด แต่เพียงส่วนหนึ่งของพวกเขา (8%)ไม่ซ้ำกัน หมายเหตุว่า CMA ES มีความคำใบ้ rst ในเกิดซ้ำแต่ละและไป 5 เท่ากว่าANN. คำนึงนี้ มันเป็นล้างที่ทั้งแอนน์และ Genetransferer ทำให้มีส่วนร่วมการเพิ่มประสิทธิภาพการลาวมีการเรียกใช้หลายสัปดาห์ในคลัสเตอร์ แต่คลัสเตอร์นี้มีเอาของเราทดลอง เท่านั้นเช่นจำนวน 4 หรือ 8 แกนประมวลผลขนาดเล็กมีการแต่ละโดเมน โดยเฉลี่ย หลังจากหยุดลาว retraining ได้ทำ 300 epochs แอนมีข้อมูลดีที่สุด เนื่องจากแอนของบันทึกโดยตรงจากลาวอาจฝึกภายใต้การข้อผิดพลาดของ MSE ของแอนได้ลดการใช้เพิ่มเติมepochs ซึ่งบ่งชี้ว่า 300 ซ้ำเป็นพอที่อย่างน้อย สำหรับข้อมูลจำนวน และขนาดของแอนจากการทดสอบซ้ำ 1000 ไม่ได้สร้างผลดี และฝึกอบรมไม่แอนไม่ซ้ำกับ rst ที่พบดีพารามิเตอร์พารามิเตอร์การควบคุมของแดไว้ในตาราง 2สำหรับคำอธิบายโดยละเอียดของพารามิเตอร์เหล่านี้ ดู [4] ที่ชุดคุณลักษณะประกอบด้วยคุณลักษณะ 12 มีลักษณะการทำงานของบริษัทอาร์เอสที 5คำนวณจากเลอโดเมน หลังจากดินเริ่มต้นของ YAHSP: จำนวน uents เป้าหมาย เคต วัตถุ และชนิด หนึ่งเพิ่มเติม คุณลักษณะที่เราคิดว่า ไม่สามารถแม้แต่จะมากขึ้นสำคัญคือ mutex-ความหนาแน่น ซึ่งเป็นหมายเลขของmutexes หาร ด้วยจำนวนทั้งหมด uent-คู่กัน ตั้งแต่mutexes คือ ชนิดของอุปสรรคในความหนาแน่นสูง วางแผนบ่งชี้เพิ่มเติม di culty ใน nding การแก้ปัญหา เรายังเก็บ 6 น้อยคุณลักษณะที่สำคัญ: หมายเลขของบรรทัด คำ และจำนวนไบต์ - โดยคำสั่ง linux "สุขา" - รับของอินสแตนซ์และเลอโดเมน คุณลักษณะเหล่านี้ได้เก็บไว้เท่านั้นด้วยเหตุผลทางประวัติศาสตร์: พวกเขาใช้ในการเริ่มต้นเป็นบางคุณลักษณะ "กระพริบ"เนื่องจากการทดสอบยังดำเนินการในคลัสเตอร์ การเลิกจ้างเกณฑ์การทดสอบยังเป็นหมายของการประเมินสำหรับแต่ละอินสแตนซ์ ประเมินผลการปรับปรุงคุณภาพการวัดอัตราส่วนคุณภาพเด ned ใน IPC แข่งขันได้ใช้ คุณภาพพื้นฐานมาจาก parametersetting เริ่มต้นอัตราส่วนของค่า tness สำหรับพารามิเตอร์เริ่มต้นและพารามิเตอร์จากคำนวณ และเฉลี่ยถูกนำผ่านอินสแตนซ์ในรถไฟหรือชุดทดสอบQ =FitnessbaselineFitnesstuned(2)หมายเหตุที่มีชื่ออินสแตนซ์ไม่ยังไม่ได้แก้ไขในชุดการฝึกอบรมเนื่องจากพวกเขาถูกตัดทิ้งจากการทดลองก็ได้ไม่แก้ไข ด้วยพารามิเตอร์เริ่มต้นตารางที่ 1 แสดงอัตราส่วนการปรับปรุงคุณภาพต่าง ๆ ป้ายชื่อ"ในลาว" หมายความ ว่า พารามิเตอร์พบส่วนเปรียบเทียบการเริ่มต้น โดยเดอ nition อัตราส่วนนี้จะต้องไม่น้อยกว่า1 เนื่องจากค่าเริ่มต้นเป็นจุดเริ่มต้นของการเพิ่มประสิทธิภาพการ ปรับปรุงนี้ตาม qualityratio สูงถ้าใช้อินสแตนซ์เดียวกันมากอยู่แล้วฝึกอบรมเพื่อปรับให้เหมาะได้ อัตราส่วนการปรับปรุงคุณภาพสำหรับแอน retrained ในชุดฝึกอบรมและการ testsetจะยังมีการนำเสนอ ในกรณีเหล่านี้ในภายหลัง ตัวเลขน้อยลงแล้ว1 เป็นไปได้ (พารามิเตอร์เกิดจากการ retrainedแอนน์ได้ผลลัพธ์เลวร้ายยิ่งกว่าคนที่ได้รับจากการเริ่มต้นพารามิเตอร์), แต่ก็หายาก มันสามารถเห็นได้ในตาราง1 กำไรคุณภาพบางอย่างในการฝึกอบรมอย่างต่อเนื่องสำเร็จแต่การโอนย้ายการปรับปรุงนี้รุ่นแอนบางส่วนเท่านั้น ปรากฏการณ์ปรากฏเนื่องจาก i-ของunambiguity ของการแม็ป หรือ ii - แอนไม่ซับซ้อนเพียงพอสำหรับการแม็ป หรือ และที่สุด อาจเนื่องจากชุดคุณลักษณะตัวแทนพอไม่ได้
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ตารางที่ 3: สำหรับแต่ละวิธี (ค่าเริ่มต้น CMA-ES, Genetransferer
หรือ ANN) ร้อยละของตัวอย่างที่นี้
วิธีการให้ชุดพารามิเตอร์ที่ดีที่สุด แต่ละเซลล์จะแสดง 2 gures:
หนึ่งในครั้งแรกคิดว่าเกิดขึ้นทุกวิธีไม่
ว่าถ้าวิธีอื่นยังนำพารามิเตอร์เทียบเท่า
ชุดที่ดีเป็นครั้งแรกหนึ่ง gures ที่สองจะพิจารณา
วิธีการแรก (จากซ้ายไปขวา) ที่ค้นพบ
ที่ดีที่สุดชุดพารามิเตอร์.
ations ของ CMA-ES ตามด้วยการฝึกอบรม ANN หนึ่งและเป็นหนึ่งใน
Genetransferer เนื่องจากข้อ จำกัด เวลาการแสดงเพียงไม่กี่
ของลาววิ่ง ยกตัวอย่างเช่นในตารางโดเมนเพียง
10 และ CMA-ES ถูกเรียกว่า 50 ครั้งรวม.
ANN มี 3 ชั้นที่เชื่อมต่ออย่างเต็มที่ชั้นมีทั้งหมด
12 เซลล์ประสาทที่สอดคล้องกับจำนวนหรือพารามิเตอร์และ
คุณลักษณะตามลำดับ มาตรฐานขั้นตอนวิธีการขยายพันธุ์กลับ
ถูกนำมาใช้สำหรับการเรียนรู้ (ค่าเริ่มต้นใน Fann) หนึ่งในการทำซ้ำ
ของลาว ANN ได้รับการฝึกฝนเพียง 50 ซ้ำ (aka
epochs) โดยไม่ reseting น้ำหนักเพื่อที่จะหลีกเลี่ยงการ I-
มากกว่าการฝึกอบรมและ II- การเปลี่ยนแปลงอย่างค่อยเป็นค่อยไปจาก
ก่อนหน้านี้ที่ดีที่สุดพารามิเตอร์การตั้งค่าให้ใหม่ หนึ่งที่ดีที่สุดและในที่สุดก็
ลองค่ากลาง ดังนั้นในกริดโดเมน
มากกว่า 10 ซ้ำของลาว 500 ซ้ำ (epochs) ของ
แอนได้ดำเนินการทั้งหมด อย่างไรก็ตามโปรดทราบว่าสิ่งที่ดีที่สุด
พารามิเตอร์ได้รับการฝึกฝนที่มีการทำซ้ำมากน้อยขึ้นอยู่
กับช่วงเวลาของการค้นพบของพวกเขา ในกรณีที่เลวร้ายที่สุดถ้า
พารามิเตอร์ที่ดีที่สุดที่พบในการทำซ้ำสุดท้ายของลาวมันก็
ผ่านการฝึกอบรมเพียง 50 epochs (และไม่ได้ใช้อีกต่อไป) นี้จะอธิบาย
ว่าทำไมการฝึกอบรมเป็นสิ่งจำเป็นในที่สุด.
พารามิเตอร์การตั้งค่าในลาวอาจมาจากดิ? แหล่งที่มาต่างกัน,
คือจะสามารถเริ่มต้นพารามิเตอร์ที่ตั้งไว้หรือมาจาก
CMA-ES, Genetransferer หรือเป็นผลมาจากการใช้
ANN การฝึกอบรมเพื่อยกตัวอย่างเช่นมี ตารางที่ 3 แสดงให้เห็นถึง
วิธีการที่แต่ละแหล่งที่ก่อให้เกิดการโดยรวมที่ดีที่สุด parametersettings.
สำหรับแหล่งที่มาแต่ละจำนวนแรกคือ
อัตราส่วนของแหล่งที่มาสนับสนุนให้ผลดีที่สุดถ้าผูกแบ่ง
ถูกนำเข้าบัญชีจำนวนที่สองแสดงให้เห็นเหมือนกัน
ถ้าเพียง แรกที่ดีที่สุดพารามิเตอร์ที่ตั้งเป็นที่เข้าบัญชี.
โปรดทราบว่าคำสั่งของการเรียก "แหล่ง" ในลาว
เป็นเช่นเดียวกับที่เป็นอยู่ในตาราง: ยกตัวอย่างเช่นถ้า CMA-ES
พบ di ต่างกันพารามิเตอร์การตั้งค่าด้วย? tness เดียวกัน
กว่าเริ่มต้นกรณีนี้ไม่รวมอยู่ในอัตราส่วนแรก,
แต่ในครั้งที่สอง การวิเคราะห์ทั้งตัวเลขนำไปสู่
​​ข้อสรุปต่อไปนี้: สำหรับโดเมน Mprime, เริ่มต้น
พารามิเตอร์การตั้งค่าที่เหมาะสมที่สุดคือ 45% ของกรณี.
อย่างไรก็ตามมีเพียง 2% ของกรณีไม่มีอื่น ๆ
พารามิเตอร์การตั้งค่าที่พบมีคุณภาพเดียวกัน เหตุผล
นี้เป็นที่ค่า makespan สำหรับ Mprime ส่วนใหญ่จะเป็นคนเดียว
ตัวเลขหลัก จึงมีความเป็นไปได้สำหรับการไม่มี
การปรับปรุงขนาดเล็กการปรับปรุงเป็นเรื่องยากมากขึ้น (55%) แต่
การปรับปรุงเหล่านี้จะสูงตามธรรมชาติในอัตราส่วน ในโดเมน
Freecell ร่วมกันของแอนค่อนข้างสูง (18%) ยิ่งไปกว่านั้น
เราจะเห็นว่าในกรณีส่วนใหญ่แหล่งอื่น ๆ ไม่
ได้ ND พารามิเตอร์การตั้งค่าที่มีประสิทธิภาพการทำงานที่เหมือนกัน (17%).
ในขณะที่ใน Genetransferer Freecell ใช้ หุ้นเท่ากับ (18%) ของ
ทุกพารามิเตอร์ที่ดีที่สุด แต่เพียงส่วนหนึ่งของพวกเขา (8%) เป็น
ที่ไม่ซ้ำกัน โปรดทราบว่า CMA-ES กำลังจะกลับคำใบ้แรกใน
แต่ละซ้ำและมีความเป็นไปได้ 5 ครั้งกว่า
ANN การนี้ในบัญชีก็เป็นที่ชัดเจนว่าทั้ง
แอนและ Genetransferer ทำผลงานที่สำคัญ
ในการเพิ่มประสิทธิภาพ.
ลาวได้รับการทำงานเป็นเวลาหลายสัปดาห์ในคลัสเตอร์ แต่
กลุ่มนี้ไม่ได้ทุ่มเทให้กับการทดลองของเราคือเพียง
จำนวนน้อย 4 หรือโปรเซสเซอร์ 8-core ที่มีอยู่สำหรับ
โดเมนโดยเฉลี่ยในแต่ละ หลังจากหยุดลาวการฝึกอบรมได้รับการ
ทำด้วย 300 epochs ANN ที่มีข้อมูลที่ดีที่สุดเพราะ
ANN บันทึกไว้โดยตรงจากลาวอาจจะอยู่ภายใต้การฝึกอบรม.
ข้อผิดพลาด MSE ของแอนไม่ได้ลดลงโดยใช้มากขึ้น
epochs ซึ่งบ่งชี้ว่า 300 ซ้ำจะเพียงพอที่
อย่างน้อยสำหรับจำนวนของข้อมูลนี้และสำหรับขนาดของ ANN นี้.
ทดสอบ 1000 ซ้ำไม่ได้ก่อให้เกิดผลที่ดีขึ้นและ
การฝึกอบรมไม่ซ้ำกับ ANN แรกพบที่ดีที่สุด
พารามิเตอร์.
พารามิเตอร์ควบคุมแดอธิบายไว้ในตารางที่ 2
สำหรับรายละเอียด คำอธิบายของพารามิเตอร์เหล่านี้ให้ดู [4]
คุณลักษณะชุดประกอบด้วย 12 คุณสมบัติ แรก 5 คุณสมบัติที่มีการ
คำนวณจาก le โดเมนหลังจากดินเริ่มต้น
ของ YAHSP: จำนวน
uents เป้าหมายภาควัตถุและ
ชนิด หนึ่งคุณลักษณะที่ต่อไปเราคิดว่าแม้จะมีมากขึ้น
ที่สำคัญคือการที่เรียกว่า mutex ความหนาแน่นซึ่งเป็นจำนวน
mutexes หารด้วยจำนวนทั้งหมด
uent คู่ ตั้งแต่
mutexes เป็นชนิดของอุปสรรคในการวางแผนความหนาแน่นสูง
มากขึ้นแสดงให้เห็น di culty? nding ในการแก้ปัญหา นอกจากนี้เรายัง
เก็บไว้ 6 คุณสมบัติที่สำคัญน้อยกว่าจำนวนของสายคำและ
ไบต์นับ - ที่ได้รับจากคำสั่ง linux "ห้องสุขา" - ของ
อินสแตนซ์และเลอโดเมน คุณสมบัติเหล่านี้ถูกเก็บไว้เพียง
เหตุผลทางประวัติศาสตร์ที่พวกเขาถูกนำมาใช้ในการเริ่มต้นเป็น
. บาง "จำลอง" คุณสมบัติ
ตั้งแต่การทดสอบก็ยังดำเนินการในคลัสเตอร์เลิก
เกณฑ์สำหรับการทดสอบก็ยังมีจำนวนของการประเมินผล
สำหรับแต่ละกรณี สำหรับการประเมินผลการพัฒนาคุณภาพ
อัตราส่วนที่มีคุณภาพตัวชี้วัดที่กำหนดไว้ในการแข่งขัน IPC ถูก
นำมาใช้ คุณภาพพื้นฐานมาจาก parametersetting เริ่มต้น.
อัตราส่วนของค่า tness สำหรับพารามิเตอร์เริ่มต้น
และปรับพารามิเตอร์คำนวณและค่าเฉลี่ย
ถูกนำตัวไปในกรณีรถไฟหรือการทดสอบชุด.
Q =
Fitnessbaseline
Fitnesstuned
(2)
ทราบว่ามี ก็ไม่ได้เช่นปริศนาในชุดฝึกอบรม
เพราะพวกเขาลดลงจากการทดลองถ้าพวกเขา
ไม่ได้แก้ไขได้ด้วยค่าเริ่มต้น.
ตารางที่ 1 นำเสนออัตราส่วนการปรับปรุงคุณภาพหลาย ป้าย
"ลาว" หมายความว่าพารามิเตอร์พบที่ดีที่สุดเมื่อเทียบ
เป็นค่าเริ่มต้น โดย nition อัตราส่วนนี้ไม่สามารถน้อยกว่า
1 เพราะค่าเริ่มต้นเป็นจุดเริ่มต้นของ
การเพิ่มประสิทธิภาพ การปรับปรุงนี้แสดงโดย qualityratio สูง
จะมีประโยชน์อยู่แล้วถ้ากรณีเดียวกันมากที่ใช้ในการ
ฝึกอบรมจะต้องมีการปรับให้เหมาะสม อัตราส่วนการปรับปรุงคุณภาพ
การฝึกอบรมสำหรับ ANN ทั้งการฝึกอบรมชุดและ testset
จะนำเสนอ ในกรณีเหล่านี้ต่อมาจำนวนน้อยแล้ว
1 เป็นไปได้ (ค่าพารามิเตอร์ที่เกิดจากการฝึกอบรม
ANN สามารถมีผลที่เลวร้ายยิ่งกว่าที่กำหนดโดย
ค่าเริ่มต้น) แต่ก็หายาก ในขณะที่มันสามารถมองเห็นได้ในตาราง
ที่ 1, บางกำไรที่มีคุณภาพในการฝึกอบรมก็ประสบความสำเร็จอย่างต่อเนื่อง
แต่การถ่ายโอนการปรับปรุง ANN-รุ่นนี้เป็น
เพียงบางส่วน ปรากฏการณ์ที่สามารถปรากฏเพราะ i- ของ
ความไม่น่าสงสัยของการทำแผนที่หรือเพราะ II- ANN ไม่
ซับซ้อนมากพอสำหรับการทำแผนที่หรือและส่วนใหญ่อาจจะ
เพราะคุณลักษณะชุดไม่ได้เป็นตัวแทนพอ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ตารางที่ 3 : สำหรับแต่ละวิธี ( ค่าเริ่มต้น cma-es genetransferer
, หรือแอน ) , ร้อยละของอินสแตนซ์ซึ่งวิธีนี้
ให้ตั้งค่าพารามิเตอร์ที่ดีที่สุด แต่ละเซลล์จะแสดง 2 gures :
ใจจะเกิดขึ้นทั้งหมดของวิธีการที่ไม่
ไม่ว่าวิธีอื่นยังนำเทียบเท่าพารามิเตอร์
ชุด เท่า ใจ . 2 พิจารณา
gures เท่านั้นการ วิธีแรก ( จากซ้ายไปขวา ) ที่ค้นพบที่ดีที่สุดตั้งค่าพารามิเตอร์
.
ations ของ cma-es รองลงมา คือ หนึ่ง แอน การฝึกอบรมและหนึ่ง
genetransferer . เนื่องจากเวลาจำกัดเพียงไม่กี่รอบ
ลาวเป็นวิ่ง ตัวอย่างเช่นในเมนกริดเท่านั้น
10 และ cma-es เรียกว่า 50 ครั้งในทั้งหมด แอนได้เต็มที่
3 เชื่อมต่อชั้น ชั้นมี
12 ประสาท ,สอดคล้องกับตัวเลขหรือตัวแปรและ
คุณลักษณะตามลำดับ มาตรฐาน back-propagation ขั้นตอนวิธี
ถูกใช้เพื่อการเรียนรู้ ( เริ่มต้นในฟ่าน ) ใน
ซ้ำหนึ่งของลาว , แอน ฝึกแค่ 50 รอบ ( aka
epochs reseting ) โดยน้ำหนัก เพื่อฉัน - หลีกเลี่ยง
ผ่านการฝึกอบรมและ 2 - การเปลี่ยนแปลงอย่างค่อยเป็นค่อยไปจาก
ก่อนหน้านี้ที่ดีที่สุดตั้งค่าพารามิเตอร์เพื่อใหม่หนึ่งที่ดีที่สุดและในที่สุด
ลองกลางค่า ดังนั้น ในเมนกริด
มากกว่า 10 รอบ ลาว , 500 รอบ ( ยุคสมัย ) ของ
แอนทดลองทั้งหมด อย่างไรก็ตาม โปรดสังเกตว่าค่าพารามิเตอร์ที่ดีที่สุด
ถูกฝึกซ้ำน้อยมาก ขึ้นอยู่กับ
บนช่วงเวลาแห่งการค้นพบของพวกเขา ในกรณีที่เลวร้ายที่สุด ถ้าพารามิเตอร์ที่ดีที่สุด
พบซ้ำล่าสุดของลาวมัน
การฝึกเพียง 50 ยุคสมัย ( และไม่ได้ใช้อีกต่อไป ) นี้อธิบายว่าทำไมการฝึกอบรม
ที่จําเป็นในตอนท้าย การตั้งค่าพารามิเตอร์ในลาวอาจจะมา จาก ดิ erent แหล่ง
คือมันสามารถตั้งค่าพารามิเตอร์เริ่มต้น หรือมาจาก
cma-es , genetransferer หรือเป็นผลจากการใช้
แอนฝึกเช่น คุณสมบัติ ตารางที่ 3 แสดง
วิธีแต่ละแหล่งมีส่วนช่วยใน parametersettings
โดยรวมที่ดีที่สุด
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: