ANN models developedThe ANN model parameters were set considering casc การแปล - ANN models developedThe ANN model parameters were set considering casc ไทย วิธีการพูด

ANN models developedThe ANN model p

ANN models developed
The ANN model parameters were set considering cascading-
training technique of the FANN library to automate the
selection of hidden layer neuron count. Maximum number of
epochs was set to 1000, applying an early stopping criterion to
avoid overfitting setting the validation process at every 10
epochs. A starting learning rate of 0.5 was gradually decreased
by 1% at every epoch during cascading training. Determined
lagged terms were used to feed ANN models to predict 1-dayahead
PM10 level in training and testing. In order to be able
obtain the best ANN structure for seasons, various models were
examined in training and testing phases. The developed ANN
models were: (1) seasonal ANN models for winter and summer
periods coded as NN_W# and NN_S#, respectively, and (2)
singular or nonseasonal models (NSNN#). Table 4 shows the
best structures for seasonal models and also the singular
models for benchmarking, and ANN topologies in the form
of input-hidden-output layer neuron count along with input
vectors. Only the seasonal NN models, named as NN_W1
and NN_S1, were fed with the inputs determined by PCA,
whereas all the others were constructed as benchmark models.
Likewise, the same input vector was used in the singular model
NSNN1, and the other singular ANN models were used as
benchmark based on lagged terms up to 3 days. It can be
noticed that hidden neuron counts increased as larger-sized
input vectors fed to ANN models, which may be a handicap
in this case in terms of increasing complexity and reducing
handling of the models.
Model performance evaluations and error statistics
The seasonal models generally yielded the best scores with
up to 8 hidden neurons in the middle layer, whereas the single
models used up to 9 hidden neurons. Accuracy and error
measures, learning rates, and learning momentums of the
ANN models obtained in training and testing were summarized
in Table 5.
For seasonal ANN models, the overall agreement in training
denoted by IA between modeled and observed values varied in
the range of 0.78–0.83, RMSE values ranged in 0.587–0.655,
FMB values ranged in −0.19–0.10, and R2 values ranged in
0.681–0.727. FMB values obtained from the estimates of ANN
models varied around zero. The ANN models did thus not
show a tendency towards overpredicting or underpredicting
the daily average PM10 levels.
NN_W1 model for winter periods produced the best testing
IA and R2 values of 0.82 and 0.711, with the lowest training
RMSE of 0.587. For summer period, the models NN_S1 and
NN_S3 produced the best testing IA value of 0.79 and R2
values of 0.715 and 0.709; however, the better testing RMSE
value of 0.602 was obtained from NN_S1 model. Among the
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
รุ่นแอนพัฒนากำหนดพารามิเตอร์แบบแอนพิจารณาซ้อน-ฝึกอบรมเทคนิคของไลบรารี FANN เพื่อทำให้การเลือกจำนวนเซลล์ประสาทชั้นซ่อน จำนวนสูงสุดepochs ถูกตั้งค่าเป็น 1000 ใช้เกณฑ์หยุดเป็นต้นไปหลีกเลี่ยง overfitting ตั้งกระบวนการตรวจสอบในทุก 10epochs อัตราการเรียนรู้เริ่มต้นที่ 0.5 ได้ค่อย ๆ ลดลง1% ที่ทุกยุคในระหว่างการฝึกอบรมที่เกี่ยวข้อง กำหนดใช้เงื่อนไข lagged เลี้ยงแอนรุ่นทำนาย 1-dayaheadระดับ PM10 ในการฝึกอบรม และการทดสอบ เพื่อให้สามารถดูโครงสร้างของแอนดีที่สุดสำหรับฤดูกาล รุ่นต่าง ๆตรวจสอบในการฝึกอบรม และการทดสอบขั้นตอน แอนน์ได้รับการพัฒนารุ่น: รุ่น (1) แอนตามฤดูกาลสำหรับฤดูหนาวและฤดูร้อนระยะเวลาที่เข้ารหัสเป็น NN_W # NN_S ตามลำดับ และ (2)เอกพจน์ หรือไม่รุ่น (NSNN #) ตารางที่ 4 แสดงการโครงสร้างที่ดีที่สุดสำหรับรุ่นตามฤดูกาล และเอกพจน์สำหรับการเปรียบเทียบ และแอนโทในแบบฟอร์มจำนวนเซลล์ประสาทชั้นอินพุตที่ซ่อนอยู่ออกพร้อมกับป้อนข้อมูลเวกเตอร์ เฉพาะฤดูกาล NN แบบ ตั้งชื่อเป็น NN_W1และ NN_S1 ถูกป้อนอินพุตตาม PCAในขณะที่คนอื่น ๆ ทั้งหมดถูกสร้างขึ้นเป็นรูปแบบมาตรฐานในทำนองเดียวกัน ใช้เวกเตอร์สำหรับการป้อนค่าเดียวกันในรูปแบบเอกพจน์NSNN1 รูปแอนอื่น ๆ ที่เอกพจน์และใช้เป็นอิงเกณฑ์มาตรฐาน lagged เงื่อนไขขึ้นไป 3 วัน มันสามารถพบว่า จำนวนเซลล์ประสาทที่ซ่อนอยู่เพิ่มขึ้นเป็นขนาดใหญ่ขนาดเวกเตอร์อินพุตที่ป้อนรุ่นแอน ซึ่งอาจจะเป็นแฮนดิแคปในกรณีนี้ในแง่ของความซับซ้อนที่เพิ่มขึ้น และลดการจัดการแบบจำลองแบบประเมินผลงานและสถิติข้อผิดพลาดรูปแบบตามฤดูกาลโดยทั่วไปผลคะแนนด้วยสูงสุด 8 ซ่อนเซลล์ประสาทในชั้นกลาง ในขณะเดียวรุ่นใช้เซลล์ประสาทที่ซ่อนอยู่ถึง 9 ความถูกต้องและข้อผิดพลาดมาตรการ เรียนพิเศษ และเมนตัมของการเรียนรู้สรุปผลรุ่นแอนที่ได้รับการฝึกอบรม และทดสอบในตาราง 5สำหรับฤดูกาลแอนรุ่น ข้อตกลงโดยรวมในการฝึกอบรมเขียนแทน ด้วย IA ระหว่างค่าจากการสังเกต และสร้างแบบจำลองที่แตกต่างกันในช่วง 0.78 – 0.83 ค่า RMSE อยู่ใน 0.587 – 0.655อยู่ในช่วงค่า FMB ใน −0.19 – 0.10 และค่า R2 ที่อยู่ใน0.681 – 0.727 FMB ค่าที่ได้จากการประมาณการของแอนรูปแบบที่แตกต่างกันรอบศูนย์ รุ่นแอนไม่ดังนั้นแสดงแนวโน้มไปที่ overpredicting หรือ underpredictingระดับ PM10 เฉลี่ยประจำวันรุ่น NN_W1 ระยะเวลาฤดูหนาวผลิตการทดสอบที่ดีที่สุดIA และ R2 ค่า 0.82 และ 0.711 มีการฝึกอบรมที่ถูกที่สุดRMSE ของ 0.587 ช่วงฤดูร้อน รุ่น NN_S1 และNN_S3 ผลิตดีที่สุดที่ทดสอบค่า IA 0.79 และ R2ค่าของ 0.715 และ 0.709 อย่างไรก็ตาม RMSE ทดสอบดีกว่าค่าของ 0.602 ได้รับจากแบบจำลอง NN_S1 ระหว่างการ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
รุ่น ANN พัฒนา
พารามิเตอร์รุ่น ANN ถูกกำหนดพิจารณา cascading-
เทคนิคการฝึกอบรมของห้องสมุด Fann อัตโนมัติ
เลือกของชั้นที่ซ่อนอยู่นับเซลล์ประสาท จำนวนสูงสุดของ
epochs ถูกกำหนดให้ 1000 ใช้เกณฑ์การหยุดก่อนที่จะ
หลีกเลี่ยงการตั้งค่าอิงกระบวนการตรวจสอบในทุก 10
epochs อัตราการเรียนรู้เริ่มต้น 0.5 ค่อยๆลดลง
1% ในทุกยุคซ้อนระหว่างการฝึกอบรม กำหนด
เงื่อนไขการ lagged ถูกนำมาใช้ในการเลี้ยงรุ่น ANN จะทำนาย 1 dayahead
ระดับ PM10 ในการฝึกอบรมและการทดสอบ เพื่อที่จะสามารถ
ได้รับโครงสร้าง ANN ที่ดีที่สุดสำหรับฤดูกาลรุ่นต่างๆได้รับการ
ตรวจสอบในการฝึกอบรมและการทดสอบขั้นตอน ที่พัฒนา ANN
รุ่นมีดังนี้ (1) รุ่น ANN ตามฤดูกาลในช่วงฤดูหนาวและฤดูร้อน
ช่วงเวลาที่กำหนดเป็น NN_W # และ # NN_S ตามลำดับและ (2)
รุ่นเอกพจน์หรือ nonseasonal (NSNN #) ตารางที่ 4 แสดงให้เห็น
โครงสร้างที่ดีที่สุดสำหรับรูปแบบตามฤดูกาลและยังเอกพจน์
รูปแบบการเปรียบเทียบและโครงสร้าง ANN ในรูปแบบ
ของการป้อนข้อมูลที่ซ่อนเอาท์พุทชั้นเซลล์ประสาทนับพร้อมกับการป้อนข้อมูล
เวกเตอร์ เฉพาะรุ่น NN ฤดูกาลชื่อเป็น NN_W1
และ NN_S1 ถูกเลี้ยงด้วยปัจจัยการผลิตที่กำหนดโดย PCA,
ในขณะที่คนอื่น ๆ ทั้งหมดถูกสร้างเป็นแบบจำลองมาตรฐาน.
ในทำนองเดียวกันเวกเตอร์การป้อนข้อมูลเดียวกันถูกนำมาใช้ในรูปแบบเอกพจน์
NSNN1 และอื่น ๆ เอกพจน์ ANN รุ่นที่ถูกนำมาใช้เป็น
เกณฑ์มาตรฐานตามคำ lagged ถึง 3 วัน ก็สามารถที่จะ
สังเกตเห็นว่านับเซลล์ประสาทที่ซ่อนอยู่เพิ่มขึ้นเป็นขนาดใหญ่ขนาดกลาง
เวกเตอร์อินพุตเลี้ยงรุ่นแอนซึ่งอาจจะเป็นแต้มต่อ
ในกรณีนี้ในแง่ของการเพิ่มความซับซ้อนและลด
การจัดการรูปแบบ.
การประเมินผลแบบจำลองประสิทธิภาพและสถิติข้อผิดพลาด
ตามฤดูกาลรุ่นทั่วไป ผลคะแนนที่ดีที่สุดที่มี
ถึง 8 เซลล์ประสาทที่ซ่อนอยู่ในชั้นกลางในขณะเดียว
รุ่นที่ใช้ถึง 9 เซลล์ประสาทซ่อน ความถูกต้องและความผิดพลาด
มาตรการอัตราการเรียนรู้และการเรียนรู้โมเมนตัมของ
รุ่น ANN ที่ได้รับในการฝึกอบรมและการทดสอบสรุป
ในตารางที่ 5
สำหรับรุ่น ANN ฤดูกาลข้อตกลงโดยรวมในการฝึกอบรม
ชี้แนะด้วย IA ระหว่างค่าถ่ายแบบและสังเกตความแตกต่างกันใน
ช่วงของ 0.78 -0.83 ค่า RMSE อยู่ในช่วง 0.587-0.655,
ค่า FMB อยู่ในช่วง -0.19-0.10 และค่า R2 อยู่ในช่วง
0.681-0.727 ค่า FMB ที่ได้รับจากการประมาณการของแอน
รูปแบบที่แตกต่างกันไปรอบ ๆ ศูนย์ รุ่น ANN ไม่จึงไม่ได้
แสดงให้เห็นแนวโน้มที่ต่อ overpredicting หรือ underpredicting
ระดับ PM10 เฉลี่ยต่อวัน.
NN_W1 รุ่นสำหรับรอบระยะเวลาฤดูหนาวผลิตการทดสอบที่ดีที่สุด
IA และ R2 ค่า 0.82 และ 0.711 กับการฝึกอบรมที่ต่ำสุด
ค่า RMSE 0.587 สำหรับรอบระยะเวลาฤดูร้อนรุ่น NN_S1 และ
NN_S3 ผลิตที่ดีที่สุดสำหรับการทดสอบค่าของ IA 0.79 และ R2
ค่า 0.715 และ 0.709; อย่างไรก็ตาม RMSE ทดสอบที่ดีกว่า
ค่าของ 0.602 ที่ได้รับจากรุ่น NN_S1 ท่ามกลาง
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
แอน รุ่นพัฒนาส่วนแอนพารามิเตอร์ถูกตั้งค่าการพิจารณา - ซ้อนการฝึกอบรมเทคนิคของฟ่าน ห้องสมุด แบบอัตโนมัติเลือกซ่อนนับเซลล์ชั้น จำนวนสูงสุดของยุคสมัยที่ถูกตั้งไว้ 1000 ใช้ก่อนเกณฑ์หยุดไปหลีกเลี่ยงการ overfitting กระบวนการตรวจสอบทุก 10ยุคสมัย . เริ่มต้นการเรียนรู้อัตรา 0.5 ก็ค่อย ๆ ลดลงโดย 1% ที่ตกทุกยุค ในระหว่างการฝึกอบรม กําหนดราคา เงื่อนไขที่ใช้เลี้ยงแอนโมเดลเพื่อทำนาย 1-dayaheadPM10 ระดับการฝึกอบรมและการทดสอบ เพื่อให้สามารถให้ได้ดีที่สุด แอน โครงสร้างสำหรับฤดูกาล รูปแบบต่างๆตรวจสอบในการฝึกอบรมและขั้นตอนการทดสอบ พัฒนา แอนรูปแบบคือ ( 1 ) ตามฤดูกาลแบบแอนสำหรับฤดูหนาวและฤดูร้อนรหัส nn_w และระยะเวลาเป็น # nn_s # ตามลำดับ และ ( 2 )รูปแบบเอกพจน์หรือไม่มี ( nsnn # ) ตารางที่ 4 แสดงที่ดีที่สุดสำหรับรูปแบบโครงสร้างฤดูกาล และยัง เอกพจน์แบบจำลองการเทียบเคียงรูปแบบ ในรูปแบบ และ แอนข้อมูลที่ซ่อนอยู่ออกชั้นเซลล์นับพร้อมกับใส่เวกเตอร์ แค่ชื่อ nn_w1 ตามฤดูกาล NN รุ่นและ nn_s1 ถูกเลี้ยงด้วยกระผมหาได้โดย PCAในขณะที่คนอื่น ๆทั้งหมดถูกสร้างเป็นรุ่นมาตรฐาน .อนึ่ง อินพุตเวกเตอร์เดียวกันถูกใช้ในรูปแบบเอกพจน์nsnn1 , และอื่น ๆ รุ่นที่เคยใช้เป็น เอกพจน์ แอนราคามาตรฐานตามข้อตกลงถึง 3 วัน มันสามารถสังเกตว่าซ่อนเซลล์ประสาทนับเพิ่มขึ้นเป็นขนาดใหญ่ข้อมูลเวกเตอร์เลี้ยงแอนรูปแบบซึ่งอาจเป็นแฮนดิแคปในกรณีนี้ในแง่ของความซับซ้อนที่เพิ่มขึ้น และลดการจัดการโมเดลรูปแบบการประเมินสมรรถนะและข้อผิดพลาด สถิติรูปแบบตามฤดูกาลโดยทั่วไปคือคะแนนที่ดีที่สุดกับถึง 8 มิลเซลล์ประสาทในชั้นกลาง ส่วนเดียวรุ่นใช้กับเซลล์ประสาทที่ซ่อนอยู่ 9 ความถูกต้องและข้อผิดพลาดวัด อัตราการเรียนรู้ และการเรียนรู้แรงผลักดันของแอน รุ่นที่ได้รับการฝึกอบรมและการทดสอบสรุปได้ในตารางที่ 5สำหรับฤดูกาลแอนรุ่นข้อตกลงโดยรวมในการฝึกอบรมเขียนโดย IA ระหว่างจำลองและสังเกตค่าแตกต่างกันในช่วง 0.78 และค่า 0.83 , RMSE อยู่ใน 0.587 0.655 ) ,อยู่ใน fmb ค่า− ( 0.10 0.19 และ R2 ค่าอยู่ในมีประสิทธิภาพและ 0.727 . fmb ค่าที่ได้จากการประเมินของแอนโมเดลที่แตกต่างกันรอบ ๆศูนย์ ที่แอนทำจึงไม่ใช่รุ่นแสดงแนวโน้มต่อ overpredicting หรือ underpredictingเฉลี่ย PM10 ระดับรูปแบบ nn_w1 ช่วงฤดูหนาวผลิตการทดสอบที่ดีที่สุดIA และ R2 เท่ากับ 0.82 และ 0.711 ด้วยการฝึกอบรมน้อยที่สุดวิธี 0.587 . สำหรับช่วงฤดูร้อน รุ่น nn_s1 และnn_s3 ผลิตที่ดีที่สุดทดสอบค่า 0.79 และ R2 ประเทศสหรัฐอเมริกาและค่า 0.715 0.709 อย่างไรก็ตาม วิธีการทดสอบดีกว่าคุณค่าของ 0.602 ได้จากแบบจำลอง nn_s1 . ระหว่าง
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: