Our Local-DNN has several parameters to choose. First, we have set the การแปล - Our Local-DNN has several parameters to choose. First, we have set the ไทย วิธีการพูด

Our Local-DNN has several parameter

Our Local-DNN has several parameters to choose. First, we have set the patch size to 13 × 13 pixels. This value was inspired from our experience in other previous works that also use a local feature framework applied to face images, extracting patches similar to the size of an eye in the image [26]. Second, the DNN itself has also several parameters. In this work, we have used hidden layers with 512 ReLU units and we have changed the number of hidden layers to compare the classification performance. A representation of this network can be seen in Fig. 1. Note that the input layer has 169 units because the patch size is 13 × 13. Note that the dimension of the input layer could also be 171 if the patch location information is used. Finally, it should be mentioned that we have used five-fold cross-validation in both databases. The network is trained until the average cross-entropy error on the training data falls below a pre-specified threshold. To figure out this threshold, we train another network with the same architecture but using only 3 folds from the training data and using the remaining fold as a validation set. Then, the cross-entropy threshold value is fixed with the smallest classification error obtained on the validation set. At the end, the test results on the 5 combinations are averaged.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ของเราท้องถิ่น-DNN มีพารามิเตอร์หลายอย่างให้เลือก ครั้งแรก เราได้ตั้งโปรแกรมขนาด 13 × 13 พิกเซล ค่านี้ได้แรงบันดาลใจจากประสบการณ์ของเราในงานอื่น ๆ ก่อนหน้านี้ที่ยัง ใช้กรอบคุณลักษณะเฉพาะกับภาพใบหน้า แยกซอฟต์แวร์เหมือนกับขนาดของตาในรูป [26] สอง DNN เองมีพารามิเตอร์หลายอย่างที่ยัง ในงานนี้ เราใช้ชั้นซ่อนกับ 512 ReLU และเรามีการเปลี่ยนแปลงจำนวนชั้นซ่อนเพื่อเปรียบเทียบประสิทธิภาพการจัดประเภท ตัวแทนของเครือข่ายนี้สามารถดูได้ใน Fig. โปรดสังเกตว่า ชั้นอินพุตมี 169 หน่วยเนื่องจากแพทช์ขนาด 13 × 13 โปรดสังเกตว่า ขนาดของชั้นอินพุตได้ 171 ถ้าใช้รายละเอียดที่ตั้งโปรแกรมปรับปรุง ในที่สุด มันควรจะกล่าวว่า เราใช้ข้าม five-fold ตรวจสอบในฐานข้อมูลทั้งสอง เครือข่ายคือการฝึกอบรมจนกว่าข้อผิดพลาดครอส-เฉลี่ยข้อมูลฝึกอบรมลดลงต่ำกว่าขีดจำกัดที่ระบุไว้ก่อน เข้าใจขีดจำกัดนี้ เราฝึกเครือข่ายอื่น ด้วยสถาปัตยกรรมเดียวกัน แต่ใช้เพียง 3 พับจากข้อมูลการฝึกอบรมและการใช้เหลือพับเป็นชุดตรวจสอบ แล้ว ค่าขีดจำกัดครอส-คง มีข้อผิดพลาดประเภทที่เล็กที่สุดที่ได้รับชุดตรวจสอบ ที่สุด ผลการทดสอบในชุดที่ 5 มี averaged
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
DNN ท้องถิ่นของเรามีหลายตัวแปรที่จะเลือก ครั้งแรกที่เราได้ตั้งแพทช์ขนาด 13 × 13 พิกเซล ค่านี้ได้แรงบันดาลใจจากประสบการณ์ของเราในการทำงานก่อนหน้าอื่น ๆ ที่ยังใช้กรอบคุณลักษณะท้องถิ่นนำมาใช้ที่จะเผชิญกับภาพแยกเป็นหย่อม ๆ คล้ายกับขนาดของตาในภาพ [26] ประการที่สอง DNN ตัวเองยังมีตัวแปรหลาย ในงานนี้เราได้ใช้ชั้นที่ซ่อนอยู่กับ 512 หน่วย Relu และเรามีการเปลี่ยนแปลงจำนวนชั้นซ่อนเพื่อเปรียบเทียบประสิทธิภาพการจัดหมวดหมู่ เป็นตัวแทนของเครือข่ายนี้สามารถมองเห็นได้ในรูป 1. โปรดทราบว่าชั้นที่นำเข้ามี 169 หน่วยเพราะแพทช์ขนาด 13 × 13 ทราบว่าขนาดของชั้นเข้าที่ก็อาจจะเป็น 171 ถ้าข้อมูลสถานที่แพทช์ที่มีการใช้ ในที่สุดก็ควรจะกล่าวว่าเราได้ใช้ห้าเท่าข้ามการตรวจสอบในฐานข้อมูลทั้ง เครือข่ายที่ได้รับการฝึกฝนจนค่าเฉลี่ยของข้อผิดพลาดข้ามเอนโทรปีของข้อมูลการฝึกอบรมต่ำก​​ว่าเกณฑ์ที่กำหนดไว้ล่วงหน้า ที่จะคิดออกเกณฑ์นี้เราฝึกอบรมเครือข่ายอื่นที่มีสถาปัตยกรรมเดียวกัน แต่ใช้เพียง 3 เท่าจากข้อมูลการฝึกอบรมและใช้เท่าที่เหลือเป็นชุดการตรวจสอบ จากนั้นค่าเกณฑ์เอนโทรปีข้ามได้รับการแก้ไขด้วยข้อผิดพลาดที่ได้รับการจัดหมวดหมู่ที่เล็กที่สุดในชุดการตรวจสอบ ในตอนท้ายของผลการทดสอบในวันที่ 5 มีการรวมกันเฉลี่ย
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
dnn ท้องถิ่นของเรามีหลายค่าให้เลือก ก่อนอื่นเราต้องตั้งแพทช์ขนาด 13 × 13 พิกเซล คุณค่านี้ได้แรงบันดาลใจจากประสบการณ์ของเราในอื่น ๆก่อนหน้านี้งานที่ยังใช้เป็นกรอบคุณสมบัติท้องถิ่นที่ใช้กับใบหน้ารูป แยกแพทช์คล้ายกับขนาดของดวงตาในรูป [ 26 ] ที่สอง , dnn ตัวเองยังพารามิเตอร์หลาย ในงานนี้เราได้ใช้ชั้นซ่อนกับ 512 หน่วย relu และเรามีการเปลี่ยนแปลงจำนวนชั้นซ่อนเพื่อเปรียบเทียบประสิทธิภาพการจำแนก เป็นตัวแทนของเครือข่ายนี้สามารถเห็นได้ในรูปที่ 1 โปรดทราบว่าใส่ชั้นได้ 169 หน่วย เพราะแพทช์ขนาด 13 × 13 ทราบว่าขนาดของใส่ชั้นได้ถ้าแก้ไขข้อมูลสถานที่ใช้ ในที่สุดมันควรจะกล่าวว่า เราได้ใช้ห้าโฟลดทั้งฐานข้อมูล เครือข่ายการฝึกอบรมจนมีครอสเอนโทรปีข้อผิดพลาดข้อมูลที่สอนอยู่ด้านล่างก่อนกำหนดเกณฑ์ เพื่อหาเกณฑ์นี้ เราฝึกเครือข่ายอื่นที่มีสถาปัตยกรรมเดียวกัน แต่ใช้เพียง 3 เท่าจากการข้อมูลและใช้พับที่เหลือตามการตั้งค่า จากนั้นข้ามธรณีประตูค่าเอนโทรปีคงที่กับข้อผิดพลาดน้อยที่สุด จากการตรวจสอบการตั้งค่า ในที่สุดผลการทดสอบที่ 5 ผสมเฉลี่ย
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: