In this section, we make on overview of existing works on genderrecogn การแปล - In this section, we make on overview of existing works on genderrecogn ไทย วิธีการพูด

In this section, we make on overvie

In this section, we make on overview of existing works on gender
recognition from face images.
Early works on gender recognition from face images focused on
the case of frontal faces in a controlled laboratory environment. In
the beginning of the 90s, many authors tried neural networks to deal
with this problem. For example, Golomb et al. [6] trained a 2-layers
fully-connected neural network and achieved 91.90% accuracy on a
tiny test set of 90 images. The benchmark dataset of frontal faces in
a controlled environment is FERET [20]. With the emergence of SVM,
Moghaddam and Yang [18] used this classifier with an RBF kernel on
raw pixels and obtained 96.62% accuracy on FERET (though having
the same persons presented both in training and test sets). Rather
than using SVM, Baluja and Rowley [2] used AdaBoost on raw pixels
and obtained 96.40% on FERET without mixing people in training
and test sets. Li et al. [15] combined facial information with clothing
and hair components obtaining 95.10% accuracy on the FERET dataset.
Ullah et al. [29] used the Webers Local texture Descriptor to reach almost
perfect performance of 99.08% on FERET. This result suggests
that the FERET benchmark is saturated and not enough challenging
for modern methods.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
In this section, we make on overview of existing works on genderrecognition from face images.Early works on gender recognition from face images focused onthe case of frontal faces in a controlled laboratory environment. Inthe beginning of the 90s, many authors tried neural networks to dealwith this problem. For example, Golomb et al. [6] trained a 2-layersfully-connected neural network and achieved 91.90% accuracy on atiny test set of 90 images. The benchmark dataset of frontal faces ina controlled environment is FERET [20]. With the emergence of SVM,Moghaddam and Yang [18] used this classifier with an RBF kernel onraw pixels and obtained 96.62% accuracy on FERET (though havingthe same persons presented both in training and test sets). Ratherthan using SVM, Baluja and Rowley [2] used AdaBoost on raw pixelsand obtained 96.40% on FERET without mixing people in trainingand test sets. Li et al. [15] combined facial information with clothingand hair components obtaining 95.10% accuracy on the FERET dataset.Ullah et al. [29] used the Webers Local texture Descriptor to reach almostperfect performance of 99.08% on FERET. This result suggeststhat the FERET benchmark is saturated and not enough challengingfor modern methods.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!

ในส่วนนี้เราจะทำให้ภาพรวมของการทำงานที่มีอยู่เกี่ยวกับเรื่องเพศได้รับการยอมรับจากภาพใบหน้า. ผลงานในช่วงต้นของการรับรู้เพศจากภาพใบหน้าที่มุ่งเน้นไปที่กรณีของใบหน้าหน้าผากในสภาพแวดล้อมที่มีการควบคุมในห้องปฏิบัติการ ในจุดเริ่มต้นของยุค 90 ที่หลายคนเขียนพยายามเครือข่ายประสาทที่จะจัดการกับปัญหานี้ ยกตัวอย่างเช่น Golomb et al, [6] การฝึกอบรม 2 ชั้นอย่างเต็มที่ที่เชื่อมต่อเครือข่ายประสาทและประสบความสำเร็จในความถูกต้อง91.90% ในการทดสอบเล็กๆ ชุดของ 90 ภาพ ชุดข้อมูลมาตรฐานของใบหน้าหน้าผากในสภาพแวดล้อมการควบคุมเป็น FERET [20] กับการเกิดของ SVM ที่Moghaddam และหยาง [18] ใช้ลักษณนามนี้กับเคอร์เนล RBF ในพิกเซลดิบและได้รับความถูกต้อง 96.62% เมื่อ FERET (แต่มีคนเดียวที่นำเสนอทั้งในการฝึกอบรมและการทดสอบชุด) แต่กว่าการใช้ SVM, Baluja และลีย์ [2] ใช้ AdaBoost ในพิกเซลดิบและได้รับ96.40% เมื่อ FERET คนไม่ต้องผสมในการฝึกอบรมและชุดทดสอบ Li et al, [15] รวมข้อมูลหน้าด้วยเสื้อผ้าส่วนประกอบและผมได้รับความถูกต้อง95.10% ในชุดข้อมูลที่ FERET. Ullah et al, [29] ใช้ Webers อธิบายเนื้อท้องถิ่นไปถึงเกือบประสิทธิภาพที่สมบูรณ์แบบของ99.08% เมื่อ FERET ผลที่ได้นี้แสดงให้เห็นว่ามาตรฐาน FERET จะอิ่มตัวและไม่เพียงพอที่ท้าทายสำหรับวิธีการที่ทันสมัย

















การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ในส่วนนี้เราให้กับภาพรวมของงานที่มีอยู่ในเพศ
รู้จากหน้าภาพ
ก่อนงานเพศ การรับรู้จากภาพใบหน้าเน้น
กรณีของใบหน้าด้านหน้าในการควบคุมปฏิบัติการสิ่งแวดล้อม ใน
จุดเริ่มต้นของ 90s , ผู้เขียนหลายคนพยายามโครงข่ายประสาทเทียมเพื่อจัดการ
กับปัญหานี้ ตัวอย่างเช่น กอลอมบ์ et al . [ 6 ] ฝึก 2-layers
เต็มเชื่อมต่อโครงข่ายประสาทเทียมและประสบความ 91.90 % บน
เล็กชุดทดสอบ 90 ภาพ อ้างอิงข้อมูลจากหน้า
สภาพแวดล้อมเป็น feret [ 20 ] กับการเกิดขึ้นของ SVM
Moghaddam , ยาง [ 18 ] ใช้ลักษณนามกับเคอร์เนลฐานบน
พิกเซลดิบและได้รับ 96.62 % ความถูกต้องบน feret ( แม้ว่ามี
คนเดียวกันที่นำเสนอทั้งในการฝึกอบรมและชุดทดสอบ )ค่อนข้าง
กว่าโดยใช้ SVM baluja Rowley , และ [ 2 ] ต่อดิบใช้ adaboost พิกเซล
และได้รับ 96.40 % โดยไม่ต้องผสม feret คนฝึก
และชุดทดสอบ Li et al . [ 15 ] รวมข้อมูลหน้าด้วยเสื้อผ้า
และผมได้รับความถูกต้องส่วนประกอบ 95.10 ใน DataSet feret .
ullah et al . [ 29 ] ใช้ Webers ท้องถิ่นเนื้อหัวเรื่องถึงเกือบสมบูรณ์แบบ ประสิทธิภาพของ 99.08
% feret .ผลที่ได้นี้แสดงให้เห็นว่า feret มาตรฐาน
อิ่มตัวและไม่เพียงพอที่ท้าทาย
สำหรับวิธีการที่ทันสมัย
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: