An approach for the recognition of low resolution grey scale facial im การแปล - An approach for the recognition of low resolution grey scale facial im ไทย วิธีการพูด

An approach for the recognition of

An approach for the recognition of low resolution grey scale facial images using cloud Hopfield neural network (CHNN) is presented. This approach consists of three steps: first we transform the grey scale facial images into binary facial images using Otsu's method, second Hebb rule is employed to store binary faces in the weight matrix of the network and finally correct face is retrieved from distorted face using CHNN retrieval algorithm. CHNN consists of clouds each with r number of unique neurons, these clouds are updated asynchronously unlike conventional asynchronous retrieval in which only one neuron is updated at a time. We compare our results with that of conventional HNN and other face recognition methods. Our results show that even when the distortion in the presented face is 45%, the CHNN is able to give at least 82.8% successful retrieval as compared to only 63% by conventional HNN for the same amount of distortion. This is much greater than previous reported claims to the best of our knowledge
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
แนวทางสำหรับการรับรู้ของความละเอียดต่ำเทาขนาดภาพหน้าเมฆ Hopfield แสดงโครงข่ายประสาท (CHNN) วิธีการนี้ประกอบด้วยขั้นตอนที่สาม: ครั้งแรกเราเปลี่ยนภาพใบหน้าของระดับสีเทาเป็นรูปหน้าแบบไบนารีที่ใช้วิธีการของ Otsu กฎ Hebb สองเป็นลูกจ้างเก็บใบหน้าไบนารีในเมตริกซ์น้ำหนักของเครือข่าย และในที่สุด ใบหน้าที่ถูกต้องจะดึงมาจากใบหน้าบิดเบี้ยวโดยใช้อัลกอริทึมเรียก CHNN CHNN ประกอบด้วยเมฆแต่ละโดยเฉพาะเซลล์ประสาทจำนวน r เมฆเหล่านี้มีการปรับปรุงแบบอะซิงโครนัสแตกต่างจากธรรมดาแบบอะซิงโครนัสเรียกเซลล์ประสาทที่เดียวเท่านั้นถูกปรับปรุงในเวลา เราเปรียบเทียบผลของเรากับของน้องธรรมดาและวิธีอื่น ๆ การจดจำใบหน้า ผลของเราแสดงว่า เมื่อบิดเบือนหน้าแสดงเป็น 45%, CHNN สามารถให้น้อย 82.8% เรียกสำเร็จเมื่อเทียบกับเพียง 63% โดยน้องธรรมดาสำหรับบิดเบือนกัน นี้เป็นมากมากกว่าก่อนหน้ารายงานร้องดีที่สุดของความรู้ของเรา
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
วิธีการรับรู้ภาพใบหน้าความละเอียดต่ำระดับสีเทาโดยใช้ระบบคลาวด์ Hopfield เครือข่ายประสาท (CHNN) จะนำเสนอ วิธีการนี้จะประกอบด้วยสามขั้นตอนแรกที่เราเปลี่ยนระดับสีเทาภาพใบหน้าเป็นภาพใบหน้าไบนารีโดยใช้วิธีการโอตสึกฎ Hebb สองเป็นลูกจ้างในการจัดเก็บใบหน้าไบนารีในเมทริกซ์น้ำหนักของเครือข่ายและในที่สุดใบหน้าที่ถูกต้องจะถูกดึงจากใบหน้าบิดเบี้ยวใช้ CHNN ขั้นตอนวิธีการดึง CHNN ประกอบด้วยเมฆแต่ละคนมีจำนวน R ของเซลล์ประสาทที่ไม่ซ้ำกันเมฆเหล่านี้มีการปรับปรุงแบบไม่พร้อมกันซึ่งแตกต่างจากการดึงตรงกันธรรมดาซึ่งมีเพียงหนึ่งเซลล์ประสาทมีการปรับปรุงในเวลา เราเปรียบเทียบผลของเรากับที่ของ HNN ธรรมดาและวิธีการอื่น ๆ การจดจำใบหน้า ผลของเราแสดงให้เห็นว่าแม้ในขณะที่การบิดเบือนในหน้านำเสนอเป็น 45% ที่ CHNN สามารถให้อย่างน้อย 82.8% ดึงประสบความสำเร็จเท่าเมื่อเทียบกับเพียง 63% จากเดิม HNN จำนวนเดียวกันของการบิดเบือน นี้เป็นมากขึ้นกว่าการเรียกร้องรายงานก่อนหน้านี้ที่ดีที่สุดของความรู้ของเรา
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: