In the network as described in this paper, a new set of pseudopatterns การแปล - In the network as described in this paper, a new set of pseudopatterns ไทย วิธีการพูด

In the network as described in this

In the network as described in this paper, a new set of pseudopatterns was chosen each
time a new pattern had to be learned. In other words, each time a new pattern had to be
learned, the pseudo-inputs to the final-storage memory were randomly chosen. Another
technique would be to always use the same set of pseudo-inputs. Or it might even be
possible for the network to gradually learn an set of pseudo-inputs that would generate
pseudopatterns that reflect the contents of the final-storage area better than pseudopatterns
with random pseudo-inputs. For example, if we have a yes-no classifier network (i.e., all
learned items produce either a 1 or 0 on output), pseudo-inputs that produced outputs close
to 0 or 1 might be “better” than pseudo-inputs that were purely random. Or another
important issue: must the early-processing area converge for the entire set {Pi, ψ1, ψ2, . . .
ψn}, as in done here, or only for Pi, as is done in Robins (1995)? These questions are all the
focus of on-going research.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
In the network as described in this paper, a new set of pseudopatterns was chosen eachtime a new pattern had to be learned. In other words, each time a new pattern had to belearned, the pseudo-inputs to the final-storage memory were randomly chosen. Anothertechnique would be to always use the same set of pseudo-inputs. Or it might even bepossible for the network to gradually learn an set of pseudo-inputs that would generatepseudopatterns that reflect the contents of the final-storage area better than pseudopatternswith random pseudo-inputs. For example, if we have a yes-no classifier network (i.e., alllearned items produce either a 1 or 0 on output), pseudo-inputs that produced outputs closeto 0 or 1 might be “better” than pseudo-inputs that were purely random. Or anotherimportant issue: must the early-processing area converge for the entire set {Pi, ψ1, ψ2, . . .ψn}, as in done here, or only for Pi, as is done in Robins (1995)? These questions are all thefocus of on-going research.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ในเครือข่ายตามที่อธิบายไว้ในบทความนี้ชุดใหม่ของ pseudopatterns
ได้รับการคัดเลือกในแต่ละครั้งรูปแบบใหม่จะต้องมีการเรียนรู้ ในคำอื่น ๆ
ในแต่ละครั้งรูปแบบใหม่จะต้องมีการเรียนรู้ปัจจัยหลอกหน่วยความจำสุดท้ายการจัดเก็บที่ถูกสุ่มเลือก
อีกเทคนิคที่จะมักจะใช้ชุดเดียวกันของปัจจัยการผลิตหลอก
หรือมันก็อาจจะเป็นไปได้สำหรับเครือข่ายที่จะค่อยๆเรียนรู้ชุดของปัจจัยการผลิตหลอกว่าจะสร้าง
pseudopatterns ที่สะท้อนให้เห็นเนื้อหาของพื้นที่สุดท้ายการจัดเก็บที่ดีกว่า pseudopatterns
กับปัจจัยสุ่มหลอก ตัวอย่างเช่นถ้าเรามีเครือข่ายลักษณนามใช่ไม่มี
(เช่นทุกรายการได้เรียนรู้การผลิตทั้ง1 หรือ 0 ในการส่งออก) ปัจจัยการผลิตหลอกที่ผลิตเอาท์พุทใกล้
0 หรือ 1 อาจจะเป็น "ดี" กว่าปัจจัยการผลิตที่หลอกว่าเป็น หมดจดสุ่ม หรืออีกเรื่องที่สำคัญ: พื้นที่ต้นการประมวลผลจะต้องมาบรรจบกันสำหรับทั้งชุด {Pi, ψ1, ψ2,
. .
ψn} ในขณะที่ทำที่นี่หรือเพียง แต่สำหรับพี่เป็นจะทำในร็อบบินส์ (1995)?
คำถามเหล่านี้เป็นทุกจุดเน้นของการที่กำลังการวิจัย
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ในเครือข่ายตามที่อธิบายไว้ในบทความนี้ชุดใหม่ของ pseudopatterns เลือกแต่ละ
เวลารูปแบบใหม่ที่ต้องเรียนรู้ ในคำอื่น ๆแต่ละครั้งรูปแบบใหม่ต้อง
เรียนรู้กระผมหลอกให้หน่วยความจำสุดท้ายที่ถูกสุ่มเลือก อีกเทคนิค
จะมักจะใช้ชุดเดียวกันของกระผมหลอก หรือมันอาจ
เป็นไปได้สำหรับเครือข่ายค่อยๆเรียนรู้ที่จะสร้างชุดของปัจจัยการผลิตหลอก
pseudopatterns ที่สะท้อนให้เห็นเนื้อหาของพื้นที่จัดเก็บสุดท้ายดีกว่า pseudopatterns
4 หลอกแบบสุ่ม ตัวอย่างเช่น ถ้าเรามีครับไม่มีแบบเครือข่าย ( เช่น รายการที่ผลิตทั้งหมด
เรียนรู้ทั้ง 1 หรือ 0 ใน Output ) ที่ผลิตโดยปิด
กระผมเทียม0 หรือ 1 อาจจะ " ดี " กว่าหลอกปัจจัยการผลิตที่สุ่มหมดจด หรืออีก
ปัญหาสำคัญ : ต้องพื้นที่การประมวลผลก่อนบรรจบกับชุดทั้งหมด { พายψψ 1 , 2 , . . . . . . . .
ψ n } เป็นเสร็จ หรือแค่ พี เป็นเสร็จ โรบินส์ ( 1995 ) เป็นคำถามที่ทุกคนโฟกัสต่อเนื่อง

)
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: