How do these models achieve stable, sensitive performance in the prese การแปล - How do these models achieve stable, sensitive performance in the prese ไทย วิธีการพูด

How do these models achieve stable,

How do these models achieve stable, sensitive performance in the presence of new input?
All of them, in one way or another, rely on two principles: i) representational separation and
ii) explicit use of previously stored representations to influence the course of new learning.
In the case of convolution-correlation models, representational separation is achieved by
orthogonal recoding of the input and SDM does so by the use of sparse coding. In this way,
representational overlap between newly arriving and previously stored patterns is reduced.
But in order to produce the desired abilities to generalize, previously stored information is
used to affect the memory trace of incoming information. For example, in both CHARM and
SDM the new input vector is “folded into” an internal representation of the previously
learned input. These two principles form the basis of the pseudo-recurrent architecture
proposed in this paper
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
วิธีทำโมเดลเหล่านี้ให้บรรลุประสิทธิภาพมั่นคง มีความละเอียดอ่อนในต่อหน้าของเข้าใหม่ทั้งหมดของพวกเขา ในหนึ่งวิธีหรืออื่น อาศัยหลักการสอง: ฉัน) แยก representational และii) การใช้นำเสนอที่เก็บไว้ก่อนหน้านี้จะมีอิทธิพลต่อหลักสูตรการเรียนรู้ใหม่อย่างชัดเจนในกรณีของแบบจำลองความสัมพันธ์ของ convolution, representational แยกสามารถทำได้โดยดงานจะบันทึก orthogonal ของอินพุต และ SDM สามารถใช้รหัสบ่อ ด้วยวิธีนี้ทับซ้อน representational ระหว่างเดินใหม่และรูปแบบที่เก็บไว้ก่อนหน้านี้จะลดลงแต่เพื่อสร้างความต้องการทั่วไป ข้อมูลที่เก็บไว้ก่อนหน้านี้ใช้ผลการตรวจสอบหน่วยความจำของข้อมูลขาเข้า ตัวอย่าง ในเสน่ห์ทั้งสอง และSDM เวกเตอร์อินพุตใหม่เป็น "พับเป็น" แทนภายในก่อนหน้านี้เข้าเรียนรู้ หลักสองเหล่านี้เป็นพื้นฐานของสถาปัตยกรรมเกิดซ้ำ pseudo-นำเสนอในเอกสารนี้
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
วิธีทำรูปแบบเหล่านี้ประสบความสำเร็จที่มีความเสถียรประสิทธิภาพการทำงานที่มีความสำคัญในการปรากฏตัวของการป้อนข้อมูลใหม่ทั้งหมดของพวกเขาในหรืออีกวิธีหนึ่งพึ่งพาสองหลักการ i) การแยกดำเนินการและ ii) การใช้งานที่ชัดเจนของการแสดงที่เก็บไว้ก่อนหน้านี้ที่มีอิทธิพลต่อการเรียนการสอนใหม่ การเรียนรู้. ในกรณีของการบิดรุ่นความสัมพันธ์ที่แยกดำเนินการจะทำได้โดยการบันทึกมุมฉากของการป้อนข้อมูลและ SDM ไม่ได้โดยใช้การเข้ารหัสห่าง ด้วยวิธีนี้ทับซ้อนระหว่างดำเนินการรูปแบบใหม่ที่จะมาถึงและเก็บไว้ก่อนหน้านี้จะลดลง. แต่เพื่อความสามารถในการผลิตที่ต้องการที่จะพูดคุย, ข้อมูลที่เก็บไว้ก่อนหน้านี้จะถูกใช้ในการส่งผลกระทบต่อร่องรอยความทรงจำของข้อมูลที่เข้ามา ยกตัวอย่างเช่นในทั้งเสน่ห์และSDM เวกเตอร์ป้อนข้อมูลใหม่คือ "พับเป็น" การแสดงภายในของก่อนหน้านี้การป้อนข้อมูลได้เรียนรู้ ทั้งสองหลักการพื้นฐานของสถาปัตยกรรมหลอกซ้ำเสนอในบทความนี้









การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
วิธีทำโมเดลเหล่านี้ให้มั่นคง ที่มีประสิทธิภาพในการปรากฏตัวของใหม่ใส่ ?
ทั้งหมดของพวกเขาในหรืออีกวิธีหนึ่ง อาศัยสองหลักการ : I )
2 ) และแยกดำเนินการใช้ที่ชัดเจนของเก็บไว้ก่อนหน้านี้ตัวแทนมีอิทธิพลต่อหลักสูตรการเรียนรู้ใหม่ .
ในกรณีของขดความสัมพันธ์แบบแยกดำเนินการได้โดย
วิธีดาเนินของการป้อนข้อมูลและ SDM ไม่ได้โดยการใช้รหัสป่าโปร่ง ในวิธีนี้
ซ้อนระหว่างใหม่และดำเนินการมาเก็บไว้ก่อนหน้านี้รูปแบบจะลดลง .
แต่ที่ต้องการความสามารถในการอนุมานจากข้อมูลที่เก็บไว้เป็น
มีผลต่อหน่วยความจำร่องรอยของข้อมูลที่เข้ามา ตัวอย่างเช่น ทั้งเสน่ห์และ
SDM ใหม่ใส่เวกเตอร์ " พับเป็น " การแสดงภายในของก่อนหน้านี้
เรียนนำเข้า หลักการเหล่านี้สองรูปแบบพื้นฐานของสถาปัตยกรรมเทียมกำเริบ
เสนอในกระดาษนี้
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: