The standard recurrent neural networklanguage model (rnnlm) generates  การแปล - The standard recurrent neural networklanguage model (rnnlm) generates  ไทย วิธีการพูด

The standard recurrent neural netwo

The standard recurrent neural network
language model (rnnlm) generates sentences
one word at a time and does not
work from an explicit global sentence representation.
In this work, we introduce
and study an rnn-based variational autoencoder
generative model that incorporates
distributed latent representations of
entire sentences. This factorization allows
it to explicitly model holistic properties
of sentences such as style, topic,
and high-level syntactic features. Samples
from the prior over these sentence representations
remarkably produce diverse and
well-formed sentences through simple deterministic
decoding. By examining paths
through this latent space, we are able to
generate coherent novel sentences that interpolate
between known sentences. We
present techniques for solving the di_cult
learning problem presented by this model,
demonstrate its e_ectiveness in imputing
missing words, explore many interesting
properties of the model's latent sentence
space, and present negative results on the
use of the model in language modeling.

0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
มาตรฐานเครือข่ายประสาทกำเริบรูปแบบภาษา (rnnlm) สร้างประโยคหนึ่งคำ และไม่ทำงานจากการแสดงประโยคระดับโลกอย่างชัดเจนในงานนี้ เราแนะนำและศึกษาการใช้ rnn autoencoder variationalรุ่นส่วนที่ครอบคลุมกระจายแฝงที่แทนทั้งประโยค การแยกตัวประกอบนี้ช่วยให้มันชัดเจนแบบองค์รวมคุณสมบัติของประโยคดังกล่าว เป็นสไตล์ หัวข้อและคุณลักษณะทางไวยากรณ์ระดับสูง ตัวอย่างจากก่อนผ่านแทนประโยคเหล่านี้แม้ผลิตหลากหลาย และรูปแบบประโยคผ่านง่าย deterministicถอดรหัส โดยการตรวจสอบเส้นทางผ่านพื้นที่นี้แฝงอยู่ เราจะสามารถสร้างประโยคนวนิยายสอดคล้องที่ interpolateระหว่างประโยครู้จัก เราปัจจุบันเทคนิคสำหรับการแก้ di_cult การปัญหาการเรียนรู้โดยรูปแบบนี้แสดงให้เห็นถึงความ e_ectiveness ใน imputingคำ สำรวจมากมายที่น่าสนใจคุณสมบัติของรูปแบบประโยคแฝงอยู่พื้นที่ และแสดงผลเชิงลบการใช้รูปแบบในการสร้างโมเดลภาษา
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
มาตรฐานกำเริบเครือข่ายประสาท
รูปแบบภาษา (rnnlm) สร้างประโยค
หนึ่งคำที่เวลาและไม่ได้
ทำงานจากที่เป็นตัวแทนประโยคอย่างชัดเจนทั่วโลก.
ในงานนี้เราแนะนำ
และศึกษาแปรผัน RNN ตาม autoencoder
รุ่นกำเนิดที่รวมเอา
การกระจายการแสดงแฝงของ
ประโยคทั้งหมด ตีนเป็ดนี้จะช่วยให้
มันอย่างชัดเจนจำลองคุณสมบัติแบบองค์รวม
ของประโยคเช่นลักษณะหัวข้อ
และระดับสูงคุณลักษณะประโยค ตัวอย่าง
จากก่อนการแสดงมากกว่าประโยคเหล่านี้
อย่างน่าทึ่งในการผลิตที่หลากหลายและ
ประโยคที่มีรูปแบบที่เรียบง่ายผ่านกำหนด
ถอดรหัส โดยการตรวจสอบเส้นทาง
ผ่านพื้นที่แฝงนี้เราสามารถที่จะ
สร้างประโยคนวนิยายที่สอดคล้องกันที่สอดแทรก
ระหว่างประโยคที่รู้จักกัน เรา
นำเสนอเทคนิคในการแก้ di_cult
ปัญหาการเรียนรู้ที่นำเสนอโดยรูปแบบนี้
แสดงให้เห็นถึง e_ectiveness ใน imputing
คำหายไปสำรวจที่น่าสนใจมากมาย
คุณสมบัติของประโยคแบบของแฝง
พื้นที่และผลเป็นลบอยู่บน
ใช้แบบจำลองในการสร้างแบบจำลองภาษา

การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: