WSABIE (Weston et al., 2011) is a supervisedbilinear embedding model.  การแปล - WSABIE (Weston et al., 2011) is a supervisedbilinear embedding model.  ไทย วิธีการพูด

WSABIE (Weston et al., 2011) is a s

WSABIE (Weston et al., 2011) is a supervised
bilinear embedding model. Each word and tag has
an embedding. The words in a text are averaged
to produce an embedding of the text, and hashtags
are ranked by similarity to the text embedding.
That is, the model is of the form:
f(w; t) = w>U>V t
where the post w is represented as a bag of words
(a sparse vector in RN), the tag is a one-hot-vector
in RN, and U and V are k  N embedding matrices.
The WARP loss, as described in section 3, is
used for training.
Performance of all these models at hashtag prediction
is summarized in Tables 3 and 4. We find
similar results for both datasets. The frequency
and #words baselines perform poorly across the board, establishing the need to learn from text.
Among the learning models, the unsupervised
word2vec performs the worst. We believe this
is due to it being unsupervised – adding supervision
better optimizes the metric we evaluate.
#TAGSPACE outperforms WSABIE at all dimensionalities.
Due to the relatively large test sets,
the results are statistically significant; for example,
comparing #TAGSPACE (64 dim) beats Wsabie (64
dim) for the page dataset 56% of the time, and
draws 23% of the time in terms of the rank metric,
and is statistically significant with a Wilcoxon
signed-rank test.
Some example predictions for #TAGSPACE are
given for some constructed examples in Table 2.
We also show nearest word embeddings to the
posts. Training data was collected at the time of
the pax winter storm, explaining predictions for
the first post, and Kevin Spacey appears in the
show “House of Cards,”. In all cases the hashtags
reveal labels that capture the semantics of the
posts, not just syntactic similarity of individual
words.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
WSABIE (Weston et al., 2011) ได้มีการbilinear ฝังแบบจำลอง แต่ละคำและแท็กได้การฝัง คำในข้อความที่ averagedการฝังข้อความ และ hashtagsมีการจัดอันดับ โดยคล้ายกับข้อความฝังตัวนั่นคือ รูปแบบเป็นแบบฟอร์ม:f (w, t) = w > U > V tที่ w ลงรายการบัญชีจะแสดงเป็นถุงคำ(บ่อเวกเตอร์ใน RN), แท็กเป็นหนึ่งร้อนเวกเตอร์ใน RN และ u และ V มี k N ฝังเมทริกซ์ขาดทุนแปรปรวน ตามที่อธิบายไว้ในส่วน 3 เป็นใช้สำหรับฝึกอบรมประสิทธิภาพของรูปแบบเหล่านี้ในการคาดเดาอย่างไร hashtagสรุปในตารางที่ 3 และ 4 เราค้นหาผลลัพธ์ที่คล้ายคลึงกันของ datasets ทั้ง ความถี่ในและเส้น #words ทำงานผ่านคณะกรรมการ สร้างจำเป็นต้องเรียนรู้จากข้อความในแบบเรียน แบบ unsupervisedword2vec ทำร้าย เราเชื่อว่านี้เป็นเนื่องจากถูก unsupervised – เพิ่มการดูแลเพิ่มประสิทธิภาพการวัดที่เราประเมินดีกว่า#TAGSPACE outperforms WSABIE ที่ dimensionalities ทั้งหมดเนื่องจากชุดทดสอบค่อนข้างมากผลคือทางสถิติอย่างมีนัยสำคัญ ตัวอย่างเปรียบเทียบ #TAGSPACE (64 มิติ) เต้น Wsabie (64มิติ) สำหรับใบหน้าชุดข้อมูล 56% ของเวลา และวาด 23% ของเวลาในการวัดอันดับและอย่างมีนัยสำคัญทางสถิติกับการ Wilcoxonการทดสอบอันดับลงนามมีการคาดการณ์บางอย่างสำหรับ #TAGSPACEให้ตัวอย่างที่สร้างขึ้นในตารางที่ 2เราแสดงใกล้ embeddings คำให้การบทความ การฝึกอบรมข้อมูลรวบรวมในขณะพายุฤดูหนาวท่าน อธิบายการคาดคะเนในโพสต์แรก และ Kevin Spacey ปรากฏในแสดง "บ้านของบัตร ในกรณี hashtagsแสดงป้ายชื่อที่ความหมายของการบทความ ความคล้ายคลึงกันไม่เพียงทางไวยากรณ์ของแต่ละบุคคลคำ
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
WSABIE (เวสตัน et al., 2011)
เป็นภายใต้การดูแลการฝังรูปแบบบิลิแนร์
แต่ละคำและมีแท็กฝัง คำในข้อความที่มีค่าเฉลี่ยในการผลิตการฝังของข้อความและ hashtags มีการจัดอันดับจากความคล้ายคลึงกันเพื่อฝังข้อความ. นั่นคือรูปแบบเป็นของรูปแบบ: ฉ (w; t) = น้ำหนัก> U> เสื้อ V ที่ โพสต์กว้างเป็นตัวแทนเป็นถุงของคำ(เวกเตอร์เบาบางใน RN) แท็กเป็นหนึ่งร้อนเวกเตอร์ในRN และ U และ V มี k? ยังไม่มีการฝังเมทริกซ์. การสูญเสีย WARP ตามที่อธิบายไว้ในส่วนที่ 3 จะใช้สำหรับการฝึกอบรม. ผลการปฏิบัติงานของทุกรูปแบบเหล่านี้ที่คาดการณ์ hashtag สรุปในตารางที่ 3 และ 4 เราพบผลที่คล้ายกันสำหรับชุดข้อมูลทั้ง ความถี่และเส้นเขตแดน #words ทำงานได้ไม่ดีทั่วกระดาน, การสร้างความต้องการที่จะเรียนรู้จากข้อความ. ท่ามกลางการเรียนรู้รูปแบบที่ใกล้ชิดword2vec ดำเนินการที่เลวร้ายที่สุด เราเชื่อว่านี่เป็นเพราะมันเป็นใกล้ชิด - เพิ่มการกำกับดูแลที่ดีกว่าการเพิ่มประสิทธิภาพตัวชี้วัดที่เราประเมิน. #TAGSPACE มีประสิทธิภาพดีกว่า WSABIE ที่ dimensionalities ทั้งหมด. เนื่องจากชุดทดสอบที่ค่อนข้างใหญ่ผลมีนัยสำคัญทางสถิติ; ตัวอย่างเช่นการเปรียบเทียบ #TAGSPACE (64 มซำ) เต้น Wsabie (64 มซำ) สำหรับชุดข้อมูลที่หน้า 56% ของเวลาและดึง23% ของเวลาในแง่ของตัวชี้วัดการจัดอันดับที่และมีนัยสำคัญทางสถิติกับWilcoxon ลงนามยศ การทดสอบ. บางตัวอย่างสำหรับการคาดการณ์ #TAGSPACE จะได้รับสำหรับตัวอย่างบางส่วนที่สร้างขึ้นในตารางที่2 นอกจากนี้เรายังแสดงที่ใกล้ที่สุด embeddings คำลงในโพสต์ ข้อมูลที่ถูกเก็บรวบรวมการฝึกอบรมในเวลาที่ท่านพายุฤดูหนาวอธิบายคาดการณ์สำหรับการโพสต์ครั้งแรกและเควินสเปซีย์ปรากฏในการแสดง"บ้านของการ์ด" ในทุกกรณี hashtags # เปิดเผยฉลากที่จับความหมายของการโพสต์ไม่ได้เป็นเพียงความคล้ายคลึงกันของประโยคแต่ละคำ


































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
wsabie ( เวสตัน et al . , 2011 ) คือการใช้การฝัง
นางแบบ แต่ละคำและแท็กมี
มีการฝัง . คำพูดในข้อความเฉลี่ย
เพื่อผลิตการฝังตัวของข้อความและ hashtags
มีการจัดอันดับโดยความคล้ายคลึงกับข้อความฝังตัว .
นั่นคือรูปแบบของฟอร์ม :
F ( W ; T ) = W > U > V T
ที่โพสต์ W คือ แสดงเป็น ถุง คำ
( โหรงเวกเตอร์ใน RN ) แท็กเป็นหนึ่งร้อนเวกเตอร์
ใน RN และ U และ V k  N ผ่านเมทริกซ์
บิดขาดทุนตามที่อธิบายไว้ในส่วนที่ 3 คือ ใช้สำหรับฝึก
.
ประสิทธิภาพของแบบจำลองทั้งหมดเหล่านี้ที่แฮชแท็กคำทำนาย
ได้สรุปไว้ใน ตารางที่ 3 และ 4 เราพบ
ผลที่คล้ายกันทั้งชุดข้อมูล ความถี่ และ#
คำหมุดทํางานทั่วกระดาน การต้องเรียนรู้จากข้อความ
ระหว่างรูปแบบการเรียนรู้ , unsupervised
word2vec มีประสิทธิภาพที่สุด เราเชื่อว่านี่
เนื่องจากมันถูกคนเดียว–เพิ่มการเพิ่มตัวชี้วัดให้เราประเมินดีกว่า
.
# tagspace โปรย wsabie เลย dimensionalities .
เนื่องจากชุดทดสอบที่ค่อนข้างใหญ่
ผลอย่างมีนัยสำคัญทางสถิติ เช่น การเปรียบเทียบ#
tagspace ( 64 สลัว ) เต้น wsabie ( 64
สลัว ) สำหรับหน้าวันที่ 56 % ของเวลาและ
เหลือ 23 เปอร์เซ็นต์ของเวลาในแง่ของตำแหน่งตัวชี้วัด ,
และอย่างมีนัยสำคัญทางสถิติด้วยสถิติ

ลงชื่อทดสอบอันดับ บางตัวอย่างสำหรับการพยากรณ์# tagspace เป็น
ให้บางขึ้นตัวอย่างตาราง 2 .
เรายังแสดงคำที่ embeddings กับ
โพสต์ ข้อมูลการฝึกอบรมเพื่อที่เวลาของ
ท่านพายุฤดูหนาวอธิบายทำนาย
โพสต์แรกและ เควิน สเปซีย์ ปรากฏใน
แสดง " บ้านไพ่ " ในทุกคดี เปิดเผยว่า การจับฉลาก hashtags

ความหมายของบทความ ไม่ใช่แค่ ความเหมือนของแบบแต่ละคำ

การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: