We then probe our model’s generality, by transfering
its learned representations to the task of personalized
document recommendation: for each of
M users, given N previous positive interactions
with documents (likes, clicks, etc.), predict the
N + 1’th document the user will positively interact
with. To perform well on this task, the representation
should capture the user’s interest in
textual content. We find representations trained
on hashtag prediction outperform representations
from unsupervised learning, and that our convolutionarchitecture performs better than WSABIE
trained on the same hashtag task.
2 Prior Work
Some previous work (Davidov et al., 2010; Godin
et al., 2013; She and Chen, 2014) has addressed
hashtag prediction. Most such work applies to
much smaller sets of hashtags than the 100,000 we
consider, with the notable exception of Ding et al.
(2012), which uses an unsupervised method.
As mentioned in Section 1, many approaches
learn unsupervised word embeddings. In our
experiments we use word2vec (Mikolov et al.,
2013) as a representative scalable model for unsupervised
embeddings. WSABIE (Weston et al.,
2011) is a supervised embedding approach that has
shown promise in NLP tasks (Weston et al., 2013;
Hermann et al., 2014). WSABIE is shallow, linear,
and ignores word order information, and so may
have less modeling power than our approach.
Convolutional neural networks (CNNs), in
which shared weights are applied across the input,
are popular in the vision domain and have recently
been applied to semantic role labeling (Collobert
et al., 2011) and parsing (Collobert, 2011).
Neural networks in general have also been applied
to part-of-speech tagging, chunking, named entity
recognition (Collobert et al., 2011; Turian et
al., 2010), and sentiment detection (Socher et al.,
2013). All these tasks involve predicting a limited
(2-30) number of labels. In this work, we make
use of CNNs, but apply them to the task of ranking
a very large set of tags. We thus propose a
model and training scheme that can scale to this
class of problem.
เราโพรบแล้ว generality ของรุ่นของเรา โดยการโอนส่วนบุคคลแทนการเรียนรู้การงานเอกสารคำแนะนำ: สำหรับแต่ละผู้ใช้ M, N โต้บวกก่อนหน้าให้เอกสาร (ชอบ คลิก ฯลฯ), ทำนายการN + 1' th เอกสารผู้ใช้จะโต้ตอบบวกด้วยการ ทำดีในงานนี้ การแสดงควรจับผู้สนใจในเนื้อหาข้อความ เราค้นหาแทนที่การฝึกอบรมในการคาดเดาอย่างไร hashtag outperform แทนเรียน unsupervised และที่ convolutionarchitecture ของเราทำดีกว่า WSABIEฝึกงานอย่างไร hashtag เดียวทำงานก่อน 2งานก่อนหน้า (Davidov et al., 2010 Godinร้อยเอ็ด al., 2013 เธอและเฉิน 2014) มีอยู่การคาดเดาอย่างไร hashtag งานดังกล่าวส่วนใหญ่ใช้กับขนาดเล็กชุด hashtags กว่า 100000 เราพิจารณา มีข้อยกเว้นที่โดดเด่นของดิง et al(2012), ที่ใช้วิธีการ unsupervisedดังกล่าวในส่วนที่ 1 หลายวิธีเรียนรู้คำ unsupervised embeddings ในของเราทดลองใช้ word2vec (Mikolov et al.,2013) เป็นแบบจำลองสามารถปรับพนักงานสำหรับ unsupervisedembeddings WSABIE (Weston et al.,2011) เป็นวิธีการ embedding มีความสัญญาแสดงในงาน NLP (Weston et al., 2013แฮร์มันน์ et al., 2014) WSABIE เป็นตื้น เชิง เส้นละเว้นคำสั่งข้อมูล และดังนั้น อาจมีอำนาจสร้างโมเดลน้อยกว่าวิธีการของเราเครือข่ายประสาท convolutional (CNNs), ในน้ำหนักที่ใช้ร่วมกันจะใช้ในการป้อนข้อมูลได้รับความนิยมในโดเมนของวิสัยทัศน์ และมีล่าการใช้บทบาททางตรรกที่ติดฉลาก (Collobertร้อยเอ็ด al., 2011) และแยก (Collobert, 2011)เครือข่ายประสาทโดยทั่วไปยังถูกใช้เพื่อเป็นส่วนหนึ่งของคำพูดติดป้าย chunking ชื่อเอนทิตีการรับรู้ (Collobert et al., 2011 Turian ร้อยเอ็ดal., 2010), และตรวจสอบความเชื่อมั่น (Socher et al.,2013) การงานเหล่านี้เกี่ยวข้องกับการคาดการณ์การจำกัด(มหาชน)จำนวนป้ายชื่อ (2-30) ในงานนี้ เราทำใช้ของ CNNs แต่ใช้งานในการจัดอันดับชุดแท็กมาก เราจึงเสนอการรูปแบบและโครงร่างการฝึกอบรมที่สามารถขนาดนี้ระดับของปัญหา
การแปล กรุณารอสักครู่..

จากนั้นเราจะตรวจสอบรูปแบบทั่วไปของเราโดยการถ่ายโอนการแสดงที่จะได้เรียนรู้การทำงานของส่วนบุคคลคำแนะนำเอกสาร: สำหรับแต่ละผู้ใช้ M ให้ไม่มีปฏิสัมพันธ์เชิงบวกก่อนหน้านี้กับเอกสาร(ชอบคลิก ฯลฯ ) คาดการณ์N + เอกสาร 1'th ผู้ใช้ในเชิงบวกจะมีปฏิสัมพันธ์กับ ทำงานได้ดีในงานนี้ที่เป็นตัวแทนควรจับความสนใจของผู้ใช้ในเนื้อหาต้นฉบับเดิม เราพบการแสดงการฝึกอบรมเกี่ยวกับ hashtag ทำนายดีกว่าการแสดงจากการเรียนรู้ใกล้ชิดและที่ convolutionarchitecture ของเรามีประสิทธิภาพดีกว่า WSABIE ฝึกอบรมเกี่ยวกับงาน hashtag เดียวกัน. 2 การทำงานก่อนที่บางคนทำงานก่อนหน้า(Davidov et al, 2010;. โก. et al, 2013; เธอ และ Chen, 2014) ได้ที่ทำนายhashtag งานดังกล่าวส่วนใหญ่จะนำไปใช้กับชุดที่มีขนาดเล็กมาก hashtags กว่า 100,000 เราพิจารณาด้วยความทึ่งยกเว้นDing et al. (2012) ซึ่งใช้วิธีการหากิน. ดังกล่าวในมาตรา 1, หลายวิธีเรียนรู้คำembeddings ใกล้ชิด ของเราในการทดลองที่เราใช้ word2vec (Mikolov et al., 2013) เป็นรูปแบบที่สามารถปรับขยายตัวแทนใกล้ชิดembeddings WSABIE (. เวสตัน, et al, 2011) เป็นวิธีการฝังภายใต้การดูแลที่ได้แสดงให้เห็นสัญญาในงานNLP (เวสตัน, et al, 2013;. แฮร์มันน์ et al, 2014). WSABIE ตื้นเชิงเส้นและไม่สนใจข้อมูลคำสั่งและอื่นๆ อาจจะมีอำนาจในการสร้างแบบจำลองน้อยกว่าวิธีการของเรา. เครือข่ายประสาท Convolutional (CNNs) ในที่ที่ใช้ร่วมกันน้ำหนักถูกนำมาใช้ทั่วใส่เป็นที่นิยมในโดเมนวิสัยทัศน์และได้เมื่อเร็วๆ นี้ได้รับการนำไปใช้กับการติดฉลากบทบาทความหมาย (Collobert.. et al, 2011) และการแยก (Collobert 2011) โครงข่ายประสาทเทียมโดยทั่วไปก็ยังคงถูกนำมาใช้เพื่อเป็นส่วนหนึ่งของคำพูดที่ติดแท็ก, chunking กิจการชื่อได้รับการยอมรับ(Collobert et al, 2011. Turian et al., 2010) และการตรวจสอบความเชื่อมั่น (Socher et al., 2013) งานทั้งหมดเหล่านี้เกี่ยวข้องกับการคาดการณ์ จำกัด(30/2) จำนวนของป้าย ในงานนี้เราจะทำให้การใช้งานของ CNNs แต่นำไปใช้กับงานของการจัดอันดับชุดใหญ่มากของแท็ก เราจึงนำเสนอรูปแบบและรูปแบบการฝึกอบรมที่สามารถปรับขนาดนี้ระดับของปัญหา
การแปล กรุณารอสักครู่..

จากนั้นเราจะตรวจสอบรูปแบบของเราโดยทั่วไป โดยมีการถ่ายทอดเรียนรู้
เป็นตัวแทนไปงานส่วนบุคคล
เอกสารข้อเสนอแนะสำหรับแต่ละผู้ใช้
M , N ก่อนหน้านี้ได้รับการโต้ตอบบวก
กับเอกสาร ( ชอบ , คลิก , ฯลฯ ) , ทำนาย
n 1'th เอกสารผู้ใช้จะบวกโต้ตอบ
ด้วย เพื่อแสดงในงานนี้ การแสดง
ควรจับผู้ใช้สนใจ
เนื้อหาต้นฉบับเดิม เราพบตัวแทนการฝึกอบรมในการทำนายน้ำหนักแทน
hashtag จากการเรียนรู้แบบไม่มีผู้สอน และ convolutionarchitecture ของเรามีประสิทธิภาพดีกว่า wsabie
ฝึกงานแฮ็ชแท็กเดียวกัน
2 ก่อนงานบางอย่างก่อนหน้านี้ ดาวีดอฟ et al . , 2010 ; Godin
et al . , 2013 ; เธอ และ เฉิน ปี 2014 ) ได้ให้ความสนใจ
แฮชแท็กคำทำนาย ส่วนใหญ่ใช้งาน
เช่นขนาดเล็กมากชุด hashtags กว่า 100000 เรา
พิจารณา ยกเว้นมีชื่อเสียงของ Ding et al .
( 2012 ) ซึ่งใช้วิธีการ unsupervised
ตามที่กล่าวไว้ในมาตรา 1 , หลายวิธี
เรียนรู้ embeddings คำแบบไม่โต้ตอบ ในการทดลองของเรา เราใช้ word2vec
( mikolov et al . ,
2013 ) เป็นตัวแทนนำเสนอรูปแบบ unsupervised
embeddings . wsabie ( เวสตัน et al . ,
2554 ) เป็นแนวทางที่มีการฝัง
แสดงสัญญาในงาน NLP ( เวสตัน et al . , 2013 ;
แฮร์มันน์ et al . , 2010 ) wsabie ตื้น , linear ,
และละเว้นข้อมูลคำสั่ง และให้มีอำนาจมากกว่าน้อยกว่าแบบ
วิธีการของเรา โครงข่ายประสาทเทียมในคอน ( cnns ) ,
ซึ่งร่วมกันน้ำหนักจะใช้ผ่านเข้า
เป็นที่นิยมในวิสัยทัศน์และโดเมนเพิ่ง
ถูกนำมาใช้เพื่อเปรียบเทียบบทบาทในการติดฉลาก ( collobert
et al . , 2011 ) และการ ( collobert , 2011 ) .
โครงข่ายประสาทเทียมโดยทั่วไปยังถูกใช้เป็นส่วนหนึ่งของการพูด
ติดป้าย , chunking , ชื่อนิติบุคคล
รับรู้ ( collobert et al . , 2011 ;
turian et al . , 2010 ) และการตรวจจับ ความเชื่อมั่น ( socher et al . ,
2013 ) งานทั้งหมดเหล่านี้เกี่ยวข้องกับทำนาย )
( 2-30 ) จำนวนของป้ายชื่อ ในงานนี้เราทำให้
ใช้ cnns แต่ใช้พวกเขาเพื่อให้งานของการจัดอันดับ
ชุดใหญ่มากของแท็ก เราจึงเสนอรูปแบบและแผนการฝึก
) ระดับของปัญหานี้
การแปล กรุณารอสักครู่..
