Figure 3: Topic transition matrix. Diagonal topictransitions are marke การแปล - Figure 3: Topic transition matrix. Diagonal topictransitions are marke ไทย วิธีการพูด

Figure 3: Topic transition matrix.

Figure 3: Topic transition matrix. Diagonal topic
transitions are marked in grey.
It is easy to show that following the formulation in Equation
2, transition function IPR can take three values:
1. IPR (τW ,τR) = +1 iff τR is associated only with the
positive example V
(+)
R .
2. IPR (τW ,τR) = −1 iff τR is associated only with the
negative example V
(−)
R .
3. IPR (τW ,τR) = 0 in all other cases.
4.2 Diagonal Topic Transitions
Note that in the unconstrained form presented in Equation
2, we capture transitions between all pairs of topics in
the lexicon T. Therefore, given a transition matrix in Figure
3 we need to learn a transition weight for each cell in
the matrix.
This approach is clearly infeasible for large open domain
lexicons, which can contain millions of unique topics, since
there are T
2 possible transitions. Moreover, the transition
matrix will be very sparse since there will be relatively few
topic pairs with observed transitions. Even for pairs where
we do observe transitions, the number of observed examples
may be too small to learn a reliable model.
Therefore, we restrict ourselves to learning the transition
weights only for the diagonal of the transition matrix
(marked in grey in Figure 3). This makes the learning
tractable, and leads to a more reliable model with less over-
fitting, since a diagonal transition is likely to be observed
more frequently than a transition between two arbitrary topics.
Also, note that the diagonal transitions mirror the information
retrieval approach described in Section 3, where only
matches between topics that occur both in the watch and
the related video are considered (Equation 1). This facilitates
a fair comparison between the performance of these
approaches, as discussed in Section 7.
4.3 Loss Miminimization
Given the diagonal topic transition representation described
in Section 4.2, the train set SP is defined over all the nondiscordant
pairs of related videos, sampled from user traffic.
For the i-th pair Pi ∈ SP , a transition vector is defined as
xi = {IPi
(τ, τ ): τ ∈ T},
such that xij denotes the j-th diagonal topic transition for
the i-th pair of related videos.
Then, we seek a weight vector w∗
, which minimizes the
l1- regularized logistic loss over the train set SP .
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
รูปที่ 3: หัวข้อเปลี่ยนเมตริกซ์ หัวข้อเส้นทแยงมุมช่วงการเปลี่ยนภาพมีเครื่องหมายเป็นสีเทาง่ายต่อการแสดงที่ตามกำหนดในสมการ2 ฟังก์ชันเปลี่ยนแปลงทรัพย์สินทางปัญญาสามารถใช้ค่าที่สาม:1. ทรัพย์สินทางปัญญา (τW, τR) = + 1 iff τR เกี่ยวข้องเฉพาะกับการตัวอย่างบวก V(+)R2. ทรัพย์สินทางปัญญา (τW, τR) = −1 iff τR เกี่ยวข้องเฉพาะกับการตัวอย่างลบ V(−)R3. ทรัพย์สินทางปัญญา (τW, τR) = 0 ในกรณีอื่น4.2 เปลี่ยนหัวข้อที่แนวทแยงโปรดสังเกตว่า แบบฟอร์ม unconstrained แสดงในสมการ2 ที่เราจับคู่ทั้งหมดของหัวข้อในช่วงการเปลี่ยนปทานุกรมต. ดังนั้น กำหนดให้เมทริกซ์เปลี่ยนในรูปเราต้องเรียนรู้น้ำหนักเปลี่ยนแปลงสำหรับแต่ละเซลล์ใน 3เมตริกซ์การวิธีนี้เป็นวิธีถอดอย่างชัดเจนสำหรับโดเมนเปิดขนาดใหญ่lexicons ซึ่งประกอบด้วยหัวข้อเฉพาะ เป็นล้าน ๆ ตั้งแต่มี Tเปลี่ยนได้ 2 นอกจากนี้ การเปลี่ยนแปลงเมตริกซ์จะเบาบางมากเนื่องจากจะมีค่อนข้างน้อยจับคู่หัวข้อกับสังเกตช่วงการเปลี่ยนภาพ สำหรับคู่ที่เราสังเกตช่วงการเปลี่ยนภาพ จำนวนตัวอย่างที่สังเกตอาจจะเล็กเกินกว่าจะเรียนรู้รูปแบบความน่าเชื่อถือดังนั้น เราจำกัดตัวเองในการเรียนรู้การเปลี่ยนแปลงน้ำหนักสำหรับเส้นทแยงมุมของเมทริกซ์เปลี่ยนเท่านั้น(ทำเครื่องหมายเป็นสีเทาในรูปที่ 3) ทำให้การเรียนรู้tractable และนำไปสู่รูปแบบที่เชื่อถือได้มากและน้อยกว่าเหมาะสม เปลี่ยนเส้นทแยงมุมเป็นแนวโน้มที่จะสังเกตได้ข้อมูลมากกว่าเปลี่ยนระหว่างสองหัวข้อที่กำหนดยัง โปรดทราบว่า การเปลี่ยนเส้นทแยงมุมสะท้อนข้อมูลเรียกวิธีการอธิบายไว้ในส่วน 3 ที่เดียวตรงระหว่างหัวข้อต่าง ๆ ที่เกิดขึ้นทั้งในนาฬิกา และวิดีโอที่เกี่ยวข้องจะพิจารณา (สมการที่ 1) ซึ่งอำนวยความสะดวกธรรมเปรียบเทียบระหว่างประสิทธิภาพการทำงานเหล่านี้แนว ตามที่อธิบายไว้ในส่วน 74.3 Miminimization ขาดทุนอธิบายให้แสดงการเปลี่ยนแปลงหัวข้อเส้นทแยงมุมในส่วน 4.2 กำหนดรถไฟตั้ง SP ไปทั้งหมดใน nondiscordantคู่ของวิดีโอที่เกี่ยวข้อง ตัวอย่างจากผู้ใช้การจราจรสำหรับคู่ i th ∈ SP เวกเตอร์การเปลี่ยนถูกกำหนดให้เป็นผีxi = {IPi(Τ, Τ): Τ∈ T },ให้ xij หมายถึงเปลี่ยนแปลงหัวข้อทแยงมุมเจ thคู่ไอ th ของวิดีโอที่เกี่ยวข้องจากนั้น เราค้นหา w∗ เวกเตอร์เป็นน้ำหนักซึ่งช่วยลดการl1-regularized โลจิสติกที่สูญหายบนรถไฟตั้ง SP
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
รูปที่ 3: การเปลี่ยนแปลงหัวข้อเมทริกซ์
หัวข้อในแนวทแยงเปลี่ยนมีการทำเครื่องหมายสีเทา.
มันเป็นเรื่องง่ายที่จะแสดงให้เห็นว่าต่อไปนี้สูตรในสม
2 ฟังก์ชั่นการเปลี่ยนแปลงทรัพย์สินทางปัญญาสามารถใช้สามค่า:
1 ทรัพย์สินทางปัญญา (τW, τR) = 1
ถτRจะเกี่ยวข้องกับตัวอย่างที่ดีV
(+)
R.
2 ทรัพย์สินทางปัญญา (τW, τR) = -1 IFF
τRเป็นเรื่องที่เกี่ยวข้องเฉพาะกับตัวอย่างเชิงลบV
(-). R 3 ทรัพย์สินทางปัญญา (τW, τR) = 0 ในกรณีอื่น ๆ ทั้งหมด. 4.2 การเปลี่ยนหัวข้อในแนวทแยงโปรดทราบว่าข้อจำกัด ในรูปแบบที่นำเสนอในสมการที่2 เราจับการเปลี่ยนระหว่างคู่ของหัวข้อในT. พจนานุกรมดังนั้นเมทริกซ์ได้รับการเปลี่ยนแปลงในรูปที่3 เราจำเป็นต้องเรียนรู้น้ำหนักการเปลี่ยนแปลงสำหรับเซลล์ในแต่ละเมทริกซ์. วิธีการนี้จะเห็นได้ชัดว่าเป็นไปไม่ได้สำหรับโดเมนเปิดโล่งขนาดใหญ่คำศัพท์ซึ่งสามารถมีนับล้านของหัวข้อที่ไม่ซ้ำกันตั้งแต่มีเสื้อ2 เปลี่ยนไปได้ นอกจากนี้การเปลี่ยนแปลงเมทริกซ์จะเบาบางมากเนื่องจากจะมีค่อนข้างน้อยคู่หัวข้อที่มีการเปลี่ยนสังเกต แม้สำหรับคู่ที่เราทำสังเกตเปลี่ยนจำนวนตัวอย่างสังเกตอาจจะเล็กเกินไปที่จะเรียนรู้รูปแบบที่เชื่อถือได้. ดังนั้นเรา จำกัด ตัวเองเพื่อการเรียนรู้การเปลี่ยนแปลงน้ำหนักเพียงเส้นทแยงมุมของเมทริกซ์การเปลี่ยนแปลง(ทำเครื่องหมายสีเทาในรูปที่ 3) . นี้จะทำให้การเรียนรู้เวไนยและนำไปสู่รูปแบบที่มีความน่าเชื่อถือมากขึ้นน้อยเกินที่เหมาะสมเนื่องจากมีการเปลี่ยนแปลงในแนวทแยงมีแนวโน้มที่จะสังเกตเห็นบ่อยครั้งมากขึ้นกว่าการเปลี่ยนแปลงระหว่างสองหัวข้อโดยพล. นอกจากนี้ทราบว่าการเปลี่ยนแนวทแยงสะท้อนข้อมูลวิธีการดึงอธิบายไว้ในมาตรา 3 ที่เพียงจับคู่กันระหว่างหัวข้อที่เกิดขึ้นทั้งในและดูวิดีโอที่เกี่ยวข้องกับการได้รับการพิจารณา(สมการที่ 1) นี้อำนวยความสะดวกเปรียบเทียบยุติธรรมระหว่างประสิทธิภาพการทำงานของเหล่านี้วิธีการที่กล่าวไว้ในมาตรา7 4.3 การสูญเสีย Miminimization ป.ร. ให้ไว้เป็นตัวแทนของการเปลี่ยนแปลงในแนวทแยงหัวข้อที่อธิบายไว้ในมาตรา4.2 รถไฟชุด SP มีการกำหนดมากกว่าทุก nondiscordant คู่ของวิดีโอที่เกี่ยวข้องตัวอย่างจากผู้ใช้ . การจราจรสำหรับคู่ที่i Pi ∈ SP, เวกเตอร์การเปลี่ยนแปลงถูกกำหนดให้เป็นจิน= {IPI (τ, τ): τ∈ T} ดังกล่าวที่ xij หมายถึงการเปลี่ยนแปลงหัวข้อทแยงมุมที่ j สำหรับคู่ที่i วิดีโอที่เกี่ยวข้อง. จากนั้นเราจะหาเวกเตอร์น้ำหนักน้ำหนัก * ซึ่งช่วยลดL1- regularized โลจิสติกการสูญเสียมากกว่ารถไฟชุด SP








































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
รูปที่ 3 : เปลี่ยนเมทริกซ์หัวข้อ การเปลี่ยนหัวข้อ
แนวทแยงจะปรากฏเป็นสีเทา
มันเป็นเรื่องง่ายที่จะแสดงให้เห็นว่า ตามสูตรในสมการ
2 สำหรับฟังก์ชันการเปลี่ยนสามารถใช้ค่า 3 :
1 ทรัพย์สินทางปัญญา ( τ W , τ r ) = 1 IFF τ R เกี่ยวข้องเฉพาะกับ
v
( )
บวกเช่น R .
2 ทรัพย์สินทางปัญญา ( τ W , τ r ) = − 1 IFF τ R จะเกี่ยวข้องเฉพาะกับ
v
ลบตัวอย่างเช่น ( − )
r .
3 ทรัพย์สินทางปัญญา ( τ W ,τ r ) = 0 ในกรณีอื่น ๆทั้งหมด หัวข้อการเปลี่ยน

4.2 ในแนวทแยง ทราบว่าในรูปแบบต่างกันไปแสดงในสมการ
2 เราจับการเปลี่ยนระหว่างคู่ทั้งหมดของหัวข้อใน
พจนานุกรม ต. จึงได้รับการเปลี่ยนเมทริกซ์ในรูป
3 เราต้องเรียนรู้การเปลี่ยนแปลงน้ำหนักของแต่ละเซลล์ใน
เมทริกซ์ วิธีการนี้เป็นอย่างชัดเจนที่

สำหรับโดเมนเองเปิดขนาดใหญ่ซึ่งประกอบด้วยล้านของหัวข้อที่ไม่ซ้ำกันเนื่องจาก
t
2 ได้มีการเปลี่ยน นอกจากนี้การเปลี่ยนแปลง
Matrix จะเบาบางมาก เพราะจะมีคู่
หัวข้อค่อนข้างน้อยสังเกตการเปลี่ยน สำหรับคู่ที่
เราจะสังเกตการเปลี่ยนหมายเลขของสังเกตตัวอย่าง
อาจจะเล็กเกินไปที่จะเรียนรู้รูปแบบที่เชื่อถือได้
ดังนั้นเรา จำกัด ตัวเองเพื่อการเรียนรู้การเปลี่ยนแปลง
น้ำหนักเฉพาะสำหรับขวางของการเปลี่ยนเมทริกซ์
( เครื่องหมายในสีเทาในรูปที่ 3 ) นี้จะทำให้การเรียนรู้
ควบคุมได้ง่าย และนำไปสู่รูปแบบที่เชื่อถือได้มีน้อยกว่า -
เหมาะสม เนื่องจากการเปลี่ยนแปลงในแนวทแยงน่าจะสังเกต
บ่อยกว่าเปลี่ยนระหว่างสองหัวข้อโดยพล .
นอกจากนี้ ทราบว่า การเปลี่ยนกระจกข้อมูล
เส้นทแยงมุมวิธีการสืบค้นข้อมูลที่อธิบายไว้ในมาตรา 3 ที่เท่านั้น
ตรงกันระหว่างหัวข้อที่เกิดขึ้นทั้งในและชมวิดีโอที่เกี่ยวข้องถือว่า
( สมการ 1 ) นี้อำนวยความสะดวกในการเปรียบเทียบระหว่างการปฏิบัติงาน

วิธีเหล่านี้ , ตามที่กล่าวไว้ในมาตรา ๗ miminimization

4.3 ขาดทุนให้เส้นทแยงมุมหัวข้อเปลี่ยนการแสดงอธิบาย
ในส่วน 4.2 ,ชุดรถไฟ SP กำหนดทั่วคู่ nondiscordant
ที่เกี่ยวข้องวิดีโอตัวอย่างจากการจราจรของผู้ใช้ .
สำหรับ i-th คู่ปี่∈ SP , การเปลี่ยนแปลงเวกเตอร์หมายถึง
ซี = { Ipi
( ττ , ) : τ∈ T } ,
เช่นที่ xij แสดงทศนิยม j-th เส้นทแยงมุมหัวข้อการเปลี่ยนแปลงสำหรับ คู่ของวิดีโอที่เกี่ยวข้อง i-th
.
แล้ว เราจะหาเวกเตอร์น้ำหนัก W ∗ซึ่งช่วยลด

,L1 - regularized โลจิสติกขาดทุนกว่ารถไฟชุด SP .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: