Formally, given the loss function over an arbitrary set ofexamples S,  การแปล - Formally, given the loss function over an arbitrary set ofexamples S,  ไทย วิธีการพูด

Formally, given the loss function o

Formally, given the loss function over an arbitrary set of
examples S, parameterized by a weight vector w
L(w, S) = X
x∈S
log(1 + exp(−w · x)) + λ||w||1, (3)
where λ > 0 is the regularization parameter, we seek an
optimal vector w∗
such that
w
∗ = arg min
w
L(w, SP ). (4)
There is a wide variety of methods that could be employed
to minimize the loss function in Equation 3. In this paper,
we use the parallel-update optimization algorithm, first proposed
by Collins et al. [12].
The parallel-update algorithm for finding the optimal diagonal
transition weight vector w∗
is outlined in Algorithm
1. The parallel-update algorithm iteratively updates the
weight vector wt
at round t by vector ∆t which is computed
using the loss on each individual instance q
t
(i).
The main advantage of the parallel-update algorithm is
its scalability in the number of examples and the number
of features. Note that in Algorithm 1, the q
t
(i) and µ
±
j
parameters are computed independently for each instance
i and transition j, which naturally enables parallelization
of the weight updates. In addition, the parallel-update algorithm
can continuously update the weight vector w∗
as
new instances are added to the train set. This property is
particularly important in the online setting, where training
instances are continuously added based on new user feedback.
4.4 Retrieval with Topic Transitions
Given the optimal diagonal topic transition weight vector
w∗
computed by the Algorithm 1, we use it to rank the
related video suggestions in response to a watch video VW .
The scoring function is simply given by
sc(VW , VR) = X
{wi∈w∗ : τi∈VW ∩VR}
wi (5)
Note that Equation 5 does not require utilizing any additional
heuristics such as idf weighting, in addition to the
transition weights. This is due to the fact the weights w∗
are
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
กำหนดฟังก์ชันขาดทุนมากกว่าชุดกำหนดอย่างเป็นกิจจะลักษณะตัวอย่าง S ค่าพารามิเตอร์ โดยเวกเตอร์ w น้ำหนักL (w, S) = Xx∈Sล็อก (1 + exp(−w · x)) + λ|| w|| 1 (3)λ > 0 เป็น พารามิเตอร์ regularization เราต้องการเวกเตอร์ที่สุด w∗เช่นว่าw∗ =อาร์กิวเมนต์ของค่าต่ำสุดwL (w, SP) (4)มีหลากหลายวิธีที่สามารถทำงานเพื่อลดการสูญเสียฟังก์ชันในสมการ 3 ในเอกสารนี้เราใช้ขั้นตอนวิธีเพิ่มประสิทธิภาพปรับปรุงขนาน ก่อน นำเสนอโดยคอลลินส์ et al. [12]ปรับปรุงขนานอัลกอริทึมในการหาเส้นทแยงมุมที่เหมาะสมเปลี่ยนน้ำหนักเวกเตอร์ w∗ระบุไว้ในอัลกอริทึม1 อัลกอริทึมปรับปรุงขนาน.ปรับปรุงซ้ำ ๆน้ำหนัก wt เวกเตอร์ที่ t รอบโดย ∆t เวกเตอร์ซึ่งมีคำนวณใช้การสูญเสียในแต่ละอินสแตนซ์แต่ละ qt(i)ประโยชน์หลักของอัลกอริทึมปรับปรุงควบคู่กันคือขนาดของจำนวนตัวอย่างและหมายเลขของคุณสมบัติ หมายเหตุว่า ในอัลกอริทึม 1 คิวt(i) และเขต±เจพารามิเตอร์จะคำนวณแยกต่างหากสำหรับแต่ละอินสแตนซ์i และเปลี่ยนเจ ซึ่งธรรมชาติ parallelizationของการปรับปรุงน้ำหนัก นอกจากนี้ ขั้นตอนวิธีการปรับปรุงควบคู่กันสามารถปรับปรุง w∗ เวกเตอร์น้ำหนักอย่างต่อเนื่องเป็นมีเพิ่มอินสแตนซ์ใหม่ชุดรถไฟ โรงแรมแห่งนี้สำคัญอย่างยิ่งในการตั้งค่าออนไลน์ ฝึกอบรมอย่างต่อเนื่องบวกตามคำติชมของผู้ใช้ใหม่4.4 เรียกกับเปลี่ยนหัวข้อกำหนดให้เวกเตอร์น้ำหนักเปลี่ยนแปลงหัวข้อเส้นทแยงมุมที่เหมาะสมw∗คำนวณ 1 อัลกอริทึม เราใช้อันดับแนะนำวีดีโอเพื่อดูการตอบสนองที่เกี่ยวข้องกับ VW วิดีโอเพียงแค่มีกำหนดฟังก์ชันให้คะแนนโดยsc (VW, VR) = X{ wi∈w∗: τi∈VW ∩VR }อินเตอร์ (5)สังเกตว่า สมการ 5 ไม่จำเป็นต้องใช้เพิ่มเติมใด ๆลองผิดลองถูกเช่น idf น้ำหนัก นอกจากนี้การน้ำหนักเปลี่ยนแปลง นี่คือเนื่องจาก w∗ น้ำหนักมี
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
อย่างเป็นทางการได้รับฟังก์ชั่นการสูญเสียมากกว่าชุดโดยพลการของตัวอย่าง S, แปรโดยน้ำหนักเวกเตอร์ W L (W, S) = X x∈Sเข้าสู่ระบบ (1 + ประสบการณ์ (-w · x)) + λ || || กว้าง 1 (3) ที่λ> 0 พารามิเตอร์ regularization เราแสวงหาเวกเตอร์ที่ดีที่สุด* กว้างเช่นที่กว้าง* = หาเรื่องนาทีน้ำหนักL (W, SP) (4) มีความหลากหลายของวิธีการที่จะได้รับการว่าจ้างเป็นเพื่อลดการสูญเสียในการทำงานของสมการที่ 3 ในบทความนี้เราจะใช้วิธีการเพิ่มประสิทธิภาพขนานปรับปรุงเสนอครั้งแรกโดยคอลลินและอัล [12]. อัลกอริทึมแบบขนานปรับปรุงสำหรับการหาเส้นทแยงมุมที่ดีที่สุดการเปลี่ยนแปลงน้ำหนักเวกเตอร์ * w การระบุไว้ในขั้นตอนวิธี1 ขั้นตอนวิธีการปรับปรุงขนานซ้ำปรับปรุงน้ำหนักน้ำหนักเวกเตอร์ที่t โดยรอบเวกเตอร์Δtซึ่งคำนวณโดยใช้การสูญเสียในกรณีแต่ละคิวที(i). ประโยชน์หลักของขั้นตอนวิธีขนานปรับปรุงขยายขีดความสามารถในจำนวนตัวอย่างและจำนวนของคุณสมบัติ ทราบว่าในขั้นตอนวิธีที่ 1, คิวที(i) และไมครอน±เจพารามิเตอร์จะคำนวณเป็นอิสระเช่นแต่ละฉันและการเปลี่ยนแปลงเจที่เป็นธรรมชาติช่วยให้ขนานของน้ำหนักการปรับปรุง นอกจากนี้ขั้นตอนวิธีการขนานปรับปรุงอย่างต่อเนื่องสามารถปรับปรุงน้ำหนักเวกเตอร์ * W เป็นกรณีใหม่จะถูกเพิ่มไปยังชุดรถไฟ สถานที่แห่งนี้เป็นสิ่งสำคัญโดยเฉพาะอย่างยิ่งในการตั้งค่าออนไลน์ที่ฝึกอบรมกรณีที่มีการเพิ่มขึ้นอย่างต่อเนื่องตามความคิดเห็นของผู้ใช้ใหม่. 4.4 การดึงด้วยการเปลี่ยนหัวข้อที่กำหนดหัวข้อในแนวทแยงที่ดีที่สุดการเปลี่ยนแปลงน้ำหนักเวกเตอร์W * คำนวณโดยอัลกอริทึมที่ 1 ที่เราใช้ในการจัดอันดับที่เกี่ยวข้อง. ข้อเสนอแนะวิดีโอในการตอบสนองต่อ VW ดูวิดีโอฟังก์ชั่นการให้คะแนนจะได้รับเพียงโดยSC (VW, VR) = X {wi∈w *: τi∈VW∩VR} ไร้ (5) โปรดทราบว่าสมการ 5 ไม่จำเป็นต้องใช้ใด ๆ เพิ่มเติมการวิเคราะห์พฤติกรรมเช่นน้ำหนักIDF, นอกเหนือไปจากน้ำหนักการเปลี่ยนแปลง เพราะนี่คือความเป็นจริงน้ำหนักน้ำหนัก * ที่อยู่



















































การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
อย่างเป็นทางการให้ฟังก์ชันการสูญเสียมากกว่าการตั้งค่าโดยพลการของ
ตัวอย่างของพารามิเตอร์โดยเวกเตอร์น้ำหนัก W
L ( W , s ) = x
x ∈ S
log ( 1 exp ( − W ด้วย X ) λ | | W | | 1 ( 3 )
ที่λ > 0 คือ ผิดกฎหมายพารามิเตอร์ เราแสวงหา∗
w
เวกเตอร์ที่เหมาะสมเช่นที่
w
w

∗ = arg min L ( W , SP ) ( 4 )
มีความหลากหลายของวิธีการที่สามารถใช้เพื่อลดการสูญเสียในการทำงาน
สมการ 3 ในกระดาษนี้
เราใช้แบบขนานเพิ่มประสิทธิภาพการปรับปรุงขั้นตอนวิธีแรกเสนอ
โดย คอลลินส์ et al . [ 12 ] .
ปรับปรุงอัลกอริทึมแบบขนานสำหรับการค้นหาที่ดีที่สุดในแนวทแยง
w
คือการเปลี่ยนน้ำหนักเวกเตอร์∗ไว้ในขั้นตอนวิธี
1 ขั้นตอนวิธีการปรับปรุงขนานซ้ำปรับปรุง

ที่น้ำหนักน้ำหนักเวกเตอร์รอบเวกเตอร์ T T โดย∆ซึ่งจะคำนวณ
ใช้ขาดทุนในแต่ละอินสแตนซ์ Q
T

( ผม )ประโยชน์หลักของขั้นตอนวิธีการปรับปรุง scalability ขนานคือ
ของจำนวนตัวอย่างและหมายเลข
คุณสมบัติ ทราบว่าในขั้นตอนที่ 1 Q
t
( i ) และµ
±
J
พารามิเตอร์ที่คำนวณโดยอิสระสำหรับแต่ละอินสแตนซ์
ฉันเปลี่ยน J ที่เป็นธรรมชาติช่วยให้ parallelization ไป
ของน้ำหนักการปรับปรุง นอกจากนี้ การปรับปรุงอัลกอริทึม
ขนานสามารถปรับปรุงอย่างต่อเนื่องเวกเตอร์น้ำหนัก W

∗เป็นอินสแตนซ์ใหม่จะถูกเพิ่มไปยังชุดรถไฟ . คุณสมบัตินี้เป็นสำคัญในการตั้งค่าออนไลน์

ที่กรณีการฝึกอบรมเป็นอย่างต่อเนื่องตามความคิดเห็นของผู้ใช้ใหม่ ระบบสืบค้นหัวข้อเปลี่ยน

ให้เหมาะสมในแนวทแยงหัวข้อเปลี่ยนน้ำหนักเวกเตอร์
w
∗คำนวณโดยวิธีที่ 1 เราใช้มันในการจัดอันดับ
วิดีโอที่เกี่ยวข้อง ข้อเสนอแนะในการชมวิดีโอ VW .
คะแนนฟังก์ชันเป็นเพียงได้รับโดย
D ( VW VR ) = x
{ วี∈ W ∗ : τผม∈ VW ∩ VR }
วี ( 5 )
ทราบสมการที่ 5 ไม่ต้องใช้อักษรใด ๆเพิ่มเติมเช่นน้ำหนัก
IDF นอกจาก
เปลี่ยนน้ำหนัก ที่เป็นเช่นนี้เนื่องจากน้ำหนัก W ∗
เป็น
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: