Formally, given the loss function over an arbitrary set of
examples S, parameterized by a weight vector w
L(w, S) = X
x∈S
log(1 + exp(−w · x)) + λ||w||1, (3)
where λ > 0 is the regularization parameter, we seek an
optimal vector w∗
such that
w
∗ = arg min
w
L(w, SP ). (4)
There is a wide variety of methods that could be employed
to minimize the loss function in Equation 3. In this paper,
we use the parallel-update optimization algorithm, first proposed
by Collins et al. [12].
The parallel-update algorithm for finding the optimal diagonal
transition weight vector w∗
is outlined in Algorithm
1. The parallel-update algorithm iteratively updates the
weight vector wt
at round t by vector ∆t which is computed
using the loss on each individual instance q
t
(i).
The main advantage of the parallel-update algorithm is
its scalability in the number of examples and the number
of features. Note that in Algorithm 1, the q
t
(i) and µ
±
j
parameters are computed independently for each instance
i and transition j, which naturally enables parallelization
of the weight updates. In addition, the parallel-update algorithm
can continuously update the weight vector w∗
as
new instances are added to the train set. This property is
particularly important in the online setting, where training
instances are continuously added based on new user feedback.
4.4 Retrieval with Topic Transitions
Given the optimal diagonal topic transition weight vector
w∗
computed by the Algorithm 1, we use it to rank the
related video suggestions in response to a watch video VW .
The scoring function is simply given by
sc(VW , VR) = X
{wi∈w∗ : τi∈VW ∩VR}
wi (5)
Note that Equation 5 does not require utilizing any additional
heuristics such as idf weighting, in addition to the
transition weights. This is due to the fact the weights w∗
are
อย่างเป็นทางการได้รับฟังก์ชั่นการสูญเสียมากกว่าชุดโดยพลการของตัวอย่าง S, แปรโดยน้ำหนักเวกเตอร์ W L (W, S) = X x∈Sเข้าสู่ระบบ (1 + ประสบการณ์ (-w · x)) + λ || || กว้าง 1 (3) ที่λ> 0 พารามิเตอร์ regularization เราแสวงหาเวกเตอร์ที่ดีที่สุด* กว้างเช่นที่กว้าง* = หาเรื่องนาทีน้ำหนักL (W, SP) (4) มีความหลากหลายของวิธีการที่จะได้รับการว่าจ้างเป็นเพื่อลดการสูญเสียในการทำงานของสมการที่ 3 ในบทความนี้เราจะใช้วิธีการเพิ่มประสิทธิภาพขนานปรับปรุงเสนอครั้งแรกโดยคอลลินและอัล [12]. อัลกอริทึมแบบขนานปรับปรุงสำหรับการหาเส้นทแยงมุมที่ดีที่สุดการเปลี่ยนแปลงน้ำหนักเวกเตอร์ * w การระบุไว้ในขั้นตอนวิธี1 ขั้นตอนวิธีการปรับปรุงขนานซ้ำปรับปรุงน้ำหนักน้ำหนักเวกเตอร์ที่t โดยรอบเวกเตอร์Δtซึ่งคำนวณโดยใช้การสูญเสียในกรณีแต่ละคิวที(i). ประโยชน์หลักของขั้นตอนวิธีขนานปรับปรุงขยายขีดความสามารถในจำนวนตัวอย่างและจำนวนของคุณสมบัติ ทราบว่าในขั้นตอนวิธีที่ 1, คิวที(i) และไมครอน±เจพารามิเตอร์จะคำนวณเป็นอิสระเช่นแต่ละฉันและการเปลี่ยนแปลงเจที่เป็นธรรมชาติช่วยให้ขนานของน้ำหนักการปรับปรุง นอกจากนี้ขั้นตอนวิธีการขนานปรับปรุงอย่างต่อเนื่องสามารถปรับปรุงน้ำหนักเวกเตอร์ * W เป็นกรณีใหม่จะถูกเพิ่มไปยังชุดรถไฟ สถานที่แห่งนี้เป็นสิ่งสำคัญโดยเฉพาะอย่างยิ่งในการตั้งค่าออนไลน์ที่ฝึกอบรมกรณีที่มีการเพิ่มขึ้นอย่างต่อเนื่องตามความคิดเห็นของผู้ใช้ใหม่. 4.4 การดึงด้วยการเปลี่ยนหัวข้อที่กำหนดหัวข้อในแนวทแยงที่ดีที่สุดการเปลี่ยนแปลงน้ำหนักเวกเตอร์W * คำนวณโดยอัลกอริทึมที่ 1 ที่เราใช้ในการจัดอันดับที่เกี่ยวข้อง. ข้อเสนอแนะวิดีโอในการตอบสนองต่อ VW ดูวิดีโอฟังก์ชั่นการให้คะแนนจะได้รับเพียงโดยSC (VW, VR) = X {wi∈w *: τi∈VW∩VR} ไร้ (5) โปรดทราบว่าสมการ 5 ไม่จำเป็นต้องใช้ใด ๆ เพิ่มเติมการวิเคราะห์พฤติกรรมเช่นน้ำหนักIDF, นอกเหนือไปจากน้ำหนักการเปลี่ยนแปลง เพราะนี่คือความเป็นจริงน้ำหนักน้ำหนัก * ที่อยู่
การแปล กรุณารอสักครู่..
