Where did this optimization come from? The impatient reader will have  การแปล - Where did this optimization come from? The impatient reader will have  ไทย วิธีการพูด

Where did this optimization come fr

Where did this optimization come from? The impatient reader will have to
jump ahead to the explanation for a general SVM classifier in Chapter 9. For the
time being, we can say that the SVM algorithm will find a classifier (i.e., the vector
⃗w) that has the following property. Each pair of documents in our training data
can be represented by the vector (⃗di− ⃗dj ). If we compute the score for this pair as
⃗w.(⃗di− ⃗dj), the SVM classifier will find a ⃗w that makes the smallest score as large
as possible. The same thing is true for negative examples (pairs of documents that
are not in the rank data). This means that the classifier will make the differences
in scores as large as possible for the pairs of documents that are hardest to rank.
Note that this model does not specify the features that should be used. It could
even be used to learn the weights for features corresponding to scores from completely
different retrieval models, such as BM25 and language models. Combining
multiple searches for a given query has been shown to be effective in a number
of experiments, and is discussed further in section 10.5.1. It should also be noted
that the weights learned by Ranking SVM (or some other discriminative technique)
can be used directly in the inference network query language.

0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
เหมาะสมนี้มาจากไหน จะต้องอ่านใจร้อนข้ามไปลักษณนาม SVM มีทั่วไปในบทที่ 9 คำอธิบาย สำหรับการเราสามารถพูดได้ว่า อัลกอริทึม SVM จะหาลักษณนาม (เช่น เวกเตอร์ การ⃗w) ที่มีคุณสมบัติต่อไปนี้ แต่ละคู่ของเอกสารข้อมูลการฝึกอบรมของเราสามารถแสดงแทน ด้วยเวกเตอร์ (⃗di− ⃗dj) ถ้าเรามีคำนวณคะแนนสำหรับคู่นี้เป็น⃗w. (⃗di− ⃗dj), ลักษณนาม SVM จะค้นหา ⃗w ที่ทำให้คะแนนน้อยที่สุดเป็นขนาดใหญ่เป็นไป สิ่งเดียวกันเป็นจริงสำหรับตัวอย่างค่าลบ (คู่เอกสารที่ไม่ได้ในข้อมูลการจัดอันดับ) หมายความ ว่า ลักษณนามจะทำให้ความแตกต่างในขนาดใหญ่ได้สำหรับคู่ของเอกสารที่ยากที่สุดในการจัดอันดับคะแนนโปรดทราบว่า รุ่นนี้ไม่ได้ระบุคุณลักษณะที่ควรใช้ มันอาจจะแม้จะใช้ในการเรียนรู้น้ำหนักสำหรับคุณลักษณะที่สอดคล้องกับคะแนนจากทั้งหมดรุ่นเรียกแตกต่างกัน เช่นรุ่น BM25 และภาษา รวมค้นหาหลาย ๆ ครั้งสำหรับแบบสอบถามที่กำหนดได้รับการแสดงจะมีประสิทธิภาพในตัวเลขของการทดลองของ และจะกล่าวถึงต่อไปในหัวข้อ 10.5.1 นอกจากนี้ยังตงประเทศน้ำหนักได้เรียนรู้ โดยจัดอันดับ SVM (หรือเทคนิคอื่น ๆ บางที่ discriminative)ใช้ในภาษาการอ้างอิงเครือข่ายสอบถามโดยตรง
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ที่ไม่เพิ่มประสิทธิภาพนี้มาจากไหน? ผู้อ่านใจร้อนจะต้อง
กระโดดไปข้างหน้าคำอธิบายเกี่ยวกับลักษณนาม SVM ทั่วไปในบทที่ 9 สำหรับ
เวลานี้เราสามารถพูดได้ว่าอัลกอริทึม SVM จะได้พบกับลักษณนาม (เช่นเวกเตอร์
⃗w) ที่มีคุณสมบัติดังต่อไปนี้ คู่ของเอกสารในข้อมูลการฝึกอบรมของเราแต่ละคน
สามารถแสดงโดยเวกเตอร์ (⃗di-⃗dj) ถ้าเราคำนวณคะแนนสำหรับคู่นี้เป็น
⃗w. (⃗di-⃗dj) ลักษณนาม SVM จะพบ⃗wที่ทำให้คะแนนที่เล็กที่สุดเท่าที่มีขนาดใหญ่
ที่สุดเท่าที่ทำได้ สิ่งเดียวที่เป็นจริงสำหรับตัวอย่างลบ (คู่ของเอกสารที่
ไม่ได้อยู่ในข้อมูลการจัดอันดับ) ซึ่งหมายความว่าลักษณนามจะทำให้ความแตกต่าง
ในคะแนนที่มีขนาดใหญ่ที่สุดเท่าที่เป็นไปได้สำหรับคู่ของเอกสารที่ยากที่สุดที่จะยศ.
โปรดทราบว่ารุ่นนี้ไม่ได้ระบุคุณสมบัติที่ควรจะใช้ มันอาจจะ
ยังสามารถใช้ในการเรียนรู้น้ำหนักสำหรับคุณสมบัติที่สอดคล้องกับคะแนนจากสมบูรณ์
แบบจำลองการเรียกที่แตกต่างกันเช่น BM25 และรูปแบบภาษา รวม
การค้นหาหลายสำหรับการค้นหาที่กำหนดได้รับการแสดงที่จะมีประสิทธิภาพในจำนวน
ของการทดลองและจะกล่าวถึงต่อไปในส่วน 10.5.1 มันก็ควรจะตั้งข้อสังเกต
ว่าน้ำหนักได้เรียนรู้โดยการจัดอันดับ SVM (หรือบางเทคนิคการจำแนกอื่น ๆ )
สามารถนำมาใช้โดยตรงในภาษาแบบสอบถามเครือข่ายการอนุมาน

การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การเพิ่มประสิทธิภาพนี้มาจากที่ไหน ? อ่านแล้วจะต้องกระโดดไปข้างหน้าเพื่อให้คำอธิบายสำหรับทั่วไป SVM ลักษณนามในบทที่ 9 สำหรับตอนนี้เราสามารถพูดได้ว่าอัลกอริทึม SVM จะหาแบบเวกเตอร์ ( เช่น⃗ W ) ที่มีคุณสมบัติดังต่อไปนี้ แต่ละคู่ของเอกสารข้อมูลการฝึกอบรมของเราสามารถแทนด้วยเวกเตอร์ ( ⃗ di −⃗ดีเจ ) ถ้าเราคำนวณคะแนนสำหรับคู่นี้เป็น⃗ W . ( ⃗ di −⃗ดีเจ ) , SVM ลักษณนามจะพบ⃗ W ที่ทำให้คะแนนน้อยที่สุดเป็นขนาดใหญ่เท่าที่จะเป็นไปได้ เดียวกันเป็นจริงสำหรับลบตัวอย่าง ( คู่ของเอกสารที่ไม่มีข้อมูลอันดับ ) ซึ่งหมายความว่าตัวจะทำให้ความแตกต่างในระดับที่มีขนาดใหญ่ที่สุด สำหรับคู่ของเอกสารที่เป็นยากที่จะดับทราบว่ารุ่นนี้ไม่ได้ระบุคุณสมบัติที่ควรใช้ มันสามารถยังสามารถใช้เพื่อเรียนรู้น้ำหนักคุณสมบัติสอดคล้องกับคะแนน จากทั้งหมดรูปแบบการสืบค้นที่แตกต่างกัน เช่น รุ่น bm25 และภาษา รวมการค้นหาหลาย ๆสำหรับการค้นหาได้แสดงผลในหมายเลขการทดลองและอภิปรายเพิ่มเติมในส่วน 10.5.1 . มันควรที่จะกล่าวที่น้ำหนักเรียนรู้โดยการจัดอันดับ SVM ( หรืออื่น ๆบางและเทคนิค )สามารถใช้โดยตรงในการอนุมานเครือข่ายแบบสอบถามภาษา
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: