The next important question, as for all retrieval models, is how well it works.
Based on TREC experiments, ranking using relevance models is one of the best pseudo-relevance feedback techniques. In addition, relevance models produce a significant improvement in effectiveness compared to query likelihood ranking averaged over a number of queries. Like all current pseudo-relevance feedback techniques, however, the improvements are not consistent, and some queries can
produce worse rankings or strange results.
Tables 7.4 and 7.5 show the 16 highest-probability words from relevance models
estimated using this technique with some example queries and a large collection
of TREC news stories from the 1990s. Table 7.4 uses the top 10 documents
from the query likelihood ranking to construct the relevance model, whereas Table
7.5 uses the top 50 documents.
The first thing to notice is that, although the words are reasonable, they are
very dependent on the collection of documents that is used. In the TREC news
collection, for example, many of the stories that mention Abraham Lincoln are on
the topic of the Lincoln Bedroom in the White House, which President Clinton
used for guests and President Lincoln used as an office during the Civil War. These
types of stories are reflected in the top probability words for the queries “president
lincoln” and “abraham lincoln”. Expanding the query using these words would
clearly favor the retrieval of this type of story rather than more general biographies
of Lincoln. The second observation is that there is not much difference between
the words based on 10 documents and the words based on 50 documents. The
words based on 50 documents are, however, somewhat more general because the
larger set of documents contains a greater variety of topics. In the case of the query
“tropical fish”, the relevance model words based on 10 documents are clearly more
related to the topic.
In summary, ranking by comparing a model of the query to a model of the
document using KL-divergence is a generalization of query likelihood scoring.
คำถามต่อไปที่สำคัญสำหรับรูปแบบการสืบค้นทั้งหมด คือว่ามันได้ผลจากการทดลองใช้รูปแบบการ trec , Ltd เป็นหนึ่งในดีที่สุดเทียม , ข้อมูลเทคนิค นอกจากนี้ รุ่น Ltd ผลิตการปรับปรุงที่สำคัญในประสิทธิภาพเมื่อเทียบกับการจัดอันดับโอกาสเฉลี่ยมากกว่าจำนวนแบบสอบถาม เหมือนกระแสเทียมความเกี่ยวข้องความคิดเห็นเทคนิค อย่างไรก็ตาม การปรับปรุงที่ไม่สอดคล้องกันและมีข้อสงสัยสามารถผลิตอันดับแย่ลงหรือแปลกผลลัพธ์ตาราง 7.4 7.5 แสดง 16 ความน่าจะเป็นสูงสุด คำพูดจากนางแบบ ,ประมาณการใช้เทคนิคนี้กับตัวอย่างแบบสอบถาม และชุดใหญ่ของ trec ข่าวจาก 1990 โต๊ะ 7.4 ใช้ยอดเอกสารจากการสอบถามความเป็นไปได้เพื่อสร้างความเกี่ยวข้องและตารางแบบ7.5 ใช้ 50 เอกสารสิ่งแรกที่สังเกตได้ว่า แม้เป็นคำที่เหมาะสมที่พวกเขาเป็นมากขึ้นอยู่กับคอลเลกชันของเอกสารที่ใช้งาน ในข่าว trecคอลเลกชัน ตัวอย่างเช่น หลายเรื่องที่กล่าวถึง อับราฮัม ลินคอล์น เป็นบนหัวข้อของห้องนอนลินคอล์นในทำเนียบขาว ซึ่งประธานาธิบดีคลินตันใช้แขกและประธานาธิบดีลินคอล์น ใช้เป็นสำนักงานในช่วงสงครามกลางเมืองสำหรับ เหล่านี้ประเภทของเรื่องราวที่สะท้อนให้เห็นในคำน่าจะเป็นด้านบนเพื่อค้นหา " ประธานลินคอล์น " และ " อับราฮัม ลินคอล์น " การขยายการใช้คำเหล่านี้ชัดเจนชอบการสืบค้นเรื่องราวประเภทนี้มากกว่าชีวประวัติทั่วไปของลินคอล์น แบบที่สองคือมีไม่แตกต่างกันมากระหว่างคำพูดจาก 10 เอกสารและคำพูดจาก 50 เอกสาร ที่คำพูดจาก 50 เอกสาร อย่างไรก็ตาม ค่อนข้างมากกว่าทั่วไป เพราะชุดใหญ่ของเอกสารที่มีความหลากหลายมากขึ้นของหัวข้อ ในกรณีของแบบสอบถาม" ปลา " เขตร้อน , รูปแบบ , คำพูดจาก 10 เอกสารอย่างชัดเจนมากขึ้นที่เกี่ยวข้องกับหัวข้อในการสรุป , การจัดอันดับโดยการเปรียบเทียบรูปแบบของแบบสอบถามให้กับรุ่นของเอกสารที่ใช้ คือ การแผ่ขยายของ KL divergence สอบถามความเป็นไปได้ให้คะแนน
การแปล กรุณารอสักครู่..
