B. Collecting retailer content for augmented realityMost of the existi การแปล - B. Collecting retailer content for augmented realityMost of the existi ไทย วิธีการพูด

B. Collecting retailer content for

B. Collecting retailer content for augmented reality
Most of the existing applications, such as Junaio and
Navvis, require manual editing to provide the content for
augmented reality. However, when a new application just
launches, there is often very limited user generated content
(i.e., cold start), which stops people from using that application.
We try to address this cold start issue by automatically
crawling online content for the retailers. To avoid bias, we
aim to crawl content from diverse sources from the Web and
social media (e.g., public Facebook pages).
Our crawling is largely inspired by search engine users.
Suppose the target is a hair salon. Users often start with
a target identifier query like salon name + branch
(e.g.,“Salon Vim in Orchard”), and obtain a few initial pages.
From these pages, they learn more about the salon; e.g., it is
famous for some stylist. Then next time, users can use the
stylist name (e.g., “Alice”) together with the salon identifier
to search for more reviews. In summary, users iteratively
gather relevant information until they run out some budget
of iteration number. The key to our crawling is to ask right
queries, and we aim to learn these queries automatically.
Our crawling setting complements the traditional surface
Web crawling [2] with a novel query-driven approach. Traditional
crawling has to follow links from the already gathered
pages. In contrast, by exploiting a search engine, we
can intelligently formulate queries to universally locate the
useful information. Our crawling also differs from deep Web
[7], which only deals with structured records and queries,
instead of unstructured Web texts. Moreover, although there
exist some approaches for crawling text databases using free
queries [3], [8], they often miss the domain awareness and
context awareness, which we will discuss later.
Problem. We formulate the retailer content crawling task as
a learning to query problem. Specifically, since our crawling
task is to use queries to find relevant pages for a target
retailer (e.g., a hair salon) w.r.t. a target content type (e.g.,
reviews), we first define a relevance function Y : P →
{1, 0} which maps each page p ∈ P to relevant (1, if a page
contains reviews for the salon) or irrelevant (0, otherwise).
In implementation, we can employ a pre-trained classifier to
materialize Y . Then, in each querying iteration, we aim to
select the best query, which maximizes some utility based on
the relevance of its retrieved pages. In crawling, we generally
consider precision and recall (or some combination of them)
as the utility. Formally, denote a query q’s utility (w.r.t. the
relevance function Y ) as U(q). In each iteration, we form
the candidate query set Q, and then select the best query
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
B. เก็บจำหน่ายเนื้อหาความเป็นจริงที่สุดของโปรแกรมประยุกต์ที่มีอยู่ เช่น Junaio และNavvis ต้องแก้ไขด้วยตนเองเพื่อให้เนื้อหาของความเป็นจริง อย่างไรก็ตาม เมื่อโปรแกรมใหม่เพียงเปิดตัว มักจะมีการจำกัดผู้ใช้สร้างเนื้อหา(เช่น เย็นเริ่มต้น), ซึ่งหยุดคนจากการใช้โปรแกรมประยุกต์เราพยายามอยู่เย็นนี้เริ่มปัญหาโดยอัตโนมัติการตระเวนเนื้อหาออนไลน์สำหรับร้านค้าปลีกที่ เพื่อหลีกเลี่ยงความโน้มเอียง เราจุดมุ่งหมายเพื่อรวบรวมข้อมูลเนื้อหาจากแหล่งต่าง ๆ จากเว็บ และสื่อสังคมออนไลน์ (เช่น สาธารณะ Facebook หน้า)ส่วนใหญ่บันดาลใจเราตระเวน โดยผู้ใช้เครื่องมือค้นหาสมมติว่า เป้าหมายคือ ร้านทำผม ผู้ใช้มักจะเริ่มต้นด้วยแบบสอบถามระบุเป้าหมายเช่นชื่อร้าน + สาขา(e.g.,"Salon Vim ในออร์ชาร์ด"), และรับกี่หน้าแรกจากหน้านี้ พวกเขาเรียนรู้เพิ่มเติมเกี่ยวกับร้านเสริมสวย เช่น มันเป็นมีชื่อเสียงสำหรับนักออกแบบบาง แล้วครั้งต่อไป ผู้ใช้สามารถใช้การนักออกแบบชื่อ (เช่น, "อลิซ") พร้อมกับตัวร้านการค้นหาความคิดเห็น ในสรุป ผู้ใช้ซ้ำ ๆรวบรวมข้อมูลที่เกี่ยวข้องจนกว่าจะหมดงบประมาณบางจำนวนการเกิดซ้ำ สำคัญในการรวบรวมข้อมูลของเราคือ ถามอยู่แบบสอบถาม และเรามุ่งมั่นที่จะเรียนสอบถามเหล่านี้โดยอัตโนมัติการตั้งค่าของเราตระเวนช่วยเติมเต็มผิวดั้งเดิมเว็บ [2] ด้วยวิธีแบบสอบถามใหม่ แบบดั้งเดิมได้ตระเวนตามลิงค์จากรวบรวมแล้วหน้า โดยใช้เครื่องมือค้นหา เปรียบ เราอย่างชาญฉลาดสามารถกำหนดแบบสอบถามการค้นหาข้อมูลการข้อมูลที่เป็นประโยชน์ เราตระเวนยังแตกต่างจากเว็บลึก[7], ซึ่งเพียงเกี่ยวข้องกับระเบียนที่มีโครงสร้างและแบบสอบถามแทนข้อความเว็บไม่ นอกจากนี้ แม้ว่าจะมีมีบางแนวทางสำหรับการตระเวนฐานข้อมูลข้อความที่ใช้ฟรีสอบถาม [3], [8], พวกเขามักจะพลาดการรับรู้โดเมน และบริบทของการรับรู้ ซึ่งเราจะกล่าวถึงในภายหลังปัญหา เรากำหนดเนื้อหาร้านค้าตระเวนงานเป็นเรียนสอบถามปัญหา เฉพาะ ตั้งแต่เราตระเวนงานคือการ ใช้แบบสอบถามการค้นหาที่เกี่ยวข้องหน้าเป้าหมายการร้านค้าปลีก (เช่น ร้านทำผม) น้อย ๆ wrt กำหนดเป้าหมายเนื้อหาพิมพ์ (เช่นความคิดเห็น), เรากำหนดฟังก์ชันความสัมพันธ์ Y ก่อน: P →{1, 0 } ซึ่งแผนที่แต่ละหน้า p ∈ P ที่เกี่ยวข้อง (1 ถ้าหน้าประกอบด้วยความคิดเห็นสำหรับร้านเสริมสวย) หรือไม่เกี่ยวข้อง (0 อื่น ๆ)ในการใช้งาน เราสามารถใช้ลักษณนามที่ผ่านการฝึกอบรมก่อนการจริง Y แล้ว แผนการสอบถาม มุ่งมั่นเลือกแบบสอบถามที่ดีที่สุด ซึ่งเพิ่มอรรถประโยชน์บางอย่างตามความเกี่ยวข้องของการดึงหน้า ในตระเวน เราโดยทั่วไปพิจารณาความเที่ยงตรง และเรียกคืน (หรือรวมกันของพวกเขา)เป็นโปรแกรมอรรถประโยชน์ อย่างเป็นทางการ แสดงอรรถประโยชน์สอบถาม q's (น้อย ๆ wrtความสัมพันธ์ฟังก์ชัน Y) เป็น U(q) แผน แบบสอบถามผู้สมัครตั้ง Q และจากนั้นแบบสอบถามที่ดีที่สุด
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
B. เนื้อหาร้านค้าปลีกการจัดเก็บภาษีสำหรับเติมความเป็นจริง
มากที่สุดของการใช้งานที่มีอยู่เช่น Junaio และ
Navvis ต้องแก้ไขด้วยตนเองเพื่อให้เนื้อหาสำหรับ
เติมความเป็นจริง แต่เมื่อแอพลิเคชันใหม่ที่เพิ่ง
เปิดตัวมักจะมีผู้ใช้ที่ จำกัด มากสร้างเนื้อหา
(เช่นเริ่มเย็น) ซึ่งจะหยุดคนจากการใช้โปรแกรมประยุกต์ที่.
เราพยายามที่จะอยู่นี้เริ่มเย็นออกโดยอัตโนมัติ
รวบรวมข้อมูลเนื้อหาออนไลน์สำหรับร้านค้าปลีก เพื่อหลีกเลี่ยงอคติเรา
มุ่งมั่นที่จะรวบรวมเนื้อหาจากแหล่งข้อมูลที่หลากหลายจากเว็บและ
สื่อสังคม (เช่นหน้า Facebook สาธารณะ).
การรวบรวมข้อมูลของเราเป็นแรงบันดาลใจส่วนใหญ่โดยใช้เครื่องมือค้นหา.
สมมติว่าเป้าหมายคือร้านทำผม ผู้ใช้มักจะเริ่มต้นด้วย
แบบสอบถามระบุเป้าหมายเช่นชื่อร้าน + สาขา
(เช่น "ร้านที่เป็นกลุ่มในออชาร์ด") และได้รับหน้าเริ่มต้นไม่กี่.
จากหน้าเว็บเหล่านี้พวกเขาได้เรียนรู้เพิ่มเติมเกี่ยวกับร้านเสริมสวย; เช่นมันเป็น
ที่มีชื่อเสียงสำหรับสไตลิสบาง แล้วครั้งต่อไปผู้ใช้สามารถใช้
ชื่อสไตลิส (เช่น "อลิซ") พร้อมระบุร้านเสริมสวย
เพื่อค้นหาความคิดเห็นเพิ่มเติม โดยสรุปผู้ใช้ซ้ำ
รวบรวมข้อมูลที่เกี่ยวข้องจนกว่าพวกเขาจะวิ่งออกไปจากงบประมาณบางส่วน
ของตัวเลขซ้ำ กุญแจสำคัญในการรวบรวมข้อมูลของเราคือการถามสิทธิ
แบบสอบถามและเรามุ่งมั่นที่จะเรียนรู้คำสั่งเหล่านี้โดยอัตโนมัติ.
การตั้งค่าการรวบรวมข้อมูลของเราเติมเต็มพื้นผิวแบบดั้งเดิม
รวบรวมข้อมูลเว็บ [2] ด้วยวิธีการที่ขับเคลื่อนด้วยแบบสอบถามนวนิยาย แบบดั้งเดิม
รวบรวมข้อมูลมีการปฏิบัติตามการเชื่อมโยงจากที่รวบรวมแล้ว
หน้า ในทางตรงกันข้ามโดยการใช้ประโยชน์ของเครื่องมือค้นหาที่เรา
สามารถกำหนดได้อย่างชาญฉลาดแบบสอบถามเพื่อสากลค้นหา
ข้อมูลที่เป็นประโยชน์ การรวบรวมข้อมูลของเรายังมีความแตกต่างจากเว็บลึก
[7] ซึ่งเกี่ยวข้องกับการบันทึกที่มีโครงสร้างและแบบสอบถาม
แทนการที่ไม่มีโครงสร้างเว็บตำรา นอกจากนี้แม้ว่าจะมี
อยู่วิธีการบางอย่างสำหรับการรวบรวมข้อมูลฐานข้อมูลข้อความโดยใช้ฟรี
คำสั่ง [3], [8] พวกเขามักจะพลาดการรับรู้ของโดเมนและ
บริบทการรับรู้ซึ่งเราจะหารือในภายหลัง.
ปัญหา เรากำหนดเนื้อหาค้าปลีกการรวบรวมข้อมูลงานเป็น
การเรียนรู้เพื่อสอบถามปัญหา โดยเฉพาะตั้งแต่การรวบรวมข้อมูลของเรา
เป็นงานที่ใช้การสอบถามเพื่อค้นหาหน้าเว็บที่เกี่ยวข้องสำหรับเป้าหมาย
ร้านค้าปลีก (เช่นร้านทำผม) wrt เป้าหมายชนิดเนื้อหา (เช่น
ความคิดเห็น) ครั้งแรกที่เรากำหนด Y ฟังก์ชั่นความสัมพันธ์กัน: P →
{1, 0 } แผนที่ซึ่งแต่ละหน้า P ∈ P เพื่อที่เกี่ยวข้อง (1 ถ้าหน้า
มีความคิดเห็นสำหรับร้านเสริมสวย) หรือไม่เกี่ยวข้อง (0, อื่น ๆ ).
ในการดำเนินการที่เราสามารถใช้ลักษณนามก่อนรับการฝึกฝนให้
เป็นรูปธรรม Y จากนั้นในแต่ละซ้ำสอบถามเรามุ่งมั่นที่จะ
เลือกการค้นหาที่ดีที่สุดซึ่งเพิ่มยูทิลิตี้บนพื้นฐานของ
ความสัมพันธ์กันของหน้าเว็บที่ดึงข้อมูลของตน ในการรวบรวมข้อมูลโดยทั่วไปเรา
พิจารณาความแม่นยำและการเรียกคืน (หรือการรวมกันของพวกเขาบาง)
เป็นยูทิลิตี้ อย่างเป็นทางการแสดงยูทิลิตี้ Q แบบสอบถาม (wrt
Y ฟังก์ชั่นความสัมพันธ์กัน) เช่น U (Q) ในแต่ละซ้ำเราฟอร์ม
แบบสอบถามผู้สมัครที่กำหนด Q และจากนั้นเลือกการค้นหาที่ดีที่สุด
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
B . การรวบรวมเนื้อหาร้านค้าปลีกเพื่อความเป็นจริงเสมือนที่สุดของโปรแกรมที่มีอยู่ เช่น junaio และnavvis ต้องแก้ไขด้วยตนเองเพื่อให้เนื้อหาสำหรับเติมความเป็นจริง อย่างไรก็ตาม เมื่อโปรแกรมใหม่เพียงเปิดตัว , มักจะมี จำกัด มาก ผู้ใช้สร้างเนื้อหา( เช่น เริ่มเย็น ) ซึ่งหยุดผู้คนจากการใช้โปรแกรมเราพยายามที่จะแก้ไขปัญหานี้โดยอัตโนมัติเริ่มเย็นรวบรวมข้อมูลเนื้อหาออนไลน์สำหรับร้านค้าปลีก เพื่อหลีกเลี่ยงอคติ เรามีจุดมุ่งหมายเพื่อรวบรวมข้อมูลเนื้อหาจากหลากหลายแหล่งที่มาจากเว็บสื่อสังคม ( เช่นหน้า Facebook สาธารณะ )ของเราคลานเป็นส่วนใหญ่โดยได้แรงบันดาลใจจากผู้ใช้เครื่องมือค้นหาสมมติว่า เป้าหมาย คือ ร้านผม ผู้ใช้มักจะเริ่มต้นด้วยเป้าหมายระบุแบบสอบถามเหมือนร้านทำผมชื่อ + สาขา( เช่น " ร้านวิมในสวนผลไม้ " ) , และได้รับ หน้า เริ่มต้นไม่กี่จากหน้าเว็บเหล่านี้ที่พวกเขาเรียนรู้เพิ่มเติมเกี่ยวกับร้านเสริมสวย เช่น มันคือที่มีชื่อเสียงสำหรับนักออกแบบ จากนั้นผู้ใช้สามารถใช้ชื่อในหน้า ( เช่น " อลิซ " ) ร่วมกับร้านระบุต้องการค้นหารีวิวเพิ่มเติม ในการสรุป , ผู้ใช้ซ้ำรวบรวมข้อมูลที่เกี่ยวข้อง จนหมดงบประมาณบางส่วนจากรูปหมายเลข คีย์ของเราคลานจะขวาแบบสอบถาม และเรามุ่งมั่นที่จะเรียนรู้แบบสอบถามเหล่านี้โดยอัตโนมัติรวบรวมข้อมูลการเติมเต็มพื้นผิวแบบดั้งเดิมของเราเว็บรวบรวมข้อมูล [ 2 ] ด้วยการค้นหานวนิยายวิธีการขับเคลื่อน . แบบดั้งเดิมคลานได้รวบรวมไว้แล้วตามลิงค์จากหน้า ในทางตรงกันข้ามโดยการใช้ประโยชน์จากเครื่องมือค้นหาเราสามารถสร้างแบบสอบถามเพื่อสามารถค้นหาอย่างชาญฉลาดข้อมูลที่เป็นประโยชน์ ของเราคลานยังแตกต่างจากเว็บลึก[ 7 ] ซึ่งจะเกี่ยวข้องกับโครงสร้างข้อมูลและแบบสอบถามแทนที่ข้อความในเว็บใหม่ อย่างไรก็ตาม มีมีวิธีการบางอย่างเพื่อรวบรวมฐานข้อมูลข้อความโดยใช้ฟรีแบบสอบถาม [ 3 ] , [ 8 ] , พวกเขามักจะพลาดการโดเมนความตระหนักในบริบท ซึ่งเราจะกล่าวถึงในภายหลังปัญหา เราชอบงานที่เป็นร้านค้าปลีกเนื้อหาคลานการเรียนรู้เพื่อค้นหาปัญหา โดยเฉพาะตั้งแต่คลานงานคือการใช้แบบสอบถามเพื่อค้นหาหน้าเว็บที่เกี่ยวข้องสำหรับเป้าหมายผู้ค้าปลีก ( เช่น ร้านผม ) w.r.t. เป้าหมายประเภทเนื้อหา ( เช่นรีวิว ) ครั้งแรกที่เรากำหนดความเกี่ยวข้องฟังก์ชัน y : P → keyboard - key - name{ 0 } 1 ซึ่งแผนที่แต่ละหน้า P ∈ P ที่เกี่ยวข้อง ( ถ้าหน้า 1มีรีวิวสำหรับร้านเสริมสวย ) หรือที่ไม่เกี่ยวข้อง ( 0 มิฉะนั้น )ในการใช้งานเราสามารถจ้างฝึกตัวให้ก่อนบริษัท วาย . แล้วในแต่ละสอบถามซ้ำ เราจุดมุ่งหมายเพื่อเลือกค้นหาที่ดีที่สุดซึ่งจะเพิ่มบางโปรแกรมตามความเกี่ยวข้องของการดึงหน้า ในการรวบรวมข้อมูลที่เราโดยทั่วไปพิจารณาความแม่นยําและเรียกคืน ( หรือการรวมกันของพวกเขา )เป็นสาธารณูปโภค อย่างเป็นทางการแสดงสอบถามคิว ( w.r.t. ที่ยูทิลิตี้ความเกี่ยวข้องของฟังก์ชั่น y ) u ( q ) ในแต่ละซ้ำ เราฟอร์มผู้สมัครแบบสอบถามชุด Q แล้วเลือกแบบที่ดีที่สุด
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: