While traditional visual recognition approaches maplow-level image fea การแปล - While traditional visual recognition approaches maplow-level image fea ไทย วิธีการพูด

While traditional visual recognitio

While traditional visual recognition approaches map
low-level image features directly to object category labels,
recent work proposes models using visual attributes [1–
8]. Attributes are properties observable in images that have
human-designated names (e.g., ‘striped’, ‘four-legged’),
and they are valuable as a new semantic cue in various
problems. For example, researchers have shown their impact
for strengthening facial verification [5], object recognition
[6, 8, 16], generating descriptions of unfamiliar objects
[1], and to facilitate “zero-shot” transfer learning [2],
where one trains a classifier for an unseen object simply by
specifying which attributes it has.
Problem: Most existing work focuses wholly on attributes
as binary predicates indicating the presence (or absence)
of a certain property in an image [1–8, 16]. This may
suffice for part-based attributes (e.g., ‘has a head’) and some binary properties (e.g., ‘spotted’). However, for a large variety
of attributes, not only is this binary setting restrictive,
but it is also unnatural. For instance, it is not clear if in Figure
1(b) Hugh Laurie is smiling or not; different people are
likely to respond inconsistently in providing the presence
or absence of the ‘smiling’ attribute for this image, or of the
‘natural’ attribute for Figure 1(e).
Indeed, we observe that relative visual properties are a
semantically rich way by which humans describe and compare
objects in the world. They are necessary, for instance,
to refine an identifying description (“the ‘rounder’ pillow”;
“the same except ‘bluer”’), or to situate with respect to reference
objects (“‘brighter’ than a candle; ‘dimmer’ than a
flashlight”). Furthermore, they have potential to enhance
active and interactive learning—for instance, offering a better
guide for a visual search (“find me similar shoes, but
‘shinier’.” or “refine the retrieved images of downtown
Chicago to those taken on ‘sunnier’ days”).
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ในขณะที่การรับรู้ภาพดั้งเดิมวิธีแผนที่คุณลักษณะภาพระดับต่ำโดยตรงในการป้ายชื่อประเภทวัตถุรุ่นที่ใช้แอตทริบิวต์ visual [1 – เสนอผลงานล่าสุด8] สังเกตคุณสมบัติได้ในภาพที่มีแอตทริบิวต์เป็นมนุษย์กำหนดชื่อ (เช่น 'ลาย' 'จตุ'),และจะมีค่าเป็นสัญลักษณ์ทางตรรกใหม่ในที่ต่าง ๆปัญหา ตัวอย่างเช่น นักวิจัยได้แสดงให้เห็นผลกระทบสำหรับการเสริมสร้างการตรวจสอบผิวหน้า [5], การรู้จำวัตถุ[6, 8, 16], สร้างคำอธิบายของวัตถุที่ไม่คุ้นเคย[1], และ เพื่อความสะดวกในการโอน "ศูนย์ภาพ" การเรียนรู้ [2],ซึ่ง รถไฟลักษณนามสำหรับวัตถุที่มองไม่เห็นก็ตามระบุซึ่งคุณลักษณะได้ปัญหา: งานที่มีอยู่ส่วนใหญ่เน้นทั้งแอตทริบิวต์เป็นเพรดิเคตที่ไบนารีที่ระบุว่า มี (หรือไม่)มีทรัพย์สินบางอย่างในภาพ [1-8, 16] พฤษภาคมนี้ พอเพียงสำหรับแอตทริบิวต์ตามส่วน (เช่น, 'มีหัว') และบางคุณสมบัติไบนารี (เช่น, 'ด่าง') อย่างไรก็ตาม สำหรับความหลากหลายแอตทริบิวต์ ไม่เพียงแต่เป็นไบนารีนี้ตั้งค่าจำกัดแต่ก็ยังดูไม่เป็นธรรมชาติ เช่น มันไม่ชัดเจนถ้าในรูป1(b) Hugh Laurie ยิ้ม หรือ ไม่ ผู้คนที่แตกต่างกันแนวโน้มการตอบสนองนานในการปรากฏตัวของการ 'รอยยิ้ม' แอตทริบิวต์ สำหรับรูปนี้ หรือของแอตทริบิวต์ 'ธรรมชาติ' สำหรับรูป 1(e)แน่นอน เราสังเกตเห็นว่า แห่งภาพที่สัมพันธ์กันเป็นวิธีรวยประโยคที่มนุษย์อธิบาย และเปรียบเทียบวัตถุในโลก พวกเขาจำเป็น เช่นเพื่อกำหนดคำอธิบายที่ระบุ ("'หัว' หมอน""เดียวกันยกเว้น ' bluer "') หรือตั้งอยู่ตามอ้างอิงวัตถุ (" 'สว่าง' กว่าเทียน; ' หรี่ ' กว่าไฟฉาย") นอกจากนี้ พวกเขามีศักยภาพที่จะเพิ่มการเรียนรู้แบบโต้ตอบ และใช้งานอยู่ — เช่น สิ่งที่ดีกว่าคู่มือสำหรับการค้นหาภาพ ("เจอรองเท้าที่คล้ายกัน แต่'เงา' "หรือ"ปรับแต่งภาพดึงความชิคาโกที่ถ่ายในวันที่ 'sunnier' ")
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
ในขณะที่การรับรู้ภาพแบบดั้งเดิมวิธีการแผนที่
ภาพในระดับต่ำให้บริการโดยตรงกับวัตถุป้ายประเภท
งานล่าสุดได้นำเสนอรูปแบบการใช้แอตทริบิวต์ภาพ [1-
8] แอตทริบิวต์คุณสมบัติที่สังเกตได้ในภาพที่มี
ชื่อของมนุษย์ที่กำหนด (เช่น 'ลาย', 'สี่ขา')
และพวกเขาจะมีคุณค่าเช่นคิวความหมายใหม่ในหลาย
ปัญหา ยกตัวอย่างเช่นนักวิจัยได้แสดงให้เห็นผลกระทบของพวกเขา
สำหรับการเสริมสร้างการตรวจสอบใบหน้า [5], การรับรู้วัตถุ
[6, 8, 16] สร้างรายละเอียดของวัตถุที่ไม่คุ้นเคย
[1] และเพื่ออำนวยความสะดวก "ศูนย์-shot" การถ่ายโอนการเรียนรู้ [2]
ที่ หนึ่งในรถไฟลักษณนามสำหรับวัตถุที่มองไม่เห็นได้ง่ายๆโดยการ
ระบุคุณลักษณะซึ่งมันมี.
ปัญหา: ส่วนใหญ่มุ่งเน้นไปที่งานที่มีอยู่ในเครือลักษณะ
เป็นภาคไบนารีแสดงให้เห็นการปรากฏตัว (หรือไม่มี)
ของคุณสมบัติบางอย่างในภาพ [1-8 16] นี้อาจจะ
พอเพียงสำหรับแอตทริบิวต์ส่วน-based (เช่น 'มีหัว') และบางคุณสมบัติไบนารี (เช่น 'เห็น') อย่างไรก็ตามสำหรับความหลากหลาย
ของคุณลักษณะที่ไม่เพียง แต่เป็นค่าไบนารีนี้เข้มงวด
แต่ก็ยังเป็นธรรมชาติ ยกตัวอย่างเช่นมันจะไม่ชัดเจนถ้าในรูปที่
1 (ข) ฮิวจ์ลอรียิ้มหรือไม่ คนที่แตกต่างกัน
มีแนวโน้มที่จะตอบสนองความไม่ลงรอยกันในการให้การแสดงตน
หรือไม่มีของ 'ยิ้ม' แอตทริบิวต์ภาพหรือนี้
'ธรรมชาติ' แอตทริบิวต์สำหรับรูปที่ 1 (E).
อันที่จริงเราสังเกตว่าคุณสมบัติภาพญาติเป็น
วิธีที่อุดมไปด้วยความหมาย โดยที่มนุษย์อธิบายและเปรียบเทียบ
วัตถุในโลก พวกเขามีความจำเป็นเช่น
การปรับแต่งรายละเอียดที่ระบุ ( "ว่า 'กลม' หมอน";
"เดียวกันยกเว้น 'สีฟ้า") หรือตั้งอยู่ด้วยความเคารพในการอ้างอิง
วัตถุ ( "' สดใส 'กว่าเทียน' หรี่ 'กว่า
ไฟฉาย ") นอกจากนี้พวกเขามีศักยภาพเพื่อเพิ่ม
เช่นการเรียนรู้สำหรับการใช้งานและการโต้ตอบที่นำเสนอที่ดีกว่า
คำแนะนำสำหรับการค้นหาภาพ ( "หาฉันรองเท้าที่คล้ายกัน แต่
'เงางาม'." หรือ "ปรับแต่งภาพที่ดึงของเมือง
ชิคาโกกับผู้ดำเนินการใน ' แสงแดด 'วัน ")
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ในขณะที่แบบดั้งเดิม การรับรู้ภาพ วิธีพิเศษภาพโดยตรงคุณสมบัติในวัตถุฉลากประเภทผลงานล่าสุด นำเสนอรูปแบบการใช้แอตทริบิวต์ [ 1 –ภาพ8 ] คุณลักษณะคุณสมบัติที่สังเกตในรูปว่ามีชื่อของเขต เช่น ลาย " " , " " สี่ขา )และพวกเขาจะมีคุณค่าเป็นคิวของความหมายใหม่ในต่าง ๆปัญหา ตัวอย่างเช่น นักวิจัยได้แสดงผลกระทบของพวกเขาสำหรับการเพิ่มการตรวจสอบผิวหน้า [ 5 ] , รับรู้[ 6 , 8 , 16 ) การสร้างรายละเอียดของวัตถุที่ไม่คุ้นเคย[ 1 ] และ " ศูนย์ยิง " เพื่อความสะดวกในการถ่ายโอนการเรียนรู้ [ 2 ]ที่รถไฟลักษณนามสําหรับวัตถุที่มองไม่เห็น เพียงโดยซึ่งคุณลักษณะที่ระบุได้ปัญหา : ส่วนใหญ่ที่มีอยู่ทำงานมุ่งเน้นทั้งหมดแอตทริบิวต์เป็นภาคแสดงเลขฐานสองแสดงตน ( หรือขาด )จากคุณสมบัติบางอย่างในรูป [ 1 – 8 , 16 ) นี้อาจพอเพียงส่วนหนึ่งจากคุณลักษณะ ( เช่น " หัว " ) และไบนารี คุณสมบัติ ( เช่น " พบ " ) อย่างไรก็ตาม สำหรับหลากหลายลักษณะที่ไม่เพียง แต่นี้คือการตั้งค่าแบบเข้มงวดแต่ก็ยังกระแดะ ตัวอย่าง มันไม่ชัดเจนถ้าในรูป1 ( ข ) ฮิวจ์ลอรียิ้มหรือไม่ คนต่างกัน คืออาจจะตอบไม่สอดคล้องในการให้สถานะหรือขาด " ยิ้ม " คุณลักษณะ สำหรับภาพนี้ หรือของ" " สำหรับแอตทริบิวต์ธรรมชาติ รูปที่ 1 ( E )แน่นอน เราสังเกตว่า คุณสมบัติภาพญาติเป็นเพื่อที่อุดมไปด้วยวิธีการที่มนุษย์อธิบายและเปรียบเทียบวัตถุในโลก มีความจําเป็น เช่นเพื่อปรับปรุงการระบุรายละเอียด ( " " กลม " หมอน "" เหมือนกัน ยกเว้น bluer " ) , หรืออยู่ส่วนอ้างอิงวัตถุ ( " "brighter " กว่าเทียน " หรี่ " มากกว่าไฟฉาย " ) นอกจากนี้ พวกเขามีศักยภาพที่จะเพิ่มที่ใช้งานและการเรียนรู้แบบโต้ตอบ เช่น เสนอดีกว่าคู่มือสำหรับการค้นหาภาพ ( " หารองเท้าที่คล้ายกันแต่" เงา " . " หรือ " ปรับแต่งการดึงภาพของเมืองชิคาโกที่ถ่ายใน sunnier " " วัน " )
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2025 I Love Translation. All reserved.

E-mail: