The aim of this paper is to address recognition of naturalhuman action การแปล - The aim of this paper is to address recognition of naturalhuman action ไทย วิธีการพูด

The aim of this paper is to address

The aim of this paper is to address recognition of natural
human actions in diverse and realistic video settings. This
challenging but important subject has mostly been ignored
in the past due to several problems one of which is the lack
of realistic and annotated video datasets. Our first contribution is to address this limitation and to investigate the
use of movie scripts for automatic annotation of human actions in videos. We evaluate alternative methods for action
retrieval from scripts and show benefits of a text-based classifier. Using the retrieved action samples for visual learning, we next turn to the problem of action classification in
video. We present a new method for video classification
that builds upon and extends several recent ideas including
local space-time features, space-time pyramids and multichannel non-linear SVMs. The method is shown to improve
state-of-the-art results on the standard KTH action dataset
by achieving 91.8% accuracy. Given the inherent problem
of noisy labels in automatic annotation, we particularly investigate and show high tolerance of our method to annotation errors in the training set. We finally apply the method
to learning and classifying challenging action classes in
movies and show promising results.
1. Introduction
In the last decade the field of visual recognition had an
outstanding evolution from classifying instances of toy objects towards recognizing the classes of objects and scenes
in natural images. Much of this progress has been sparked
by the creation of realistic image datasets as well as by the
new, robust methods for image description and classification. We take inspiration from this progress and aim to
transfer previous experience to the domain of video recognition and the recognition of human actions in particular.
Existing datasets for human action recognition (e.g. [15],
see figure 8) provide samples for only a few action classes
recorded in controlled and simplified settings. This stands
in sharp contrast with the demands of real applications focused on natural video with human actions subjected to inFigure 1. Realistic samples for three classes of human actions:
kissing; answering a phone; getting out of a car. All samples have
been automatically retrieved from script-aligned movies.
dividual variations of people in expression, posture, motion
and clothing; perspective effects and camera motions; illumination variations; occlusions and variation in scene surroundings. In this paper we address limitations of curren
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
The aim of this paper is to address recognition of naturalhuman actions in diverse and realistic video settings. Thischallenging but important subject has mostly been ignoredin the past due to several problems one of which is the lackof realistic and annotated video datasets. Our first contribution is to address this limitation and to investigate theuse of movie scripts for automatic annotation of human actions in videos. We evaluate alternative methods for actionretrieval from scripts and show benefits of a text-based classifier. Using the retrieved action samples for visual learning, we next turn to the problem of action classification invideo. We present a new method for video classificationthat builds upon and extends several recent ideas includinglocal space-time features, space-time pyramids and multichannel non-linear SVMs. The method is shown to improvestate-of-the-art results on the standard KTH action datasetby achieving 91.8% accuracy. Given the inherent problemof noisy labels in automatic annotation, we particularly investigate and show high tolerance of our method to annotation errors in the training set. We finally apply the methodto learning and classifying challenging action classes inmovies and show promising results.1. IntroductionIn the last decade the field of visual recognition had anoutstanding evolution from classifying instances of toy objects towards recognizing the classes of objects and scenesin natural images. Much of this progress has been sparkedby the creation of realistic image datasets as well as by thenew, robust methods for image description and classification. We take inspiration from this progress and aim totransfer previous experience to the domain of video recognition and the recognition of human actions in particular.Existing datasets for human action recognition (e.g. [15],see figure 8) provide samples for only a few action classesrecorded in controlled and simplified settings. This standsin sharp contrast with the demands of real applications focused on natural video with human actions subjected to inFigure 1. Realistic samples for three classes of human actions:kissing; answering a phone; getting out of a car. All samples havebeen automatically retrieved from script-aligned movies.dividual variations of people in expression, posture, motionand clothing; perspective effects and camera motions; illumination variations; occlusions and variation in scene surroundings. In this paper we address limitations of curren
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!

จุดมุ่งหมายของการวิจัยนี้คือการอยู่ที่การรับรู้ของธรรมชาติการกระทำของมนุษย์ในการตั้งค่าวิดีโอที่มีความหลากหลายและเป็นจริง นี้เรื่องที่ท้าทายแต่สิ่งที่สำคัญส่วนใหญ่ได้ถูกละเลยในอดีตที่ผ่านมาเนื่องจากปัญหาหลายซึ่งหนึ่งในนั้นคือการขาดของจริงและข้อเขียนชุดข้อมูลวิดีโอ ผลงานแรกของเราคือเพื่อแก้ไขข้อ จำกัด นี้และเพื่อตรวจสอบการใช้งานของสคริปสำหรับคำอธิบายประกอบภาพยนตร์โดยอัตโนมัติจากการกระทำของมนุษย์ในวิดีโอ เราจะประเมินวิธีการทางเลือกสำหรับการดำเนินการดึงจากสคริปต์และผลประโยชน์แสดงของลักษณนามข้อความ ใช้ตัวอย่างการกระทำที่ดึงมาสำหรับการเรียนรู้ภาพที่เราเปิดต่อไปในการแก้ไขปัญหาการจัดหมวดหมู่การกระทำในวิดีโอ เรานำเสนอวิธีการใหม่สำหรับการจัดหมวดหมู่วิดีโอที่สร้างขึ้นและขยายความคิดที่ผ่านมาหลายคนรวมทั้งคุณสมบัติพื้นที่เวลาท้องถิ่นปิรามิดพื้นที่เวลาและหลายช่องSVMs ไม่เชิงเส้น วิธีการที่จะแสดงให้เห็นในการปรับปรุงผลการรัฐของศิลปะในชุดข้อมูลที่ดำเนินการ KTH มาตรฐานโดยการบรรลุความถูกต้อง91.8% ได้รับปัญหาที่เกิดขึ้นโดยธรรมชาติของป้ายที่มีเสียงดังในคำอธิบายประกอบอัตโนมัติเราโดยเฉพาะอย่างยิ่งในการตรวจสอบและแสดงความอดทนสูงของวิธีการของเราที่จะมีข้อผิดพลาดคำอธิบายประกอบในชุดการฝึกอบรม ในที่สุดเราก็ใช้วิธีการที่จะเรียนรู้และการเรียนการแบ่งประเภทของการกระทำที่ท้าทายในภาพยนตร์และแสดงผลที่มีแนวโน้ม. 1 บทนำในทศวรรษที่ผ่านมาด้านการรับรู้ภาพมีวิวัฒนาการที่โดดเด่นจากการจำแนกกรณีของวัตถุของเล่นที่มีต่อการรับรู้ในชั้นเรียนของวัตถุและฉากในภาพที่เป็นธรรมชาติ มากของความคืบหน้านี้ได้รับการจุดประกายโดยการสร้างชุดข้อมูลภาพที่เหมือนจริงเช่นเดียวกับที่ใหม่วิธีการที่มีประสิทธิภาพสำหรับรายละเอียดภาพและการจัดหมวดหมู่ เรามีแรงบันดาลใจจากความคืบหน้านี้และมุ่งมั่นที่จะถ่ายโอนประสบการณ์ที่ผ่านมากับโดเมนของการรับรู้วิดีโอและการรับรู้การกระทำของมนุษย์โดยเฉพาะอย่างยิ่ง. ชุดข้อมูลที่มีอยู่สำหรับการรับรู้การกระทำของมนุษย์ (เช่น [15], ดูรูปที่ 8) ให้ตัวอย่างเพียงการกระทำที่ไม่กี่ เรียนบันทึกไว้ในการตั้งค่าการควบคุมและง่าย นี้ยืนในคมชัดกับความต้องการของการใช้งานจริงที่มุ่งเน้นการวิดีโอธรรมชาติที่มีการกระทำของมนุษย์ภายใต้การ inFigure 1. ตัวอย่างจริงสำหรับสามชั้นเรียนของการกระทำของมนุษย์: จูบ; ตอบโทรศัพท์; เดินทางออกจากรถ ตัวอย่างทั้งหมดได้รับการดึงมาโดยอัตโนมัติจากภาพยนตร์สคริปต์ชิด. รูปแบบ dividual ของผู้คนในการแสดงออกท่าทางการเคลื่อนไหวและเสื้อผ้า; ผลกระทบที่มุมมองและการเคลื่อนไหวกล้อง; รูปแบบการส่องสว่าง; occlusions และการเปลี่ยนแปลงในสภาพแวดล้อมที่เกิดเหตุ ในบทความนี้เราอยู่ที่ข้อ จำกัด ของ Curren



























การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
วัตถุประสงค์ของบทความนี้คือการรับรู้ของมนุษย์ธรรมชาติ
ที่อยู่กระทำในที่หลากหลายและมีเหตุผลการตั้งค่าวิดีโอ แต่ที่สำคัญเรื่องมีการท้าทายนี้

ส่วนใหญ่ถูกละเลยในอดีตเนื่องจากการหนึ่ง ซึ่งปัญหาต่าง ๆ คือการขาด
ของมีเหตุผลและบันทึกย่อวิดีโอชุดข้อมูล ผลงานแรกของเราคือไปยังที่อยู่ข้อ จำกัด นี้และศึกษา
ใช้สคริปต์ภาพยนตร์สำหรับการจัดการอัตโนมัติของมนุษย์กระทำในวิดีโอ เราประเมินวิธีการทางเลือกสำหรับการดึงข้อมูลจากสคริปต์
และแสดงประโยชน์ของข้อความลักษณนาม ใช้เรียกการกระทำตัวอย่างภาพการเรียนรู้ เราต่อไป ถึงปัญหาการกระทำของการจำแนกใน
วิดีโอ เราเสนอวิธีการใหม่สำหรับ
หมวดหมู่วีดีโอที่สร้างขึ้น และขยายแนวคิดล่าสุดหลายรวมทั้ง
คุณลักษณะเวลาท้องถิ่น ปิรามิดกาล- อวกาศและหลายช่องแบบไม่เป็นเชิงเส้น . วิธีการแสดงการปรับปรุง
ผลรัฐ - of - the - art บนมาตรฐานการ kth DataSet
โดยบรรลุความถูกต้องพบท % ระบุปัญหาที่แท้จริงของป้ายชื่อในหมายเหตุ
เสียงดังอัตโนมัติโดยเฉพาะอย่างยิ่งเราตรวจสอบและแสดงความอดทนสูงของวิธีการของเราในการจัดการข้อผิดพลาดในการตั้งค่า เราก็ใช้วิธีในการเรียนรู้ และการจัดชั้นเรียน

ภาพยนตร์และแสดงผลลัพธ์ที่ท้าทายในสัญญา .
1 บทนำ
ในทศวรรษที่ผ่านมาเขตของการรับรู้ภาพ มี
ที่โดดเด่นคือวิวัฒนาการจากอินสแตนซ์ของวัตถุของเล่นต่อการเรียนของวัตถุและฉาก
ภาพธรรมชาติ มากของความก้าวหน้านี้ได้จุดประกาย
โดยการสร้างข้อมูลภาพมีเหตุผลเช่นเดียวกับ
ใหม่วิธีการที่แข็งแกร่งสำหรับรายละเอียดภาพและการจำแนก เราใช้แรงบันดาลใจจากความก้าวหน้านี้

และจุดมุ่งหมายถ่ายทอดประสบการณ์ก่อนหน้านี้กับโดเมนของการรับรู้และการยอมรับการกระทำของมนุษย์วิดีโอโดยเฉพาะ เพื่อการยอมรับในการกระทำของมนุษย์
ข้อมูลที่มีอยู่ ( เช่น [ 15 ] ,
ดูรูปที่ 8 ) ให้ตัวอย่างเพียงไม่กี่การกระทำชั้นเรียน
บันทึกควบคุมและง่ายในการตั้งค่า
นี่ย่อมาจากในคมชัดกับความต้องการของการใช้งานจริง เน้นภาพธรรมชาติกับการกระทําของมนุษย์ภายใต้ infigure 1 อย่างมีเหตุผลสามประเภทของการกระทำของมนุษย์ :
จูบ ; การตอบโทรศัพท์ รับมาจากในรถ ตัวอย่างทั้งหมดจะถูกดึงจากบทเดียวกัน

dividual ภาพยนตร์ รูปแบบของประชาชนในการแสดงออก ท่าทาง และการเคลื่อนไหว
เสื้อผ้าผลของการเคลื่อนไหวกล้อง รัศมีการเปลี่ยนแปลง ; occlusions และการเปลี่ยนแปลงในสภาพแวดล้อมที่ฉาก ในกระดาษนี้เราแก้ไขข้อจำกัดของ curren
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: