AbstractIn many robotic exploration missions, robots have to learn spe การแปล - AbstractIn many robotic exploration missions, robots have to learn spe ไทย วิธีการพูด

AbstractIn many robotic exploration

Abstract

In many robotic exploration missions, robots have to learn specific policies that allow them to: (i) select high level goals (e.g., identify specific destinations), (ii) navigate (reach those destinations), (iii) and adapt to their environment (e.g., modify their behavior based on changing environmental conditions). Furthermore, those policies must be robust to signal noise or unexpected situations, scalable to more complex environments, and account for the physical limitations of the robots (e.g., limited battery power and computational power).

In this paper we evaluate reactive and learning navigation algorithms for exploration robots that must avoid obstacles and reach specific destinations in limited time and with limited observations. Our results show that neuro-evolutionary algorithms with well-designed evaluation functions can produce up to 50% better performance than reactive algorithms in complex domains where the robot’s goals are to select paths that lead to seek specific destinations while avoiding obstacles, particularly when facing significant sensor and actuator signal noise.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
บทคัดย่อในหลายภารกิจสำรวจหุ่นยนต์ หุ่นยนต์ต้องเรียนรู้นโยบายเฉพาะที่อนุญาตให้: (i) เลือกเป้าหมายระดับสูง (เช่น ระบุสถานที่เฉพาะ), (ii) นำทาง (ถึงจุดหมายปลายทางเหล่านั้น), (iii) และปรับให้เข้ากับสภาพแวดล้อมของพวกเขา (เช่น ปรับเปลี่ยนลักษณะการทำงานตามการเปลี่ยนแปลงสภาพแวดล้อม) นอกจากนี้ นโยบายเหล่านั้นต้องมีประสิทธิภาพสัญญาณเสียงหรือสถานการณ์ที่ไม่คาดคิด ปรับสเกลเพื่อสภาพแวดล้อมที่ซับซ้อน และบัญชีสำหรับข้อจำกัดทางกายภาพของหุ่นยนต์ (เช่น แบตเตอรีจำกัดและคำนวณพลังงาน)ในเอกสารนี้ เราประเมินปฏิกิริยา และการเรียนนำอัลกอริทึมสำหรับหุ่นยนต์สำรวจที่ต้องหลีกเลี่ยงอุปสรรค และถึงจุดหมายปลายทางเฉพาะ ในเวลาที่จำกัด และ มีข้อสังเกตุจำกัด ผลของเราแสดงว่า อัลกอริทึมเชิงวิวัฒนาการสมอง มีหน้าที่ประเมินให้สามารถผลิตค่าประสิทธิภาพ 50% กว่าอัลกอริทึมปฏิกิริยาในโดเมนที่ซับซ้อนที่จะเลือกเส้นทางที่นำไปสู่การค้นหาจุดหมายปลายทางที่ระบุในขณะที่หลีกเลี่ยงอุปสรรค โดยเฉพาะอย่างยิ่งเมื่อหันหน้าเข้าหาเซนเซอร์สำคัญและ actuator สัญญาณเสียง เป้าหมายของหุ่นยนต์
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
บทคัดย่อในภารกิจหุ่นยนต์สำรวจหลายหุ่นยนต์จะต้องเรียนรู้นโยบายเฉพาะที่อนุญาตให้: (i) การเลือกเป้าหมายในระดับสูง (เช่นการระบุสถานที่ที่เฉพาะเจาะจง), (ii) นำทาง (ถึงจุดหมายปลายทางเหล่านั้น), (iii) และปรับให้เข้ากับพวกเขา สภาพแวดล้อม (เช่นการปรับเปลี่ยนพฤติกรรมของพวกเขาขึ้นอยู่กับสภาพแวดล้อมที่เปลี่ยนแปลง) นอกจากนี้นโยบายเหล่านั้นจะต้องมีความแข็งแกร่งที่จะส่งสัญญาณเสียงหรือสถานการณ์ที่ไม่คาดคิดที่ปรับขนาดได้กับสภาพแวดล้อมที่ซับซ้อนมากขึ้นและการบัญชีสำหรับข้อ จำกัด ทางกายภาพของหุ่นยนต์ (เช่นพลังงานจากแบตเตอรี่ จำกัด และกำลังการคำนวณ). ในบทความนี้เราประเมินปฏิกิริยาและการเรียนรู้ขั้นตอนวิธีการนำทาง สำหรับหุ่นยนต์สำรวจที่จะต้องหลีกเลี่ยงอุปสรรคและเข้าถึงสถานที่เฉพาะในเวลาที่ จำกัด และมีข้อสังเกตที่ จำกัด ผลของเราแสดงให้เห็นว่าขั้นตอนวิธีการของระบบประสาทวิวัฒนาการที่มีฟังก์ชั่นการประเมินผลการออกแบบที่ดีสามารถผลิตได้ถึง 50% ผลการดำเนินงานดีกว่าขั้นตอนวิธีการทำปฏิกิริยาในโดเมนที่ซับซ้อนที่เป้าหมายของหุ่นยนต์ที่จะเลือกเส้นทางที่นำไปสู่การแสวงหาสถานที่ที่เฉพาะเจาะจงในขณะที่หลีกเลี่ยงอุปสรรคโดยเฉพาะอย่างยิ่งเมื่อหันหน้าไปอย่างมีนัยสำคัญ เซ็นเซอร์และตัวกระตุ้นสัญญาณรบกวน




การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
นามธรรม

ในภารกิจหุ่นยนต์สำรวจมากมาย หุ่นยนต์ จะต้องเรียนรู้ นโยบายที่เฉพาะเจาะจงที่ช่วยให้พวกเขาเพื่อ : ( 1 ) เลือกเป้าหมายในระดับสูง ( เช่น ระบุเฉพาะสถานที่ ) , ( ii ) นำทาง ( ถึงปลายทางนั้น ) ( 3 ) และปรับให้เข้ากับสภาพแวดล้อมของตน ( เช่น ปรับเปลี่ยนพฤติกรรมของตนเองตามการเปลี่ยนแปลงของสภาพสิ่งแวดล้อม ) นอกจากนี้นโยบายเหล่านั้นจะต้องมีเสถียรภาพเพื่อส่งสัญญาณเสียง หรือสถานการณ์ที่ไม่คาดคิด เหมาะสมกับสภาพแวดล้อมที่ซับซ้อนมากขึ้น และบัญชีสำหรับข้อ จำกัด ทางกายภาพของหุ่นยนต์ เช่น แบตเตอรี่ จำกัด และพลังงานคอมพิวเตอร์ ) .

ในกระดาษนี้เราประเมินปฏิกิริยาและอัลกอริทึมการเรียนรู้นำทางสำรวจหุ่นยนต์ที่ต้องหลีกเลี่ยงอุปสรรคและถึงจุดหมายปลายทางในเวลาที่จำกัด และเฉพาะเจาะจง ด้วยการสังเกตที่ จำกัดผลของเราแสดงให้เห็นว่า ประสาทคนแรกของหัวใจ คนสุดท้ายของชีวิตด้วยฟังก์ชันการประเมินผลที่ดี สามารถผลิตได้ถึง 50 % ประสิทธิภาพที่ดีกว่ากลไกปฏิกิริยาในโดเมนที่ซับซ้อนซึ่งเป็นหุ่นยนต์ที่มีเป้าหมายเพื่อเลือกเส้นทางที่นำไปสู่การแสวงหาเฉพาะสถานที่ในขณะที่หลีกเลี่ยงอุปสรรค โดยเฉพาะเมื่อเผชิญกับความเสียงสัญญาณเซ็นเซอร์ actuator .
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: