In terms of perception algorithms, 67% of the teams (16)
reported using object color and histogram data, 46% (11)
used geometrical features from 3D information, 42% (10)
matched image features to those stored in a model, 33% (8)
matched 3D perception data to a stored 3D model, and 17%
(4) used geometrical features from 2D information (Figure 4).
As for the software used, 75% (18) of the teams used the
“Point Cloud Library” (PCL) [6], 67% (16) used the “Open
Computer Vision Library” (OpenCV) [7], and 33% (8) report
using their “own” tools (Figure 5). Other mentions (once each)
include: “Object Recognition Kitchen” (ORK) [8], “SDS” [9],
“Linemod” [10], “Ecto” [11] and “Scikit learn” [12], as well
as proprietary software provided by Capsen Robotics (used by
the MIT Team).
ในแง่ของการรับรู้ขั้นตอนวิธี 67% ของทีม (16)รายงานการใช้สีและฮิสโตแกรมข้อมูลวัตถุ 46% (11)ใช้คุณลักษณะทางเรขาคณิตจากข้อมูล 3D, 42% (10)จับคู่ภาพสิ่งที่เก็บไว้ในรูปแบบ 33% (8)จับคู่ข้อมูลรับรู้ 3 มิติโมเดล 3 มิติเก็บไว้ และ 17%(4) ใช้คุณสมบัติทางเรขาคณิตจากข้อมูล 2 มิติ (รูป 4)สำหรับซอฟต์แวร์ที่ใช้ 75% (18) ทีมที่ใช้การ"ห้องสมุดคลาวด์จุด" (มหาชน) [6], "เปิดใช้ 67% (16)วิสัยทัศน์คลังคอมพิวเตอร์" (OpenCV) [7], และ 33% (8) รายงานใช้เครื่องมือ "ของตัวเอง" (รูป 5) อื่น ๆ ที่กล่าวถึง (แต่ละครั้ง)รวม: "วัตถุการครัว" (ORK) [8] "สารเคมี" [9],"Linemod" [10], "Ecto" [11] และ "เรียนรู้ Scikit" [12], เช่นเป็นซอฟต์แวร์ที่เป็นกรรมสิทธิ์โดยหุ่นยนต์ Capsen (ใช้โดยทีม MIT)
การแปล กรุณารอสักครู่..
