Almost everyone agrees that they want robots to contribute to a better world, and a more ethical one. The disagreements arise in how to bring that about. Some people want to embed ethical rules in the robots controller, and employ such robots in morally challenging contexts, as on the battlefield. Others argue vehemently against this approach: that robots themselves are incapable of being moral agents and thus should not be designed to have moral-decision making abilities. Others want to leverage the social aspects of robotics in bringing about human good. Along these lines, researchers have explored how robots can help children with autism, or assist the elderly physically and thereby provide the elderly with enough autonomy to allow them to live in their own residences. Other researchers have explored how robots can provide companionship for the elderly, and for the general population. Still others have worried that no matter how sophisticated robots become in their form and function, their technological platform will always separate people fromthem, and prevent depth and authenticity of relation from forming.These are all open questions. Some are philosophical in nature, as is the question of whether robots are moral agents, or could be in the future. Some are psychological, as in the question of whether people attribute moral responsibility to robots that cause harm. Some require political answers and new legislation. And, finally, some - if not many - of the questions require thoughtful and on-going responses by those of us who are the engineers and designers of the robots. The engineer is no longer entirely free of responsibility regarding the ethical consequences of his/her creation. This seems at odds with the way research is currently done in robotics. Rarely does one question the long-term ethical consequences of the research reported upon in scientific publications6. There are several reasons for this. On the one hand, most of these damaging long-term consequences seem very speculative and still far away from the technological reality. On the other hand, it is expected that these issues will be disputed at a political level and hence that it is perhaps not the role of the engineers and scientists to discuss these.Some scientists however discuss these issues, but, as with any debate, people have sometimes opposite views on which robotic application is ethical and which is not. We showed that such dissensions stemmed often from different beliefs on human nature and different expectations on what technology may achieve in the future. While it is difficult to anticipate how and when robots will come to play an active role in our society, there is no reason why one should not continue discussing various scenarios. We might be motivated by the beauty of our artifacts. Or by their usefulness. Or by the eco- nomic rewards. But in addition we are morally accountable for what we design and put out into the world.
เกือบทุกคนตกลงว่าพวกเขาต้องการให้หุ่นยนต์มีส่วนร่วมในโลกที่ดีขึ้นและมีจริยธรรมมากขึ้น ความขัดแย้งเกิดขึ้นในการนำมาซึ่งเรื่องนี้ บางคนต้องการที่จะฝังกฎระเบียบทางจริยธรรมในการควบคุมหุ่นยนต์และการจ้างงานหุ่นยนต์ดังกล่าวในบริบทที่ท้าทายทางศีลธรรมเช่นเดียวกับในสนามรบ คนอื่นๆโต้เถียงกับวิธีการนี้: หุ่นยนต์ตัวเองมีความสามารถในการเป็นตัวแทนทางศีลธรรมและดังนั้นจึงไม่ควรได้รับการออกแบบเพื่อให้การตัดสินใจทางศีลธรรม คนอื่นๆต้องการที่จะใช้ประโยชน์ด้านสังคมของหุ่นยนต์ในการนำความดีของมนุษย์ ตามเส้นเหล่านี้, นักวิจัยได้สำรวจวิธีที่หุ่นยนต์สามารถช่วยให้เด็กที่มีออทิสติก, หรือช่วยให้ผู้สูงอายุทางร่างกายและเพื่อให้ผู้สูงอายุที่มีอิสระเพียงพอที่จะช่วยให้พวกเขาที่จะอาศัยอยู่ในบ้านของตัวเอง. นักวิจัยคนอื่นๆได้สำรวจวิธีที่หุ่นยนต์สามารถให้ความเป็นเพื่อนกับผู้สูงอายุและสำหรับประชากรทั่วไป คนอื่นๆยังมีความกังวลว่าไม่ว่าหุ่นยนต์ที่มีความซับซ้อนจะกลายเป็นในรูปแบบและฟังก์ชั่นของพวกเขา, แพลตฟอร์มเทคโนโลยีของพวกเขามักจะแยกคนจาก<br>เพื่อป้องกันความลึกและความไม่ถูกต้องจากการขึ้นรูป<br>นี่คือคำถามที่เปิดอยู่ทั้งหมด บางคนเป็นปรัชญาในธรรมชาติเช่นเดียวกับคำถามว่าหุ่นยนต์เป็นตัวแทนทางศีลธรรมหรืออาจจะอยู่ในอนาคต บางคนมีจิตใจ, เช่นในคำถามว่าคนที่มีความรับผิดชอบทางศีลธรรมกับหุ่นยนต์ที่ก่อให้เกิดอันตราย. บางคนต้องมีคำตอบทางการเมืองและกฎหมายใหม่ และในที่สุดบาง-ถ้าไม่ได้เป็นจำนวนมากของคำถามที่จำเป็นต้องมีความรอบคอบและการตอบสนองต่อไปโดยพวกเราที่เป็นวิศวกรและนักออกแบบของหุ่นยนต์ วิศวกรไม่มีความรับผิดชอบใดๆทั้งสิ้นเกี่ยวกับผลกระทบทางจริยธรรมของการสร้างของเขา/เธอ นี้ดูเหมือนในการต่อรองกับวิธีการวิจัยในขณะนี้ทำในหุ่นยนต์. ไม่ค่อยมีคำถามที่ผลกระทบทางจริยธรรมระยะยาวของการวิจัยรายงานใน publications6 วิทยาศาสตร์. มีหลายเหตุผลสำหรับการนี้. ในมือข้างหนึ่ง, ส่วนใหญ่เหล่านี้ผลกระทบระยะยาวดูเหมือนว่าการเก็งกำไรมากและยังคงห่างไกลจากความเป็นจริงของเทคโนโลยี. ในทางกลับกัน, คาดว่าปัญหาเหล่านี้จะถูกโต้แย้งในระดับทางการเมืองและดังนั้นจึงอาจจะไม่ได้เป็นบทบาทของวิศวกรและนักวิทยาศาสตร์ที่จะพูดคุยเหล่านี้.<br>นักวิทยาศาสตร์บางคนแต่พูดคุยเกี่ยวกับปัญหาเหล่านี้, แต่เช่นเดียวกับการอภิปรายใดๆ, คนบางครั้งตรงข้ามมุมมองที่การประยุกต์ใช้หุ่นยนต์เป็นจริยธรรมและซึ่งไม่ได้. เราได้แสดงให้เห็นว่าความเชื่อที่แตกต่างกันมักจะมีต่อธรรมชาติของมนุษย์และความคาดหวังที่แตกต่างกันในสิ่งที่เทคโนโลยีอาจประสบความสำเร็จในอนาคต ในขณะที่มันเป็นเรื่องยากที่จะคาดหวังว่าและเมื่อหุ่นยนต์จะมาเล่นบทบาทที่ใช้งานในสังคมของเรา, ไม่มีเหตุผลทำไมหนึ่งไม่ควรพูดต่อสถานการณ์ต่างๆ. เราอาจจะมีแรงบันดาลใจจากความงามของสิ่งประดิษฐ์ของเรา หรือโดยประโยชน์ของพวกเขา หรือโดยผลตอบแทนที่เป็นสิ่งแวดล้อม แต่นอกจากนี้เรามีความรับผิดชอบศีลธรรมสำหรับสิ่งที่เราออกแบบและนำออกสู่โลก
การแปล กรุณารอสักครู่..
