A tragic outcome of excess automation occurred during a 1995 flight to Cali,
Colombia. The pilots relied on the automatic pilot and failed to realize that the
plane was making a wide turn to return to a location that they had already
passed. When the ground-collision alarm sounded, the pilots were too disoriented
to pull up in time; they crashed 200 feet below a mountain peak, killing all
but four people on board.
The goal of system design in many applications is to give operators sufficient
information about current status and activities so that, when intervention is necessary,
they have the knowledge and the capacity to perform correctly, even
under partial failures (Sheridan, 1997; Billings, 1997). The U. S. Federal Aviation
Agency stresses that designs should place the user in control and automate only
to "improve system performance, without reducing human involvement" (FAA,
2003). These standards also encourage managers to "train users when to question
automation."
The entire system must be designed and tested, not only for normal situations,
but also for as wide a range of anomalous situations as can be anticipated. An
extensive set of test conditions might be included as part of the requirements document.
Operators need to have enough information that they can take responsibility
for their actions. Beyond supervision of decision making and handling of
failures, the role of the human operator is to improve the design of the system.
Questions of integrating automation with human control also emerge in systems
for home and office automation. Many designers are eager to create
an autonomous agent that knows people's likes and dislikes, makes proper
inferences, responds to novel situations, and performs competently with little
guidance. They believe that human-human interaction is a good model for
human-computer interaction, and they seek to create computer-based partners,
assistants, or agents (Berners-Lee, Hendler, and Lassila, 2001).
The controversy is over whether to create tool-like interfaces or to pursue
autonomous, adaptive, or anthropomorphic agents that carry out the users'
intents and anticipate needs (Cassell et aI., 2000; Gratch et aI., 2002). The agent
scenarios often show a responsive, butler-like human, such as the bow-tied, helpful
young man in Apple Computer's 1987 video on the Knowledge Navigator.
Microsoft's 1995 BOB program, which used cartoon characters to create onscreen
partners, was unsuccessful; their much-criticized Clippie character was also
withdravv'n. Web-based characters (such as Ananova) to read the news have also
faded. On the other hand, avatars representing users, not computers, in gameplaying
and three-dimensional social environments (see Section 6.6) have
remained popular, possibly because they have a puppet-like theatrical quality.
To succeed in this path, promoters of anthropomorphic representations (see
Section 12.3) of computers will have to understand and overcome the history of
their unsuccessful application in the products mentioned above, as well as in
bank terminals, computer-assisted instruction, talking cars, and postal-service
stations. Hopeful scenarios include anthropomorphic pedagogical agents that
ผลลัพธ์ที่น่าเศร้าของอัตโนมัติส่วนเกินเกิดขึ้นในระหว่างเดินทาง 1995 ต้องกาลี,
โคลัมเบีย นักบินที่อาศัยบนนำร่องอัตโนมัติ และไม่สามารถตระหนักดีว่าการ
เครื่องบินถูกทำให้เปิดกว้างเพื่อกลับไปยังตำแหน่งที่พวกเขามีแล้ว
ผ่าน เมื่อปลุกชนพื้นแต่เพียงแห่ง นักบินที่ถูกเกินไป disoriented
ยกขึ้นเวลา พวกเขาล้มเหลว 200 ฟุตใต้ยอดเขา ฆ่าทั้งหมด
แต่สี่คนบนบอร์ด
เป้าหมายของการออกแบบระบบในโปรแกรมประยุกต์หลายโปรแกรมจะให้ผู้ประกอบการพอ
ข้อมูลเกี่ยวกับสถานะปัจจุบันและกิจกรรมนั้น เมื่อแทรกแซงเป็นสิ่งจำเป็น,
ได้ความรู้และความสามารถในการดำเนินการอย่างถูกต้อง แม้
ภายใต้ความล้มเหลวบางส่วน (เชอ 1997 เรียกเก็บเงิน 1997) การบินของรัฐบาลกลางสหรัฐ
หน่วยงานที่ออกแบบควรทำผู้ใช้ในการควบคุม และทำเฉพาะ
เพื่อ "เพิ่มประสิทธิภาพของระบบ เซลมนุษย์มีส่วนร่วม" (ฟ้า,
2003) มาตรฐานเหล่านี้ยังส่งเสริมการ "ฝึกอบรมผู้ใช้เมื่อถาม
อัตโนมัติ"
ระบบทั้งระบบต้องออกแบบ และ ทดสอบ ไม่เพียงแต่ในสถานการณ์ปกติ,
แต่ยัง สำหรับเป็นทั้ง ช่วงสถานการณ์ anomalous เป็นสามารถจะคาด การ
ชุดของเงื่อนไขการทดสอบอย่างละเอียดอาจรวมเป็นส่วนหนึ่งของข้อกำหนดเอกสาร
ผู้ประกอบการจำเป็นต้องมีข้อมูลเพียงพอที่จะสามารถรับผิดชอบ
สำหรับการดำเนินการของพวกเขา เลยตัดสินใจทำ และจัดการดูแล
ความล้มเหลว บทบาทของตัวบุคคลคือการ ปรับปรุงการออกแบบระบบ.
คำถามของการรวมระบบควบคุมมนุษย์ยังเกิดในระบบ
สำหรับบ้านและสำนักงานอัตโนมัติ นักออกแบบจำนวนมากอยากสร้าง
ตัวแทนอิสระที่รู้ว่าประชาชนชอบ และไม่ชอบ ทำให้เหมาะสม
inferences ตอบกับนวนิยาย และยากทำน้อยด้วย
คำแนะนำ พวกเขาเชื่อว่ามนุษย์มนุษย์โต้ตอบแบบดีสำหรับ
โต้ตอบมนุษย์คอมพิวเตอร์ และพวกเขาพยายามสร้างพันธมิตรโดยใช้คอมพิวเตอร์,
ผู้ช่วย หรือตัวแทน (Berners-Lee, Hendler และ Lassila, 2001) .
ถกเถียงอยู่ว่า จะสร้างเครื่องมือเช่นอินเทอร์เฟซ หรือไล่
ตัวแทนอิสระ เหมาะสม หรือ anthropomorphic ที่ดำเนินผู้
ว่า และคาดว่าจะมีความต้องการ (Cassell ร้อยเอ็ดไอ. 2000 Gratch เอสไอ. 2002) ตัวแทน
สถานการณ์มักจะแสดงการตอบสนอง บุคคลเช่นพ่อบ้าน เช่นการก้มการเชื่อมโยง ประโยชน์
หนุ่มในแอปเปิ้ลคอมพิวเตอร์วิดีโอ 1987 ในทางความรู้
ของ BOB 1995 โปรแกรม Microsoft ที่ใช้ตัวการ์ตูนสร้างจอ
คู่ ไม่สำเร็จ มีการวิพากษ์วิจารณ์มาก Clippie อักขระยัง
withdravv เกร็ดเล็ก ๆ น้อย ๆ เว็บไซต์ตัวอักษร (เช่น Ananova) การอ่าน ข่าวยังมี
สีจางลง ในทางตรงข้าม อวตารแทนผู้ใช้ ไม่คอมพิวเตอร์ gameplaying
และมีสภาพแวดล้อมทางสังคมที่สามมิติที่ (ดูส่วน 6.6)
ยังคงนิยม อาจ เพราะพวกเขาได้เป็นเหมือนหุ่นละครคุณภาพ
จะประสบความสำเร็จในเส้นทางนี้ ก่อ anthropomorphic แทน (ดู
12.3 บาทส่วน) ของคอมพิวเตอร์จะต้องเข้าใจ และเอาชนะประวัติศาสตร์
สมัครสำเร็จในผลิตภัณฑ์กล่าวถึงข้างต้น เช่นใน
ธนาคารเทอร์มินัล คอมพิวเตอร์ช่วยสอน พูดคุยรถยนต์ และบริการไปรษณีย์
สถานี มีความหวังสถานการณ์รวม anthropomorphic สอนแทนที่
การแปล กรุณารอสักครู่..
A tragic outcome of excess automation occurred during a 1995 flight to Cali,
Colombia. The pilots relied on the automatic pilot and failed to realize that the
plane was making a wide turn to return to a location that they had already
passed. When the ground-collision alarm sounded, the pilots were too disoriented
to pull up in time; they crashed 200 feet below a mountain peak, killing all
but four people on board.
The goal of system design in many applications is to give operators sufficient
information about current status and activities so that, when intervention is necessary,
they have the knowledge and the capacity to perform correctly, even
under partial failures (Sheridan, 1997; Billings, 1997). The U. S. Federal Aviation
Agency stresses that designs should place the user in control and automate only
to "improve system performance, without reducing human involvement" (FAA,
2003). These standards also encourage managers to "train users when to question
automation."
The entire system must be designed and tested, not only for normal situations,
but also for as wide a range of anomalous situations as can be anticipated. An
extensive set of test conditions might be included as part of the requirements document.
Operators need to have enough information that they can take responsibility
for their actions. Beyond supervision of decision making and handling of
failures, the role of the human operator is to improve the design of the system.
Questions of integrating automation with human control also emerge in systems
for home and office automation. Many designers are eager to create
an autonomous agent that knows people's likes and dislikes, makes proper
inferences, responds to novel situations, and performs competently with little
guidance. They believe that human-human interaction is a good model for
human-computer interaction, and they seek to create computer-based partners,
assistants, or agents (Berners-Lee, Hendler, and Lassila, 2001).
The controversy is over whether to create tool-like interfaces or to pursue
autonomous, adaptive, or anthropomorphic agents that carry out the users'
intents and anticipate needs (Cassell et aI., 2000; Gratch et aI., 2002). The agent
scenarios often show a responsive, butler-like human, such as the bow-tied, helpful
young man in Apple Computer's 1987 video on the Knowledge Navigator.
Microsoft's 1995 BOB program, which used cartoon characters to create onscreen
partners, was unsuccessful; their much-criticized Clippie character was also
withdravv'n. Web-based characters (such as Ananova) to read the news have also
faded. On the other hand, avatars representing users, not computers, in gameplaying
and three-dimensional social environments (see Section 6.6) have
remained popular, possibly because they have a puppet-like theatrical quality.
To succeed in this path, promoters of anthropomorphic representations (see
Section 12.3) of computers will have to understand and overcome the history of
their unsuccessful application in the products mentioned above, as well as in
bank terminals, computer-assisted instruction, talking cars, and postal-service
stations. Hopeful scenarios include anthropomorphic pedagogical agents that
การแปล กรุณารอสักครู่..
หายนะของระบบอัตโนมัติส่วนเกินเกิดขึ้นในระหว่างปี 1995 เที่ยวบินไป Cali ,
โคลัมเบีย นักบินอาศัยในนักบินอัตโนมัติและล้มเหลวที่จะตระหนักว่า
เครื่องบินเลี้ยวกว้างเพื่อกลับไปยังสถานที่ที่พวกเขาได้
ผ่าน เมื่อพื้นดินชนปลุกเสียงนักบินก็สับสน
ดึงขึ้นในเวลา พวกเขาตก 200 ฟุต ด้านล่างของยอดเขาฆ่าทั้งหมด
แต่คนในบอร์ด
เป้าหมายของการออกแบบระบบในด้านต่างๆ เพื่อให้ผู้ประกอบการมีข้อมูลที่เพียงพอเกี่ยวกับสถานะปัจจุบันและกิจกรรม
ดังนั้นเมื่อการแทรกแซงที่จำเป็น
พวกเขามีความรู้และความสามารถที่จะปฏิบัติได้อย่างถูกต้อง แม้
ภายใต้ความล้มเหลวบางส่วน ( Sheridan , 1997 ; บิล , 1997 ) สหรัฐอเมริกาสหพันธ์การบิน
หน่วยงานที่เน้นการออกแบบควรวางผู้ใช้ในการควบคุมและระบบอัตโนมัติเท่านั้น
" ปรับปรุงประสิทธิภาพของระบบ โดยการมีส่วนร่วมของมนุษย์ " ( FAA ,
2003 ) มาตรฐานเหล่านี้ยังสนับสนุนให้ผู้บริหารรถไฟ " ใช้เมื่อต้องการถาม
อัตโนมัติ " ระบบทั้งหมดจะต้องได้รับการออกแบบ และ ทดสอบ ไม่เพียง แต่สำหรับสถานการณ์ปกติ
แต่ยังเป็นกว้างช่วงของสถานการณ์ที่สามารถคาดการณ์ เป็นชุดของเงื่อนไขการทดสอบอย่างละเอียด
อาจจะรวมเป็นส่วนหนึ่งของความต้องการเอกสาร .
ผู้ประกอบการต้องมีข้อมูลเพียงพอที่พวกเขาจะรับผิดชอบ
สำหรับการกระทำของพวกเขา นอกเหนือจากการดูแลของการตัดสินใจและการจัดการ
ความล้มเหลว บทบาทของผู้ประกอบการของมนุษย์เพื่อปรับปรุงการออกแบบของระบบ
คำถามโดยอัตโนมัติด้วยการควบคุมของมนุษย์ยังออกมาในระบบ
สำหรับบ้านและสำนักงานอัตโนมัติ . นักออกแบบหลายคนมีความกระตือรือร้นที่จะสร้าง
กับตัวแทนที่รู้จักคนชอบและไม่ชอบ ทำให้เหมาะสม
ความหมายเชิงตอบสนองสถานการณ์ใหม่ และแสดงความสามารถด้วยคำแนะนำเล็ก ๆน้อย ๆ
พวกเขาเชื่อว่า การปฏิสัมพันธ์ของมนุษย์มนุษย์เป็นรูปแบบที่ดีสำหรับการปฏิสัมพันธ์ระหว่างมนุษย์และคอมพิวเตอร์
,และพวกเขาพยายามที่จะสร้างคอมพิวเตอร์ที่ใช้คู่
ผู้ช่วย หรือตัวแทน ( เบอร์เนอรส์ ลีเฮนเดลอร์ และ lassila , 2001 ) .
ข้อพิพาทมากกว่าว่าจะสร้างเครื่องมือเช่นการเชื่อมต่อหรือติดตาม
ตนเอง การปรับตัว หรือมนุษย์ตัวแทนที่ดำเนินการปรับและคาดการณ์ความต้องการของผู้ใช้ '
( พ.ศ. , และ AI 2000 ; gratch และ AI , 2002 ) ตัวแทน
สถานการณ์มักจะแสดงตอบพ่อบ้านเหมือนมนุษย์ เช่น โบว์ผูก , ประโยชน์
ชายหนุ่มในแอปเปิ้ลคอมพิวเตอร์ 1987 วีดีโอความรู้ Navigator .
Microsoft 1995 บ๊อบโปรแกรมที่ใช้ตัวการ์ตูนที่สร้างบนหน้าจอ
พันธมิตร , ไม่สำเร็จ ; มากของพวกเขาวิพากษ์วิจารณ์กระเป๋ารถเมล์ตัวละครยัง
withdravv'n. เว็บตัวอักษร ( เช่น ananova ) อ่าน ข่าวยัง
จางๆ บนมืออื่น ๆรูปที่เป็นตัวแทนของผู้ใช้คอมพิวเตอร์ใน gameplaying
และสภาพแวดล้อมทางสังคมสามมิติ ( ดูมาตรา 6.6 )
ยังคงเป็นที่นิยม อาจจะเพราะพวกเขามีหุ่นเหมือนคุณภาพละคร .
ประสบความสำเร็จในเส้นทางนี้ โปรโมเตอร์ของมนุษย์แทน ( ดู
ส่วน 12.3 ) ของเครื่องคอมพิวเตอร์ จะต้องทำความเข้าใจและเอาชนะประวัติศาสตร์
โปรแกรมที่ประสบความสำเร็จของพวกเขาในผลิตภัณฑ์กล่าวถึงข้างต้น รวมทั้งใน
ธนาคารขั้ว , บทเรียนคอมพิวเตอร์ช่วยสอน , พูด , รถยนต์และบริการไปรษณีย์
สถานี สถานการณ์รวมถึงการแทนมนุษย์ ความหวัง
การแปล กรุณารอสักครู่..