1. Introduction
Intelligent non-player characters (NPCs) in computer games can potentially make the games more challenging and enjoyable. As such, behavior modeling of non-player character (NPC) has become an important component in computer games, especially in first person shooting games (FPS) (Wang, Subagdja, Tan, & Ng, 2009; Wang & Tan, 2015).
In the game environment, each NPC is essentially an au- tonomous agent, which is expected to function and adapt by them- selves in a complex and dynamic environment. Consequently, a popular approach to developing intelligent agents is through ma- chine learning algorithms.
In particular, reinforcement learning (RL) is considered by many to be an appropriate paradigm for an agent to autonomously
∗ Corresponding author at: School of Computer Engineering, Nanyang Technolog- ical University, Nanyang Avenue, Singapore 639798, Singapore.
E-mail addresses: feng0027@e.ntu.edu.sg (S. Feng), asahtan@ntu.edu.sg (A.-H. Tan).
http://dx.doi.org/10.1016/j.eswa.2016.02.043
0957-4174/© 2016 Elsevier Ltd. All rights reserved.
abstract
Non-Player-Characters (NPCs), as found in computer games, can be modelled as intelligent systems, which serve to improve the interactivity and playability of the games. Although reinforcement learning (RL) has been a promising approach to creating the behavior models of non-player characters (NPC), an initial stage of exploration and low performance is typically required. On the other hand, imitative learning (IL) is an effective approach to pre-building a NPC’s behavior model by observing the opponent’s actions, but learning by imitation limits the agent’s performance to that of its opponents. In view of their complemen- tary strengths, this paper proposes a computational model unifying the two learning paradigms based on a class of self-organizing neural networks called Fusion Architecture for Learning and COgnition (FAL- CON). Specifically, two hybrid learning strategies, known as the Dual-Stage Learning (DSL) and the Mixed Model Learning (MML), are presented to realize the integration of the two distinct learning paradigms in one framework. The DSL and MML strategies have been applied to creating autonomous non-player characters (NPCs) in a first person shooting game named Unreal Tournament. Our experiments show that both DSL and MML are effective in producing NPCs with faster learning speed and better combat per- formance comparing with those built by traditional RL and IL methods. The proposed hybrid learning strategies thus provide an efficient method to building intelligent NPC agents in games and pave the way towards building autonomous expert and intelligent systems for other applications.
© 2016 Elsevier Ltd. All rights reserved.
acquire its action policy through interacting with its environment in a dynamic process. In general, an RL agent makes responses to the environment in order to maximize the future expected rewards with respect to its goals and motivations. However, in a first per- son shooting game, an NPC without prior knowledge will perform poorly at the initial stage as they have to spend substantial time in exploring and learning the environmental information. Playing with these NPCs certainly takes the fun out of the game. Moreover, specific types of knowledge may be too complex to learn through reinforcement feedback.
To overcome these drawbacks, a possible remedy is to pre- insert domain knowledge into the learning agents, in order to increase learning efficacy, shorten convergence time as well as enhance NPCs’ performance. Although there have been extensive works towards improving RL with prior knowledge, the methods for obtaining and integrating knowledge are still an open prob- lem. Most of the earlier works complement reinforcement learn- ing by direct inserting prior knowledge through either encoding domain knowledge in the learning architecture (Busoniu, Schutter, Babuska, & Ernst, 2010; Shapiro, Langley, & Shachter, 2001), adding prior knowledge as a rule base (Song, Gu, & Zhang, 2004), or using
90 S. Feng, A.-H. Tan/Expert Systems With Applications 56 (2016) 89–99
an added-on module to provide prior knowledge (Dixon, Malak, & Khosla, 2000; Moreno, Regueiro, Iglesias, & Barro, 2004). An obvi- ous drawback of direct insertion is that the prior knowledge can- not be used in exploitation during learning and cannot adapt to changes in the environment.
In contrast to reinforcement learning, imitative learning with explicit supervisory teaching signals is a promising approach to ac- quiring complex behavior for autonomous agents. The knowledge learnt by imitation can be used readily as the agent’s behavior model (Feng & Tan, 2010). Imitative learning and reinforcement learning can been seen as two complementary learning paradigms. While the former is effective and fast in acquiring patterns, it strictly relies on the training data and typically is not used in real time adaptation. On the other hand, reinforcement learn
1. บทนำอัจฉริยะไม่ใช่ตัวละคร (NPCs) ในเกมคอมพิวเตอร์อาจสามารถทำให้เกมสนุก และท้าทายมากขึ้น เช่นนี้ ลักษณะการทำงานการสร้างโมเดลของเล่นไม่ใช่ตัวละคร (NPC) ได้กลายเป็น ส่วนประกอบสำคัญในเกมคอมพิวเตอร์ โดยเฉพาะอย่างยิ่งในคนแรกยิงเกม (FPS) (Wang, Subagdja ตาล และ Ng, 2009 วัง & ตาล 2015)ในสภาพแวดล้อมเกม NPC แต่ละเป็นเป็นหลักตัว au tonomous แทน ซึ่งคาดว่าการทำงาน และปรับเปลี่ยน โดยพวกเขามีตัวตนในสภาพแวดล้อมที่ซับซ้อน และแบบไดนามิก ดังนั้น วิธีการยอดนิยมในการพัฒนาตัวแทนอัจฉริยะคือผ่านอัลกอริทึมการเรียน ma chineโดยเฉพาะอย่างยิ่ง เสริมการเรียนรู้ (RL) จะถือ โดยมากเป็นกระบวนทัศน์เหมาะสมสำหรับตัวแทนให้อย่างอิสระผู้ได่∗: คอมพิวเตอร์วิศวกรรม เทคโนโลยีนันยาง - มหาวิทยาลัย ical, Nanyang Avenue สิงคโปร์ 639798 สิงคโปร์ที่อยู่อีเมล์: feng0027@e.ntu.edu.sg (ปาเฟิง), asahtan@ntu.edu.sg (A. H. ตาล)http://dx.doi.org/10.1016/j.eswa.2016.02.0430957-4174 / © 2016 Elsevier จำกัด สงวนลิขสิทธิ์บทคัดย่อNon-Player-Characters (NPCs), as found in computer games, can be modelled as intelligent systems, which serve to improve the interactivity and playability of the games. Although reinforcement learning (RL) has been a promising approach to creating the behavior models of non-player characters (NPC), an initial stage of exploration and low performance is typically required. On the other hand, imitative learning (IL) is an effective approach to pre-building a NPC’s behavior model by observing the opponent’s actions, but learning by imitation limits the agent’s performance to that of its opponents. In view of their complemen- tary strengths, this paper proposes a computational model unifying the two learning paradigms based on a class of self-organizing neural networks called Fusion Architecture for Learning and COgnition (FAL- CON). Specifically, two hybrid learning strategies, known as the Dual-Stage Learning (DSL) and the Mixed Model Learning (MML), are presented to realize the integration of the two distinct learning paradigms in one framework. The DSL and MML strategies have been applied to creating autonomous non-player characters (NPCs) in a first person shooting game named Unreal Tournament. Our experiments show that both DSL and MML are effective in producing NPCs with faster learning speed and better combat per- formance comparing with those built by traditional RL and IL methods. The proposed hybrid learning strategies thus provide an efficient method to building intelligent NPC agents in games and pave the way towards building autonomous expert and intelligent systems for other applications. © 2016 Elsevier Ltd. All rights reserved.acquire its action policy through interacting with its environment in a dynamic process. In general, an RL agent makes responses to the environment in order to maximize the future expected rewards with respect to its goals and motivations. However, in a first per- son shooting game, an NPC without prior knowledge will perform poorly at the initial stage as they have to spend substantial time in exploring and learning the environmental information. Playing with these NPCs certainly takes the fun out of the game. Moreover, specific types of knowledge may be too complex to learn through reinforcement feedback.To overcome these drawbacks, a possible remedy is to pre- insert domain knowledge into the learning agents, in order to increase learning efficacy, shorten convergence time as well as enhance NPCs’ performance. Although there have been extensive works towards improving RL with prior knowledge, the methods for obtaining and integrating knowledge are still an open prob- lem. Most of the earlier works complement reinforcement learn- ing by direct inserting prior knowledge through either encoding domain knowledge in the learning architecture (Busoniu, Schutter, Babuska, & Ernst, 2010; Shapiro, Langley, & Shachter, 2001), adding prior knowledge as a rule base (Song, Gu, & Zhang, 2004), or using 90 S. Feng, A.-H. Tan/Expert Systems With Applications 56 (2016) 89–99an added-on module to provide prior knowledge (Dixon, Malak, & Khosla, 2000; Moreno, Regueiro, Iglesias, & Barro, 2004). An obvi- ous drawback of direct insertion is that the prior knowledge can- not be used in exploitation during learning and cannot adapt to changes in the environment.In contrast to reinforcement learning, imitative learning with explicit supervisory teaching signals is a promising approach to ac- quiring complex behavior for autonomous agents. The knowledge learnt by imitation can be used readily as the agent’s behavior model (Feng & Tan, 2010). Imitative learning and reinforcement learning can been seen as two complementary learning paradigms. While the former is effective and fast in acquiring patterns, it strictly relies on the training data and typically is not used in real time adaptation. On the other hand, reinforcement learn
การแปล กรุณารอสักครู่..

1. บทนำ
อักขระที่ไม่ใช่ผู้เล่นอัจฉริยะ (NPCs) ในเกมคอมพิวเตอร์อาจจะทำให้เกมที่ท้าทายมากขึ้นและสนุกสนาน เช่นการสร้างแบบจำลองพฤติกรรมของผู้เล่นที่ไม่ใช่ตัวอักษร (NPC) ได้กลายเป็นองค์ประกอบที่สำคัญในการเล่นเกมคอมพิวเตอร์โดยเฉพาะอย่างยิ่งในคนยิงเกมแรก (FPS) (วัง Subagdja ตาล & Ng 2009; & วังตาล, 2015)
ในสภาพแวดล้อมในเกมแต่ละ NPC เป็นหลักเป็นตัวแทน tonomous แบบอัตโนมัติซึ่งคาดว่าจะทำงานและปรับตัวโดย them- ในสภาพแวดล้อมที่มีความซับซ้อนและมีชีวิตชีวา . ดังนั้นวิธีการที่นิยมในการพัฒนาตัวแทนฉลาดผ่านการเรียนรู้ขั้นตอนวิธีการ Chine ma-
โดยเฉพาะอย่างยิ่งการเสริมแรงการเรียนรู้ (RL) จะพิจารณาโดยมากจะเป็นกระบวนทัศน์ที่เหมาะสมสำหรับตัวแทนเพื่อตนเอง
* ผู้รับผิดชอบที่: โรงเรียนวิศวกรรมคอมพิวเตอร์, นันยาง Technolog- iCal มหาวิทยาลัยนันยางอเวนิว, Singapore 639798, Singapore.
ที่อยู่ E-mail: feng0027@e.ntu.edu.sg (เอสฮ) asahtan@ntu.edu.sg ( A.-H. Tan).
http : //dx.doi.org/10.1016/j.eswa.2016.02.043
. 0957-4174 / © 2016 เอลส์ จำกัด สงวนลิขสิทธิ์
นามธรรม
ผู้เล่นที่ไม่ใช่อักขระ (NPCs) ที่พบในเกมคอมพิวเตอร์สามารถจำลอง เป็นระบบอัจฉริยะซึ่งทำหน้าที่ในการปรับปรุงการติดต่อสื่อสารและการเล่นของเกม แม้ว่าการเสริมแรงการเรียนรู้ (RL) ได้รับวิธีการที่มีแนวโน้มในการสร้างรูปแบบพฤติกรรมของตัวละครที่ไม่ใช่ผู้เล่น (NPC) ซึ่งเป็นช่วงเริ่มต้นของการสำรวจและผลการดำเนินงานที่ต่ำเป็นสิ่งจำเป็นโดยทั่วไป ในทางตรงกันข้ามการเรียนรู้การลอกเลียนแบบ (IL) เป็นวิธีการที่มีประสิทธิภาพในการเตรียมการสร้างแบบจำลองพฤติกรรมของ NPC โดยการสังเกตการกระทำของฝ่ายตรงข้าม แต่การเรียนรู้โดยการเลียนแบบ จำกัด ประสิทธิภาพการทำงานของตัวแทนที่ของฝ่ายตรงข้าม ในมุมมองของจุดแข็งของพวกเขา Tary complemen- บทความนี้นำเสนอรูปแบบการคำนวณรวมกันทั้งสองกระบวนทัศน์การเรียนรู้ขึ้นอยู่กับระดับของการจัดการตนเองของเครือข่ายประสาทที่เรียกว่าฟิวชั่นสถาปัตยกรรมเพื่อการเรียนรู้และความรู้ (CON FAL- บริการ) โดยเฉพาะสองกลยุทธ์การเรียนรู้ไฮบริดที่เรียกว่าการเรียนรู้แบบ Dual-stage (DSL) และผสมแบบการเรียนรู้ (MML) จะนำเสนอให้ตระหนักถึงการรวมกันของทั้งสองกระบวนทัศน์การเรียนรู้ที่แตกต่างกันในกรอบหนึ่ง กลยุทธ์ DSL และ MML ได้ถูกนำมาใช้ในการสร้างตัวละครที่ไม่ใช่ผู้เล่นอิสระ (NPCs) ในเกมยิงคนแรกชื่อ Unreal Tournament การทดลองของเราแสดงให้เห็นว่าทั้ง DSL และ MML จะมีประสิทธิภาพในการผลิต NPCs ที่มีความเร็วในการเรียนรู้ได้เร็วขึ้นและดีกว่าการต่อสู้น้ำาเปรียบเทียบกับผู้ที่สร้างขึ้นโดย RL และ IL ดั้งเดิมวิธีการ ที่นำเสนอกลยุทธ์การเรียนรู้ไฮบริดจึงให้วิธีที่มีประสิทธิภาพในการสร้างตัวแทน NPC ที่ชาญฉลาดในการเล่นเกมและปูทางสู่การสร้างผู้เชี่ยวชาญอิสระและระบบอัจฉริยะสำหรับการใช้งานอื่น ๆ .
© 2016 เอลส์ จำกัด สงวนลิขสิทธิ์.
ได้รับนโยบายการกระทำของตนผ่านการมีปฏิสัมพันธ์กับสภาพแวดล้อม ในกระบวนการพลวัต โดยทั่วไปเป็นตัวแทน RL ทำให้การตอบสนองต่อสภาพแวดล้อมในการสั่งซื้อเพื่อเพิ่มผลตอบแทนในอนาคตคาดว่าจะมีความเคารพต่อเป้าหมายและแรงจูงใจของ อย่างไรก็ตามในครั้งแรกที่ลูกชายละเกมยิงที่ NPC ไม่มีความรู้ก่อนที่จะดำเนินการได้ไม่ดีในระยะเริ่มแรกที่พวกเขาต้องใช้เวลามากในการสำรวจและการเรียนรู้ข้อมูลด้านสิ่งแวดล้อม เล่นกับ NPCs เหล่านี้อย่างแน่นอนใช้เวลาสนุกออกจากเกม นอกจากนี้ยังมีการระบุชนิดของความรู้อาจจะซับซ้อนเกินไปที่จะเรียนรู้ผ่านความคิดเห็นการเสริมแรง.
เพื่อเอาชนะข้อบกพร่องเหล่านี้เป็นวิธีการรักษาที่เป็นไปได้คือการล่วงหน้ารู้โดเมนแทรกลงไปยังตัวแทนการเรียนรู้เพื่อเพิ่มประสิทธิภาพการเรียนรู้การลดระยะเวลาการบรรจบกันรวมทั้งเพิ่ม ประสิทธิภาพ NPCs ' แม้ว่าจะมีการงานที่กว้างขวางต่อการปรับปรุง RL ที่มีความรู้ก่อนวิธีการสำหรับการได้รับความรู้และการบูรณาการยังคงเป็น LEM กำหนดปัญหาที่เปิด ส่วนใหญ่ของการทำงานก่อนหน้านี้เติมเต็มการเสริมแรง learn- ไอเอ็นจีโดยตรงโดยการใส่ความรู้ก่อนผ่านทั้งความรู้การเข้ารหัสในงานสถาปัตยกรรมการเรียนรู้ (Busoniu, Schutter, Babuska และเอิร์นส์ 2010; ชาปิโรส์แลงลีย์และ Shachter, 2001), การเพิ่มความรู้ก่อนเป็น กฎฐาน (Song, Gu และ Zhang, 2004) หรือใช้90 เอสฮ A.-H. ตาล / ระบบผู้เชี่ยวชาญด้วยการประยุกต์ใช้ 56 (2016) 89-99 โมดูลเพิ่มเพื่อให้ความรู้ก่อน (ดิกซัน Malak และ Khosla 2000; โมเรโน Regueiro, Iglesias, & Barro, 2004) อุปสรรคภายใต้กฎระเบียบของ obvi- แทรกโดยตรงก็คือความรู้ก่อนไม่อาจนำมาใช้ในการแสวงหาผลประโยชน์ในช่วงการเรียนรู้และไม่สามารถปรับตัวเข้ากับการเปลี่ยนแปลงในสภาพแวดล้อม. ในทางตรงกันข้ามกับการเสริมแรงการเรียนรู้การเรียนรู้การลอกเลียนแบบที่มีการเรียนการสอนอย่างชัดเจนสัญญาณการกำกับดูแลเป็นวิธีการที่มีแนวโน้มที่จะ AC - Quiring พฤติกรรมที่ซับซ้อนสำหรับตัวแทนอิสระ ความรู้ที่ได้เรียนรู้จากการเลียนแบบสามารถใช้งานได้อย่างง่ายดายเป็นรูปแบบพฤติกรรมของตัวแทน (Feng & Tan, 2010) การเรียนรู้การลอกเลียนแบบและการเรียนรู้การเสริมแรงสามารถถูกมองว่าเป็นสองกระบวนทัศน์การเรียนรู้ที่สมบูรณ์ ขณะที่อดีตมีประสิทธิภาพและรวดเร็วในการแสวงหารูปแบบการอย่างเคร่งครัดอาศัยข้อมูลการฝึกอบรมและมักจะไม่ได้ใช้ในการปรับตัวเวลาจริง บนมืออื่น ๆ เสริมการเรียนรู้
การแปล กรุณารอสักครู่..

1 . แนะนำตัวละครที่ผู้เล่นไม่ฉลาด ( NPCs ) ในเกมคอมพิวเตอร์อาจทำให้เกมที่ท้าทายมากขึ้นและสนุกสนาน เช่น การสร้างพฤติกรรมของตัวละครที่ไม่ใช่ผู้เล่น ( NPC ) ได้กลายเป็นองค์ประกอบที่สำคัญในเกมคอมพิวเตอร์ โดยเฉพาะเกมยิงคนแรก ( FPS ) ( วัง subagdja , Tan , & Ng , 2009 ; วังและ Tan , 2015 )ในสภาพแวดล้อมของเกมแต่ละ NPC เป็นหลักเป็น AU - tonomous แทน ซึ่งคาดว่าจะฟังก์ชันและปรับตัว โดยพวกเขา - ตัวในความซับซ้อนและสภาพแวดล้อมแบบไดนามิก . ดังนั้นวิธีการที่นิยมในการพัฒนาตัวแทนชาญฉลาดจะผ่านมา - ชีน การเรียนรู้วิธีการโดยเฉพาะ เสริมการเรียนรู้ ( RL ) มีการพิจารณาโดยมากจะเป็น กระบวนทัศน์ที่เหมาะสมสำหรับตัวแทนอัตโนมัติผู้เขียน∗สอดคล้องกันที่ : สาขาวิชาวิศวกรรมคอมพิวเตอร์ มหาวิทยาลัยเทคโนโลยีนันยาง - โดย 639798 Nanyang Avenue , สิงคโปร์ , สิงคโปร์ที่อยู่ : feng0027@e.ntu.edu.sg ( S . ฟง ) , asahtan@ntu.edu.sg ( A - H . ตัน )http://dx.doi.org/10.1016/j.eswa.2016.02.0430957-4174 / สงวนลิขสิทธิ์ 2016 เอลส์จำกัดสงวนลิขสิทธิ์บทคัดย่อตัวละครที่ไม่ใช่ผู้เล่น ( NPCs ) เท่าที่พบในเกมคอมพิวเตอร์ที่สามารถจำลองเป็นระบบอัจฉริยะที่ให้บริการเพื่อปรับปรุงการติดต่อสื่อสาร และการเล่นของเกม แม้ว่าการเรียนรู้แบบเสริมกำลัง ( RL ) มีวิธีการที่มีแนวโน้มที่จะสร้างแบบจำลองของพฤติกรรมตัวละครที่ไม่ผู้เล่น ( NPC ) ขั้นตอนการเริ่มต้นของการสํารวจและประสิทธิภาพต่ำ โดยทั่วไปจะต้อง บนมืออื่น ๆ , เรียนรู้การเลียนแบบ ( IL ) ที่มีประสิทธิภาพวิธีการก่อนสร้างรูปแบบพฤติกรรมของ NPC โดยสังเกตการกระทำของฝ่ายตรงข้าม แต่การเรียนรู้โดยการเลียนแบบ จำกัด การทำงานของเจ้าหน้าที่ ที่เป็นคู่แข่งของ ในมุมมองของ complemen - tary จุดแข็ง กระดาษนี้นำเสนอการคำนวณแบบรวมสองกระบวนทัศน์การเรียนรู้ตามระดับของตนเองจัดระเบียบโครงข่ายประสาทที่เรียกว่าสถาปัตยกรรม Fusion สำหรับการเรียนรู้และการรับรู้ ( ค - คอน ) โดยเฉพาะสองไฮบริดการเรียนรู้กลยุทธ์ เรียกว่าเป็นเวทีการเรียนรู้แบบ Dual ( DSL ) และแบบผสม ( บริษัท ) เสนอว่า การบูรณาการของทั้งสองที่แตกต่างกันเรียนรู้กระบวนทัศน์ในหนึ่งกรอบ ทั้ง DSL และกลยุทธ์บริษัท ได้ใช้ การสร้างตัวละคร ผู้เล่นไม่อิสระ ( NPCs ) เป็นคนแรกที่ยิงเกมชื่อการแข่งขันลวงตา การทดลองของเราแสดงให้เห็นว่าทั้ง DSL และบริษัทมีประสิทธิภาพในการผลิต NPCs กับการเรียนรู้ได้เร็วขึ้นความเร็วและดีกว่าการต่อสู้ต่อ - formance เปรียบเทียบกับผู้ที่สร้างขึ้นโดย RL แบบดั้งเดิมและวิธีการใน กลวิธีการเรียนรู้แบบผสมจึงให้วิธีที่มีประสิทธิภาพเพื่อสร้างเจ้าหน้าที่ NPC ฉลาดในเกมและปูทางไปสู่การสร้างผู้เชี่ยวชาญอิสระและระบบอัจฉริยะสำหรับการใช้งานอื่น ๆสงวนลิขสิทธิ์ 2552 บริษัทจำกัดสงวนลิขสิทธิ์ได้รับนโยบายการกระทำผ่านการโต้ตอบกับสภาพแวดล้อมในกระบวนการแบบไดนามิก ในทั่วไป , RL ตัวแทนทำให้การตอบสนองต่อสิ่งแวดล้อมเพื่อที่จะขยายในอนาคตคาดว่ารางวัลที่เกี่ยวกับเป้าหมายและแรงจูงใจของ อย่างไรก็ตาม ในแรกต่อลูกยิงเกม NPC ไม่มีความรู้ก่อนที่จะปฏิบัติงานงานในขั้นตอนแรก เพราะต้องใช้เวลามากในการสำรวจและการศึกษาข้อมูลด้านสิ่งแวดล้อม เล่นกับ NPCs เหล่านี้อย่างแน่นอนจะสนุกจากเกม นอกจากนี้ประเภทของความรู้ที่อาจจะซับซ้อนเกินไปที่จะเรียนรู้ผ่านการสนับสนุนความคิดเห็นเพื่อเอาชนะอุปสรรคเหล่านี้ การรักษาที่เป็นไปได้ คือ ก่อนแทรกความรู้โดเมนเป็นเรียนตัวแทนเพื่อเพิ่มประสิทธิภาพการเรียนรู้ ลด เปิดเวลา ตลอดจนเพิ่มประสิทธิภาพ NPCs " แม้จะมีงานมากมายต่อการปรับปรุง RL กับความรู้เดิม และวิธีการในการขอรับและการบูรณาการความรู้เป็นปัญหา - เปิด เล็ม ที่สุดของงานก่อนหน้านี้กว่าเสริมเรียนรู้ - ไอเอ็นจีโดยตรงการแทรกความรู้ผ่านทั้งการเข้ารหัสความรู้โดเมนในสถาปัตยกรรมการเรียนรู้ ( busoniu schutter babuska , , , & Ernst , 2010 ; Shapiro , แลงลีย์ , & shachter , 2001 ) , เพิ่มความรู้เป็นฐานกฎ ( เพลง กู และ ชาง , 2004 ) หรือใช้90 . ฟง A - H . ตัน / ระบบผู้เชี่ยวชาญกับการประยุกต์ใช้ 56 ( 2016 ) 89 99 จำกัดการเพิ่มในโมดูลเพื่อให้ความรู้ก่อน ( ดิกสัน มาลัก & Khosla , 2000 ; Moreno , regueiro Iglesias & บาร์โร , 2004 ) การ obvi - ข้อเสียเปรียบที่ดินของการแทรกโดยตรงคือความรู้เดิมได้ - ไม่สามารถใช้ในการแสวงหาประโยชน์ในการเรียนรู้ และสามารถปรับตัวให้เข้ากับการเปลี่ยนแปลงในสภาพแวดล้อมในทางตรงกันข้ามการเสริมแรงการเรียนรู้ การเรียนการสอนที่ชัดเจนสัญญาณเป็นสัญญาแบบ AC - quiring พฤติกรรมที่ซับซ้อนของตัวแทน ความรู้ที่เรียนโดยการเลียนแบบ สามารถใช้พร้อมเป็นรูปแบบพฤติกรรมของเจ้าหน้าที่ ( ฟง & tan , 2010 ) การเรียนรู้การเสริมการเรียนรู้และสามารถถูกมองว่าเป็นสองกระบวนทัศน์การเรียนรู้เสริม . ในขณะที่อดีตมีประสิทธิภาพและรวดเร็วในการรับรูปแบบ มันอาศัยข้อมูลการฝึกอบรมและมักจะไม่ได้ใช้งานในเวลาจริง การปรับตัว บนมืออื่น ๆ , reinforc
การแปล กรุณารอสักครู่..
