The selection module runs the genetic algorithm to figure out the ‘bes การแปล - The selection module runs the genetic algorithm to figure out the ‘bes ไทย วิธีการพูด

The selection module runs the genet

The selection module runs the genetic algorithm to figure out the ‘best’ action for each run; actions are typically
‘move forward/left/right’ or just ‘rotate by some angle’. The fitness function depends on the length of the longest,
unimpeded line of sight (as calculated by the ray-casting functions in LSL) and the nearness of the current goal
(which we will see shortly), as well as some additional weighting coming from the two last modules. Certain objects
in the virtual world environment also act as goals or attractors (in the sense of swarm attractors) and they flag their
position to this module, which uses them to calculate and order rules according to a GA. Currently, a classical GA is
being implemented, but other non-classical algorithms might also be employed to compare results.
The behaviour module, once a rule has found by the GA, will flag RESTbot to move the avatar around, if a
movement is the best choice encoded by the rule, or another behaviour might be triggered. In terms of
SL/OpenSimulator, this mostly means playing a gesture or animation (for example, if the NPC waves or greets
another NPC or human) or eventually sitting down on some object (which will be explained in a later section).
With the core modules, NPCs are able to navigate in an environment of which they are only partially aware, and
deal with collisions and simple interactions (avoiding other NPCs, for example, like in swarms). Notice that, due to
the constant dynamic changes of the environment, is was considered wasteful to implement a ‘memory’ of past
interactions or movement sequences.
6. Borrowing ideas from games
This project follows the methodology of Design Science [46,47] — the search for an artefact that fulfils
specifications — in our case, to allow historians and archaeologists to create crowd simulations based on intelligent
agents without the need to programme anything in traditional computer code.
While the section above permits movement and collision management without any additional rules, goals and
interactions are not contemplated. The next module deals with motivation, and it works together with the selection
module to feed the GA with appropriate weighting for the rule selection.
Here we consider the following analogy, typical of strategy simulation games: Each NPC is assigned a certain
energy level. As they move around, they lose energy, and, at some point, they will have to change their strategy or
goal in order to search for a way to recharge their energy. This is very similar to the approach used in robotics,
where robots will also track the energy level of their batteries and need to move to a recharge station periodically
[32], and virtual simulations of robots, where similar concepts are employed [48,49]. Both approaches use GA to
‘train’ robots, and the expected emergent behaviour was observed: robots, real and virtual, will maximize their ‘life’
by appropriately returning to the recharge stations as their energy levels drop.
To simulate the motivation of going to work every day, we define a goal for earning money. These are special
places in the environment where the NPC is able to increase its money level until it reaches a certain threshold (the
‘daily wage’) and loses some energy in the process, after which it will return ‘home’ for an energy recharge. This is
done by having historians visually dropping special cubes on the ground — yellow for energy, green for money —
and assign a NPC to them. The energy/money boxes include a simple slider, which allow them to define the rate of
energy replenishment or amount of money earned, which can be adjusted dynamically— both the position, and the
rate. Every time the cubes are changed, the motivation module is flagged, changes the appropriate information on the
database (location and rate), and the GA on the selection module will re-calculate the fitness for its rules.
Historians can also model a behaviour where NPCs stay for some time at work, while energy gets depleted, but
instead of returning home for a full recharge, they can go to the nearest tavern or market stall for refreshment. To
allow for this behaviour, a special home box was added, which is the ‘main’ goal for a NPC to return to, but, while
at work, if energy levels are not enough, NPCs might be able to search for nearby yellow energy cubes for a quick
recharge. It is expected that this allows NPCs to walk longer paths while ‘eating’ on their way to and from work.
How to deal with the special events — leaving work and/or home to attend a processional, for instance? A
possible approach is to add a fourth cube for happiness. While at work, NPCs earn money and lose some energy, but
their happiness levels drop even quicker. To recover happiness, historians can drop red cubes inside of churches or
other entertainment areas. Thus, it is expected that NPCs will sometimes feel ‘bored’ at work, leave their place (even
if their ‘daily wage’ is not fully earned yet!) and wander around in search of some entertainment — while losing
energy that way, and, perhaps, they might select a goal to get some quick energy at a tavern before returning to
work. Or they might ‘stray’ away from the workplace so much that the GA selects the ‘home’ goal instead.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
เลือกโมดูลทำงานอัลกอริทึมทางพันธุกรรมเพื่อทราบการดำเนินการ 'สุด' สำหรับการรันแต่ละ การดำเนินการเป็นปกติ'ย้ายไปซ้าย/ขวา' หรือเพียง 'หมุนเป็นบางมุม' ฟังก์ชันการออกกำลังกายขึ้นอยู่กับความยาวของยาวที่สุดบรรทัดสายตา unimpeded (ตามที่คำนวณโดยฟังก์ชันเรย์หล่อใน LSL) และข้างเป้าหมายปัจจุบัน(ซึ่งเราจะเห็นในไม่ช้า), เช่นบางน้ำหนักเพิ่มเติมมาจากโมล่าสุดสอง วัตถุบางอย่างในสภาพแวดล้อมเสมือนโลกยังทำหน้าที่เป็นเป้าหมายหรือ attractors (ในความรู้สึกของฝูง attractors) และพวกเขาตั้งค่าสถานะของพวกเขาตำแหน่งโมดูลนี้ ซึ่งใช้ในการคำนวณ และสั่งกฎตาม GA. ปัจจุบัน GA คลาสสิก เป็นเป็นอัลกอริทึมของคลาสสิกไม่ใช่ดำเนินการ แต่อื่น ๆ อาจยังทำงานเพื่อเปรียบเทียบผลการโมดูพฤติกรรม เมื่อพบกฎ โดย GA จะตั้งค่าสถานะ RESTbot ย้ายอวตารสถาน ถ้าเป็นย้ายที่พัก โดยกฎการเข้ารหัส หรือพฤติกรรมอื่นอาจจะถูกทริกเกอร์ ในแง่ของSL/OpenSimulator ซึ่งส่วนใหญ่หมายถึง การเล่นรูปแบบลายเส้นหรือภาพเคลื่อนไหว (ตัวอย่าง ถ้า NPC คลื่น หรือทักทายNPC หรือบุคคลอื่น) หรือในที่สุดนั่งลงบนวัตถุบางอย่าง (ซึ่งจะได้อธิบายในส่วนต่อไป)มีโมดูหลัก NPCs จะไปในสภาพแวดล้อมที่จะเฉพาะบางส่วนทราบ และเรื่องไม่เกิดการชนและการโต้ตอบอย่างง่าย (หลีกเลี่ยง NPCs อื่น ๆ เช่น เช่นใน swarms) สังเกตที่ เนื่องคงแบบไดนามิกการเปลี่ยนแปลงของสิ่งแวดล้อม จะถือเป็น wasteful ใช้ 'จำ' ของอดีตการโต้ตอบหรือลำดับการเคลื่อนไหว6. การยืมความคิดจากเกมโครงการนี้เป็นไปตามระเบียบวิธีวิทยาศาสตร์ออกแบบ [46,47] — หา artefact ที่ครบถ้วนข้อมูลจำเพาะเช่นในกรณีของเรา ให้นักประวัติศาสตร์และโบราณคดีเพื่อสร้างการจำลองฝูงชนตามอัจฉริยะตัวแทนโดยไม่ต้องโปรแกรมใด ๆ ในรหัสคอมพิวเตอร์แบบดั้งเดิมในขณะที่ส่วนด้านบนอนุญาตให้จัดการย้ายและชน โดยไม่มีกฎใด ๆ เพิ่มเติม เป้าหมาย และไม่มีไตร่ตรองการโต้ตอบ โมถัดไปเกี่ยวข้องกับแรงจูงใจ และการทำงานร่วมกับส่วนที่เลือกโมดูลเลี้ยง GA ด้วยน้ำหนักที่เหมาะสมสำหรับการเลือกกฎที่นี่เราพิจารณาเทียบต่อไปนี้ โดยทั่วไปของเกมกลยุทธ์: กำหนด NPC แต่ละตัวบางระดับพลังงาน พวกเขาย้าย พวกเขาสูญเสียพลังงาน และ ในบางจุด พวกเขาจะมีการเปลี่ยนแปลงกลยุทธ์ของพวกเขา หรือเป้าหมายการค้นหาวิธีการชาร์จพลังงานของพวกเขา นี้จะคล้ายกับวิธีที่ใช้ในการหุ่นยนต์ภาคสนามซึ่งหุ่นยนต์จะยังติดตามระดับพลังงานของแบตเตอรี่ของพวกเขา และต้องการย้ายไปสถานีแห่งเป็นระยะ ๆ[32], และ [48,49] จ้างจำลองเสมือนหุ่นยนต์ ที่มีแนวคิดคล้ายกัน GA จะใช้ทั้งสองวิธี'รถไฟ' หุ่นยนต์ และพฤติกรรมโผล่ออกมาคาดถูกสังเกต: หุ่นยนต์ จริง และ เสมือน จะขยาย 'ชีวิต' ของพวกเขาตามความเหมาะสมแห่งสถานีเป็นพลังงานของ ระดับปล่อยเพื่อจำลองแรงจูงใจของการไปทำงานทุกวัน เรากำหนดเป้าหมายสำหรับรายได้ เหล่านี้เป็นพิเศษสถานที่ในสภาพแวดล้อมจะเพิ่มระดับเงินจนกว่าจะถึงการกำหนดขีดจำกัด(NPC'ค่าจ้างรายวัน') และสูญเสียพลังงานในกระบวนการ ที่มันจะกลับ 'บ้าน' สำหรับการเติมพลังให้พลังงานบางอย่าง นี่คือโดยมีนักประวัติศาสตร์เห็นวางลูกบาศก์พิเศษบนพื้นดินคือสีเหลือง พลังงานสีเขียวเงิน —และกำหนด NPC ตัวนั้น กล่องพลังงาน/เงินรวมเลื่อนง่าย ซึ่งอนุญาตให้กำหนดอัตราเติมพลังงานหรือจำนวนเงินที่ได้รับ ซึ่งสามารถปรับปรุงแบบไดนามิก — ทั้งสองตำแหน่ง และอัตรา ทุกครั้ง cube ที่มีการเปลี่ยนแปลง โมแรงจูงใจถูกตั้งค่าสถานะ การเปลี่ยนแปลงในการฐานข้อมูล (ตำแหน่งและอัตรา), และ GA ในโมดูลเลือกจะคำนวณฟิตเนสสำหรับกฎของนักประวัติศาสตร์ยังสามารถจำลองพฤติกรรมที่ NPCs อยู่บางเวลาที่ทำงาน ในขณะที่พลังงานจะหมด แต่แทนที่จะกลับบ้านสำหรับเติมพลังเต็ม พวกเขาสามารถไปแทเวิร์นหรือตลาดคอกสำหรับเครื่องดื่ม ถึงอนุญาตสำหรับพฤติกรรมนี้ กล่องบ้านพิเศษเพิ่ม ซึ่งเป็นเป้าหมาย 'หลัก' ให้ NPC เพื่อกลับไป แต่ ขณะที่ทำงาน ถ้าระดับพลังงานไม่เพียงพอ NPCs อาจค้นหาใกล้เคียงลูกบาศก์สีเหลืองพลังงานสำหรับอย่างรวดเร็วเติมพลัง คาดว่าจะให้ NPCs เดินเส้นทางที่ยาวในขณะที่ 'กิน' ในแบบของพวกเขาไป และ จากการทำงานวิธีจัดการกับเหตุการณ์พิเศษเช่นออกจากงาน หรือไปร่วม processional ตัวอย่าง Aวิธีที่สามารถจะเพิ่มลูกบาศก์สี่สำหรับความสุข ในขณะที่ทำงาน NPCs รายได้ และสูญเสียพลังงานบางอย่าง แต่ระดับความสุขของพวกเขาปล่อยได้เร็ว การกู้คืนความสุข นักประวัติศาสตร์สามารถวางลูกบาศก์สีแดงภายในคริสตจักร หรืออื่น ๆ บันเทิง ดังนั้น จึง คาดว่า NPCs จะบางครั้งรู้สึกว่า 'เบื่อ' ที่ทำงาน ออกจาก (แม้ถ้าของ 'ค่าจ้างรายวัน' จะไม่ครบได้ยัง) และเร่รอบค้นหาความบันเทิงบางตัวในขณะที่แพ้พลังงานวิธี และ บางที พวกเขาอาจเลือกเป้าหมายจะได้รับพลังงานบางอย่างรวดเร็วที่แทเวิร์นเป็นเยี่ยมทำงาน หรือพวกเขาอาจ 'หลง' จากทำงานมากว่า GA จะเลือกเป้าหมายที่ 'บ้าน' แทน
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
The selection module runs the genetic algorithm to figure out the ‘best’ action for each run; actions are typically
‘move forward/left/right’ or just ‘rotate by some angle’. The fitness function depends on the length of the longest,
unimpeded line of sight (as calculated by the ray-casting functions in LSL) and the nearness of the current goal
(which we will see shortly), as well as some additional weighting coming from the two last modules. Certain objects
in the virtual world environment also act as goals or attractors (in the sense of swarm attractors) and they flag their
position to this module, which uses them to calculate and order rules according to a GA. Currently, a classical GA is
being implemented, but other non-classical algorithms might also be employed to compare results.
The behaviour module, once a rule has found by the GA, will flag RESTbot to move the avatar around, if a
movement is the best choice encoded by the rule, or another behaviour might be triggered. In terms of
SL/OpenSimulator, this mostly means playing a gesture or animation (for example, if the NPC waves or greets
another NPC or human) or eventually sitting down on some object (which will be explained in a later section).
With the core modules, NPCs are able to navigate in an environment of which they are only partially aware, and
deal with collisions and simple interactions (avoiding other NPCs, for example, like in swarms). Notice that, due to
the constant dynamic changes of the environment, is was considered wasteful to implement a ‘memory’ of past
interactions or movement sequences.
6. Borrowing ideas from games
This project follows the methodology of Design Science [46,47] — the search for an artefact that fulfils
specifications — in our case, to allow historians and archaeologists to create crowd simulations based on intelligent
agents without the need to programme anything in traditional computer code.
While the section above permits movement and collision management without any additional rules, goals and
interactions are not contemplated. The next module deals with motivation, and it works together with the selection
module to feed the GA with appropriate weighting for the rule selection.
Here we consider the following analogy, typical of strategy simulation games: Each NPC is assigned a certain
energy level. As they move around, they lose energy, and, at some point, they will have to change their strategy or
goal in order to search for a way to recharge their energy. This is very similar to the approach used in robotics,
where robots will also track the energy level of their batteries and need to move to a recharge station periodically
[32], and virtual simulations of robots, where similar concepts are employed [48,49]. Both approaches use GA to
‘train’ robots, and the expected emergent behaviour was observed: robots, real and virtual, will maximize their ‘life’
by appropriately returning to the recharge stations as their energy levels drop.
To simulate the motivation of going to work every day, we define a goal for earning money. These are special
places in the environment where the NPC is able to increase its money level until it reaches a certain threshold (the
‘daily wage’) and loses some energy in the process, after which it will return ‘home’ for an energy recharge. This is
done by having historians visually dropping special cubes on the ground — yellow for energy, green for money —
and assign a NPC to them. The energy/money boxes include a simple slider, which allow them to define the rate of
energy replenishment or amount of money earned, which can be adjusted dynamically— both the position, and the
rate. Every time the cubes are changed, the motivation module is flagged, changes the appropriate information on the
database (location and rate), and the GA on the selection module will re-calculate the fitness for its rules.
Historians can also model a behaviour where NPCs stay for some time at work, while energy gets depleted, but
instead of returning home for a full recharge, they can go to the nearest tavern or market stall for refreshment. To
allow for this behaviour, a special home box was added, which is the ‘main’ goal for a NPC to return to, but, while
at work, if energy levels are not enough, NPCs might be able to search for nearby yellow energy cubes for a quick
recharge. It is expected that this allows NPCs to walk longer paths while ‘eating’ on their way to and from work.
How to deal with the special events — leaving work and/or home to attend a processional, for instance? A
possible approach is to add a fourth cube for happiness. While at work, NPCs earn money and lose some energy, but
their happiness levels drop even quicker. To recover happiness, historians can drop red cubes inside of churches or
other entertainment areas. Thus, it is expected that NPCs will sometimes feel ‘bored’ at work, leave their place (even
if their ‘daily wage’ is not fully earned yet!) and wander around in search of some entertainment — while losing
energy that way, and, perhaps, they might select a goal to get some quick energy at a tavern before returning to
work. Or they might ‘stray’ away from the workplace so much that the GA selects the ‘home’ goal instead.
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
การเลือกโมดูลทำงาน ขั้นตอนวิธีทางพันธุกรรมที่จะคิดออกการกระทำ ' ที่ดีที่สุดสำหรับแต่ละการกระทำมักจะเรียก ;
'move / ขวา ' หรือเพียง ' หมุนบางมุม ' ไปข้างหน้า / ซ้าย ฟังก์ชันฟิตเนสขึ้นอยู่กับความยาวของบรรทัดยาวที่สุด
สนุกสนานสายตา ( คำนวณโดยเรย์หล่อฟังก์ชัน LSL ) และความใกล้ชิดของ
เป้าหมายปัจจุบัน ( ซึ่งเราจะเห็นในไม่ช้า )เช่นเดียวกับน้ำหนักเพิ่มเติมบางอย่างที่มาจากสองโมดูล
วัตถุบางอย่างในสภาพแวดล้อมเสมือนโลกก็เป็นเป้าหมายหรือตัว ( ในความรู้สึกของฝูงตัว ) และธงตำแหน่ง
โมดูลนี้ซึ่งใช้ในการคำนวณและคำสั่งตามแบบโรงงาน ในปัจจุบัน เกมคลาสสิก
ถูกใช้แต่ไม่คลาสสิกอัลกอริทึมยังอาจใช้เพื่อเปรียบเทียบผล .
พฤติกรรมโมดูล เมื่อกฎได้พบโดยเกม , ธง restbot ย้าย Avatar รอบถ้า
เคลื่อนไหวเป็นทางเลือกที่ดีที่สุดที่เข้ารหัสโดยกฎ หรือพฤติกรรมอื่นอาจจะเรียก ในแง่ของ
SL / opensimulator นี้ส่วนใหญ่หมายถึงการเล่นท่าทางหรือการเคลื่อนไหว ( ตัวอย่างเช่น ถ้าคลื่น NPC หรือทักทาย
NPC อื่นหรือมนุษย์ ) หรือจะนั่งบนวัตถุบางอย่าง ( ซึ่งจะอธิบายในหัวข้อต่อไป ) .
ด้วยหลักโมดูล , NPCs สามารถนำทางในสภาพแวดล้อมของพวกเขาซึ่งเป็นเพียงบางส่วนเท่านั้นที่ทราบ และจัดการกับการชนกันและปฏิสัมพันธ์ง่าย
( หลีกเลี่ยง NPCs อื่น เช่น ในฝูงเช่น ) แจ้งให้ทราบว่า เนื่องจากการเปลี่ยนแปลงแบบไดนามิก
คงที่ของสิ่งแวดล้อมก็ถือว่าฟุ่มเฟือยใช้ ' ความทรงจำ ' ของการโต้ตอบหรือลำดับการเคลื่อนไหวที่ผ่านมา
.
6 ยืมความคิดจากเกม
โครงการนี้ตามวิธีการของการออกแบบวิทยาศาสตร์ [ 46,47 ] - ค้นหาสิ่งประดิษฐ์ที่ตอบสนอง
คุณสมบัติ - ในกรณีของเรา ช่วยให้นักประวัติศาสตร์ และนักโบราณคดี เพื่อสร้างแบบจำลองฝูงชนตามฉลาด
ตัวแทนโดยไม่ต้องโปรแกรมอะไรในรหัสคอมพิวเตอร์แบบดั้งเดิม ในขณะที่ส่วนข้างต้นให้
การเคลื่อนไหวและการจัดการการปะทะกันโดยไม่มีกฎเพิ่มเติมใด ๆ เป้าหมายและ
การโต้ตอบจะไม่พิจารณา โมดูลถัดไปเกี่ยวข้องกับแรงจูงใจและการทำงานร่วมกับการ
โมดูลให้อาหารกา กับ น้ำหนักที่เหมาะสมสำหรับการปกครอง
ที่นี่เราพิจารณาเปรียบเทียบต่อไปนี้ เป็นเกมจำลองกลยุทธ์ : แต่ละ NPC กำหนดระดับพลังงานแน่นอน

เช่นที่พวกเขาย้ายไปรอบ ๆพวกเขาสูญเสียพลังงาน , และ , ในบางจุดที่พวกเขาจะต้องเปลี่ยนกลยุทธ์หรือ
เป้าหมายของพวกเขาเพื่อค้นหาวิธีชาร์จพลังงานของพวกเขา นี้จะคล้ายกับวิธีการที่ใช้ในหุ่นยนต์
ที่หุ่นยนต์จะยังติดตามระดับพลังงานของแบตเตอรี่ของพวกเขา และต้องย้ายไปพักที่สถานีเป็นระยะๆ
[ 32 ] และการจำลองเสมือนของหุ่นยนต์ที่ใช้แนวคิดที่คล้ายกัน [ 48,49 ] ทั้งสองวิธีใช้ GA

'train ' หุ่นยนต์ และคาดว่าความพฤติกรรมพบว่า : หุ่นยนต์เสมือนจริงและจะเพิ่มชีวิต '
'โดยเหมาะสมกลับไปชาร์จสถานีเป็นระดับของพลังงานลดลง
จำลองแรงจูงใจเพื่อไปทำงานทุกวัน เรากำหนดเป้าหมายสำหรับเงินรายได้ เหล่านี้เป็นสถานที่พิเศษ
ในสภาพแวดล้อมที่ NPC ที่สามารถเพิ่มระดับของเงินจนกว่าจะถึงเกณฑ์บางอย่าง (
'daily ค่าจ้าง ' ) และสูญเสียพลังงานบางส่วนในกระบวนการหลังจากนั้นก็จะกลับ ' บ้าน ' สำหรับการชาร์จพลังงาน นี่ทำโดยมีนักประวัติศาสตร์มองเห็น
วางก้อนพิเศษบนพื้นสีเหลือง - สำหรับพลังงานสีเขียวเพื่อเงิน -
และมอบหมายเป็น NPC เพื่อพวกเขา พลังงาน / เงิน กล่อง ได้แก่ ตัวเลื่อนง่ายซึ่งช่วยให้พวกเขาเพื่อกำหนดอัตรา
พลังงานการเติมหรือจำนวนเงินที่ได้รับ ซึ่งสามารถปรับแบบไดนามิก - 2 ตำแหน่งและ
อัตรา ทุกครั้งที่ก้อนที่มีการเปลี่ยนแปลง ในโมดูลเป็นธง , การเปลี่ยนแปลงข้อมูลที่เหมาะสมบน
ฐานข้อมูล ( สถานที่และอัตรา ) , และ GA ในการเลือกโมดูลจะคำนวณความเหมาะสมสำหรับกฎของ นักประวัติศาสตร์ยังสามารถรูปแบบพฤติกรรม
ที่ NPCs อยู่บ้างในการทำงาน ในขณะที่พลังงานจะหมด , แต่
แทนกลับบ้านสำหรับการชาร์จเต็มพวกเขาสามารถไปที่โรงเตี๊ยม หรือตลาดแผงลอยสำหรับเครื่องดื่ม

ให้พฤติกรรมนี้ บ้านกล่องพิเศษเพิ่ม ซึ่งเป็นเป้าหมายหลัก ' ' เป็น NPC ที่จะกลับไป แต่ในขณะที่
ที่ทำงาน ถ้าระดับพลังงานไม่เพียงพอ , NPCs อาจจะสามารถค้นหาใกล้เคียงสีเหลืองพลังงานก้อนสำหรับชาร์จเร็ว

เป็นที่คาดว่า นี้ช่วยให้ NPCs เดินเส้นทางอีกต่อไปในขณะที่ ' กิน ' ในทางของพวกเขาไปและกลับจากที่ทำงาน
วิธีการจัดการกับเหตุการณ์พิเศษ - ไปทำงานหรือกลับบ้านที่จะเข้าร่วมวัชรากร ตัวอย่าง เป็นวิธีการที่เป็นไปได้คือการเพิ่ม
ก้อนที่สี่เพื่อความสุข ในขณะที่ทำงาน , NPCs หาเงิน และสูญเสียพลังงานบางส่วน แต่ระดับความสุขของพวกเขาลดลง
ได้เร็ว คืนความสุขนักประวัติศาสตร์สามารถวางก้อนสีแดงภายในโบสถ์หรือ
พื้นที่ความบันเทิงอื่น ๆ ดังนั้น จึงคาดว่า NPCs บางครั้งจะรู้สึกคำว่าเบื่อที่ทำงาน ออกจากสถานที่ของพวกเขา ( แม้
ถ้าค่าจ้างรายวัน ' ' จะไม่เต็มที่ได้อีก ! ) และร่อนอยู่ในการค้นหาของบาง บันเทิง - ในขณะที่การสูญเสีย
พลังงานแบบนี้ และบางทีพวกเขาอาจจะเลือกเป้าหมายที่จะได้รับพลังงานอย่างรวดเร็วที่โรงเตี๊ยมก่อนกลับ

ทำงาน หรือพวกเขาอาจจะ ' หลงทาง ' ห่างจากที่ทำงานมากว่าเกมจะเลือกเป้าหมายที่ ' บ้าน ' แทน
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2026 I Love Translation. All reserved.

E-mail: