In timed, zero-sum games, the goal is to maximize the probabilityof wi การแปล - In timed, zero-sum games, the goal is to maximize the probabilityof wi ไทย วิธีการพูด

In timed, zero-sum games, the goal

In timed, zero-sum games, the goal is to maximize the probability
of winning, which is not necessarily the same as maximizing
our expected reward. We consider cumulative intermediate
reward to be the difference between our score and
our opponent’s score; the “true” reward of a win, loss, or
tie is determined at the end of a game by applying a threshold
function to the cumulative intermediate reward. We introduce
thresholded-rewards problems to capture this dependency
of the final reward outcome on the cumulative intermediate
reward. Thresholded-rewards problems reflect different
real-world stochastic planning domains, especially zero-sum
games, in which time and score need to be considered. We
investigate the application of thresholded rewards to finitehorizon
Markov Decision Processes (MDPs). In general, the
optimal policy for a thresholded-rewards MDP will be nonstationary,
depending on the number of time steps remaining
and the cumulative intermediate reward. We introduce
an efficient value iteration algorithm that solves thresholdedrewards
MDPs exactly, but with running time quadratic on
the number of states in the MDP and the length of the time
horizon. We investigate a number of heuristic-based techniques
that efficiently find approximate solutions for MDPs
with large state spaces or long time horizons.
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
ในเวลาที่กำหนด ศูนย์รวมเกมส์ เป้าหมายคือการ ขยายความเป็นไปได้ชนะ ซึ่งไม่จำเป็นต้องเหมือนกับการเพิ่มของเราผลตอบแทนที่คาดไว้ เราพิจารณาระดับปานกลางสะสมรางวัลมีความแตกต่างระหว่างคะแนนของเรา และคะแนนของฝ่ายตรงข้ามของเรา รางวัล "ความจริง" ของการชนะ ขาดทุน หรือเสมอเป็นไปตามที่สุดของเกมใช้เป็นขีดจำกัดฟังก์ชันการสะสมรางวัลกลาง เราแนะนำปัญหา thresholded ของรางวัลในการจับภาพนี้อ้างอิงผลรางวัลสุดท้ายในระดับปานกลางสะสมรางวัล ปัญหา Thresholded รางวัลที่สะท้อนให้เห็นถึงแตกต่างกันโดเมนวางแผนแบบเฟ้นสุ่มจริง โดยเฉพาะอย่างยิ่งศูนย์รวมเกม ซึ่งเวลาและคะแนนต้องได้รับการพิจารณา เราตรวจสอบโปรแกรมประยุกต์ของรางวัล thresholded finitehorizonกระบวนการตัดสินใจ Markov (MDPs) ทั่วไป การนโยบายที่เหมาะสมที่สุดสำหรับ MDP thresholded รางวัลจะเป็น nonstationaryขึ้นอยู่กับจำนวนขั้นตอนเวลาที่เหลือและรางวัลกลางสะสม เราแนะนำมีค่าประสิทธิภาพเกิดซ้ำอัลกอริทึมที่แก้ thresholdedrewardsMDPs แน่นอน แต่ มีการเรียกใช้เวลากำลังสองในหมายเลขของอเมริกา MDP และระยะเวลาขอบฟ้า เราตรวจสอบจำนวนเทคนิค heuristic ตามที่มีประสิทธิภาพค้นหาโซลูชั่นโดยประมาณ MDPsมีช่องว่างรัฐขนาดใหญ่หรือยาวเวลาฮอลิซันส์
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
หมดเวลาในเกมศูนย์รวมเป้าหมายคือเพื่อเพิ่มความน่าจะเป็นในการชนะที่ไม่จำเป็นต้องเหมือนกับการเพิ่มผลตอบแทนที่คาดหวังของเรา เราพิจารณากลางสะสมรางวัลจะเป็นความแตกต่างระหว่างคะแนนของเราและคะแนนของฝ่ายตรงข้ามของเรา; "true" รางวัลชนะสูญเสียหรือผูกจะถูกกำหนดในตอนท้ายของเกมโดยใช้เกณฑ์การทำงานเพื่อผลตอบแทนสะสมกลาง เราแนะนำปัญหาผลตอบแทน-thresholded ในการจับภาพการพึ่งพานี้ของผลรางวัลรอบสุดท้ายเมื่อกลางสะสมรางวัล Thresholded-ผลตอบแทนที่สะท้อนให้เห็นถึงปัญหาที่แตกต่างกันในโลกความจริงโดเมนวางแผนสุ่มโดยเฉพาะอย่างยิ่งศูนย์รวมเกมซึ่งในเวลาและคะแนนจะต้องพิจารณา เราตรวจสอบแอพลิเคชันของรางวัล thresholded เพื่อ finitehorizon กระบวนการตัดสินใจมาร์คอฟ (MDPs) โดยทั่วไปนโยบายที่ดีที่สุดสำหรับผลตอบแทน-thresholded MDP จะไม่คงที่, ขึ้นอยู่กับจำนวนของขั้นตอนเวลาที่เหลืออยู่และรางวัลสะสมกลาง เราแนะนำขั้นตอนวิธีการทำซ้ำค่าที่มีประสิทธิภาพที่จะช่วยแก้ thresholdedrewards MDPs ว่า แต่กับการทำงานเวลากำลังสองในจำนวนของรัฐในMDP และความยาวของเวลาที่ขอบฟ้า เราจะตรวจสอบจำนวนของเทคนิคการแก้ปัญหาตามที่มีประสิทธิภาพหาทางแก้ไขปัญหาโดยประมาณสำหรับ MDPs ที่มีช่องว่างขนาดใหญ่ของรัฐหรือขอบฟ้าเวลานาน





















การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
ในจังหวะที่ ซีโร่ซัมเกม เป้าหมายคือเพื่อเพิ่มความน่าจะเป็น
ชนะ ซึ่งไม่เหมือนกับการเพิ่ม
ของเราคาดหวังรางวัล เราพิจารณาสะสมกลาง
รางวัลเป็นความแตกต่างระหว่างคะแนน และคะแนนของฝ่ายตรงข้าม
; " เป็นจริง " รางวัลชนะ แพ้ หรือเสมอ
ถูกกำหนดในตอนท้ายของเกม โดยใช้เกณฑ์
ฟังก์ชันที่จะให้รางวัลกลางสะสม เราแนะนำ
thresholded รางวัลปัญหาเพื่อจับภาพนี้พึ่งพา
ผลรางวัลสุดท้ายรางวัลกลาง
สะสม thresholded รางวัลปัญหาแสดงให้เห็นถึงความแตกต่าง
-
โดยเฉพาะผลรวมสุ่มวางแผนโดเมน , ศูนย์เกมและคะแนนในเวลาที่ต้องได้รับการพิจารณา เรา
ศึกษาการประยุกต์ใช้ thresholded รางวัลการตัดสินใจ finitehorizon
กระบวนการมาร์คอฟ ( mdps ) โดยทั่วไป นโยบายที่เหมาะสมสำหรับรางวัล
thresholded MDP จะติจิ
, ขึ้นอยู่กับจำนวนของขั้นตอนเวลาคงเหลือ
และรางวัลกลางสะสม เราแนะนำที่มีประสิทธิภาพการสร้างค่า

mdps แก้ thresholdedrewards ทุกประการแต่เวลาวิ่งกำลังสองบน
หมายเลขของรัฐใน MDP และความยาวของเวลา
ขอบฟ้า เราตรวจสอบหมายเลขของฮิวริสติกที่ใช้เทคนิค
ที่มีประสิทธิภาพหาโซลูชั่นสำหรับประมาณ mdps
กับรัฐหรือขอบเขตขนาดใหญ่เป็นเวลานาน
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: