We are specifically dealing with discrete-time Markov chains with a fi การแปล - We are specifically dealing with discrete-time Markov chains with a fi ไทย วิธีการพูด

We are specifically dealing with di

We are specifically dealing with discrete-time Markov chains with a finite number of states. Discrete-time means that the process can be divided into specific steps—in the case of football, plays, in the previous example, flips of a coin. In football, if a team is in a certain situation, what happened previously has no effect on what will happen next. For example, if we have a 1st-and-10 from our own 20, it does not matter if the previous play was a kickoff for a touchback or a 10-yard gain for a first down after a 3rd-and-10 from the 10-yardline. Either way, we now have a new situation that will only directly affect the next play.

A football drive can be seen as an absorbing Markov chain. In an absorbing Markov chain, there is a set of special states known as absorbing states. The main distinction of an absorbing chain is that as time goes to infinity—in our case, as the number of plays in a drive gets higher—the probability of ending up in one of the absorbing states goes to 1. Since a drive can only end in a specific number of ways, and a drive must end, these drive-endings are the absorbing states (touchdown, field goal, turnover, etc...). Specifically, it is impossible to leave an absorbing state. Once a team scores a touchdown, they cannot leave that state, the drive ends and the Markov chain is absorbed.

In order to define a Markov chain, we must know the transition probabilities. A transition probability is the probability of going from one state to another in one step: Px,y = Probability of going from state ‘x’ to state ‘y’ in one step. In the above picture, the arrows represent the transition probabilities. In a Markov chain with a finite number of states, like ours, these probabilities can be written in the form of a transition matrix, seen below:
0/5000
จาก: -
เป็น: -
ผลลัพธ์ (ไทย) 1: [สำเนา]
คัดลอก!
เราจะจัดการเฉพาะกับแยกกันเวลา Markov chains มีจำนวนจำกัดของอเมริกา เวลาไม่ต่อเนื่องหมายความ ว่า กระบวนการสามารถแบ่งออกเป็นขั้นตอนที่กำหนดซึ่งในกรณีของฟุตบอล บทละคร ในแบบ พลิกของเหรียญ ในฟุตบอล ถ้าทีมอยู่ในสถานการณ์บางอย่าง สิ่งที่เกิดขึ้นก่อนหน้านี้ไม่มีผลกับอะไรจะเกิดขึ้นต่อไป ตัวอย่าง ถ้าเรามีแบบ 1- และ-10, 20 ของเราเองไม่ใช่เรื่องถ้าเล่นก่อนหน้านี้ แจ้งกำหนดการสำหรับการ touchback หรือกำไร 10 หลาสำหรับลงครั้งแรกหลังจาก 3- และ-10 จาก 10-yardline ทั้งสองวิธี ตอนนี้เรามีสถานการณ์ใหม่ที่จะกระทบโดยตรงเท่านั้นเล่นต่อไปสามารถมองเห็นไดรฟ์ฟุตบอลเป็นโซ่ Markov การดูดซับ ในการดูดซับ Markov มีชุดรัฐพิเศษที่เรียกว่าการดูดซับแรงกระแทกที่อเมริกา ความแตกต่างหลักของการดูดซับเป็นที่เวลาไปว่าย — ในกรณี เป็นหมายเลขของบทละครในไดรฟ์ที่ได้รับสูง – ความน่าเป็นของการสิ้นสุดของอเมริกาดูดซับไป 1 เนื่องจากไดรฟ์สามารถปิดหมายเลขเฉพาะของวิธีการ และไดรฟ์ต้องจบ ลงท้ายไดรฟ์เหล่านี้เป็นของอเมริกาดูดซับ (เหรียญ ฟุตบอล หมุนเวียน ฯลฯ ...) โดยเฉพาะ มันเป็นไปไม่ได้จะออกจากสถานะดูดซับ เมื่อคะแนนทีมได้เหรียญ พวกเขาไม่สามารถปล่อยสถานะที่ สิ้นสุดของไดรฟ์และโซ่ Markov ถูกดูดเพื่อกำหนดโซ่ Markov เราต้องทราบกิจกรรมเปลี่ยน ความน่าเป็นช่วงการเปลี่ยนภาพมีความน่าเป็นไปจากสถานะหนึ่งไปยังอีกในขั้นตอนเดียว: Px, y =ความน่าเป็นการไปจากสถานะ 'x' รัฐ 'y' ในขั้นตอนเดียว ในภาพข้างบน ลูกศรแทนกิจกรรมเปลี่ยน ในห่วงโซ่ Markov มีจำนวนจำกัดของอเมริกา เช่น ของกิจกรรมเหล่านี้สามารถเขียนในรูปแบบของเมทริกซ์เปลี่ยน เห็นด้านล่างนี้:
การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 2:[สำเนา]
คัดลอก!
เรามีเฉพาะที่เกี่ยวข้องกับการที่ไม่ต่อเนื่อง- เวลาโซ่มาร์คอฟที่มีจำนวน จำกัด ของรัฐ ไม่ต่อเนื่อง- เวลาหมายความว่ากระบวนการที่สามารถแบ่งออกเป็นขั้นตอนที่ระบุ- ในกรณีของฟุตบอลที่เล่นในตัวอย่างก่อนหน้านี้พลิกของเหรียญ ในฟุตบอลถ้าทีมอยู่ในสถานการณ์บางอย่างที่เกิดขึ้นก่อนหน้านี้สิ่งที่มีผลกระทบต่อสิ่งที่จะเกิดขึ้นต่อไป ตัวอย่างเช่นถ้าเรามี - และ- 10 - กำไรหลาลงเป็นครั้งแรกหลังจากที่ - และ- 10 - yardline ทั้งสองวิธีตอนนี้เรามีสถานการณ์ใหม่ที่จะส่งผลโดยตรงต่อเพียงเล่นต่อไปไดรฟ์ฟุตบอลสามารถมองเห็นได้ในฐานะที่เป็นห่วงโซ่การดูดซับมาร์คอฟ ในการดูดซับห่วงโซ่มาร์คอฟมีชุดของรัฐพิเศษที่เรียกว่าการดูดซับรัฐ ความแตกต่างที่สำคัญของห่วงโซ่การดูดซับคือเวลาที่จะไปที่อินฟินิตี้- ในกรณีของเราเป็นจำนวนของการเล่นในไดรฟ์ที่ได้รับสูงขึ้น- น่าจะเป็นของสิ้นสุดในหนึ่งในรัฐดูดซับไป - ตอนจบเป็นรัฐดูดซับ โดยเฉพาะมันเป็นไปไม่ได้ที่จะปล่อยให้เป็นรัฐดูดซับ เมื่อทีมคะแนนทัชดาวน์ที่พวกเขาไม่สามารถออกจากรัฐที่จะสิ้นสุดลงไดรฟ์และห่วงโซ่มาร์คอฟถูกดูดซึมเพื่อที่จะกำหนดห่วงโซ่มาร์คอฟที่เราจะต้องรู้ว่าน่าจะเปลี่ยนแปลง ความน่าจะเป็นคือการเปลี่ยนแปลงที่น่าจะเป็นของที่เกิดจากรัฐหนึ่งไปยังอีกในขั้นตอนที่หนึ่ง' รัฐ' ในขั้นตอนเดียว ในภาพข้างบนลูกศรแทนน่าจะเปลี่ยนแปลง ในห่วงโซ่มาร์คอฟที่มีจำนวน จำกัด ของรัฐเช่นเดียวกับเราน่าจะเป็นเหล่านี้สามารถเขียนในรูปแบบของเมทริกซ์การเปลี่ยนแปลงมองเห็นด้านล่าง




การแปล กรุณารอสักครู่..
ผลลัพธ์ (ไทย) 3:[สำเนา]
คัดลอก!
เราโดยเฉพาะการจัดการกับเวลาลูกโซ่มาร์คอฟ ด้วยจำนวนที่จำกัดของรัฐ เวลาไม่ต่อเนื่อง หมายถึง กระบวนการที่สามารถแบ่งออกเป็นขั้นตอนที่เฉพาะเจาะจงในกรณีของฟุตบอล เล่น ในตัวอย่างก่อนหน้า พลิกของเหรียญ ในฟุตบอล ถ้าทีมอยู่ในสถานการณ์บางอย่างที่เกิดขึ้นก่อนหน้านี้ไม่มีผลต่อสิ่งที่จะเกิดขึ้นต่อไป ตัวอย่างเช่นถ้าเรามี 1st-and-10 จาก 20 ของเราเอง มันไม่สำคัญว่าถ้าเล่นก่อนหน้านี้เป็นสนามสำหรับทัชแผ่คหรือ 10 หลาเข้าครั้งแรกลงหลังจาก 3rd-and-10 จาก 10 yardline . ทั้งสองวิธี ตอนนี้เรามีสถานการณ์ใหม่ที่จะส่งผลกระทบโดยตรงต่อเล่นต่อไป

ขับรถเล่นฟุตบอลสามารถเห็นเป็นบริการห่วงโซ่มาร์คอฟ ในการดูดซับห่วงโซ่มาร์คอฟมีชุดของรัฐพิเศษที่เรียกว่าการรัฐ ความแตกต่างหลักของการดูดซับโซ่คือว่าเวลาไปที่ อินฟินิตี้ ในกรณีของเรา เป็นจํานวนเล่นในไดรฟ์ได้รับสูงกว่าความน่าจะเป็นของการสิ้นสุดในหนึ่งของการดูดซับรัฐไป 1 ตั้งแต่ขับจบได้ในหมายเลขเฉพาะของวิธีการ และทำให้ต้องจบตอนจบที่ไดรฟ์เหล่านี้จะดูดซับรัฐ ( ทัชดาวน์ , ฟิลด์เป้าหมายผลประกอบการ ฯลฯ . . . . . . . ) โดยเฉพาะ มันเป็นไปไม่ได้ที่จะให้กับรัฐ เมื่อทีมคะแนนทัชดาวน์ พวกเขาไม่สามารถออกจากสภาพที่สิ้นสุดไดรฟ์และลูกโซ่มาร์คอฟ ดูดซึม

เพื่อกำหนดลูกโซ่มาร์คอฟ เราต้องรู้จักการเปลี่ยนแปลงน่าจะเป็นความน่าจะเป็นความน่าจะเป็นของการเปลี่ยนจากสถานะหนึ่งไปยังอีกในขั้นตอนเดียว : PX y = ความน่าจะเป็นไปจากรัฐ ' X ' รัฐ ' y ' ในขั้นตอนเดียว ในข้างต้นภาพลูกศรแสดงการเปลี่ยนสถานะของ . ในลูกโซ่มาร์คอฟ ด้วยจำนวนที่จำกัดของรัฐ เช่นเรา ปัญหาเหล่านี้สามารถเขียนในรูปแบบของการเปลี่ยนเมทริกซ์
เห็นด้านล่าง :
การแปล กรุณารอสักครู่..
 
ภาษาอื่น ๆ
การสนับสนุนเครื่องมือแปลภาษา: กรีก, กันนาดา, กาลิเชียน, คลิงออน, คอร์สิกา, คาซัค, คาตาลัน, คินยารวันดา, คีร์กิซ, คุชราต, จอร์เจีย, จีน, จีนดั้งเดิม, ชวา, ชิเชวา, ซามัว, ซีบัวโน, ซุนดา, ซูลู, ญี่ปุ่น, ดัตช์, ตรวจหาภาษา, ตุรกี, ทมิฬ, ทาจิก, ทาทาร์, นอร์เวย์, บอสเนีย, บัลแกเรีย, บาสก์, ปัญจาป, ฝรั่งเศส, พาชตู, ฟริเชียน, ฟินแลนด์, ฟิลิปปินส์, ภาษาอินโดนีเซี, มองโกเลีย, มัลทีส, มาซีโดเนีย, มาราฐี, มาลากาซี, มาลายาลัม, มาเลย์, ม้ง, ยิดดิช, ยูเครน, รัสเซีย, ละติน, ลักเซมเบิร์ก, ลัตเวีย, ลาว, ลิทัวเนีย, สวาฮิลี, สวีเดน, สิงหล, สินธี, สเปน, สโลวัก, สโลวีเนีย, อังกฤษ, อัมฮาริก, อาร์เซอร์ไบจัน, อาร์เมเนีย, อาหรับ, อิกโบ, อิตาลี, อุยกูร์, อุสเบกิสถาน, อูรดู, ฮังการี, ฮัวซา, ฮาวาย, ฮินดี, ฮีบรู, เกลิกสกอต, เกาหลี, เขมร, เคิร์ด, เช็ก, เซอร์เบียน, เซโซโท, เดนมาร์ก, เตลูกู, เติร์กเมน, เนปาล, เบงกอล, เบลารุส, เปอร์เซีย, เมารี, เมียนมา (พม่า), เยอรมัน, เวลส์, เวียดนาม, เอสเปอแรนโต, เอสโทเนีย, เฮติครีโอล, แอฟริกา, แอลเบเนีย, โคซา, โครเอเชีย, โชนา, โซมาลี, โปรตุเกส, โปแลนด์, โยรูบา, โรมาเนีย, โอเดีย (โอริยา), ไทย, ไอซ์แลนด์, ไอร์แลนด์, การแปลภาษา.

Copyright ©2024 I Love Translation. All reserved.

E-mail: