There are three fundamental theories that establish the bases of the search and rescue operations:
the search theory outlined by Koopman (1956a, b; 1957), the studies on how a target object moves in
the ocean (Washburn, 1980) and the weather forecast. The improvements in all these strongly depend
on the improvements in the computer science, but in a different way. For the search management a
robust and efficient information technology must be applied to store and exchange all the necessary
information. Near-real-time forecast of environmental conditions at a high-resolution level requires
fast computational routines and the assimilation of new available data during the operations.
Finally an assessment of the uncertainties in the path prediction is important in order to determine
the area of possible drift of the object, as exemplified in the case of oil spill by Sebastião and Guedes
Soares, (2007).
From the operational point of view, starting from the 50s, United States Coast Guard (USCG)
promoted the main steps towards a standardization of the SAR procedures. Due to the poor
computational capabilities of that time, they provided the guidelines for the manual calculation of the
search planning methods, which have been later on implemented in a computer-base system. The
Bayesian statistic played an important role in the Computer-Assisted Search Planning (CASP;
Richardson and Discenza 1980) implemented in 1974, which estimated the location of the object
giving a probability distribution produced by the Monte Carlo method.
The main weaknesses of these methods were the very simple drift model adopted to assess the
particle motion and the coarse and poorly reliable forcing fields. In order to face these problems, the
USCG started a program to measure surface current in near real-time, the Self-Located Datum Marker
Buoys (SLDMBs; Davis, 1985), that now provides more and more reliable and detailed information
and gives a great contribution in operational SAR. At the same time also the improvements of the
numerical weather prediction models (Simmons & Hollingworth, 2002) contributes to a better
definition of the forcing fields.
มีสามทฤษฎีพื้นฐานที่สร้างฐานของการค้นหาและช่วยเหลือการดำเนินงานที่มี:
ทฤษฎีการค้นหาที่ระบุไว้โดยคูปแมน (1956a, B; 1957) การศึกษาเกี่ยวกับวิธีการย้ายวัตถุเป้าหมายใน
ทะเล (Washburn, 1980) และการคาดการณ์สภาพอากาศ . การปรับปรุงในทุกเหล่านี้อย่างมากขึ้น
เกี่ยวกับการปรับปรุงในด้านวิทยาศาสตร์คอมพิวเตอร์ แต่ในทางที่แตกต่างกัน สำหรับการจัดการการค้นหา
เทคโนโลยีสารสนเทศที่มีประสิทธิภาพและมีประสิทธิภาพจะต้องถูกนำมาใช้ในการจัดเก็บและแลกเปลี่ยนทั้งหมดที่จำเป็น
ข้อมูล การพยากรณ์อากาศใกล้เวลาจริงของสภาพแวดล้อมในระดับความละเอียดสูงต้องมี
ขั้นตอนการคำนวณที่รวดเร็วและการดูดซึมของข้อมูลที่มีอยู่ใหม่ในระหว่างการดำเนินงาน.
ในที่สุดการประเมินผลของความไม่แน่นอนในการทำนายเส้นทางที่มีความสำคัญในการสั่งซื้อเพื่อตรวจสอบ
พื้นที่ที่เป็นไปได้ ดริฟท์ของวัตถุที่เป็นตัวอย่างในกรณีของการรั่วไหลของน้ำมันโดยSebastiãoและ Guedes
Soares, (2007).
จากจุดการดำเนินงานของมุมมองเริ่มต้นจากยุค 50, ยามชายฝั่งสหรัฐ (USCG)
การเลื่อนขั้นตอนหลักที่มีต่อมาตรฐานของ ขั้นตอน SAR เนื่องจากความยากจน
ความสามารถในการคำนวณเวลาที่พวกเขาให้แนวทางในการคำนวณด้วยตนเองของ
การวางแผนวิธีการค้นหาที่ได้รับภายหลังการดำเนินการในระบบคอมพิวเตอร์ฐาน
สถิติแบบเบย์มีบทบาทสำคัญในคอมพิวเตอร์ช่วยค้นหา Planning (CASP;
ริชาร์ดและ Discenza 1980) ดำเนินการในปี 1974 ซึ่งประมาณการที่ตั้งของวัตถุ
. ให้การกระจายความน่าจะเป็นที่ผลิตโดยวิธีมอนติคาร์โล
จุดอ่อนหลักของวิธีการเหล่านี้ ได้รับรูปแบบการดริฟท์ที่ง่ายมากที่นำมาใช้ในการประเมิน
การเคลื่อนไหวของอนุภาคและหยาบและเชื่อถือได้ไม่ดีสาขาการบังคับ ในการสั่งซื้อที่จะเผชิญกับปัญหาเหล่านี้
USCG เริ่มต้นโปรแกรมที่จะวัดพื้นผิวในปัจจุบันใกล้เวลาจริงที่ตัวเองตั้งอยู่ Datum เครื่องหมาย
ทุ่น (SLDMBs; เดวิส, 1985) ว่าในขณะนี้ให้ข้อมูลเพิ่มเติมและเชื่อถือได้มากขึ้นและมีรายละเอียด
และให้ ผลงานที่ดีในการดำเนินงาน SAR ในขณะเดียวกันยังมีการปรับปรุงของ
ตัวเลขแบบจำลองการพยากรณ์อากาศ (ซิมมอนส์และ Hollingworth, 2002) ก่อให้เกิดการที่ดีกว่า
คำนิยามของฟิลด์บังคับ
การแปล กรุณารอสักครู่..
