While the interface
to HDFS is patterned after the UNIX file system, it trades off
some POSIX requirements for performance [17,15,16].
HDFS is
dedicated to batch processing rather than interactive use by
users [16,12].
In HDFS applications, files are written once and
accessed many times [16,18]; consequently data coherency is
ensured and data are accessed in high throughput [16].
With
HDFS file system metadata are stored in a dedicated server,
the NameNode, and the application data in other servers called
DataNodes. Except for processing large datasets, HDFS has
many other goals whose major is to detect and handle failures
at the application layer.
This objective is realized through
a well-organized mechanism of replication where files are
divided into blocks.
Each block is replicated on a number of
datanodes; all the datanodes containing a replica of a block
are not located in the same rack.
ในขณะที่อินเตอร์เฟซ
ที่จะ HDFS เป็นลวดลายหลังจากที่ระบบไฟล์ UNIX, ธุรกิจการค้าออก
ข้อกำหนด POSIX บางอย่างสำหรับผลการดำเนินงาน [17,15,16]. HDFS จะทุ่มเทให้กับการประมวลผลชุดแทนที่จะใช้โต้ตอบโดยผู้ใช้ [16,12]. ในการใช้งาน HDFS ไฟล์จะถูกเขียนครั้งเดียวและเข้าถึงได้หลายต่อหลายครั้ง [16,18]; ดังนั้นการเชื่อมโยงกันข้อมูลจะมั่นใจและข้อมูลจะถูกเข้าถึงได้ในอัตราความเร็วสูง [16]. กับเมตาดาต้าระบบไฟล์ HDFS ถูกเก็บไว้ในเซิร์ฟเวอร์เฉพาะNameNode และข้อมูลการใช้ในเซิร์ฟเวอร์อื่น ๆ เรียกว่าDataNodes ยกเว้นสำหรับการประมวลผลชุดข้อมูลขนาดใหญ่, HDFS มีเป้าหมายอื่น ๆ อีกมากมายที่มีความสำคัญคือการตรวจสอบและจัดการกับความล้มเหลวที่ชั้นสมัคร. วัตถุประสงค์นี้จะตระหนักถึงกลไกการจัดการอย่างดีของการจำลองแบบที่ไฟล์จะถูกแบ่งออกเป็นบล็อก. แต่ละบล็อกถูกจำลองบนตัวเลข ของdatanodes; datanodes ทั้งหมดที่มีแบบจำลองของบล็อกที่ไม่ได้อยู่ในชั้นเดียวกัน
การแปล กรุณารอสักครู่..