Shvachko et al. [17, page 1] add
HDFS strengths in their definition when saying it “is designed
to store very large datasets reliably, and to stream those
datasets at high bandwidth to user applications”.
By large, we
mean from 10 to 100 GB and above [12,16]. While the interface
to HDFS is patterned after the UNIX file system, it trades off
some POSIX requirements for performance [17,15,16]. HDFS is
dedicated to batch processing rather than interactive use by
users [16,12]. In HDFS applications, files are written once and
accessed many times [16,18]; consequently data coherency is
ensured and data are accessed in high throughput [16]. With
HDFS file system metadata are stored in a dedicated server,
the NameNode, and the application data in other servers called
DataNodes. Except for processing large datasets, HDFS has
many other goals whose major is to detect and handle failures
at the application layer. This objective is realized through
a well-organized mechanism of replication where files are
divided into blocks. Each block is replicated on a number of
datanodes; all the datanodes containing a replica of a block
are not located in the same rack.
เพิ่ม Shvachko ร้อยเอ็ด [17, 1 หน้า]HDFS แข็งในนิยามของพวกเขาว่า มัน "ถูกออกแบบการจัดเก็บชุดข้อมูลขนาดใหญ่มากได้ และ การสตรีมที่datasets ที่แบนด์วิธสูงการใช้งานผู้ใช้" โดยใหญ่ เราหมายความว่า จาก 100 GB และ มากกว่า [12,16] ขณะที่อินเตอร์เฟซการ HDFS เป็นลวดลายหลังจากระบบแฟ้ม UNIX ซื้อขายปิดข้อกำหนดบางอย่าง POSIX ประสิทธิภาพ [17,15,16] เป็น HDFSโดยเฉพาะการประมวลผลแทนที่จะใช้โต้ตอบโดยชุดงานผู้ใช้ [16,12] ในการใช้งาน HDFS แฟ้มจะถูกเขียนครั้งเดียว และเข้าหลายครั้ง [16,18]; ดังนั้น จะนำข้อมูลมั่นใจ และมีการเข้าถึงข้อมูลในอัตราความเร็วสูง [16] มีข้อมูลเมตาของระบบแฟ้ม HDFS ถูกเก็บไว้ในเซิร์ฟเวอร์เฉพาะการ NameNode และข้อมูลโปรแกรมประยุกต์ในเซิร์ฟเวอร์อื่น ๆDataNodes ยกเว้นการประมวลผลชุดข้อมูลขนาดใหญ่ HDFS ได้เป้าหมายอื่น ๆ สำคัญคือการ ตรวจจับ และจัดการกับความล้มเหลวมากที่ วัตถุประสงค์นี้คือการรับรู้ผ่านกลไกของการจำลองแบบแฟ้มที่ดีจัดแบ่งออกเป็นบล็อก แต่ละบล็อกจะถูกจำลองแบบในจำนวนdatanodes datanodes ทั้งหมดที่ประกอบด้วยแบบจำลองของบล็อกจะอยู่ในชั้นเดียวกัน
การแปล กรุณารอสักครู่..

Shvachko et al, [17 หน้า 1] เพิ่ม
จุดแข็ง HDFS ในความหมายของพวกเขาเมื่อบอกว่ามัน "ถูกออกแบบมา
เพื่อเก็บชุดข้อมูลขนาดใหญ่อย่างน่าเชื่อถือและการสตรีมเหล่านั้น
ชุดข้อมูลที่แบนด์วิธสูงเพื่อการใช้งานผู้ใช้". โดยขนาดใหญ่เราหมายถึง 10-100 GB และข้างต้น [12,16] ในขณะที่อินเตอร์เฟซที่จะ HDFS เป็นลวดลายหลังจากที่ระบบไฟล์ UNIX, ธุรกิจการค้าออกข้อกำหนด POSIX บางอย่างสำหรับผลการดำเนินงาน [17,15,16] HDFS จะทุ่มเทให้กับการประมวลผลชุดแทนที่จะใช้โต้ตอบโดยผู้ใช้ [16,12] ในการใช้งาน HDFS ไฟล์จะถูกเขียนครั้งเดียวและเข้าถึงได้หลายต่อหลายครั้ง [16,18]; ดังนั้นการเชื่อมโยงกันข้อมูลจะมั่นใจและข้อมูลจะถูกเข้าถึงได้ในอัตราความเร็วสูง [16] กับเมตาดาต้าระบบไฟล์ HDFS ถูกเก็บไว้ในเซิร์ฟเวอร์เฉพาะNameNode และข้อมูลการใช้ในเซิร์ฟเวอร์อื่น ๆ เรียกว่าDataNodes ยกเว้นสำหรับการประมวลผลชุดข้อมูลขนาดใหญ่, HDFS มีเป้าหมายอื่น ๆ อีกมากมายที่มีความสำคัญคือการตรวจสอบและจัดการกับความล้มเหลวที่ชั้นสมัคร วัตถุประสงค์นี้จะตระหนักถึงกลไกการจัดระเบียบที่ดีของการจำลองแบบที่ไฟล์จะถูกแบ่งออกเป็นบล็อก แต่ละบล็อกถูกจำลองแบบอยู่กับจำนวนของdatanodes; datanodes ทั้งหมดที่มีแบบจำลองของบล็อกที่ไม่ได้อยู่ในชั้นเดียวกัน
การแปล กรุณารอสักครู่..
