HDFS. HDFS is a distributed file system designed to run
on large clusters of commodity hardware based on Google
File System (GFS) [15,16,3]. Shvachko et al. [17, page 1] add
HDFS strengths in their definition when saying it “is designed
to store very large datasets reliably, and to stream those
datasets at high bandwidth to user applications”. By large, we
mean from 10 to 100 GB and above [12,16]. While the interface
to HDFS is patterned after the UNIX file system, it trades off
some POSIX requirements for performance [17,15,16]. HDFS is
dedicated to batch processing rather than interactive use by
users [16,12]. In HDFS applications, files are written once and
accessed many times [16,18]; consequently data coherency is
ensured and data are accessed in high throughput [16]. With
HDFS file system metadata are stored in a dedicated server,
the NameNode, and the application data in other servers called
DataNodes. Except for processing large datasets, HDFS has
many other goals whose major is to detect and handle failures
at the application layer. This objective is realized through
a well-organized mechanism of replication where files are
divided into blocks. Each block is replicated on a number of
datanodes; all the datanodes containing a replica of a block
are not located in the same rack.
HDFS HDFS เป็นระบบแฟ้มที่แจกจ่ายเพื่อเรียกใช้ในกลุ่มขนาดใหญ่ของสินค้าฮาร์ดแวร์ที่ใช้ใน Googleระบบแฟ้ม (GFS) [15,16,3] เพิ่ม Shvachko ร้อยเอ็ด [17, 1 หน้า]HDFS แข็งในนิยามของพวกเขาว่า มัน "ถูกออกแบบการจัดเก็บชุดข้อมูลขนาดใหญ่มากได้ และ การสตรีมที่datasets ที่แบนด์วิธสูงการใช้งานผู้ใช้" โดยใหญ่ เราหมายความว่า จาก 100 GB และ มากกว่า [12,16] ขณะที่อินเตอร์เฟซการ HDFS เป็นลวดลายหลังจากระบบแฟ้ม UNIX ซื้อขายปิดข้อกำหนดบางอย่าง POSIX ประสิทธิภาพ [17,15,16] เป็น HDFSโดยเฉพาะการประมวลผลแทนที่จะใช้โต้ตอบโดยชุดงานผู้ใช้ [16,12] ในการใช้งาน HDFS แฟ้มจะถูกเขียนครั้งเดียว และเข้าหลายครั้ง [16,18]; ดังนั้น จะนำข้อมูลมั่นใจ และมีการเข้าถึงข้อมูลในอัตราความเร็วสูง [16] มีข้อมูลเมตาของระบบแฟ้ม HDFS ถูกเก็บไว้ในเซิร์ฟเวอร์เฉพาะการ NameNode และข้อมูลโปรแกรมประยุกต์ในเซิร์ฟเวอร์อื่น ๆDataNodes ยกเว้นการประมวลผลชุดข้อมูลขนาดใหญ่ HDFS ได้เป้าหมายอื่น ๆ สำคัญคือการ ตรวจจับ และจัดการกับความล้มเหลวมากที่ วัตถุประสงค์นี้คือการรับรู้ผ่านกลไกของการจำลองแบบแฟ้มที่ดีจัดแบ่งออกเป็นบล็อก แต่ละบล็อกจะถูกจำลองแบบในจำนวนdatanodes datanodes ทั้งหมดที่ประกอบด้วยแบบจำลองของบล็อกจะอยู่ในชั้นเดียวกัน
การแปล กรุณารอสักครู่..

HDFS HDFS เป็นระบบไฟล์กระจายออกแบบมาเพื่อทำงาน
ในกลุ่มใหญ่ของฮาร์ดแวร์สินค้าขึ้นอยู่กับ Google
File System (GFS) [15,16,3] Shvachko et al, [17 หน้า 1] เพิ่ม
จุดแข็ง HDFS ในความหมายของพวกเขาเมื่อบอกว่ามัน "ถูกออกแบบมา
เพื่อเก็บชุดข้อมูลขนาดใหญ่อย่างน่าเชื่อถือและการสตรีมเหล่านั้น
ชุดข้อมูลที่แบนด์วิธสูงเพื่อการใช้งานผู้ใช้" โดยขนาดใหญ่เรา
หมายถึง 10-100 GB และด้านบน [12,16] ในขณะที่อินเตอร์เฟซ
ที่จะ HDFS เป็นลวดลายหลังจากที่ระบบไฟล์ UNIX, ธุรกิจการค้าออก
ข้อกำหนด POSIX บางอย่างสำหรับผลการดำเนินงาน [17,15,16] HDFS จะ
ทุ่มเทให้กับการประมวลผลชุดแทนที่จะใช้โต้ตอบโดย
ผู้ใช้ [16,12] ในการใช้งาน HDFS ไฟล์จะถูกเขียนครั้งเดียวและ
เข้าถึงได้หลายต่อหลายครั้ง [16,18]; ดังนั้นการเชื่อมโยงกันข้อมูลจะ
มั่นใจและข้อมูลจะถูกเข้าถึงได้ในอัตราความเร็วสูง [16] กับ
เมตาดาต้าระบบไฟล์ HDFS ถูกเก็บไว้ในเซิร์ฟเวอร์เฉพาะ
NameNode และข้อมูลการใช้ในเซิร์ฟเวอร์อื่น ๆ เรียกว่า
DataNodes ยกเว้นสำหรับการประมวลผลชุดข้อมูลขนาดใหญ่, HDFS มี
เป้าหมายอื่น ๆ อีกมากมายที่มีความสำคัญคือการตรวจสอบและจัดการกับความล้มเหลว
ที่ชั้นสมัคร วัตถุประสงค์นี้จะตระหนักถึง
กลไกการจัดระเบียบที่ดีของการจำลองแบบที่ไฟล์จะถูก
แบ่งออกเป็นบล็อก แต่ละบล็อกถูกจำลองแบบอยู่กับจำนวนของ
datanodes; datanodes ทั้งหมดที่มีแบบจำลองของบล็อกที่
ไม่ได้อยู่ในชั้นเดียวกัน
การแปล กรุณารอสักครู่..
