Large amount of data generated by number of users
worldwide. This data is on various forms mostly the large
data is unstructured .The huge data is keep to store and
analyze every day. In addition new technologies have been
emerged to exploding volumes of complex data, including
web traffic, social media content, machine generated data,
sensor data and system data. Success of such Big Data
depends on its analysis. Since its early beginnings from 8
years ago, the MapReduce Hadoop implementation has
become for storing, managing and processing massively
large data volumes. Hadoop MapReduce has come up as a
highly effective and efficient tool for analysis Big Data.
MapReduce is also ideal for scanning historical data and
performing analytics.
But MapReduce is not fast in response and for real time
analysis that type of structure is done by Spark which is
widely used in Big Data. Developed in 2009 and open
sourced in 2010, Apache Spark, unlike MapReduce, is all
about performing sophisticated analytics at lightning fast
speed. Today, as organizations facing the growth need for
real-time data analysis to achieve advantage, a new open
source Hadoop data processing engine, Apache Spark, has
entered in the field.
Numbers of analytical techniques are available in the
market for analysis of complex structured, semi structured
and unstructured data in real time. Whereas MapReduce
adopts a different model and supports to control running
task on each node. In this conventional Hadoop
environment, data storage and computation both reside on
the same physical nodes within the cluster and is designed to
run batch jobs that address every file in the system.
จำนวนมากของข้อมูลที่สร้างขึ้นโดยจำนวนของผู้ใช้ทั่วโลก ข้อมูลนี้ในรูปแบบต่าง ๆ ส่วนใหญ่ ขนาดใหญ่ข้อมูลใหม่ ข้อมูลขนาดใหญ่เก็บร้านวิเคราะห์ได้ทุกวัน นอกจากนี้เทคโนโลยีใหม่ได้โผล่ออกมาเพื่อขยายปริมาณของข้อมูลที่ซับซ้อน รวมทั้งการเข้าชมเว็บ , สื่อสังคมเนื้อหาเครื่องสร้างข้อมูลข้อมูลเซนเซอร์และระบบข้อมูล ความสำเร็จของฐานข้อมูลขนาดใหญ่เช่นขึ้นอยู่กับการวิเคราะห์ของ นับตั้งแต่จุดเริ่มต้นแรกจาก 8ปี mapreduce Hadoop ใช้ได้เป็นสำหรับการจัดเก็บ , การจัดการและการประมวลผลอย่างหนาแน่นปริมาณข้อมูลขนาดใหญ่ mapreduce Hadoop ได้ขึ้นมาเป็นที่มีประสิทธิภาพสูงและมีประสิทธิภาพเครื่องมือสำหรับการวิเคราะห์ข้อมูลใหญ่mapreduce ยังเหมาะสำหรับการสแกนข้อมูลทางประวัติศาสตร์และการดำเนินการวิเคราะห์แต่ mapreduce ไม่เร็วในการตอบสนอง และเวลาจริงการวิเคราะห์ชนิดของโครงสร้างที่ทำโดยจุดประกายใช้กันอย่างแพร่หลายในข้อมูลใหญ่ พัฒนาในปี 2009 และเปิดที่มาใน 2010 , Apache ประกายเหมือน mapreduce , ทั้งหมดเกี่ยวกับการแสดงการวิเคราะห์ที่ซับซ้อนเร็วฟ้าผ่าความเร็ว วันนี้เป็นองค์กรเผชิญกับการเจริญเติบโตความต้องการเรียลไทม์การวิเคราะห์ข้อมูลเพื่อให้บรรลุประโยชน์ใหม่ , เปิดแหล่งประมวลข้อมูลเครื่องยนต์ Apache Hadoop , จุดประกาย ,ที่ป้อนในฟิลด์ตัวเลขของเทคนิควิเคราะห์ที่มีอยู่ในตลาดการวิเคราะห์ที่ซับซ้อนแบบกึ่งโครงสร้างและข้อมูลที่ไม่มีโครงสร้างในเวลาจริง ส่วน mapreduceใช้รุ่นที่แตกต่างกันและสนับสนุนการควบคุม วิ่งงานในแต่ละโหนด ใน Hadoop แบบนี้สิ่งแวดล้อม , การจัดเก็บข้อมูลและการคำนวณทั้งสองอาศัยอยู่ในเดียวกันทางกายภาพโหนดในคลัสเตอร์ และถูกออกแบบมาเพื่อเรียกใช้ชุดงานที่อยู่ไฟล์ทุกไฟล์ในระบบ
การแปล กรุณารอสักครู่..
