According to Manuika et al. (2011), Big Data refers to datasets whose size is beyond the ability
of typical database software tools to capture, store, manage, and analyze. The concept of Big
Data is therefore relative to the storage and processing capability of prevalent technology of the
time. The exponential growth of transistor density was predicted by Intel co-founder Gordon
Moore (1965, 1975). Moore’s Law states that the number of transistors on a chip doubles about
every two years, resulting in the rapidly rising processing power and declining hardware costs.
As described in Jacobs (2009), the 1980 US Census data would be considered as Big Data in the
1980s, where the IBM 3850 Mass Storage System with a capacity of 102.2GB was the monster
storage device of its day (da Cruz, 1982). This would certainly not be considered as Big Data
today where a personal computer can afford such capacity. In today’s environment, the size of
datasets that may be considered as Big Data could range from terabytes (1012 bytes), petabytes
(1015 bytes), to exabytes (1018 bytes), depending on the industry, how data is used and other
characteristics. The Gartner Group (Gartner, Inc., 2011) characterized Big Data by the three V’s:
volume, velocity and variety. Other characteristics such as veracity and value have been added to
the definition by other researchers.
ตาม Manuika et al. (2011), ข้อมูลขนาดใหญ่ถึง datasets ขนาดไม่เกินความสามารถในฐานข้อมูลทั่วไปเครื่องมือซอฟต์แวร์ในการจับภาพ เก็บ จัดการ และวิเคราะห์ แนวคิดของใหญ่ข้อมูลจึงเป็นความสามารถในการจัดเก็บและประมวลผลของเทคโนโลยีที่แพร่หลายของการเวลา เรขาของความหนาแน่นของทรานซิสเตอร์ถูกทำนาย โดย Intel ร่วมก่อตั้ง Gordonมัวร์ (1965, 1975) กฎของมัวร์ระบุว่า จำนวน transistors บนชิปที่คู่เกี่ยวกับทุกสองปี ในพลังการประมวลผลเพิ่มขึ้นอย่างรวดเร็ว และคำนวณต้นทุนด้านฮาร์ดแวร์ตามที่อธิบายไว้ในเจคอปส์ (2009), 1980 เราสำนึกข้อมูลจะถือว่าเป็นข้อมูลขนาดใหญ่ในการทศวรรษที่ 1980 ที่ IBM 3850 มวลเก็บระบบ มีความจุ 102.2GB ถูกมอนสเตอร์อุปกรณ์เก็บข้อมูลของวัน (ดาครูซ 1982) นี้จะแน่นอนไม่ถือเป็นข้อมูลขนาดใหญ่วันนี้ที่คอมพิวเตอร์ส่วนบุคคลสามารถจ่ายกำลังการผลิตดังกล่าว ในวันนี้สิ่งแวดล้อม ขนาดของdatasets ที่อาจถือเป็นข้อมูลขนาดใหญ่สามารถช่วงจากไบต์ (1012 ไบต์), petabytes(1015 ไบต์), การ exabytes (1018 ไบต์), ขึ้นอยู่กับอุตสาหกรรม ข้อมูลว่าใช้ และอื่น ๆลักษณะการ กลุ่ม Gartner (Gartner, Inc., 2011) ลักษณะข้อมูลขนาดใหญ่ โดย V 3:ระดับเสียง ความเร็ว และหลากหลาย ลักษณะอื่น ๆ เช่น veracity และมูลค่าเพิ่มคำนิยาม โดยนักวิจัยอื่น ๆ
การแปล กรุณารอสักครู่..

ตามที่ Manuika et al, (2011),
ข้อมูลขนาดใหญ่หมายถึงชุดข้อมูลที่มีขนาดเกินกว่าความสามารถของเครื่องมือซอฟต์แวร์ฐานข้อมูลทั่วไปเพื่อบันทึกจัดเก็บจัดการและวิเคราะห์ แนวคิดของบิ๊กข้อมูลดังนั้นจึงเป็นเรื่องที่สัมพันธ์กับความสามารถในการจัดเก็บข้อมูลและการประมวลผลของเทคโนโลยีที่แพร่หลายของเวลา การเจริญเติบโตชี้แจงของความหนาแน่นของทรานซิสเตอร์เป็นที่คาดการณ์โดย Intel ร่วมก่อตั้งกอร์ดอนมัวร์(1965, 1975) ระบุกฎของมัวร์ว่าจำนวนของทรานซิสเตอร์บนชิปคู่เกี่ยวกับทุกสองปีส่งผลให้พลังการประมวลผลเพิ่มขึ้นอย่างรวดเร็วและลดลงค่าใช้จ่ายฮาร์ดแวร์. ตามที่อธิบายไว้ในจาคอบส์ (2009) ข้อมูลการสำรวจสำมะโนประชากร 1980 สหรัฐจะได้รับการพิจารณาเป็นข้อมูลขนาดใหญ่ใน1980 ที่ไอบีเอ็ม 3850 ระบบเก็บข้อมูลขนาดใหญ่ที่มีความจุ 102.2GB เป็นมอนสเตอร์ที่อุปกรณ์จัดเก็บข้อมูลของวัน(ดาครูซ, 1982) นี้อย่างแน่นอนจะไม่ได้รับการพิจารณาเป็นข้อมูลขนาดใหญ่ในวันนี้ซึ่งเป็นคอมพิวเตอร์ส่วนบุคคลที่สามารถจ่ายกำลังการผลิตดังกล่าว ในสภาพแวดล้อมในปัจจุบันขนาดของชุดข้อมูลที่อาจถือได้ว่าเป็นข้อมูลขนาดใหญ่ได้ตั้งแต่เทราไบต์ (1012 bytes), เพตาไบต์ (1,015 ไบต์) เพื่อเอ็กซาไบต์ (1,018 ไบต์) ขึ้นอยู่กับอุตสาหกรรมที่วิธีการที่ข้อมูลถูกนำมาใช้และอื่น ๆ ที่มีลักษณะ กลุ่ม บริษัท การ์ทเนอ (Gartner, Inc 2011) ลักษณะข้อมูลขนาดใหญ่ทั้งสามของวี: ปริมาณความเร็วและความหลากหลาย ลักษณะอื่น ๆ เช่นความจริงและความคุ้มค่าได้รับการเพิ่มนิยามโดยนักวิจัยอื่นๆ
การแปล กรุณารอสักครู่..
