Search Resources
 
Login เข้าระบบ
สมัครสมาชิกฟรี
ลืมรหัสผ่าน
 
  homenewsmagazinecolumnistbooks & ideaphoto galleriesresources50 managermanager 100join us  
 
 


bulletToday's News
bullet Cover Story
bullet New & Trend

bullet Indochina Vision
bullet2 GMS in Law
bullet2 Mekhong Stream

bullet Special Report

bullet World Monitor
bullet2 on globalization

bullet Beyond Green
bullet2 Eco Life
bullet2 Think Urban
bullet2 Green Mirror
bullet2 Green Mind
bullet2 Green Side
bullet2 Green Enterprise

bullet Entrepreneurship
bullet2 SMEs
bullet2 An Oak by the window
bullet2 IT
bullet2 Marketing Click
bullet2 Money
bullet2 Entrepreneur
bullet2 C-through CG
bullet2 Environment
bullet2 Investment
bullet2 Marketing
bullet2 Corporate Innovation
bullet2 Strategising Development
bullet2 Trading Edge
bullet2 iTech 360°
bullet2 AEC Focus

bullet Manager Leisure
bullet2 Life
bullet2 Order by Jude

bullet The Last page


ตีพิมพ์ใน นิตยสารผู้จัดการ
ฉบับ กรกฎาคม 2555








 
นิตยสารผู้จัดการ กรกฎาคม 2555
Big Data             
โดย ธวัชชัย อนุพงศ์อนันต์
 

 
Charts & Figures

ทวีคูณของ bytes





หนึ่งในเทรนด์ของโลกไอทีในยุคนี้เทรนด์หนึ่งที่เป็นที่กล่าวขวัญกันมาพักหนึ่งแล้ว คือเรื่อง Big Data

โดย Big Data เป็นความหมายแบบหลวมๆ ที่ใช้อธิบายถึงกลุ่มข้อมูล (data set) ที่มีขนาดใหญ่มากและซับซ้อนจนทำให้เป็นเรื่องยากที่จะนำไปใช้งานโดยใช้เครื่องมือบริหารจัดการฐานข้อมูลที่มีอยู่ในทุกวันนี้

ความยากในการใช้งานได้แก่ การจับข้อมูล (capture), การเก็บข้อมูล, การค้นหาข้อมูล, การแบ่งปันข้อมูล, การวิเคราะห์ ข้อมูล และ visualization ซึ่งแนวโน้มที่ทำให้เกิดกลุ่มข้อมูลขนาด ใหญ่นี้เกิดขึ้นจากข้อมูลที่เพิ่มขึ้นที่ได้มาจากการวิเคราะห์ข้อมูลที่เกี่ยวข้องขนาดมโหฬารจำนวนเดียวนั่นเอง เมื่อเทียบกับการวิเคราะห์ข้อมูลขนาดเล็กกว่าหลายๆ กลุ่มข้อมูล ซึ่งรวมกันเป็นจำนวนข้อมูลมหาศาลขนาดเท่าๆ กัน โดยการวิเคราะห์ข้อมูลจำนวนมโหฬารนี้เพื่อค้นหาความสัมพันธ์ (Correlations) ของแนวโน้มของธุรกิจ, การป้องกันโรค และการป้องกันอาชญากรรม

แนวโน้มนี้เกิดขึ้นจากข้อจำกัดหลายๆ อย่างโดยเฉพาะข้อจำกัดเรื่องการจัดการข้อมูลขนาดใหญ่ๆ โดยในปัจจุบัน (ถึงเดือนเมษายน 2012) ยังไม่มีระบบการเก็บข้อมูลใดที่สามารถจัดการ ข้อมูลขนาด zettabyte ได้

1 zettabyte นี่ขนาดเท่าไร นึกออกไหมครับ

จริงๆ แล้ว 1 zettabyte คือ 1,000 ล้านเทราไบต์ ซึ่งเทราไบต์เป็นขนาดที่เราพอจะได้ยินคุ้นหูมากขึ้น โดยเฉพาะในท้องตลาดที่มีขาย External Hard Disk ขนาดที่มีหน่วยเป็นเทราไบต์มากขึ้นเรื่อยๆ

ซึ่งการเพิ่มขึ้นของข้อมูลนี้เป็นไปอย่างรวดเร็วมาก โดยมีการประมาณการขนาดของฮาร์ดดิสก์ของคอมพิวเตอร์ทั่วโลกในปี 2006 คิดเป็น 160 exabytes แต่ปี 2011 ซีเกตซึ่งเป็นผู้ผลิต ฮาร์ดดิสก์ชั้นนำของโลกได้รายงานการขายฮาร์ดดิสก์ตลอดปี 2011 คิดเป็นจำนวนฮาร์ดดิสก์ขนาด 330 exabytes ในขณะที่ปี 2009 เว็บไซต์ทั่วโลกมีข้อมูลรวมกันประมาณ 500 exabytes

ซึ่ง 500 exabytes เท่ากับ ครึ่ง zettabyte เท่านั้น

ดังนั้น 1 zettabyte จึงเท่ากับ 1,000,000,000,000,000,000,000 bytes = 10007 bytes = 1021 bytes

อย่างไรก็ดี ในปี 2008 เรายังพูดถึงข้อมูลในระดับ peta-bytes หรือ zettabytes เท่านั้น แต่ทุกวันนี้ เราไปไกลกว่าเดิมมากมาย

นักวิทยาศาสตร์เป็นคนกลุ่มหลักๆ ที่ต้องเผชิญกับปัญหาข้อจำกัดของขนาดข้อมูลในหลายๆ งาน ไม่ว่าจะเป็นข้อมูลด้านอุตุนิยมวิทยา ด้านรหัสพันธุกรรม การจำลองภาพด้านฟิสิกส์แบบ ซับซ้อน รวมถึงการวิจัยด้านชีววิทยาและสิ่งแวดล้อมอีกมากมาย

ข้อจำกัดนี้ยังปรากฏในการค้นหาข้อมูลในอินเทอร์เน็ต, ข้อมูลด้านการเงินและข้อมูลด้านธุรกิจด้วยเช่นกัน การที่ข้อมูลจำนวนมหาศาลเติบโตขึ้นอย่างรวดเร็วและฉุดไม่อยู่เนื่องจากการเพิ่มขึ้นของการใช้เทคโนโลยีด้าน remote sensing ซึ่งปรากฏในอุปกรณ์ต่างๆ ที่กระจายแพร่หลายไปทั่วโลก อุปกรณ์สื่อสารแบบเคลื่อนที่ ล็อก (log) ของซอฟต์แวร์ต่างๆ กล้องถ่ายภาพ ไมโครโฟน เครื่องอ่าน RFID รวมถึงเครือข่ายข้อมูลแบบไร้สายต่างๆ

เช่นเดียวกับห้างวอลมาร์ทที่เป็นยักษ์ใหญ่ในวงการค้าปลีก ที่ต้องจัดการกับรายการการซื้อขายของลูกค้าหนึ่งล้านรายการต่อชั่วโมง ซึ่งคิดเป็นขนาดฐานข้อมูลมากกว่า 2.5 petabytes หรือคิดเป็น 167 เท่าของจำนวนหนังสือในห้องสมุดรัฐสภาของสหรัฐ อเมริกา ขณะที่เฟซบุ๊กมีรูปภาพให้จัดการมากถึง 40,000 ล้านรูป ส่วนการถอดรหัสพันธุกรรมมนุษย์จะต้องอาศัยการวิเคราะห์คู่โคร โมโซมมากถึง 3,000 ล้านคู่ ซึ่งในช่วงแรกใช้เวลามากถึงสิบปีในการถอดรหัสในปี 2003 ปัจจุบันสามารถทำได้ในเวลาเพียงหนึ่งสัปดาห์เท่านั้น

แม้ความสามารถในการจัดการข้อมูลจำนวนมหาศาลจะเพิ่มขึ้นมาก แต่ก็สร้างปัญหาใหม่ๆ มาอีกมากมาย ไม่ว่าจะเป็น การขาดแคลนเครื่องมือที่จะใช้ในการกักเก็บข้อมูล การ process ข้อมูล และการแบ่งปันข้อมูลเหล่านี้ออกไป โดยเฉพาะการที่มีขนาดใหญ่เกินขนาดพื้นที่ที่จะเก็บข้อมูลไว้ได้

นอกจากนี้การทำให้ข้อมูลมีความปลอดภัยและสามารถรักษาไว้ซึ่งความเป็นส่วนตัวก็ยิ่งยากขึ้นๆ ในขณะที่ข้อมูลเพิ่ม ปริมาณขึ้นและแบ่งปันไปทั่วโลกมากขึ้นๆ เช่นกัน

Big data จึงเป็นข้อมูลที่ยากที่จะจัดการด้วยการใช้ฐาน ข้อมูลแบบ relational ที่ใช้แพร่หลายไปทั่วโลกรวมถึงซอฟต์แวร์แพ็กเกจที่ใช้จัดการกับข้อมูลสถิติและ visualization สำหรับคอมพิวเตอร์ตั้งโต๊ะทั่วไป แต่ Big data ต้องการซอฟต์แวร์ที่รันแบบขนานพร้อมๆ กันบนเครื่องเซิร์ฟเวอร์จำนวนสิบ ร้อย หรือพันเครื่องในเวลาเดียวกัน

ดังนั้นการพิจารณาว่าเป็น Big data หรือไม่จึงเกี่ยวกับศักยภาพขององค์กรว่าจะสามารถจัดการกับข้อมูลระดับใดได้ด้วย บางองค์กรอาจจะสามารถดูแลได้แค่ข้อมูลเพียงหลักร้อยกิ๊กกะไบต์ แต่บางองค์กรอาจจะเริ่มมองเห็นขนาดของข้อมูลเมื่อมีจำนวน มากถึงระดับสิบหรือร้อยเทราไบต์แล้ว ซึ่งเป็น สิ่งที่องค์กรต่างกำลังเผชิญหรือจะต้องเผชิญในอนาคตอันใกล้นี้

ด้วยแนวโน้มที่เปลี่ยนไปนี้ทำให้ตลาด ซอฟต์แวร์ที่จะมาจัดการกับข้อมูลกลุ่ม Big data จึงมีขนาดเพิ่มขึ้นเรื่อยๆ โดยปัจจุบันมีความต้องการผู้เชี่ยวชาญด้านการจัดการข้อมูลขนาดใหญ่มากขึ้นๆ ทำให้ออราเคิล, ไอบีเอ็ม, ไมโครซอฟท์ รวมถึง SAP เองได้ทุ่มเงินกว่า 15,000 ล้านเหรียญสหรัฐสำหรับการไล่ซื้อบริษัทซอฟต์แวร์ที่สามารถช่วยจัด การและวิเคราะห์ข้อมูลจำนวนมหาศาลนี้ได้ โดยปัจจุบันตลาดของ Big data มีมูลค่ามาก ถึงหนึ่งแสนล้านเหรียญสหรัฐ และมีอัตราการเติบโตเฉลี่ย 10 เปอร์เซ็นต์ต่อปี ซึ่งคิดเป็นอัตราการเติบโตเป็นสองเท่าของการเติบโตของตลาดธุรกิจซอฟต์แวร์โดยรวม

เช่นเดียวกับ Chief infor-mation officers หรือ CIOs กลายมาเป็นตำแหน่งด้านการบริหารที่โดดเด่นมากขึ้นๆ เช่นเดียวกับอาชีพ data scientist จะกลายมาเป็นอาชีพ ใหม่ซึ่งจะทำหน้าที่ในการรวมศาสตร์ทางด้านการเขียนโปรแกรม สถิติ และศิลปะการเล่าเรื่อง เพื่อดึงเอาแก่นของข้อมูล ที่ซ่อนอยู่ภายใต้ภูเขาข้อมูลขนาดมหึมา นั่นคือท่ามกลางข้อมูลมหาศาล ใครจะสามารถดึงเอาหัวใจของมันออกมาใช้งานได้มากกว่ากัน

สำหรับสาเหตุสำคัญที่ทำให้ข้อมูลมีขนาดเพิ่มขึ้นอย่างมหาศาลสาเหตุหนึ่งก็คือเรื่องของเทคโนโลยี โดยความสามารถของอุปกรณ์ดิจิตอลที่เพิ่มขึ้นขณะที่ราคาต่อหน่วยลดลงอย่างมาก ประกอบกับของเล่น (Gad-get) ต่างๆ ที่ใช้เทคโนโลยีเป็นพื้นฐาน กลายเป็นสิ่งจำเป็นในชีวิตประจำวันก็ส่งผลโดยตรงต่อความจำเป็น ในการใช้ข้อมูล นอกจากนี้คนจำนวนมหาศาลทั่วโลกได้เข้าถึงการ ใช้เครื่องมือที่ทรงประสิทธิภาพนี้ก็ทำให้การไหลเวียนของข้อมูลยิ่งมีจำนวนมากมายนับไม่หวาดไม่ไหว โดยการพัฒนาทางเศรษฐกิจ ในช่วงที่ผ่านมาทำให้มีความต้องการใช้เทคโนโลยีที่อาศัยการใช้งานข้อมูลอย่างเข้มข้น (data-intensive) ซึ่งปัจจุบันมีคนใช้งานโทรศัพท์มือถือ 4,600 ล้านคนทั่วโลก ซึ่งในกลุ่มนั้นมีคนใช้งานอินเทอร์เน็ตจำนวน 1,000-2,000 ล้านคน ขณะที่ระหว่างปี 1990-2005 นั้น มีคนจำนวนมากถึงหนึ่งพันล้านคนทั่วโลกได้ขยับฐานะ เข้าสู่กลุ่มคนชั้นกลาง ซึ่งหมายถึงว่ามีคนจำนวนมหาศาลเพิ่มขึ้น ที่มีเงินมากขึ้น มีความรู้มากขึ้น ซึ่งนำไปสู่การใช้ข้อมูลจำนวนมหาศาลนั่นเอง

ปริมาณของข้อมูลดิจิตอลมีอัตราการเพิ่มเป็นสิบเท่าในทุกๆ 5 ปี ส่วนกฎของมัวร์ (Moore’s law) ที่วงการคอมพิวเตอร์ ใช้อ้างอิงเสมอคือ ประสิทธิภาพการทำงานของซีพียูและความสามารถในการเก็บข้อมูลของคอมพิวเตอร์จะเพิ่มขึ้นเป็นสองเท่าในขณะที่ราคาจะลดลงครึ่งหนึ่งทุกๆ 18 เดือนก็ยังคงเป็นจริงอยู่ ในทุกวันนี้ เช่นเดียวกับศักยภาพของซอฟต์แวร์ก็ดีขึ้นมากเช่นกัน โดยที่อัลกอริทึมของซอฟต์แวร์ได้มีการพัฒนาไปในระดับที่มีผลต่อการทำให้แอพพลิเคชั่นบนคอมพิวเตอร์มีบทบาทสำคัญในการผลักดันให้กฎของมัวร์ยังคงเป็นจริงมาหลายทศวรรษแล้ว

ในปี 1986 ระดับความจุที่มีประสิทธิภาพในระดับที่ช่วยให้การแลกเปลี่ยนข้อมูลผ่านเครือข่ายระดับโทรคมนาคมเกิดขึ้นได้อย่างมีประสิทธิภาพคือ ที่ระดับ 281 petabytes, เพิ่มขึ้นเป็น 471 petabytes ในปี 1993, 2.2 exabytes ในปี 2000, 65 exabytes ในปี 2007 และได้มีการทำนายไว้แล้วว่า ขนาดของแทรฟฟิกที่เคลื่อนที่อยู่ในอินเทอร์เน็ตจะเพิ่มขึ้นเป็น 667 exabytes ต่อปีภายในปี 2013

ล่าสุดเดือนพฤษภาคม 2012 ที่ผ่านมา มลรัฐแมสซาชูเสตต์ ประเทศสหรัฐอเมริกาได้โครงการ Big Data Initiative เพิ่งเริ่มต้น การจัดการกับข้อมูลมหาศาลรวมถึงการประกาศความร่วมมือทั้งด้านวิชาการและอุตสาหกรรม

อย่างไรก็ตามปรากฏการณ์ Big data ได้สร้างผลกระทบอย่างหนักหน่วงด้วยเช่นกัน อย่างเช่นในช่วงวิกฤตการณ์การเงินที่ผ่านมา ซึ่งเราเข้าใจมาตลอดว่าเหล่าธนาคารและบริษัทจัดอันดับ ทั้งหลายล้วนอาศัยข้อมูลในการดำเนินธุรกิจ แต่ข้อมูลเหล่านั้นก็ไม่ได้ทำให้พวกเขาเห็นความเสี่ยงที่จะเกิดขึ้นต่อธุรกิจของพวกเขาอย่างหนักหนาสาหัสในโลกของความเป็นจริง

ในช่วงศตวรรษที่ 20 ข้อมูลไหลผ่านช่องทางของโทรเลขและโทรศัพท์ซึ่งช่วยทำให้การผลิตแบบอุตสาหกรรมสามารถเติบโต และขยายไปทั่วโลก ทุกวันนี้ข้อมูลจำนวนมหาศาลทำให้บริษัทต่างๆ สามารถเจาะเข้าหาตลาดเล็กตลาดน้อยหรือ niche market ในทุกที่ทั่วโลก ในอดีตผู้จัดการโรงงานดูแลเครื่องจักรและกระบวน การทำงานอย่างละเอียดเพื่อทำให้การผลิตมีประสิทธิผล แต่ต่อไป นี้นักสถิติจะค้นเข้าไปในข้อมูลจำนวนมหาศาลเพื่อสร้างผลลัพธ์ทางธุรกิจที่ยอดเยี่ยม

เรากำลังเข้าสู่ยุคสมัยการใช้ข้อมูลอย่างเข้มข้นแล้วครับ

อ่านเพิ่มเติม
1. Graham M. 2012. Big data and the end of theory?. The Guardian http://www.guardian.co.uk/news/datablog/2012/mar/09/big-data-theory
2. Shah, Horne and Capella. 2012. Good Data Won’t Guarantee Good Decisions. Harvard Business Review http://hbr.org/2012/04/good-data-wont-guarantee-good-decisions/ar/1
3. IBM, “What is big data?,” http://www-01.ibm.com/software/data/bigdata/
4. “Data, data everywhere,” The Economist Feb 25th, 2010, http://www.economist.com/node/15557443?story_id=15557443
5. Big Data, http://en.wikipedia.org/wiki/Big_data
6. MIKE2.0, Big Data Definition http://mike2.openmethodology.org/wiki/Big_Data_Definition   




 








upcoming issue

จากโต๊ะบรรณาธิการ
past issue
reader's guide


 



home | today's news | magazine | columnist | photo galleries | book & idea
resources | correspondent | advertise with us | contact us

Creative Commons License
ผลงานนี้ ใช้สัญญาอนุญาตของครีเอทีฟคอมมอนส์แบบ แสดงที่มา-ไม่ใช้เพื่อการค้า-ไม่ดัดแปลง 3.0 ประเทศไทย