빅 데이터에 대해서는 점차 자세히 알아 보고 개념을 구체화 시키도록 하고, 이번에는 Hadoop 에 대해서 간략하게 정리해 보도록 한다.
Big Data 란?
정보토신산업진흥원(ETRI) 에서는 빅 데이터는 “기존 데이터에 비해서 너무 크기 때문에 기존 방법이나 도구로 수집, 저장, 검색, 분석, 시각화가 어려운 정형 또는 비 정형 데이터를 의미한다.” 고 정의하고 있다.
그러나 빅 데이터는 단순히 정량적인 차원으로만 접근해서는 한계가 존재한다. 데이터라는 것은 지속적으로 발전 증가하는 과정에 있고, 산업별 / 시장별로 다르게 적용되기 때문이다. 따라서 빅 데이터를 이해하기 위해서는 빅 데이터의 3 대 요소를 이해할 필요가 있다. 3 대 요소란 “크기 (Volume), 속도 (Velocity), 다양성 (Variety)” 이라고 보면 된다.
Volume
- Terabytes
- Records
- Transactions
- Tables
- Files
- Batch
- Near time
- Real time
- Streams
- Structured
- Unstructured
- Semistructured
- All the above
빅 데이터라는 것은 결국 이렇게 많은 데이터들 중에서 전혀 연관이 없어 보이는 다량의 데이터를 분석하여 그 속에서 의미있는 정보나 패턴을 읽어내어 다변화된 현대 사회를 보다 정확하게 예측하기 위한 것이다.
KBS1 에서 방영된 프로그램에서는 샌프란시스코의 빅 데이터 활용 사례를 통해서 부동산, 범죄 등 100여 개의 데이터 묶음을 일반인에게 공개했다. 즉, 강력범죄는 도심에서 많이 발생하고, 마약 범죄는 강력 범죄가 많이 발생하는 곳에서 자주 발생한다는 유추이다. 이런 의미있는 정보를 통해서 사람들이 거주지를 결정하는데 도움을 얻을 수 있으며, 그리고 경찰에서도 범죄가 일어날 장소에 경찰을 더 배치하여 범죄 발생률을 낮추는 예방 시스템을 구축할 수 있다.
여기서 궁금한 점이 있을 것이다. 과거에는 이런 데이터가 필요 없었을까?
- 저장 기술의 부족, 지금까지는 발생하는 데이터를 모두 저장하기에 기술이 따라오지를 못하였지만, 지금은 디지털 기술의 발전과 디지털 장치의 확산으로 가능한 모든 데이터를 기록 할 수 있게 되었다.
- 저장 비용의 과다, 1980년대에 1GB 저장을 위해서는 무러 100만 달러 (약 10억)의 비용이 들었지만, 지금은 1GB 저장에 0.1 달러 (약 100원) 미만으로 떨어져 사소한 것들이라도 저장하는 부담이 적다.
- 취합된 데이터의 분석 시간, 과거에는 데이터를 읽어 들이는데도 너무나 많은 시간이 소비되어 분석이 되도 필요한 시간에 결과를 반영할 수 없었지만, 현재는 병렬분산처리 기술 (클러스터) 등이 활성화 되면서 빠른 처리가 가능해졌다.
더그 커팅과 마이크 카파렐라에 의해서 개발된 하둡은 쉽게 방대한 양의 데이터를 분산 처리하여 빠른 시간 안에 결과를 제공하는 오픈소스 기반의 데이터 관리 기술을 의미한다. 즉, 분산 시스템에서 대량의 자료를 처리하는 자바 프레임워크인 것이다.
하둡의 태동은 구글과 연계되어 있다. 구글이 설립 초기부터 대규모 자료를 검색하고 분석하는데 사용한 분산 파일 시스템인 GFS (Goole File System) 와 분산처리 시스템 (MapReduce)에 대한 논문을 참고하여 구현한 것이기 때문이다.
하둡은 GFS 를 대체할 수 있는 HDFS (하둡 분산 파일 시스템) 와 MapReduce 알고리즘을 구현한 프레임워크이고 하둡이라는 이름은 더크 커팅의 아들이 가지고 놀던 장난감 코끼리의 이름을 따서 붙인 것으로 전해지고 있다. 그래서 하둡의 심볼도 노란 코끼리다.
MapReduce 는 다수의 컴퓨터에서 데이터를 분산 처리하여, 그 결과를 추려내는 데이터 프로세싱 기법을 의미한다. 지금까지의 데이터 분석 기술은 컴퓨터 한대의 메모리와 파일 시스템, 데이터베이스에 데이터를 저장한 후에 이를 기반으로 데이터를 분석하는 알고리즘을 실행하는 구조였다. 따라서 메모리에 데이터를 로딩하여야 하고, 처리하기 때문에 많은 시간이 소비될 수 밖에는 없었다.
대표적인 하둡 솔루션 업체는 클라우데라 (Cloudera) 와 호튼웍스 (Hortonworks) 가 있다. 클라우데라는 빅 데이터와 클라우드 시장의 교육 및 기술지원을 제공하고 있고, 호튼웍스는 하둡의 코어 기술과 아키텍처 개선을 담당하고 있다. 또한 IBM은 아파치 하둡을 기반으로 Basic, Enterprise 배포판을 운영하고 있으며, 오라클은 자신들의 하드웨어에 클라우데라를 결함한 하둡 어플라이언스를 제공하고 있다.
아래의 그림은 하둡의 에코 시스템을 도식화 한 것이다.
(출처 : http://www.flickr.com/photos/_after8_/4002604072)
지금도 데이터는 생성되고, 저장되고, 분석되고 있다. 그러나 우리가 이런 데이터들을 제대로 활용하고 있는지 생각해 볼 필요가 있다. 데이터를 많이 가지고 있다고 해서 가치가 있는 것은 아니지만 잘 처리된 데이터는 의사 결정을 하는데 필요한 의미를 가질 수 있다. 세상은 복잡하지만 그 안에는 어떤 흐름이 존재하고, 유의미한 정보가 존재하기 마련이다. 하둡의 등장으로 이런 데이터들에 대한 분석이 시도되고, 세상에 대한 데이터의 영향력은 점점 더 커지게 된다. 이런 이유들이 하둡에 주목하게 되는 것이다.
단, Hadoop 이 Big Data 의 전부인 것처럼 굳어져 가는 것 같은데 (나만 그렇게 생각하나? -_-) 단지, 가장 근접하고 현실적으로 사용하기에 적합한 것일 뿐이라는 것을 잊지 말고 좀 더 넓게 바라보는 시각이 필요하다.
댓글
댓글 쓰기