Cloud Hadoop 클러스터를 프로비저닝하고 모니터링 및 관리 작업을 수행할 수 있는 Apache Ambari 프로젝트를 제공합니다. 클러스터에 대한 루트 접근 권한을 제공하여 클러스터를 완벽하게 제어할 수 있고 프레임워크의 설정 값을 확인하고 수정할 수 있습니다.
간단한 프로그래밍 모델을 사용하여 컴퓨터 클러스터 전체에 대규모
데이터 세트를 분산 처리할 수 있는 Apache Hadoop, 분산 및 확장할 수 있는 대용량 데이터 저장소인 HBase, 대규모 데이터 처리용 통합
분석 엔진인 Spark, Data warehouse 소프트웨어인 Hive, 분산 SQL 쿼리 엔진인 Presto를 지원합니다.
Cloud Hadoop 클러스터를 자동으로
생성하고 인프라 관리 부담을 최소화할 수 있습니다.오픈 소스 프레임워크를 실행하여 손쉽게 대용량 데이터를 처리 및 분석할 수 있습니다.
클러스터를 사용하는 만큼만 요금을
지불하는 비용 효율적인 서비스입니다.
네이버 클라우드 플랫폼의 Object Storage를 저장소로 사용하여 합리적인
비용으로 안전하게 저장할 수 있습니다.
사용자 원하는 시간에 데이터 분석에 필요한 인스턴스 수를 줄이거나 늘릴 수 있습니다. 마스터 노드를 2개로 제공하여 서비스와 작업의 안정성 및 가용성을 높일 수 있습니다.
Cloud Hadoop 클러스터를 쉽게 프로비저닝하고 분석에 필요한 성능 요구를 충족할 수 있도록 컴퓨팅 리소스를 확장 및 축소할 수 있습니다.
마스터 노드의 이중화 구성으로 고가용성을 보장합니다.
Cloud Hadoop을 사용하여 하둡 분산 파일 시스템(Hadoop Distributed File System, HDFS), Block Storage, Object Storage, NAS를 활용할 수 있으며 각종 Cloud DB 서비스와 연결하여 데이터 스토어를 활용할 수 있습니다.
외부 접속을 위한 Edge Node를 별도 제공하여 클러스터 접근 보안성을 높이고 이중화된 Kerberos 구성 환경을 제공하여 강력한 인증 및 권한 관리가 가능합니다.
오픈 소스인 Apache Ambari를 이용하여 Web UI 및 REST API를 손쉽게 사용할 수 있고, 이를 활용하여 Cloud Hadoop 클러스터를 편리하면서도 효율적으로 관리하고 모니터링할 수 있습니다.
분석에 필요한 성능만큼 컴퓨팅 노드 확장 또는 축소 가능
용량 걱정 없이 저장할 수 있는 Object Storage 사용
Apache Hadoop, Apache Hbase, Apache Spark, Presto 등 다양한 오픈 소스 프레임워크를 지원하여 Hadoop 에코 시스템 활용성을 높이고 검증된 Hadoop 툴 및 다양한 최신 애플리케이션을 제공합니다.
Cloud Hadoop은 대량의 자료를 처리할 수 있는 오픈 소스 프레임워크인 Apache Hadoop, HBase, Hive, Spark, Presto를 이용하고 있습니다.
클러스터가 시작된 시점부터 종료될 때까지 사용자가 사용한 만큼 지불하는 비용 효율적인 서비스입니다. 요금은 1분을 최소 요금으로 분당 청구됩니다.
마스터 노드는 기본적으로 고가용성을 위해 2대가 생성됩니다.
기본 제공되는 50GB의 디스크는 운영체제를 위한 디스크로 별도로 증설이나 추가되지 않으며, 이용 요금에 포함되어 있습니다.
Cloud Hadoop 데이터를 저장하기 위한 데이터 스토리지(Block Storage, Object Storage)는 별도로 사용량에 따른 시간 요금으로 과금됩니다.
타입 | vCPU | 메모리 | 디스크 | 과금 기준 | 요금 |
---|---|---|---|---|---|
Standard | 4개 | 16GB | 50GB | 분 | - |
Standard | 8개 | 32GB | 50GB | 분 | - |
Standard | 16개 | 64GB | 50GB | 분 | - |
Standard | 32개 | 128GB | 50GB | 분 | - |
High Memory | 4개 | 32GB | 50GB | 분 | - |
High Memory | 8개 | 64GB | 50GB | 분 | - |
High Memory | 16개 | 128GB | 50GB | 분 | - |
High Memory | 32개 | 256GB | 50GB | 분 | - |
High CPU | 8개 | 16GB | 50GB | 분 | - |
High CPU | 16개 | 32GB | 50GB | 분 | - |
High CPU | 32개 | 64GB | 50GB | 분 | - |
(VAT 별도)
타입 | vCPU | 메모리 | 디스크 | 과금 기준 | 요금 |
---|---|---|---|---|---|
Standard | 4개 | 8GB | 50GB | 분 | - |
Standard | 4개 | 16GB | 50GB | 분 | - |
Standard | 4개 | 32GB | 50GB | 분 | - |
Standard | 8개 | 16GB | 50GB | 분 | - |
Standard | 8개 | 32GB | 50GB | 분 | - |
Standard | 16개 | 32GB | 50GB | 분 | - |
High Memory | 8개 | 64GB | 50GB | 분 | - |
High Memory | 16개 | 128GB | 50GB | 분 | - |
High Memory | 32개 | 256GB | 50GB | 분 | - |
(VAT 별도)
Cloud Hadoop HDFS 데이터를 저장하기 위한 스토리지입니다.
VPC: 최소 100GB ~ 2,000GB까지 10GB 단위로 사용 가능하고, 4,000GB, 6,000GB로 사용 가능합니다.
Classic: 최소 100GB, 최대 2,000GB까지 10GB 단위로 사용 가능합니다.
데이터 스토리지 사용량에 따른 요금표는 서비스 > Block Storage > 요금에서 확인할 수 있습니다.
대용량의 데이터를 저장하기 위해 Object Storage를 사용합니다.
Object Storage 요금은 저장된 데이터 양, API 요청수, 네트워크 전송 요금을 합산하여 부과합니다.
Object Storage 사용량에 따른 요금표는 서비스 > Object Storage > 요금에서 확인할 수 있습니다.
아웃바운드 트래픽에 대한 네트워크 사용량은 요금표에 따라 과금합니다.
네트워크 사용량에 따른 요금표는 서비스 > Server > 네트워크 요금에서 확인할 수 있습니다.