목록Computer & Data (155)
이야기박스
네임노드의 힙 메모리 용량은 어떤 기준으로 산정하면 될까? 클러스터 데이터의 전체 용량? 혹은 파일 개수? 저 같은 하둡 초보들에겐 어려운 질문인 것 같습니다. 결론부터 빠르게 말하자면 파일 갯수를 근거로 힙 메모리를 산정하면 된다고 합니다. Active Namenode는 블록의 위치 정보들을 관리하고 이를 토대로 읽기/쓰기 요청을 처리합니다. 파일 갯수가 많아진다면 블록의 개수도 많아질 테고, 결국 필요 메모리 크기가 늘어나게 되는 것 같습니다. 아래는 클라우데라에서 제공하는 파일 개수별 메모리 권장 사항입니다. Number of Files , in Millions Total Java Heap (Xmx and Xms) Young Generation Size (-XX:NewSize -XX:MaxNewSi..
Service Servers Default Ports Used Protocol Description Need End User Access? Configuration Parameters NameNode WebUI Master Nodes (NameNode and any back-up NameNodes) 50070 HTTP Web UI to look at current status of HDFS, explore file system Yes (Typically admins, Dev/Support teams, as well as extra-cluster users who require webhdfs/hftp access, for example, to use distcp) dfs.http.address 50470 ..
이번에는 지난 하둡 설치 포스팅에 이어서 하둡3의 새로운 기능, 옵저버 노드에 대한 포스팅을 다루어보도록 하겠습니다. Observer Namenode? HA 구성된 하둡 네임노드를 보면, 하나의 Active Namenode, 그리고 하나 이상의 Standby Namenode로 구성되게 됩니다. 하지만 Standby Namenode는 직접적인 하둡의 읽기/쓰기 요청을 처리해주지 않기 때문에, Active Namenode 혼자서 독박을 쓰게 됩니다. 규모가 큰 클러스터 일 수록, 오버헤드가 크겠죠. Observer Namenode는 여기서 Active Namenode의 읽기 요청에 부담을 덜어주게 됩니다. Active Namenode와 마찬가지로 읽기에 사용될 블록의 위치 정보를 가지고 읽기 요청을 함께 처..
이전 포스팅에서 하둡, 특히 HDFS란 무엇인가에 대해서 가볍게 알아보았다면, 이번에는 직접 설치해여 몸으로 하둡을 겪어보려고 합니다. Hadoop 시리즈. HDFS 맛보기 하둡 분산형 파일 시스템 (HDFS; Hadoop Distributed File System) HDFS는 대용량 파일을 저장하고 처리하기 위해서 개발된 소프트웨어입니다. 이는 하나의 서버에서만 동작하는 것이 아니라, 다수의 서버에 box0830.tistory.com 포스팅을 구성하면서 어떤 하둡을 설치해볼지 고민을 많이 했었습니다. CDH? HDP? 여러 고민을 하다가 기초 학습을 위해서 오픈소스로 나와있는 Apache Hadoop을 설치해보기로 결정하였습니다. 특히, 최근에 화두로 떠오르고 있는 Hadoop3을 설치해보기로 하였습니..
주키퍼의 간단한 설치 과정을 정리한 포스팅입니다. 설치 wget downloads.apache.org/zookeeper/zookeeper-3.6.3/apache-zookeeper-3.6.3-bin.tar.gz 압축 해제 # 압축 해제 sudo tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz -C /opt # 권한 sudo chown -R deploy. /opt/apache-zookeeper-3.6.3-bin/ # symbolic link sudo ln -s /opt/apache-zookeeper-3.6.3-bin/ /opt/zookeeper sudo chown -R deploy. /opt/zookeeper 경로 생성 # 로그 sudo mkdir -p /var/log/zook..
하둡 분산형 파일 시스템 (HDFS; Hadoop Distributed File System) HDFS는 대용량 파일을 저장하고 처리하기 위해서 개발된 소프트웨어입니다. 이는 하나의 서버에서만 동작하는 것이 아니라, 다수의 서버에서 클러스터링 되어 운영됩니다. 하둡 클러스터의 기본적인 이해 하둡 클러스터는 Master Node, Slave Node 크게 두 가지로 나누어 볼 수 있습니다. # 마스터 노드(Master Node) 잡 트랙커가 맵리듀스를 사용하여 병렬 처리 네임 노드는 하둡 분산 파일 시스템의 데이터 저장 기능 관리 세컨더리 네임 노드는 네임 노드 백업 용도 # 슬레이브 노드 (Slave/Worker Node) 태스크 트랙커 - 잡 트랙커의 슬레이브 데이터 노드 - 네임 노드의 슬레이브 HD..
오늘은 하둡 에코시스템에 대하여 간단하게 정리하는 글을 갖고, 앞으로 여유가 생길 때마다 하둡 구성원들을 하나씩 정리해서 포스팅하도록 하겠습니다. 하둡이란? 대용량 데이터를 여러 컴퓨터에 분산시켜 처리할 수 있는 자바 기반의 오픈 소스 프레임워크 2006년, 야후의 더그 커팅으로부터 비정형 빅데이터 처리를 위해 구글에서 발표한 GFS와 MapReduce 논문을 참조하여 개발되었으며, 이후 아파치 재단의 오픈 소스로 공개되었습니다. Hadoop Ecosystem ecosystem; 생태계. 상호작용하는 유기체들과 또 그들과 서로 영향을 주고받는 주변의 무생물 환경 하둡이 자바 기반의 분산처리 프레임워크라고 바로 위에서 말씀드렸죠. Hadoop Ecosystem이란 하둡을 구성하고 있는 수많은 하위 프로젝트..
# 개요 프로그램에서의 laziness란? 게으른 프로그램? 일반적으로 생각되는 부정적인 의미의 게으름과 프로그램에서 말하는 `laziness`는 다릅니다. 정확하게 필요한 순간, "Smart"하게 동작하는 것! 그것을 프로그램에서의 `laziness`라 말합니다. Lazy initialization - Wikipedia In computer programming, lazy initialization is the tactic of delaying the creation of an object, the calculation of a value, or some other expensive process until the first time it is needed. It is a kind of lazy eva..