1. JAVA 설치
1.1 oracle-java-8 설치
$ sudo apt-get purge openjdk*
$ sudo add-apt-repository ppa:webupd8team/java
$ sudo apt-get update
$ sudo apt-get install oracle-java8-installer
1.2 openjdk-8 설치
$ sudo apt-get install openjdk-8-jdk
1.3 설치 확인
$ java -version
$ javac -version
2. JAVA_HOME 설정 ( openjdk-8 기준 )
2.1 java path 확인
$ update-alternatives --config java
2.2 JAVA_HOME 추가 ( etc/environment 수정 )
$ sudo gedit /etc/environment
>> JAVA_HOME="/usr/lib/jvm/java-8-openjdk-amd64"
2.3 변경 내용 적용
$ source /etc/environment
2.4 설정 확인
$ echo $JAVA_HOME
3. SSH 설치
3.1 SSH 설치
$ sudo apt-get install ssh
3.2 RSA 공유키, 개인키 생성
$ ssh-keygen -t rsa -P ""
>> Enter file in which to save the key : 그냥 Enter
3.3 Make the generated public key authorized by running
$ cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
3.4 작동 확인
$ ssh localhost
4. Hadoop 2.7.2 설치
4.1 하둡 다운로드.
>> https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-2.7.2/ 접속하여 hadoop-2.7.2.tar.gz 다운
4.2 하둡 압축 풀기
$ tar -xvzf '하둡 다운로드 경로/hadoop-2.7.2.tar.gz'
4.3
4.4
5. Hadoop 2.7.2 설정
5.1 ~/.bashrc 설정
$ sudo gedit ~/.bashrc
>> 가장 아래에 추가
#HADOOP VARIABLES START
export JAVA_HOME= 자바 path
export HADOOP_INSTALL= 하둡 설치 위치
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"
#HADOOP VARIABLES END
5.2 변경 내용 적용
$ source ~/.bashrc
5.3 hadoop-env.sh 파일 설정 변경
$ cd 하둡 설치 위치/etc/hadoop/
$ sudo gedit hadoop-env.sh
>> export JAVA_HOME=자바 path 추가
5.4 하둡 저장 폴더 만들기 ( 원하는 위치에 ) : HDFS (namenode, datanode),
$ mkdir hadoop_store
$ cd hadoop_store
$ mkdir hdfs ( hdfs 폴더 생성 )
$ cd hdfs
$ mkdir namenode ( namenode 폴더 생성 )
$ mkdir datanode ( datanode 폴더 생성 )
5.5 hdfs-site.xml 파일 설정 변경
$ cd 하둡 설치 위치/etc/hadoop/
$ sudo gedit hdfs-site.xml
>> <configuration> </configuration> 안에 삽입.
<property>
<name>dfs.replication</name>
<value>1</value>
<description>Default block replication.
The actual number of replications can be specified when the file is created.
The default is used if replication is not specified in create time.
</description>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:namenode 폴더 위치</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:datanode 폴더 위치</value>
</property>
5.6 core-site.xml 파일 설정 변경
$ cd 하둡 설치 위치/
$ mkdir tmp ( tmp 임시 폴더 생성)
$ cd etc/hadoop/
$ sudo gedit core-site.xml
>> <configuration> </configuration> 안에 삽입.
<property>
<name>hadoop.tmp.dir</name>
<value>tmp 폴더 위치</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:54310</value>
<description>The name of the default file system. A URI whose
scheme and authority determine the FileSystem implementation. The
uri's scheme determines the config property (fs.SCHEME.impl) naming
the FileSystem implementation class. The uri's authority is used to
determine the host, port, etc. for a filesystem.</description>
</property>
5.7 mapred-site.xml 파일 설정 변경
$ cd 하둡 설치 위치/etc/hadoop/
$ cp mapred-site.xml.template mapred-site.xml ( mapred-site.xml 파일 복사 )
>> <configuration> </configuration> 안에 삽입.
<property>
<name>mapred.job.tracker</name>
<value>localhost:54311</value>
<description>The host and port that the MapReduce job tracker runs
at. If "local", then jobs are run in-process as a single map
and reduce task.
</description>
</property>
5.8 namenode 포맷
$ cd
$ hadoop namenode -format
5.9 하둡 실행
$ cd 하둡 설치 위치/sbin
$ start-all.sh
5.10 실행 확인
$ jps
'기타' 카테고리의 다른 글
[개념] JWT (JSON Web Token) (0) | 2021.01.02 |
---|---|
[C++] cin을 사용하여 함수의 매개 변수로 바로 입력하기. (0) | 2016.11.02 |
[OS 개발] QEMU 설치 (0) | 2016.09.01 |
[OS 개발] NASM 설치 (0) | 2016.08.08 |
[OS 개발] 우분투 14.04 64bit gcc 32bit 설치 (0) | 2016.08.08 |
댓글