博客
关于我
Ubuntu16.04安装Hadoop+Spark+pyspark大数据python开发环境
阅读量:329 次
发布时间:2019-03-04

本文共 3673 字,大约阅读时间需要 12 分钟。

 

一,安装jdk1.8.0.144

下载地址:

Ubuntu配置jdk运行环境

export HADOOP_HOME=/usr/local/hadoopexport CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATHexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
$ mkdir /usr/lib/jvm                           #创建jvm文件夹$ sudo tar zxvf jdk-7u80-linux-x64.tar.gz  -C /usr/lib #/ 解压到/usr/lib/jvm目录下$ cd /usr/lib/jvm                                 #进入该目录$ mv  jdk1.7.0_80 java                         #重命名为java$ sudo apt-get install vim$ vim ~/.bashrc                                 #给JDK配置环境变量

~/.bashrc文件末尾添加以下内容

export JAVA_HOME=/usr/lib/jvm/javaexport JRE_HOME=${JAVA_HOME}/jreexport CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/libexport PATH=${JAVA_HOME}/bin:$PATH
$ source ~/.bashrc                       #使新配置的环境变量生效$ java -version                          #检测是否安装成功,查看java版本

二,配置ssh免密登录

$ sudo apt-get install openssh-server   #安装SSH server$ ssh localhost                         #登陆SSH,第一次登陆输入yes$ exit                                  #退出登录的ssh localhost$ sudo su$ cd ~/.ssh/                            #如果没法进入该目录,执行一次ssh localhost$ ssh-keygen -t rsa  

输入完  $ ssh-keygen -t rsa 语句以后,需要连续敲击三次回车

$ cat ./id_rsa.pub >> ./authorized_keys #加入授权$ ssh localhost                         #此时已不需密码即可登录localhost,并可见下图。如果失败则可以搜索SSH免密码登录来寻求答案

三,安装hadoop-2.6.5

下载地址:

$ sudo tar -zxvf  hadoop-2.6.5.tar.gz -C /usr/local    #解压到/usr/local目录下$ cd /usr/local$ sudo mv  hadoop-2.6.5    hadoop                      #重命名为hadoop$ sudo chown -R hadoop ./hadoop                        #修改文件权限

~/.bashrc文件末尾添加以下内容

export HADOOP_HOME=/usr/local/hadoopexport CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATHexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

同样,执行source ~./bashrc使设置生效,并输入“hadoop version”查看hadoop是否安装成功

往/usr/local/hadoop/etc/hadoop/中的hadoop-env.sh文件加入

export JAVA_HOME=/usr/lib/jvm/java

往/usr/local/hadoop/etc/hadoop/中的core-site.xml文件加入

hadoop.tmp.dir
file:/usr/local/hadoop/tmp
Abase for other temporary directories.
fs.defaultFS
hdfs://localhost:9000

往/usr/local/hadoop/etc/hadoop/中的hdfs-site.xml文件加入

dfs.replication
1
dfs.namenode.name.dir
file:/usr/local/hadoop/tmp/dfs/name
dfs.datanode.data.dir
file:/usr/local/hadoop/tmp/dfs/data

在Hadoop的目录下执行

$ ./bin/hdfs namenode -format$ ./sbin/start-dfs.sh$ jps

此时也有可能出现要求输入localhost密码的情况 ,如果此时明明输入的是正确的密码却仍无法登入,其原因是由于如果不输入用户名的时候默认的是root用户,但是安全期间ssh服务默认没有开root用户的ssh权限

输入代码:

$vim /etc/ssh/sshd_config

检查PermitRootLogin 后面是否为yes,如果不是,则将该行代码 中PermitRootLogin 后面的内容删除,改为yes,保存。之后输入下列代码重启SSH服务:

$ /etc/init.d/sshd restart

成功启动后,可以访问 Web 界面  查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件

后续每次重新启动Hadoop只需以下命令即可

sudo su ssh localhost #连接免密的rootcd /usr/local/hadoop #打开Hadoop目录./sbin/start-dfs.sh  #启动namenode和datanode进程

四,安装Scala

sudo apt-get install scala

~/.bashrc文件末尾添加以下内容,执行source ~./bashrc使设置生效

export SCALA_HOME=/usr/share/scala-2.11

五,安装Spark

下载地址:

tar zxvf spark-2.3.1-bin-hadoop2.7.tgzsudo mkdir /usr/local/sparkmv spark-2.3.1-bin-hadoop2.7/* /usr/local/sparkcd /usr/local/spark/bin./pyspark

在>>>后输入

lines = sc.textFile("/usr/local/spark/README.md")lines.count()   #字数统计lines.first()

如出现输出则说明Spark+Python+Hadoop大数据开发环境已经安装成功

 

你可能感兴趣的文章
Nginx配置多个不同端口服务共用80端口
查看>>
Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
查看>>
Nginx配置如何一键生成
查看>>
Nginx配置实例-动静分离实例:搭建静态资源服务器
查看>>
Nginx配置实例-反向代理实例:根据访问的路径跳转到不同端口的服务中
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
nginx配置详解、端口重定向和504
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
Nginx配置限流,技能拉满!
查看>>
Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
查看>>
Nginx:NginxConfig可视化配置工具安装
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>