HelloTeacher陈 2018-08-25 11:45:51 一、环境选择 1. 前言 1.1. 何为大数据 百度百科给的定义是:大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。 1.2. 搭建大数据环境的意义 废话少说,就两个字"高薪",如果你满足于一个月10000元的工资,如果你沉溺于老婆孩子热炕头的安逸,流连忘返于灯红酒绿的花花世界。那么我们到此为止,你可以不用往下面继续浪费时间阅读了。请看下图,智联招聘截图时间是2018年8月25日,周六。有人说,建哥你周末在加班啊!加班?不可能的,敲代码使我快乐!哈哈哈哈哈,开个玩笑, 本文主要介绍图中各种技术框架的安装配置,阅读本文大概需要15分钟,有兴趣的朋友可以亲自操作一下,时间在2小时左右。想想3W到5W的月薪,两小时算啥?另外,喜欢的朋友可以关注我,私信发送"大数据"会赠送相关大数据资料。码字不易,不喜勿喷! 2. 环境准备 2.1. 大数据环境 本次安装需要三台虚拟机,选用的操作系统版本是contos6.9 64位。各组件在三台机器上的分布情况如下: 2.2. PC编译环境 另外本机操作系统是windows7 64位。因为需要编译打包streamingPro,所以本机也需要安装对应的环境,详情如下: 2.3. 配置说明 · JDK :Hadoop和Spark 依赖的配置. · Scala:Spark依赖的配置,建议版本不低于spark的版本。 · Hadoop: 是一个分布式系统基础架构。 · Spark: 分布式存储的大数据进行处理的工具。 · zookeeper:分布式应用程序协调服务,HBase集群需要。 · HBase: 一个结构化数据的分布式存储系统。 · Hive: 基于Hadoop的一个数据仓库工具,目前的默认元数据库是mysql。 · Kafka:分布式消息队列 所需要的安装包及依赖文件保存在百度云: 链接:https://pan.baidu.com/s/1J9YECM0Jd3LYuCqFRFG5yw 密码:1knn 二、集群的相关配置 下面前5步操作可以先在一台虚拟机上操作,然后克隆出另外两台机器。 1. 关闭防火墙及关闭操作系统安全访问控制 说明:其实可以不关闭防火墙,进行权限设置,但是为了方便访问,于是便关闭了防火墙。每个机器都做!!! 关闭防火墙的命令 停止防火墙: service iptables stop 启动防火墙: service iptables start 重启防火墙: service iptables restart 永久关闭防火墙: chkconfig iptables off 说明:操作系统默认是打开安全访问控制的,这样会导致部分软件安装配置失败,为了方便,我们将它关闭。 查看SELinux状态 getenforce 修改配置文件/etc/selinux/config 将SELINUX=enforcing改为SELINUX=disabled 2. 修改系统网络配置 配置固定ip地址和dns服务器地址,保证主机能上网。 重启网络服务,并检测dns是否生效 3. 调整系统时区及时间配置 首先将时区调整到东八区, 保险起见再执行一下下面的命令 cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime 集群上的机器时间要同步,我们可以将所有的机器跟集群中某台机器进行时间同步。也可以简单的跟互联网授时服务器同步。 ntpdate pool.ntp.org 4. 安装java和scala基础环境及修改系统环境变量 大家可以在网盘下载对应的安装文件。 安装jdk1.8 解压缩jdk安装包 tar zxvf jdk-8u144-linux-x64.tar.gz 创建目录/opt/jdk mkdir /opt/jdk 移动文件夹jdk1.8.0_144到/opt/jdk下面,并改名为jdk1.8 mv jdk1.8.0_144/ /opt/jdk/jdk1.8 安装scala2.12.2 tar zxvf scala-2.12.2.tgz 创建目录/opt/scala mkdir /opt/scala 移动文件夹scala-2.12.2到/opt/ scala下面,并改名为scala2.12.2 mv scala-2.12.2 /opt/scala/scala2.12.2 在 /etc/profile 这个配置文件要添加很多的环境配置,这里就先将整体的环境配置列举出来,各位在配置环境变量的以自己的为准!!! 可以先配置好环境变量之后,在传输到其他机器上去。
查看java和scala版本 5. 主机名更改以及主机和IP做相关映射 5.1.更改主机名 说明:更改主机名是为了方便集群管理,不然每个机器的名称都叫localhost也不太好吧! 集群所有的机器都要做这个操作。 输入 vim /etc/sysconfig/network 将localhost.localdomain修改为你要更改的名称,每台名称都不一样 例如: HOSTNAME=master 5.2.主机和IP的关系映射 修改hosts文件,做关系映射 说明:这个每台机器都做这个配置,具体ip和主机名称以自己的为准。 输入: vim /etc/hosts 添加
重启机器,开始克隆另外两台机器slave1,slave2,值得注意的是克隆完之后修改修改ip地址和主机名。 6. ssh免登录 设置ssh免密码登录是为了操作方便 生成秘钥文件 在每台机器上都执行一遍 首先输入: ssh-keygen -t rsa -P '' 生成秘钥之后,然后将每台机器/root/.ssh 都存入内容相同的文件,文件名称叫authorized_keys,文件内容是我们刚才为3台机器生成的公钥。可以在一台机器上生成,然后复制到其它的机器上。 新建authorized_keys文件 输入 : touch /root/.ssh/authorized_keys 编辑 authorized_keys 并将其他机器上的秘钥拷贝过来 cat /root/.ssh/id_rsa.pub vim /root/.ssh/authorized_keys 将其它机器上的 id_rsa.pub 的内容拷贝到 authorized_keys这个文件中。 最终authorized_keys文件的内容 将这个最终的authorized_keys文件copy到其他机器的 /root/.ssh 目录下。使用scp或者ftp都可以。 scp命令示例: scp -r /root/.ssh/authorized_keys root@slave1:/root/.ssh scp -r /root/.ssh/authorized_keys root@slave2:/root/.ssh 测试免密码登录 输入: ssh slave1 ssh slave2 输入 exit 退出 二、Hadoop的环境搭建 事先说明,这些配置可以在一台机器上配置,然后复制到其他机器上就行了。复制之后注意使这些配置文件生效。 1. hadoop配置 1.1. 文件准备 将下载下来的Hadoop的配置文件进行解压 在linux上输入: tar -xvf hadoop-2.8.2.tar.gz 然后将解压之后的文件夹移动到opt/hadoop文件夹下,没有该文件夹就新建,然后将文件夹重命名为hadoop2.8。 在linux上输入移动文件夹命令: mv hadoop-2.8.2 /opt/hadoop mv hadoop-2.8.2 hadoop2.8 1.2. 环境配置 编辑 /etc/profile 文件 输入: vim /etc/profile 添加:
输入: source /etc/profile 使配置生效 1.3. 修改配置文件 修改 core-site.xml、hadoop-env.sh、hdfs-site.xml、mapred-site.xml 等这些配置文件 在linux输入进入该目录的命令: cd /opt/hadoop/hadoop2.8/etc/hadoop 1.3.1. 修改 core-site.xml hadoop的存放路径可以自行更改。开始我以为这些文件夹需要手动创建,后来实践了,如果不手动创建,会自动创建的,所以就去掉了手动创建目录的步骤。 输入: vim core-site.xml 在<configuration>节点内加入配置:
说明: fs.defaultFS 是缺省文件的名称, 最早使用的是 fs.default.name,后来在最新官方文档中查到该方法已经弃用了。于是边改成这个了。ps:感觉也没啥区别。 1.3.2. 修改 hadoop-env.sh export JAVA_HOME=${JAVA_HOME} 修改为: export JAVA_HOME=/opt/java/jdk1.8 注:修改为自己JDK的路径 1.3.3. 修改 hdfs-site.xml 下面的hdfs的存放路径,可以根据自己机器更改。 在<configuration>节点内加入配置:
执行mapreduce的运行框架配置。ps:感觉这个配置没啥用,可能我没用mr吧。 如果没有 mapred-site.xml 该文件,就复制mapred-site.xml.template文件并重命名为mapred-site.xml。 修改这个新建的mapred-site.xml文件,在<configuration>节点内加入配置:
1.3.5. 修改yarn-site.xml文件 yarn 资源调度的配置,集群的话这个配置是必须的。 修改/opt/hadoop/hadoop2.8/etc/hadoop/yarn-site.xml文件, 在<configuration>节点内加入配置
说明:yarn.nodemanager.vmem-check-enabled这个的意思是忽略虚拟内存的检查,如果你是安装在虚拟机上,这个配置很有用,配上去之后后续操作不容易出问题。如果是实体机上,并且内存够多,可以将这个配置去掉。 1.3.6. 修改slaves 设置主从的配置。如果不设置这个,集群就无法得知主从了。如果是单机模式,就没必要配置了。 修改/opt/hadoop/hadoop2.8/etc/hadoop/slaves文件 更改为 slave1 slave2 在一台机器上(最好是master)做完这些配置之后,我们使用scp命令将这些配置传输到其他机器上。 输入: hadoop环境传输 scp -r /opt/hadoop root@slave1:/opt scp -r /opt/hadoop root@slave2:/opt 传输之后,便在主节点启动集群。 在启动hadoop之前,需要初始化,这个只需要在master上初始化就可以了。 2. hadoop启动 注:启动hadoop之前确保防火墙关闭,各个机器时间通过,ssh免登录都没问题。 初始化hadoop 切换到/opt/hadoop/hadoop2.8/bin目录下输入 ./hdfs namenode -format 初始化成功之后,切换到/opt/hadoop/hadoop2.8/sbin 启动hadoop 的hdfs和yarn 输入: start-dfs.sh start-yarn.sh 第一次登录会询问是否连接,输入yes ,然后输入密码就可以了 启动成功之后,可以使用jps命令在各个机器上查看是否成功 可以在浏览器输入: ip+50070 和8088端口查看 http://master:50070 http://master:8088/cluster 若如图显示,则启动成功。 若失败,检查jps是否成功启动,防火墙是否都关闭。都确认没问题之后,还是无法打开界面,请查看日志,再来找原因。 四、Spark的环境配置 1. Spark配置 1.1. 文件准备 将下载好的Spark文件解压 输入 tar zxvf spark-2.2.0-bin-hadoop2.7.tgz 然后移动到/opt/spark 里面,并重命名 输入 mkdir /opt/spark mv spark-2.2.0-bin-hadoop2.7 /opt/spark/spark2.2 1.2. 环境配置 编辑 /etc/profile 文件 (省略,前期已经做过了)输入: export SPARK_HOME=/opt/spark/spark2.2 export PATH=.:${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH 输入: source /etc/profile 使配置生效 1.3. 更改配置文件 切换目录 输入: cd /opt/spark/spark2.2/conf/ 1.3.1. 修改 spark-env.sh 在conf目录下,修改spark-env.sh文件,如果没有 spark-env.sh 该文件,就复制spark-env.sh.template文件并重命名为spark-env.sh。 修改这个新建的spark-env.sh文件,加入配置:
注:上面的路径以自己的为准,SPARK_MASTER_IP为主机,SPARK_EXECUTOR_MEMORY为设置的运行内存。 1.3.2. 修改slaves slaves 分布式文件 在conf目录下,修改slaves文件,如果没有 slaves 该文件,就复制slaves .template文件并重命名为slaves 。 修改这个新建的slaves 文件,加入配置: slave1 slave2 在一台机器上(最好是master)做完这些配置之后,我们使用scp命令将这些配置传输到其他机器上。 spark环境传输 scp -r /opt/spark root@slave1:/opt scp -r /opt/spark root@slave2:/opt 传输之后,便在主节点启动集群。 2. spark启动 说明:要先启动Hadoop 切换到Spark目录下 输入: cd /opt/spark/spark2.2/sbin 然后启动Spark 输入: start-all.sh 启动成功之后,可以使用jps命令在各个机器上查看是否成功。 可以在浏览器输入: ip+8080 端口查看 若成功显示这个界面,则表示Spark成功启动。 五、Zookeeper的环境配置 因为HBase以及kafka做集群,所以就需要zookeeper了。 zookeeper 在很多环境搭建上,都会有他的身影,如kafka、storm等,这里就不多说了。 1. 文件准备 将下载下来的Zookeeper 的配置文件进行解压 在linux上输入: tar -xvf zookeeper-3.4.10.tar.gz 然后移动到/opt/zookeeper里面,没有就新建,然后将文件夹重命名为zookeeper3.4 输入 mkdir /opt/zookeeper mv zookeeper-3.4.10 /opt/zookeeper/zookeeper3.4 2. 环境配置(省略,前期已经做过了) 编辑 /etc/profile 文件 输入:
输入: source /etc/profile 使配置生效 3. 修改配置文件 3.1. 创建文件和目录 在集群的服务器上都创建这些目录 mkdir /opt/zookeeper/data mkdir /opt/zookeeper/dataLog 并且在/opt/zookeeper/data目录下创建myid文件 输入: touch myid 创建成功之后,更改myid文件。 我这边为了方便,将master、slave1、slave2的myid文件内容改为1,2,3 3.2. 新建zoo.cfg 切换到/opt/zookeeper/zookeeper3.4/conf 目录下 如果没有 zoo.cfg 该文件,就复制zoo_sample.cfg文件并重命名为zoo.cfg。 修改这个新建的zoo.cfg文件 dataDir=/opt/zookeeper/data dataLogDir=/opt/zookeeper/dataLog server.1=master:2888:3888 server.2=slave1:2888:3888 server.3=slave2:2888:3888 配置说明:
其他配置说明:
依旧将zookeeper传输到其他的机器上,记得更改 /opt/zookeeper/data 下的myid,这个不能一致。 输入: scp -r /opt/zookeeper root@slave1:/opt scp -r /opt/zookeeper root@slave2:/opt 修改myid 4. 启动zookeeper 因为zookeeper是选举制,它的主从关系并不是像hadoop那样指定的,具体可以看官方的文档说明。 成功配置zookeeper之后,在每台机器上启动zookeeper。 切换到zookeeper目录下 cd /opt/zookeeper/zookeeper3.4/bin 输入: zkServer.sh start 成功启动之后 查看状态输入: zkServer.sh status 可以查看各个机器上zookeeper的leader和follower ,只能一个是主,随机选择,入下图: 六、HBase的环境配置 1. 文件准备 将下载下来的HBase的配置文件进行解压 在linux上输入: tar -xvf hbase-1.2.6-bin.tar.gz 然后移动到/opt/hbase 文件夹里面,并重命名为 hbase1.2 输入 mv hbase-1.2.6 /opt/hbase mv hbase-1.2.6/ hbase1.2 2. 环境配置(省略,前期已经做过了) 编辑 /etc/profile 文件 输入: export HBASE_HOME=/opt/hbase/hbase1.2 export PATH=.:${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH 输入: source /etc/profile 使配置生效 输入 hbase version 查看版本 3. 修改配置文件 切换到 /opt/hbase/hbase1.2/conf下 3.1. 修改hbase-env.sh 编辑 hbase-env.sh 文件,添加以下配置
说明:配置的路径以自己的为准。HBASE_MANAGES_ZK=false 是不启用HBase自带的Zookeeper集群。 3.2. 修改 hbase-site.xml 编辑hbase-site.xml 文件,在<configuration>添加如下配置
说明:hbase.rootdir:这个目录是region server的共享目录,用来持久化Hbase 。hbase.cluster.distributed :Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面。 3.3. 修改regionservers 指定hbase的主从,和hadoop的slaves文件配置一样 将文件修改为 slave1 slave2注:上面的为集群的主机名称 在一台机器上(最好是master)做完这些配置之后,我们使用scp命令将这些配置传输到其他机器上。 输入: hbase环境传输 scp -r /opt/hbase root@slave1:/opt scp -r /opt/hbase root@slave2:/opt 传输之后,在主节点启动集群。 4. 启动hbase 在成功启动Hadoop、zookeeper之后 切换到HBase目录下 cd /opt/hbase/hbase1.2/bin 输入: start-hbase.sh 启动成功之后,可以使用jps命令在各个机器上查看是否成功 可以在浏览器输入: ip+16010 端口查看 http://master:16010/master-status 若成功显示该界面,则启动成功。 七、Mysql安装 因为Hive的默认元数据是Mysql,所以先要安装Mysql。Mysql有两种安装模式,可自行选择。 1. yum安装mysql 首先查看mysql 是否已经安装 输入: rpm -qa | grep mysql 如果已经安装,想删除的话输入:普通删除命令: 强力删除命令: 依赖文件也会删除 安装mysql输入: 2. 启动和配置mysql安装成功后,输入 service mysqld start 启动服务 输入之后直接回车(默认是没有密码的)然后再输入mysql -u root -p通过授权法更改远程连接权限输入: mysql> GRANT ALL PRIVILEGES ON *.* TO 'root'@'%'IDENTIFIED BY '123456' WITH GRANT OPTION;注:第一个'root'是用户名,第二个'%'是所有的ip都可以远程访问,第三个'123456'表示 用户密码 如果不常用 就关闭掉 use mysql; update user set password=passworD("123456") where user='root';输入:flush privileges; 可以使用navcat之类的工具测试是否能正确连接 八、Hive环境安装和配置 1. 文件准备 2. 环境配置(省略,前期已经做过了) 编辑 /etc/profile 文件输入: 添加: 注:实际配置以自己的为准!输入: 使配置生效 3. 配置更改 3.1. 新建文件夹 在修改配置文件之前,需要先在root目录下建立一些文件夹。 新建完该文件之后,需要让hadoop新建/root/hive/warehouse 和 /root/hive/ 目录。执行命令: 给刚才新建的目录赋予读写权限,执行命令: 检查这两个目录是否成功创建输入: 可以看到已经成功创建 3.2. 修改hive-site.xml 切换到 /opt/hive/hive2.1/conf 目录下将hive-default.xml.template 拷贝一份,并重命名为hive-site.xml然后编辑hive-site.xml文件 编辑hive-site.xml文件,在 中添加: 然后将配置文件中所有的 更改为 /opt/hive/tmp (如果没有该文件则创建),并将此文件夹赋予读写权限,将 更改为 root 注: 由于hive-site.xml 文件中的配置过多,可以通过FTP将它下载下来进行编辑。也可以直接配置自己所需的,其他的可以删除。 MySQL的连接地址中的master是主机的别名,可以换成ip。 3.3. 修改 hive-env.sh 修改hive-env.sh 文件,没有就复制 hive-env.sh.template ,并重命名为hive-env.sh在这个配置文件中添加 3.4. 添加 数据驱动包 由于Hive 默认自带的数据库是使用mysql,所以这块就是用mysql将mysql 的驱动包 上传到 /opt/hive/hive2.1/lib cp /home/chenjian/mysql-connector-java-5.1.41.jar /opt/hive/hive2.1/lib/ 4. Hive Shell 测试 在成功启动Hadoop之后切换到Hive目录下输入: 4.1. 首先初始化数据库初始化的时候注意要将mysql启动输入:执行成功之后,可以看到hive数据库和一堆表已经创建成功了 4.2. 启动hive进入hive (确保hadoop以及成功启动)输入: hive 进入hive 之后 做一些简单的操作 新建一个库,然后在建一张表 基本操作和普通的关系型数据库差不多 创建库: create database db_chenjian; 创建表: create table db_chenjian.student(id int,name string) row format delimited fields terminated by ' '; 4.3. 加载数据新打开一个窗口因为hive 不支持写,所以添加数据使用load加载文本获取。新建一个文本 编辑该文本添加数据输入: 添加数据:中间的空格符使用Tab建 说明: 文本可以在Windows上面新建,然后通过ftp上传到linux中,需要注意文本的格式为unix 格式。 切换到hive shell加载数据输入: 4.4. 查询该数据输入: select * from db_chenjian.student; 九、安装配置kafka 1. 文件准备 将下载下来的kafka 的安装文件进行解压 在linux上输入: tar -zxvf kafka_2.11-1.0.0.tgz 然后移动到/opt/kafka里面,没有就新建, 输入 mkdir /opt/kafka mv kafka_2.12-1.0.0 /opt/kafka/kafka1.0.0 2. 环境配置(省略,前期已经做过了) 3. 修改配置文件 修改master机器配置文件 config/server.properties broker.id=0 标示符(多台服务器标示符0,1,2,3,...依次增长) host.name=master 绑定的主机 log.dirs= /opt/kafka/kafka1.0.0/kafka-logs 数据保存的位置 log.retention.hours=168 数据的保留时间 zookeeper.connect=master:2181,slave1:2181,slave2:2181 将本机kafka拷贝至其他机器,此处只选用了两台机器master和slave1,执行下面的命令: scp -r /opt/kafka/ root@slave1:/opt/ 修改slave1配置文件 config/server.properties broker.id=1 标示符(多台服务器标示符0,1,2,3,...依次增长) host.name=slave1 绑定的主机 log.dirs= /opt/kafka/kafka1.0.0/kafka-logs 数据保存的位置 log.retention.hours=168 数据的保留时间 zookeeper.connect=master:2181,slave1:2181,slave2:2181 启动kafka a.启动zookeeper集群 b.启动服务的命令(两台机器都执行) nohup /opt/kafka/kafka1.0.0/bin/kafka-server-start.sh /opt/kafka/kafka1.0.0/config/server.properties & c.创建主题 /opt/kafka/kafka1.0.0/bin/kafka-topics.sh --create --zookeeper master:2181,slave1:2181 --replication-factor 1 --partitions 1 --topic chenjian d.查看当前有哪些主题: /opt/kafka/kafka1.0.0/bin/kafka-topics.sh --list --zookeeper master:2181,slave1:2181,slave2:2181 4. 测试kafka 4.1. 模拟发送数据 /opt/kafka/kafka1.0.0/bin/kafka-console-producer.sh --broker-list slave1:9092,slave2:9092 --topic chenjian 4.2. 消费数据 kafka-console-consumer.sh --zookeeper master:2181,slave1:2181,slave2:2181 --from-beginning --topic chenjian 在模拟发送数据窗口输入,就会看到在消费端有相应的数据。 springboot集成kafka可以参看哥哥以前的文章建哥手把手系列之springboot整合kafka 耐得住寂寞,才能守得住繁华! |
|