您的位置 首页 大数据

用户画像项目运行步骤

 

项目Web模块构建  python 版  :   连接

画像项目Web模块构建 java版 : 连接

 

画像项目拆分之mysql :  连接

先制作一个  jdk 的镜像, 后期的 组件都会在 这个jdk 镜像基础之上创建。

docker 创建基于 centos7的 jdk8的镜像  :连接 

docker制作zookeeper镜像  : 连接

画像项目拆分之 springboot  : 连接

画像项目拆分之 es :  连接

画像项目拆分之 hadoop :  连接

画像项目拆分之 Hive :  连接

 

 


 

用户画像项目运行步骤

 

之后选择Move移动虚拟机而不是Cpoy复制,因为Move移动虚拟机不会改变IP地址段

添加下面的映射

C:\Windows\System32\drivers\etc\hosts
192.168.88.166 up01

虚拟机启动

  • 一键启动脚本,方便启动服务

一键启动脚本位置:/root/up.sh
启动命令:./up.sh start启动  
停止命令:./up.sh stop停止

 

启动up01.sh start

 

启动ES的组件,因为ES不仅仅ODS层业务数据存储,ES还承接画像结果数据写入

 

同时MySQL提供了标签体系数据

 

 

### hadoop服务启动命令 ###
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver

# web ui页面
http://up01:9870/
http://up01:8088/

### hive服务启动命令 ###
nohup /export/server/hive-2.1.0/bin/hive --service metastore & 2>&1 >> /export/server/hive/logs/hive-metastore.log
nohup /export/server/hive-2.1.0/bin/hive --service hiveserver2 & 2>&1 >> /export/server/hive/logs/hive-hiveserver2.log


### zk服务启动命令 ###
zkServer.sh start

### kafka服务启动命令 ###
nohup /export/server/kafka/bin/kafka-server-start.sh /export/server/kafka/config/server.properties &

### spark(yarn模式)服务启动命令 ###
/export/server/spark/sbin/start-history-server.sh
http://up01:18080/

SPARK_HOME=/export/server/spark
${SPARK_HOME}/bin/spark-submit \
--master yarn \
--conf "spark.pyspark.driver.python=/root/anaconda3/bin/python3" \
--conf "spark.pyspark.python=/root/anaconda3/bin/python3" \
${SPARK_HOME}/examples/src/main/python/pi.py \
10

### es服务启动命令 ###
su es
elasticsearch -d
#---------------------------------------------------------------------------------------------

 

欢迎来撩 : 汇总all

白眉大叔

关于白眉大叔linux云计算: 白眉大叔

热门文章