基于spark的超市商品數(shù)據(jù)分析可視化系統(tǒng)

可視化效果視頻

項(xiàng)目概況

[????????????????]
點(diǎn)這里,查看所有項(xiàng)目
[????????????????]

數(shù)據(jù)類型

超市商品銷售數(shù)據(jù)

開發(fā)環(huán)境

centos7

軟件版本

python3.8.18、hadoop3.2.0、spark3.1.2、mysql5.7.38、scala2.12.18、jdk8

開發(fā)語(yǔ)言

python、Scala

開發(fā)流程

數(shù)據(jù)上傳(hdfs)->數(shù)據(jù)清洗(spark)->數(shù)據(jù)分析(spark)->數(shù)據(jù)存儲(chǔ)(mysql)->后端(flask)->前端(html+js+css)

可視化圖表

2025-05-13_221901.png
2025-05-13_221908.png
2025-05-13_230822.png
2025-05-13_230828.png
2025-05-13_230836.png
2025-05-13_230843.png
2025-05-13_230849.png
2025-05-13_230855.png
2025-05-13_230901.png
2025-05-13_230908.png
2025-05-13_230915.png

操作步驟

python安裝包


pip3 install pandas==2.0.3 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install flask==3.0.0 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install flask-cors==4.0.1 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install pymysql==1.1.0 -i https://mirrors.aliyun.com/pypi/simple/

啟動(dòng)MySQL


# 查看mysql是否啟動(dòng) 啟動(dòng)命令: systemctl start mysqld.service
systemctl status mysqld.service
# 進(jìn)入mysql終端
# MySQL的用戶名:root 密碼:123456
# MySQL的用戶名:root 密碼:123456
# MySQL的用戶名:root 密碼:123456
mysql -uroot -p123456

啟動(dòng)Hadoop


# 離開安全模式: hdfs dfsadmin -safemode leave
# 啟動(dòng)hadoop
bash /export/software/hadoop-3.2.0/sbin/start-hadoop.sh

準(zhǔn)備目錄


mkdir -p /data/jobs/project/
cd /data/jobs/project/

# 上傳 "project-spark-market-data-analysis" 整個(gè)文件夾

上傳文件到hdfs


cd /data/jobs/project/project-spark-market-data-analysis/

hdfs dfs -mkdir -p /data/input/
hdfs dfs -rm -r /data/input/*
hdfs dfs -put -f data/market_sale_order.csv /data/input/
hdfs dfs -put -f data/market_sale_persons.csv /data/input/
hdfs dfs -put -f data/market_sale_return.csv /data/input/
hdfs dfs -ls /data/input/

程序打包


cd /data/jobs/project/project-spark-market-data-analysis/
mvn clean package -Dmaven.test.skip=true

cp target/project-spark-market-data-analysis-jar-with-dependencies.jar /data/jobs/project/

創(chuàng)建MySQL表


cd /data/jobs/project/project-spark-market-data-analysis/

# 請(qǐng)確認(rèn)mysql服務(wù)已經(jīng)啟動(dòng)了
# 快速執(zhí)行.sql文件內(nèi)的sql語(yǔ)句
mysql -u root -p < mysql/mysql.sql

spark數(shù)據(jù)清洗


cd /data/jobs/project/

spark-submit \
--master local[*] \
--class org.example.demo.SparkClean \
/data/jobs/project/project-spark-market-data-analysis-jar-with-dependencies.jar /data/input/market_sale_order.csv /data/input/market_sale_return.csv /data/input/market_sale_persons.csv /data/output/

spark數(shù)據(jù)分析


cd /data/jobs/project/

spark-submit \
--master local[*] \
--class org.example.demo.SparkAnalysis \
/data/jobs/project/project-spark-market-data-analysis-jar-with-dependencies.jar /data/output/

啟動(dòng)可視化


yes | cp -r /data/jobs/project/project-spark-market-data-analysis/可視化 /data/jobs/project/myapp
cd /data/jobs/project/myapp/

# windows本地運(yùn)行: python3 app.py 
python3 app.py pro

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容