基于spark的超市商品數(shù)據(jù)分析及價格預(yù)測可視化系統(tǒng)

可視化效果視頻

項目概況

[????????????????]
點這里,查看所有項目
[????????????????]

數(shù)據(jù)類型

超市商品銷售數(shù)據(jù)

開發(fā)環(huán)境

centos7

軟件版本

python3.8.18、hadoop3.2.0、spark3.1.2、mysql5.7.38、scala2.12.18、jdk8

開發(fā)語言

python、Scala

開發(fā)流程

數(shù)據(jù)上傳(hdfs)->數(shù)據(jù)清洗(spark)->數(shù)據(jù)分析(spark)->數(shù)據(jù)存儲(mysql)->價格預(yù)測(sklearn)->后端(flask)->前端(html+js+css)

可視化圖表

2025-05-13_221901.png
2025-05-13_221908.png
2025-05-13_221923.png
2025-05-13_221931.png
2025-05-13_221939.png
2025-05-13_221945.png
2025-05-13_221954.png
2025-05-13_222001.png
2025-05-13_222008.png
2025-05-13_222015.png
2025-05-13_222024.png
2025-05-13_222031.png

操作步驟

python安裝包


pip3 install pandas==2.0.3 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install flask==3.0.0 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install flask-cors==4.0.1 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install pymysql==1.1.0 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install lightgbm==3.3.2 --no-deps --ignore-installed -i https://mirrors.aliyun.com/pypi/simple/
pip3 install scipy==1.10.1 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install scikit-learn==1.3.2 -i https://mirrors.aliyun.com/pypi/simple/
pip3 install wheel==0.45.1 -i https://mirrors.aliyun.com/pypi/simple/

啟動MySQL


# 查看mysql是否啟動 啟動命令: systemctl start mysqld.service
systemctl status mysqld.service
# 進入mysql終端
# MySQL的用戶名:root 密碼:123456
# MySQL的用戶名:root 密碼:123456
# MySQL的用戶名:root 密碼:123456
mysql -uroot -p123456

啟動Hadoop


# 離開安全模式: hdfs dfsadmin -safemode leave
# 啟動hadoop
bash /export/software/hadoop-3.2.0/sbin/start-hadoop.sh

準備目錄


mkdir -p /data/jobs/project/
cd /data/jobs/project/

# 上傳 "project-spark-market-data-analysis" 整個文件夾

上傳文件到hdfs


cd /data/jobs/project/project-spark-market-data-analysis/

hdfs dfs -mkdir -p /data/input/
hdfs dfs -rm -r /data/input/*
hdfs dfs -put -f data/market_sale_order.csv /data/input/
hdfs dfs -put -f data/market_sale_persons.csv /data/input/
hdfs dfs -put -f data/market_sale_return.csv /data/input/
hdfs dfs -ls /data/input/

程序打包


cd /data/jobs/project/project-spark-market-data-analysis/
mvn clean package -Dmaven.test.skip=true

cp target/project-spark-market-data-analysis-jar-with-dependencies.jar /data/jobs/project/

創(chuàng)建MySQL表


cd /data/jobs/project/project-spark-market-data-analysis/

# 請確認mysql服務(wù)已經(jīng)啟動了
# 快速執(zhí)行.sql文件內(nèi)的sql語句
mysql -u root -p < mysql/mysql.sql

spark數(shù)據(jù)清洗


cd /data/jobs/project/

spark-submit \
--master local[*] \
--class org.example.demo.SparkClean \
/data/jobs/project/project-spark-market-data-analysis-jar-with-dependencies.jar /data/input/market_sale_order.csv /data/input/market_sale_return.csv /data/input/market_sale_persons.csv /data/output/

spark數(shù)據(jù)分析


cd /data/jobs/project/

spark-submit \
--master local[*] \
--class org.example.demo.SparkAnalysis \
/data/jobs/project/project-spark-market-data-analysis-jar-with-dependencies.jar /data/output/

sklearn價格預(yù)測


cd /data/jobs/project/project-spark-market-data-analysis/

python3 predict_sale.py

啟動可視化


yes | cp -r /data/jobs/project/project-spark-market-data-analysis/可視化 /data/jobs/project/myapp
cd /data/jobs/project/myapp/

# windows本地運行: python3 app.py 
python3 app.py pro

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容