计算机毕业设计Python+Flask电商商品推荐系统 商品评论情感分析 商品可视化 商品爬虫 京东爬虫 淘宝爬虫 机器学习 深度学习 人工智能 知识图谱

一、选题背景与意义

1.国内外研究现状

国外研究现状:

  • 亚马逊(Amazon):作为全球最大的电商平台之一,亚马逊在数据挖掘和大数据方面具有丰富的经验。他们利用Spark等大数据技术,构建了一套完善的电商数据挖掘系统,通过对用户行为、商品销售等数据的分析,实现了个性化推荐、精准营销等功能。
  • eBay:eBay也是一个在数据挖掘领域有所建树的电商平台。他们利用Spark等大数据技术,构建了一套强大的数据挖掘系统,通过分析用户购物行为、交易数据等,实现了对市场趋势的预测和用户行为的理解,并据此进行产品推荐和定价策略的优化。

国内研究现状:

  • 阿里巴巴:作为中国最大的电商集团,阿里巴巴在大数据和数据挖掘方面有着丰富的经验。他们基于Spark等技术,构建了一系列针对电商数据挖掘的解决方案,包括用户画像、商品推荐、营销分析等,为电商企业提供了全方位的数据挖掘支持。
  • 腾讯:腾讯也在电商数据挖掘领域有着自己的研究和实践。他们利用Spark等技术,构建了一套针对电商数据的挖掘系统,通过对用户行为、社交数据等的分析,实现了个性化推荐、社交化营销等功能。

综上所述,国内外在基于Spark的电商数据挖掘系统设计与实现方面都有着丰富的研究和实践经验。这些实例表明,利用Spark等大数据技术构建电商数据挖掘系统,可以为电商企业提供个性化推荐、精准营销、决策支持等方面的重要帮助,具有广阔的应用前景和市场潜力。

2.选题的目的及意义

  •  提高电商企业竞争力:通过构建基于Spark的数据挖掘系统,可以对电商平台上的用户行为、商品销售、营销活动等数据进行全面的分析和挖掘。这样的系统可以帮助企业更好地了解用户需求、产品趋势和市场竞争态势,进而优化商品推荐、精准营销等策略,提高企业的竞争力。
  • 实现智能化决策支持:通过对电商数据的深度挖掘和分析,可以得到更全面、准确的数据结果。在基于Spark的系统中,可以使用分布式计算和并行处理的优势,加快数据处理速度,实现实时决策支持。这对于电商企业来说非常重要,可以帮助企业快速反应市场变化,调整经营策略,提高决策效率。
  • 推动电商行业发展:随着电商行业的快速发展,数据挖掘技术在电商领域的应用也日益重要。通过设计和实现基于Spark的电商数据挖掘系统,可以为电商行业提供一种可行的解决方案,并促进相关技术的发展和成熟。同时,该系统还可为其他领域的数据挖掘应用提供借鉴和参考,推动整个数据挖掘领域的发展。

二、研究内容与目标

具体研究内容

  • 数据采集与清洗:设计有效的数据采集策略,从电商平台获取用户行为数据、商品销售数据、交易数据等多维度数据。对采集到的原始数据进行清洗和预处理,去除重复数据、异常数据和缺失数据,确保数据的准确性和完整性。
  • 数据存储与管理:选择合适的大数据存储技术,如Hadoop HDFS或者Apache Cassandra等,搭建可扩展的数据存储系统。同时,利用Spark的数据处理能力,对数据进行分区、分片和索引,提高数据的读写效率和查询性能。
  • 数据挖掘算法选择与应用:根据电商业务需求,选择适合的数据挖掘算法,如关联规则挖掘、聚类分析、分类算法、推荐系统等。基于Spark的机器学习库(如MLlib)或者深度学习框架(如TensorFlow、PyTorch),实现这些算法并应用于电商数据中。
  • 用户画像与个性化推荐:通过分析用户行为数据,构建用户画像模型,了解用户的兴趣、购买习惯和需求。基于用户画像和商品特征,设计个性化推荐算法,为用户提供精准的商品推荐服务。
  • 营销策略分析与优化:通过分析电商数据,了解用户参与活动的偏好、购买决策的因素等。针对不同的用户群体,设计营销策略,如优惠券发放、促销活动等,并通过实验和模型评估,优化营销策略的效果和ROI。
  • 实时数据处理与监控:利用Spark Streaming技术,实现对实时数据的处理和分析。通过监控用户行为、交易数据等,及时发现异常情况和趋势变化,提醒相关部门采取相应的措施。
  • 可视化与决策支持:基于Spark的数据可视化工具(如Apache Zeppelin或Tableau),将数据分析结果以图表、报表等形式展示出来,帮助企业管理层和决策者理解数据,并基于数据分析结果做出决策。

预期研究结果

  • 数据挖掘系统的构建:通过使用Spark等大数据处理框架,构建一套适用于电商数据的挖掘系统。该系统应能够支持海量数据处理、分布式计算、实时数据分析等功能,并提供友好的用户界面和高效的数据可视化。
  • 数据挖掘算法的实现:对电商数据进行深入分析和挖掘,实现对用户行为、商品销售、营销活动等方面的全面监控和分析。采用机器学习、深度学习等算法,对用户画像、商品推荐、营销策略等方面进行优化,提高电商企业的竞争力和市场份额。
  • 智能化决策支持:通过对电商数据的全面分析和挖掘,实现对市场趋势、用户需求等方面的精准预测和分析,并据此提供智能化决策支持。该支持应具备实时性、准确性和可靠性,帮助电商企业快速反应市场变化,调整经营策略。
  • 应用示范和推广:将设计和实现的电商数据挖掘系统应用于实际电商企业中,验证其有效性和实用性。同时,通过论文发表、技术报告等形式,推广该系统的应用和实践,促进电商数据挖掘领域的发展和成熟。

三、研究方法与手段

1.DrissionPage自动化爬虫框架采集天猫历史开源订单数据约1万亿条存入mysql数据库、.csv文件作为数据集(或使用开源数据集10TB大小);

2.使用pandas+numpy或MapReduce对数据进行数据清洗,生成最终的.csv文件并上传到hdfs(含nlp情感分析);

3.使用hive数仓技术建表建库,导入.csv数据集;

4.离线分析采用hive_sql完成,实时分析利用Spark之Scala完成;

5.统计指标使用sqoop导入mysql数据库;

6.使用flask+echarts进行可视化大屏开发;

7.使用CNN、KNN卷积神经网络、TensorFlow、PyTorch、线性回归算法进行订单量预测;

四、参考文献

[1]田啸.大数据环境下计算机应用技术研究[J.]电脑知识与技术2022(14):246-247.

[2]侯聪聪.计算机软件技术在大数据时代的应用[J].电脑知识与技术2023(14):240-241.北京:清华大学出版社,2016.335-340

[3]于知言.计算机应用技术在大数据时代的运用前景研究[J].知识文库2021(15):107.

[4]李超科.计算机大数据分析及云计算网络技术发展探究[J].计算机产品与流通2020(11):12

[5]吴晓玲,邱珍珍.基于云存储架构的分布式大数据安全容错存储算法[J].中国电子科学研究院学报2022,13(6):720-724.

[6]张若愚.Python 科学计算[M].北京:清华大学出版社.2022

[7]RobertCimman,Eduart Rohan-Multiscale finite element calculations in Python using SfePy.-2022.vol.45

[8]Linwei He,Matthew Gibert-A Python script for adaptive layout optimization of trusses. -2022.vol.69

[9]Elservierjournal-Python programming on win64.-2022.6.2

[10]王磊. 对Mysql数据库的访问方法的研究[J]. 网络安全技术与应用,2021,(04):138-139.

[11]丛宏斌,魏秀菊,王柳,朱明,曾勰婷,刘丽英. 利用PYTHON解析网络上传数据[J]. 中国科技期刊研究,2023,24(04):736-739.

[12]卫启哲. 试论动态开发语言Python研究[J]. 电脑编程技巧与维护,2022,(14):23-24.

[13]陈威,韦佳,张洁. 海量地震数据移动存储设备的现状分析[J]. 物探装备,2023,23(05):291-293+299.

[14]许沫. 生活模块仪表详细设计浅析[J]. 内蒙古石油化工,2021,39(14):79-80.

[15]范晶. 模拟上行系统测试平台介绍[J]. 中国新技术新产品,2021,(01):31-32.

核心算法代码分析如下:

# -*- coding: utf-8 -*-
from selenium.webdriver import Chrome  # 导⼊⾕歌浏览器的类
# from selenium.webdriver.chrome.options import Options
import time
import re
import pymysql
from selenium.webdriver.chrome.options import Options
from selenium import webdriver
import time
import csv
import os
import requests
import random

## 创建浏览器所带的参数
options = Options()
options.add_argument('--incognito')
options.add_experimental_option('excludeSwitches', ['enable-automation'])
web = webdriver.Chrome(executable_path=r'D:\JD_Rec2024\web\liping\chromedriver.exe',
                       options=options)


def getpinpai(url):
    web.get(url)
    ## 睡一会,等资源加载完毕
    #time.sleep(60)
    yzm = input('手动登录然后点击开始爬取数据:')
    list = web.find_elements_by_xpath('.//ul[@class="J_valueList v-fixed"]/li')
    brand_names = []
    for li in list:
        brand_name = li.find_element_by_xpath(".//a").text
        if len(brand_name) > 0:
            brand_names.append(brand_name)
            print(brand_name)
        else:
            break
    print(len(brand_names))
    return brand_names


def getdata(url, pinpai):
    web.get(url)
    # time.sleep(3)
    time.sleep(random.randint(2, 5))
    # rows = []
    list = web.find_elements_by_xpath('//*[@id="J_goodsList"]/ul/li')
    for li in list:
        # title=i.xpath('.//div[@class="p-name p-name-type-2"]/a/em/text()')
        title = li.find_element_by_xpath('.//div[@class="p-name p-name-type-2"]/a/em').text
        # price = i.xpath('.//div[@class="p-price"]/strong/i/text()')[0]
        price = li.find_element_by_xpath('.//div[@class="p-price"]/strong/i').text
        # product_id = i.xpath('.//div[@class="p-commit"]/strong/a/@id')[0].replace("J_comment_","")
        product_id_ = li.find_element_by_xpath('.//div[@class="p-commit"]/strong/a')
        product_id = product_id_.get_attribute('id').replace("J_comment_", "")
        try:
            # shop = i.xpath('.//div[@class="p-shop"]/span/a/text()')[0]
            shop = li.find_element_by_xpath('.//div[@class="p-shop"]/span/a').text
        except:
            shop = ''
        title = ' '.join(title)
        # print("title"+str(title))
        # print("price="+str(price))
        # print("product_id="+str(product_id))
        # print("shop="+str(shop))
        # print("-----")
        print(product_id, title.replace('\n', ''), price, shop, pinpai)
        # rows.append([product_id,title.replace('\n',''),price,shop,pinpai])
        #价格,标题,链接,店铺名称,品牌,型号,好评数,差评数,销售总数,类型1,类型2

        jiage=price
        biaoti=title
        lianjie='https://item.jd.com/'+product_id+'.html'
        dianpumingcheng=shop
        #pinpia
        xinghao=pinpai

        pid=product_id
        
        '''抓评论'''
        comment_url = "XXXXX"
        if pid == '商品id':
            return
        else:
            comment_url = comment_url + pid
        print('评论API地址', comment_url)
        comment_r = requests.get(comment_url, headers=kv)
        p_comment = []
        # for comment in comment_r.json()["CommentsCount"]:
        #     p_comment.append([comment['ProductId'], comment["CommentCountStr"], comment["AverageScore"],
        #                       comment["GoodCountStr"], comment["DefaultGoodCountStr"],
        #                       comment["GoodRate"], comment["AfterCountStr"], comment["VideoCountStr"],
        #                       comment["PoorCountStr"], comment["GeneralCountStr"]])

        #好评数,差评数,销售总数,类型1,类型2
        haopingshu=comment_r.json()["CommentsCount"][0]['GoodCountStr'].replace('+','')
        chapingshu=comment_r.json()["CommentsCount"][0]['PoorCountStr'].replace('+','')
        xiaoshouzongshu=comment_r.json()["CommentsCount"][0]['CommentCountStr'].replace('+','')
        leixing1=pinpai
        leixing2=pinpai
        #价格, 标题, 链接, 店铺名称, 品牌, 型号, 好评数, 差评数, 销售总数, 类型1, 类型2
        print(jiage,biaoti,lianjie,dianpumingcheng,pinpai,xinghao,haopingshu,chapingshu,xiaoshouzongshu,leixing1,leixing2)
        with open('result.csv', mode='a', encoding='utf-8', newline='') as f1:
           writer = csv.writer(f1)
           writer.writerow([jiage,biaoti,lianjie,dianpumingcheng,pinpai,xinghao,haopingshu,chapingshu,xiaoshouzongshu,leixing1,leixing2])


    # return rows


# def savedata(data):
#     if os.path.exists('result.csv'):
#         with open('result.csv', mode='a+', encoding='utf-8', newline='') as f:
#             wirter = csv.writer(f)
#             wirter.writerow(data)
#     else:
#         with open('result.csv', mode='a+', encoding='utf-8', newline='') as f:
#             wirter = csv.writer(f)
#             wirter.writerow(['商品id', '标题', '价格', '店铺', '品牌'])
#             wirter.writerow(data)


# def getcommit(pid):

#         # cookie信息每个人都不同,需登录到京东网站,通过浏览器查看cookie信息
#     }
#     '''抓评论'''
#     comment_url = "xxxx"
#     if pid == '商品id':
#         return
#     else:
#         comment_url = comment_url + pid
#     print('评论API地址', comment_url)
#     comment_r = requests.get(comment_url, headers=kv)
#     p_comment = []
#     for comment in comment_r.json()["CommentsCount"]:
#         p_comment.append([comment['ProductId'], comment["CommentCountStr"], comment["AverageScore"],
#                           comment["GoodCountStr"], comment["DefaultGoodCountStr"],
#                           comment["GoodRate"], comment["AfterCountStr"], comment["VideoCountStr"],
#                           comment["PoorCountStr"], comment["GeneralCountStr"]])
#         # 总评数,平均得分,好评数,默认好评,好评率,追评数,视频晒单数,差评数,中评数
#     # 将抓取的结果保存到本地CSV文件中
#     with open('result1.csv', mode='a', encoding='utf-8', newline='') as f1:
#
#         writer = csv.writer(f1)
#         writer.writerow(
#             ['商品id', '总评数', '平均得分', '好评数', '默认好评', '好评率', '追评数', '视频晒单数', '差评数',
#              '中评数'])
#         for item in p_comment:
#             print('评价数据', item)
#             writer.writerow(item)


# brandnames =getpinpai('xxxxx')
brandnames = getpinpai(
    'xxxxx')

print(brandnames)
for brandname in brandnames:
    for page in range(1, 3):
        url = 'xxxxxx'
        # print(url.format(keyword=item,page=page))
        url = url.format(keyword=brandname, page=page)
        data = getdata(url, brandname)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/541709.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

CTF之game1

拿到题目,真不错先玩几把。 对比一下不同分数的包,发现 分数不同时不同的包差距在于 score和 sign 对比sign发现 sign是由 zM **** 构成 再拿一个sign去md5解密和base64解码一下发现 sign zM base64(score) 接着便改一下包把分数改成不可能有…

React Hooks 全解: 常用 Hooks 及使用场景详解

React Hooks 是 React 16.8 版本引入的一项重要特性,它极大地简化和优化了函数组件的开发过程。 React 中常用的 10 个 Hooks,包括 useState、useEffect、useContext、useReducer、useCallback、useMemo、useRef、useLayoutEffect、useImperativeHandle 和 useDebugValue。这些…

Linux的内存管理子系统

大家好,今天给大家介绍Linux的内存管理子系统,文章末尾附有分享大家一个资料包,差不多150多G。里面学习内容、面经、项目都比较新也比较全!可进群免费领取。 Linux的内存管理子系统是Linux内核中一个非常重要且复杂的子系统&#…

wangeditor与deaftjs的停止维护,2024编辑器该如何做技术选型(一)

wangeditor暂停维护的声明: wangeditor是国内开发者开发的编辑器,用户也挺多,但是由于作者时间关系,暂停维护。 deaft的弃坑的声明: draft是Facebook开源的,但是也弃坑了,说明设计的时候存在很大…

微服务(基础篇-008-Elasticsearch分布式搜索【上】)

目录 初识elasticsearch(1) 了解ES(1.1) 倒排索引(1.2) es的一些概念(1.3) 安装es、kibana(1.4) ik分词器(1.5) ik分词器的拓展…

抽样调查方法

抽样方法是指从总体中选择一部分样本的方法。在进行统计研究时,往往无法对整个总体进行分析,而只能通过对样本的研究来推断总体的特征。因此,选择合适的抽样方法非常重要,它直接影响到研究结果的准确性和可靠性。抽样方法主要分为…

YOLOv5目标检测优化点(添加小目标头检测)

文章目录 1、前言2、如何计算参数3、YOLOv5小目标改进-13.1、结构文件3.2、结构图3.3、参数对比3.3.1、yolov5l.yaml 解析表3.3.2、 yolov5l-4P.yaml 解析表 4、YOLOv5小目标改进-24.1、结构文件4.2、结构图 5、YOLOv5小目标改进-35.1、结构文件 6、YOLOv5小目标改进-46.1、结构…

KDTree索引(K近邻搜索,半径R内近邻搜索)——PCL

K近邻搜索(K Nearest Neighbors) K近邻搜索是一种基于点数量的搜索方法,它会找到指定点附近最接近的K个邻居点。K近邻搜索中的K值是一个参数,您需要指定要搜索的邻居数量。该方法适用于需要查找固定数量邻居点的情况,…

如何将三方库集成到hap包中——通过IDE集成cmak构建方式的C/C++三方库

简介 cmake构建方式是开源三方库的主流构建方式。DevEco Studio目前以支持cmake的构建方式。本文将通过在IDE上适配cJSON三方库为例讲来解如何在IDE上集成cmake构建方式得三方库。 创建工程 在开发进行三方库适配以及napi接口开发前,我们需要创建一个三方库对应的…

给你的AppImage创建桌面快捷方式

原文链接 https://www.cnblogs.com/HGNET/p/16396589.html 运行环境:Ubuntu 22.04 LTS 1.首先准备好AppImage文件并放在一个你知道的地方 2.打开终端,在/usr/share/applications下新建APP.desktop文件(APP可以改成你的应用名称) cd /usr/s…

如何对图像进行聚类

文章来源:https://medium.com/voxel51/how-to-cluster-images-6e09bdff7361 2024 年 4 月 10 日 使用 FiftyOne、Scikit-learn和特征嵌入 在 2024 年深度学习的计算密集型环境中,集群一词最常出现在讨论 GPU 集群时--高度优化的矩阵乘法机器的大规模集…

谈谈我的软考高级考证之路(系统架构设计师篇)

系统架构设计师备考资料请移步 2023年软考高级系统架构设计师视频教程,推荐下载!获取。 备考总体策略 • 总体策略:刷视频记笔记刷真题 • 备考时间:建议报完名之后,开始备考,大致2-3个月(基础…

最优算法100例之45-不用循环乘法求1-n的和

专栏主页:计算机专业基础知识总结(适用于期末复习考研刷题求职面试)系列文章https://blog.csdn.net/seeker1994/category_12585732.html 题目描述 要求不能使用乘除法、for、while、if、else、switch、case等关键字及条件判断语句。不能用循…

JS - BOM(浏览器对象模型)

BOM 浏览器对象模型 BOM可以使我们通过JS来操作浏览器 在BOM中为我们提供了一组对象,用来完成对浏览器的操作 BOM对象 BOM(Browser Object Model)是指浏览器对象模型,它提供了与浏览器窗口进行交互的对象和方法。BOM包括一些核…

数据库系统概论(超详解!!!)第四节 数据库安全性

问题的提出: 数据库的一大特点是数据可以共享 数据共享必然带来数据库的安全性问题 数据库系统中的数据共享不能是无条件的共享。 1.数据库的安全概述 数据库的安全性是指保护数据库以防止不合法使用所造成的数据泄露、更改或破坏 。 系统安全保护措施是否有效…

Xcode 15.0 新 #Preview 预览让 SwiftUI 界面调试更加悠然自得

概览 从 Xcode 15 开始,苹果推出了新的 #Preview 宏预览机制,它无论从语法还是灵活性上都远远超过之前的预览方式。#Preview 不但可以实时预览 SwiftUI 视图,而且对 UIKit 的界面预览也是信手拈来。 想学习新 #Preview 预览的一些超实用调试…

2024年MathorCup数学建模C题物流网络分拣中心货量预测及人员排班解题文档与程序

2024年第十四届MathorCup高校数学建模挑战赛 C题 物流网络分拣中心货量预测及人员排班 原题再现: 电商物流网络在订单履约中由多个环节组成,图1是一个简化的物流网络示意图。其中,分拣中心作为网络的中间环节,需要将包按照不同流…

无人机巡检技术革命性变革光伏电站运维管理

在中国广袤的大地上,光伏电站如雨后春笋般崛起,晶体硅组件板在阳光下熠熠生辉,为人们带来了源源不断的绿色能源。然而,随着光伏产业的迅猛发展,电站运维管理面临着前所未有的挑战。而无人机巡检技术的引入,…

webpack or vite? vuex or pinia?

2022.2.18, 新建一个vue3的项目,过程如下: 目录结构如下: 当还在犹豫选择webpack还是vite,vuex或者pinia的时候,尤大大已经给出了默认选择,vite && pinia。

算法100例(持续更新)

算法100道经典例子,按算法与数据结构分类 1、祖玛游戏2、找下一个更大的值3、换根树状dp4、一笔画完所有边5、树状数组,数字1e9映射到下标1e56、最长回文子序列7、超级洗衣机,正负值传递次数8、Dijkstra9、背包问题,01背包和完全背…