Python爬虫实战:股票分时数据抓取与存储 (1)

在金融数据分析中,股票分时数据是投资者和分析师的重要资源。它能够帮助我们了解股票在交易日内的价格波动情况,从而为交易决策提供依据。然而,获取这些数据往往需要借助专业的金融数据平台,其成本较高。幸运的是,通过Python爬虫技术,我们可以低成本地抓取股票分时数据,并将其存储以便后续分析。本文将详细介绍如何使用Python实现股票分时数据的抓取与存储,同时结合代理服务器确保爬虫的稳定性和安全性。

一、技术选型与环境搭建

在开始之前,我们需要明确技术选型和环境搭建。Python作为一门强大的编程语言,拥有丰富的库支持,非常适合用于爬虫开发。以下是主要的技术选型:

  1. Python版本:推荐使用Python 3.9及以上版本,以确保兼容性和性能。
  2. 爬虫框架:虽然可以使用Scrapy等成熟框架,但为了保持代码简洁,本文将使用requests库进行HTTP请求和BeautifulSoup库进行HTML解析。
  3. 数据存储:分时数据量较大,适合存储到数据库中。本文将使用SQLite作为轻量级数据库,便于本地存储和查询。
  4. 代理服务器:为了提高爬虫的稳定性和安全性,我们将使用代理服务器。代理服务器可以帮助我们隐藏真实IP地址,避免被目标网站封禁。
  5. 其他库:pandas用于数据处理,timedatetime用于时间处理。

二、代理服务器的配置

在爬虫开发中,代理服务器是不可或缺的工具。它可以隐藏爬虫的真实IP地址,避免因频繁访问被目标网站封禁。本文使用的代理服务器信息如下:

  • 代理主机:www.16yun.cn
  • 代理端口:5445
  • 代理用户名:16QMSOML
  • 代理密码:280651

为了在requests中使用代理服务器,我们需要配置代理参数。以下是代理配置的代码示例:

Python复制

import requests
from requests.auth import HTTPProxyAuth

proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"

proxies = {
    "http": f"http://{proxyHost}:{proxyPort}",
    "https": f"http://{proxyHost}:{proxyPort}"
}
auth = HTTPProxyAuth(proxyUser, proxyPass)

在后续的HTTP请求中,我们将通过proxiesauth参数将请求发送到代理服务器。

三、股票分时数据的抓取

股票分时数据通常可以通过股票交易平台的API或网页源码获取。以某知名股票交易平台为例,其分时数据可以通过访问特定的URL获取。以下是抓取过程的详细步骤:

1. 分析目标网站

通过浏览器开发者工具(F12)查看分时数据的请求URL和返回格式。假设目标网站的分时数据请求URL为:

https://example.com/stock/tick?code={股票代码}&date={日期}

返回的数据格式为JSON,包含时间、价格、成交量等字段。

2. 编写爬虫代码

以下是使用requestsBeautifulSoup实现的分时数据爬取代码:

Python复制

import requests
import json
import pandas as pd
from datetime import datetime, timedelta
from requests.auth import HTTPProxyAuth

# 代理服务器配置
proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"

proxies = {
    "http": f"http://{proxyHost}:{proxyPort}",
    "https": f"http://{proxyHost}:{proxyPort}"
}
auth = HTTPProxyAuth(proxyUser, proxyPass)

def fetch_tick_data(stock_code, date):
    """
    抓取指定股票代码的分时数据
    :param stock_code: 股票代码,如"000001"
    :param date: 日期,格式为"YYYY-MM-DD"
    :return: 分时数据的DataFrame
    """
    url = f"https://example.com/stock/tick?code={stock_code}&date={date}"
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
    }
    
    try:
 response        = requests.get(url, headers=headers, proxies=proxies, auth=auth)
        if response.status_code == 200:
            data = json.loads(response.text)
            # 将数据转换为DataFrame
            df = pd.DataFrame(data["ticks"])
            df["date"] = date
            df["time"] = pd.to_datetime(df["time"], format="%H:%M:%S")
            df.set_index("time", inplace=True)
            return df
        else:
            print(f"Failed to fetch data for {stock_code} on {date}. Status code: {response.status_code}")
            return None
    except Exception as e:
        print(f"Error occurred while fetching data for {stock_code} on {date}: {e}")
        return None

3. 数据抓取示例

假设我们要抓取股票代码为“000001”的分时数据,日期为“2024-10-10”,可以调用上述函数:

Python复制

if __name__ == "__main__":
    stock_code = "000001"
    date = "2024-10-10"
    tick_data = fetch_tick_data(stock_code, date)
    if tick_data is not None:
        print(tick_data.head())

运行代码后,tick_data将包含分时数据,如下所示:

price  volume  date
time                                           
2024-10-10 09:30:00  12.50   10000  2024-10-10
2024-10-10 09:31:00  12.52   15000  2024-10-10
2024-10-10 09:32:00  12.55   20000  2024-10-10
...

四、数据存储到SQLite数据库

抓取到的分时数据需要存储以便后续分析。SQLite是一个轻量级的数据库,适合本地存储。以下是将分时数据存储到SQLite数据库的代码实现:

1. 创建数据库和表

首先,我们需要创建一个SQLite数据库,并定义一个表来存储分时数据:

Python复制

import sqlite3

def create_database():
    """
    创建SQLite数据库和分时数据表
    """
    conn = sqlite3.connect("stock_tick_data.db")
    cursor = conn.cursor()
    cursor.execute("""
        CREATE TABLE IF NOT EXISTS tick_data (
            id INTEGER PRIMARY KEY AUTOINCREMENT,
            stock_code TEXT,
            date TEXT,
            time TEXT,
            price REAL,
            volume INTEGER
        )
    """)
    conn.commit()
    conn.close()

2. 存储数据到数据库

将抓取到的分时数据存储到数据库中:

Python复制

def save_to_database(df, stock_code):
    """
    将分时数据存储到SQLite数据库
    :param df: 分时数据的DataFrame
    :param stock_code: 股票代码
    """
 conn    = sqlite3.connect("stock_tick_data.db")
    cursor = conn.cursor()
    
    for _, row in df.iterrows():
        cursor.execute("""
            INSERT INTO tick_data (stock_code, date, time, price, volume)
            VALUES (?, ?, ?, ?, ?)
        """, (stock_code, row["date"], row.name.strftime("%H:%M:%S"), row["price"], row["volume"]))
    
    conn.commit()
    conn.close()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/971746.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

通过BingAPI爬取Bing半个月内壁纸

通过BingAPI爬取Bing半个月内壁纸 一、前言二、爬虫代码三、代码说明 一、前言 爬取Bing搜索网站首页壁纸的方式主要有两种,第一种为间接爬取,即并不直接对Bing网站发起请求,而是对那些收集汇总了Bing壁纸的网站发起请求,爬取图片…

matlab汽车动力学半车垂向振动模型

1、内容简介 matlab141-半车垂向振动模型 可以交流、咨询、答疑 2、内容说明 略 3、仿真分析 略 4、参考论文 略

在Ubuntu24.04上安装Stable-Diffusion1.10.1版本

之前曾介绍过在Ubuntu22.04上安装Stable-Diffusion: 在Ubuntu22.04上部署Stable Diffusion_ubuntu stable dif-CSDN博客 这个安装我们使用conda python虚拟机。这次我们介绍的是在Ubuntu24.04安装Stable-Diffusion的最新版本V1.10.1(截止到今天最新版&…

功能测试与接口测试详解

🍅 点击文末小卡片,免费获取软件测试全套资料,资料在手,涨薪更快 本文主要分为两个部分: 第一部分:主要从问题出发,引入接口测试的相关内容并与前端测试进行简单对比,总结两者之前的…

IDEA集成DeepSeek

使用版本: IDEA 2024.3,Python3.11 通过CodeGPT插件安装: 1. 安装Python环境,安装完成后python --version验证是否成功 2. DeepSeek官网获取API Key 3. IDEA中安装CodeGPT插件 文件->设置->插件,搜"CodeGPT" …

DeepSeek笔记(二):DeepSeek局域网访问

如果有多台电脑,可以通过远程访问,实现在局域网环境下多台电脑共享使用DeepSeek模型。在本笔记中,首先介绍设置局域网多台电脑访问DeepSeek-R1模型。 一、启动Ollama局域网访问 1.配置环境变量 此处本人的操作系统是Windows11,…

计算机视觉-OpenCV图像处理

1.Matplotlib数据可视化(绘制图像直方图、可视化矩阵) # Matplotlib 数据可视化(绘制图像直方图、可视化矩阵) # 本节主要讲解如何使用 Matplotlib 绘制图像直方图和可视化矩阵。 # 1. 绘制图像直方图 # 2. 可视化矩阵# 1. 绘制图…

golangAPI调用deepseek

目录 1.deepseek官方API调用文档1.访问格式2.curl组装 2.go代码1. config 配置2.模型相关3.错误处理4.deepseekAPI接口实现5. 调用使用 3.响应实例 1.deepseek官方API调用文档 1.访问格式 现在我们来解析这个curl 2.curl组装 // 这是请求头要加的参数-H "Content-Type:…

闭源大语言模型的怎么增强:提示工程 检索增强生成 智能体

闭源大语言模型的怎么增强 提示工程 检索增强生成 智能体 核心原理 提示工程:通过设计和优化提示词,引导大语言模型进行上下文学习和分解式思考,激发模型自身的思维和推理能力,使模型更好地理解和生成文本,增强其泛用性和解决问题的能力。检索增强生成:结合检索的准确…

《计算机视觉》——角点检测和特征提取sift

角点检测 角点的定义: 从直观上理解,角点是图像中两条或多条边缘的交点,在图像中表现为局部区域内的灰度变化较为剧烈的点。在数学和计算机视觉中,角点可以被定义为在两个或多个方向上具有显著变化的点。比如在一幅建筑物的图像…

具身智能在智能巡检机器人中的应用——以开关柜带电操作机器人为例

随着机器人技术和人工智能的迅速发展,具身智能在各行业的应用日益广泛,尤其是在电力行业中的智能巡检领域。传统的电力巡检和维护工作通常需要人工操作,存在着高温、高压、强电磁场等危险环境,且效率较低。开关柜带电操作机器人作…

基于SpringBoot实现的大学社团平台系统实现功能八

一、前言介绍: 1.1 项目摘要 随着高校社团活动的日益丰富和多样化,学生对于社团管理和参与的需求也在不断增加。传统的社团管理方式往往存在效率低下、信息不透明等问题,无法满足现代学生对于便捷、高效社团管理的需求。因此,利…

Unity使用反射进行Protobuf(CS/SC)协议,json格式

protobuf生成的协议,有挺多协议的.利用反射生成dto进行伪协议的响应 和 发送请求 应用场景: 请求(CS)_后端先写完了(有proto接口了),前端还没搞完时(暂还没接入proto),后端可使用此请求,可自测 响应(SC)_可自行构建一个响应(有些特殊数据后端下发不了的),对数据进行测试 // 请…

使用synchronized解决高并发场景

synchronized能很好的解决高并发所带来的超卖等问题,但是synchronized也有属于它的缺陷,就是只适合单机模式,如果同时开启多个实例,那么还是会出现超卖的情况,下面就介绍一下synchronized使用方法,十分的简…

【Pytorch 库】自定义数据集相关的类

torch.utils.data.Dataset 类torch.utils.data.DataLoader 类自定义数据集示例1. 自定义 Dataset 类2. 在其他 .py 文件中引用和使用该自定义 Dataset torch_geometric.data.Dataset 类torch_geometric.data.Dataset VS torch.utils.data.Dataset 详细信息,参阅 tor…

Softing线上研讨会 | 自研还是购买——用于自动化产品的工业以太网

| 线上研讨会时间:2025年1月27日 16:00~16:30 / 23:00~23:30 基于以太网的通信在工业自动化网络中的重要性日益增加。设备制造商正面临着一大挑战——如何快速、有效且经济地将工业以太网协议集成到其产品中。其中的关键问题包括:是否只需集成单一的工…

Wireshark 输出 数据包列表本身的值

在 Wireshark 中,如果你想输出数据包列表本身的值(例如,将数据包的摘要信息、时间戳、源地址、目的地址等导出为文本格式),可以使用 导出为纯文本文件 的功能。以下是详细步骤: 步骤 1:打开 Wir…

解压rar格式的软件有哪些?8种方法(Win/Mac/手机/网页端)

RAR 文件是一种常见的压缩文件格式,由尤金・罗谢尔(Eugene Roshal)开发,因其扩展名 “rar” 而得名。它通过特定算法将一个或多个文件、文件夹进行压缩,大幅减小存储空间,方便数据传输与备份。然而&#xf…

java实现不带哨兵节点的双向链表(二)

概述 todo 扩展:实现链表节点的删除(根据索引删除节点、删除第一个元素)、添加的元素为数组最后一个元素(addLast)等 实现上一篇博客中提到的 根据索引删除节点。删除第一个元素。添加的元素为数组最后一个元素。 根…

AcWing 798. 差分矩阵

题目来源: 找不到页面 - AcWing 题目内容: 输入一个 n 行 m 列的整数矩阵,再输入 q 个操作,每个操作包含五个整数 x1,y1,x2,y2,c,其中 (x1,y1) 和 (x2,y2)表示一个子矩阵的左上角坐标和右下角坐标。 每个操作都要将…