动手学机器学习15 实战kaggle比赛

动手学机器学习15 实战kaggle比赛

  • 1. 实战kaggle比赛:预测房价
    • 代码
    • 结果
  • 2. 课程竞赛:加州2020年房价预测
  • 3. QA
  • 4. 用到的代码
    • 1. hashlib.sha1()
    • 2. sha1.update(data)
    • 3. train_data.iloc
    • 4. fillna(0)
    • 5. pd.get_dummies()
    • 6. nn.MSELoss()
    • 7. torch.clamp() torch.sqrt()
    • 8. 模型训练的代码逻辑
    • 9. assert用法
    • 10. 类型转换报错
    • 11. 判断训练数据特征值是否是字符串类型
    • 12. 训练数据特征值做标准化
    • 13. 报错 rnumpy.core._exceptions._ArrayMemoryError: Unable to allocate 76.4 GiB for an array with shape (216160, 47439) and data type object
    • 14. 根据列名选取数据

1. 实战kaggle比赛:预测房价

代码

import hashlib
import os
import tarfile
import zipfile
import requests

DATA_HUB = dict()
DATA_URL = 'http://d2l-data.s3-accelerate.amazonaws.com/'
def download(name, cache_dir=os.path.join('./', 'data')):
  """下载一个DATA_HUB中的文件,返回本地文件名"""
  assert name in DATA_HUB, f"{name} 不存在于{DATA_HUB}"
  url, sha1_hash = DATA_HUB[name]
  os.makedirs(cache_dir, exist_ok=True)
  fname = os.path.join(cache_dir, url.split('/')[-1])
  if os.path.exists(fname):
    sha1 = hashlib.sha1()
    with open(fname, 'rb')as f:
      while True:
        data = f.read(1048576)
        if not data:
          break
        sha1.update(data)
      if sha1.hexdigest() == sha1_hash:
        return fname # 命中缓存
  print(f'正在从{url}下载{fname}...')
  r = requests.get(url, stream=True, verify=True)
  with open(fname, 'wb')as f:
    f.write(r.content)
  return fname

def download_extract(name, folder=None):
  """下载并解压zip/tar文件"""
  fname = download(name)
  base_dir = os.path.dirname(fname)
  data_dir, ext = os.path.splitext(fname)
  if ext == '.zip':
    fp = zipfile.ZipFile(fname, 'r')
  elif ext in ('.tar', '.gz'):
    fp = tarfile.open(fname, 'r')
  else:
    assert False, '只有zip/tar文件可以被解压缩'
  fp.extractall(base_dir)
  return os.path.join(base_dir, folder) if folder else data_dir

def download_all():
  """下载DATA_HUB中的所有文件"""
  for name in DATA_HUB:
    download(name)

# pip install pandas

%matplotlib inline
import pandas as pd
import numpy as np
import torch
from torch import nn
from d2l import torch as d2l

DATA_HUB['kaggle_house_train'] = (DATA_URL + 'kaggle_house_pred_train.csv', 'fa19780a7b011d9b009e8bff8e99922a8ee2eb90')
DATA_HUB['kaggle_house_test'] = (DATA_URL + 'kaggle_house_pred_test.csv', 'fa19780a7b011d9b009e8bff8e99922a8ee2eb90')

train_data = pd.read_csv(download('kaggle_house_train'))
test_data = pd.read_csv(download('kaggle_house_test'))
# 训练数据集包括1460个样本,每个样本80个特征和1个标签, 而测试数据集包含1459个样本,每个样本80个特征
print(train_data.shape)  # (1460, 81)
print(test_data.shape)   # (1459, 80)
# 索引器 基于整数位置(integer location)选择数据。它通常用于按照行和列的整数位置进行数据选择和切片操作。
# .iloc[行, 列]  看前四个和最后两个特征,以及相应标签(房价)
print(train_data.iloc[0:4, [0, 1, 2, 3, -3, -2, -1]]) # ID是pandas默认添加的序列号
all_features = pd.concat((train_data.iloc[:, 1:-1], test_data.iloc[:, 1:]))
print(all_features.shape) # (2919, 79)
# all_features = pd.concat((train_data.iloc[:, :-1], test_data.iloc[:, 1:]))

# 4.10.4. 数据预处理
# # 若无法获得测试数据,则可根据训练数据计算均值和标准差
numeric_features = all_features.dtypes[all_features.dtypes != 'object'].index
# all_features[numeric_features] = all_features[numeric_features].apply(lambda x: (x - x.mean()) / (x.std()))
all_features[numeric_features] = all_features[numeric_features].apply(lambda x: (x - x.mean()) / (x.std()))
# 在标准化数据之后,所有均值消失,因此我们可以将缺失值设置为0
all_features[numeric_features] = all_features[numeric_features].fillna(0)
print(all_features.shape) # (2919, 79)
# “Dummy_na=True”将“na”(缺失值)视为有效的特征值,并为其创建指示符特征
all_features = pd.get_dummies(all_features, dummy_na=True)
print(all_features.shape) # (2919, 330) 1460+1459=2919  # 为什么老师的版本是(2919, 331)
print(all_features.iloc[-4:, -6:])

n_train = train_data.shape[0]
print(n_train)
# 通过values属性,我们可以 从pandas格式中提取NumPy格式,并将其转换为张量表示用于训练
# print(all_features[:n_train].values, type(all_features[:n_train].values,))
train_np = np.array(all_features[:n_train].values, dtype=np.float32)
train_features = torch.tensor(train_np, dtype=torch.float32)
test_np = np.array(all_features[n_train:].values, dtype=np.float32)
test_features = torch.tensor(test_np, dtype=torch.float32)
# TypeError: can't convert np.ndarray of type numpy.object_. The only supported types are: float64, float32, float16, complex64, complex128, int64, int32, int16, int8, uint8, and bool.
train_labels = torch.tensor(train_data.SalePrice.values.reshape(-1, 1), dtype=torch.float32)

# 4.10.5 训练
loss = nn.MSELoss() # 计算均方误差
in_features = train_features.shape[1] # 输入特征维度
print("n_train, in_features", n_train, in_features)
def get_net():
  net = nn.Sequential(nn.Linear(in_features,1))
  return net

def log_rmse(net, features, labels):
  # 为了在取对数时进一步稳定该值,将小于1的值设置为1
  clipped_preds = torch.clamp(net(features), 1, float('inf'))
  rmse = torch.sqrt(loss(torch.log(clipped_preds),torch.log(labels)))
  return rmse.item()

def train(net, train_features, train_labels, test_features, test_labels, num_epochs, learning_rate, weight_decay, batch_size):
  train_ls, test_ls = [], []
  train_iter = d2l.load_array((train_features, train_labels), batch_size)
  # 这里使用的是Adam优化算法
  optimizer = torch.optim.Adam(net.parameters(),lr = learning_rate,weight_decay = weight_decay)
  for epoch in range(num_epochs):
    for X, y in train_iter:
      optimizer.zero_grad()
      l = loss(net(X), y)
      l.backward()
      optimizer.step()
    train_ls.append(log_rmse(net, train_features, train_labels))
    if test_labels is not None:
      test_ls.append(log_rmse(net, test_features, test_labels))
  return train_ls, test_ls

# 4.10.6. K折交叉验证
def get_k_fold_data(k, i, X, y):
  """
    k:表示将数据分成的折数,通常是一个大于1的整数。
    i:表示当前是第几折,取值范围是 0 到 k-1。
    X:表示输入特征数据,是一个形状为 (样本数, 特征数) 的张量或数组。
    y:表示对应的标签数据,是一个形状为 (样本数,) 的张量或数组。
    这个函数实现了将数据集分成 K 折,每次返回一组训练集和验证集的功能,用于进行 K 折交叉验证的训练和评估。
  """
  # 这是一个断言语句,用于确保 k 的取值大于1,否则会触发 AssertionError 异常。
  assert k > 1
  # 计算每折的大小:根据样本数和折数 k,计算每折的大小,即每个验证集的样本数
  fold_size = X.shape[0] // k
  X_train, y_train = None, None
  # 分割数据:使用循环遍历每个折,根据当前折的索引 j 计算出当前折的索引范围,
  # 然后从输入的特征数据 X 和标签数据 y 中切片得到当前折的训练数据和验证数据
  for j in range(k):
    idx = slice(j * fold_size, (j + 1) * fold_size)
    X_part, y_part = X[idx, :], y[idx]
    if j == i:
      X_valid, y_valid = X_part, y_part
    elif X_train is None:
      X_train, y_train = X_part, y_part
    else:
      X_train = torch.cat([X_train, X_part], 0)
      y_train = torch.cat([y_train, y_part], 0)
  # 返回数据:根据当前折的索引 i,将当前折的数据作为验证集(X_valid 和 y_valid),
  # 其余折的数据拼接起来作为训练集(X_train 和 y_train),最终返回训练集和验证集的特征数据和标签数据。
  return X_train, y_train, X_valid, y_valid

def k_fold(k, X_train, y_train, num_epochs, learning_rate, weight_decay, batch_size):
  train_l_sum, valid_l_sum = 0, 0
  for i in range(k):
    data = get_k_fold_data(k, i, X_train, y_train)
    net = get_net()
    train_ls, valid_ls = train(net, *data, num_epochs, learning_rate, weight_decay, batch_size)
    train_l_sum += train_ls[-1]
    valid_l_sum += valid_ls[-1]
    if i == 0:
      d2l.plot(list(range(1, num_epochs + 1)), [train_ls, valid_ls], xlabel='epoch', ylabel='rmse', xlim=[1, num_epochs], legend=['train', 'valid'], yscale='log')
      print(f'折{i + 1},训练log rmse{float(train_ls[-1]):f}', f'验证log rmse{float(valid_ls[-1]):f}')
  return train_l_sum / k, valid_l_sum / k

k, num_epochs, lr, weight_decay, batch_size = 5, 100, 5, 0, 64
train_l, valid_l = k_fold(k, train_features, train_labels, num_epochs, lr, weight_decay, batch_size)
print(f'{k}-折验证: 平均训练log rmse: {float(train_l):f}', f'平均验证log rmse: {float(valid_l):f}')

结果

正在从http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_train.csv下载./data/kaggle_house_pred_train.csv...
(1460, 81)
(1459, 80)
   Id  MSSubClass MSZoning  LotFrontage SaleType SaleCondition  SalePrice
0   1          60       RL         65.0       WD        Normal     208500
1   2          20       RL         80.0       WD        Normal     181500
2   3          60       RL         68.0       WD        Normal     223500
3   4          70       RL         60.0       WD       Abnorml     140000
(2919, 79)
(2919, 79)
(2919, 330)
      SaleCondition_AdjLand  SaleCondition_Alloca  SaleCondition_Family  \
1455                  False                 False                 False   
1456                  False                 False                 False   
1457                  False                 False                 False   
1458                  False                 False                 False   

      SaleCondition_Normal  SaleCondition_Partial  SaleCondition_nan  
1455                 False                  False              False  
1456                 False                  False              False  
1457                  True                  False              False  
1458                  True                  False              False  
1460
n_train, in_features 1460 3301,训练log rmse0.170097 验证log rmse0.156521
5-折验证: 平均训练log rmse: 0.165441 平均验证log rmse: 0.171102

在这里插入图片描述

2. 课程竞赛:加州2020年房价预测

文本数据处理没整好 暂时先不写。
kaggle网址: https://www.kaggle.com/c/california-house-prices/data?select=train.csv

3. QA

在这里插入图片描述
30: 没什么用。
31: 都可以,后续会讲。特征维度多一点少一点没关系。
32:clip_preds没什么用
33:前面章节回顾
34:网络也是超参数,也是需要调的。可以挑取少量数据调。

4. 用到的代码

1. hashlib.sha1()

hashlib.sha1() 是 Python 中 hashlib 模块提供的一个哈希算法函数,用于计算数据的 SHA-1 哈希值。SHA-1(Secure Hash Algorithm 1)是一种常用的密码学哈希函数,通常用于生成数据的哈希值,用于验证数据的完整性或加密密码等安全应用。

这个函数通常的用法是将要计算哈希值的数据作为参数传递给 hashlib.sha1(),然后调用其 hexdigest() 方法获取十六进制形式的哈希值。以下是一个简单的示例:

import hashlib

# 要计算哈希值的数据
data = b'Hello, world!'

# 创建 SHA-1 哈希对象
sha1_hash = hashlib.sha1()

# 更新哈希对象的内容
sha1_hash.update(data)

# 获取十六进制形式的哈希值
hash_value = sha1_hash.hexdigest()

print("SHA-1 哈希值:", hash_value)

在这个示例中,我们首先导入 hashlib 模块,然后创建一个 SHA-1 哈希对象 sha1_hash,并使用 update() 方法更新哈希对象的内容为要计算哈希值的数据 data。最后,使用 hexdigest() 方法获取计算得到的 SHA-1 哈希值的十六进制表示形式。

需要注意的是,哈希函数通常用于验证数据的完整性或进行简单的加密,并不适用于安全敏感的密码存储或加密场景,因为 SHA-1 已经被证明存在安全性问题,建议在安全敏感场景下使用更安全的哈希算法,如 SHA-256、SHA-512 等。

2. sha1.update(data)

sha1.update(data)hashlib.sha1() 对象的方法,用于将数据 data 更新到 SHA-1 哈希对象中,以便后续计算哈希值。这个方法的作用是将要计算哈希值的数据添加到 SHA-1 哈希对象中,可以多次调用该方法来更新数据。

下面是一个简单的示例,演示了如何使用 sha1.update() 方法计算数据的 SHA-1 哈希值:

import hashlib

# 要计算哈希值的数据
data1 = b'Hello, '
data2 = b'world!'

# 创建 SHA-1 哈希对象
sha1_hash = hashlib.sha1()

# 分别更新哈希对象的内容
sha1_hash.update(data1)
sha1_hash.update(data2)

# 获取十六进制形式的哈希值
hash_value = sha1_hash.hexdigest()

print("SHA-1 哈希值:", hash_value)

在这个示例中,我们首先导入 hashlib 模块,然后创建一个 SHA-1 哈希对象 sha1_hash。接着,我们分别使用 update() 方法将数据 data1data2 更新到哈希对象中,然后使用 hexdigest() 方法获取计算得到的 SHA-1 哈希值的十六进制表示形式。

需要注意的是,update() 方法可以多次调用,每次调用都会将新的数据添加到哈希对象中,最终计算的哈希值是基于所有添加的数据计算得到的。

3. train_data.iloc

train_data.iloc 是 Pandas DataFrame 对象的一个属性,用于基于整数位置(integer location)选择数据。它通常用于按照行和列的整数位置进行数据选择和切片操作。

具体来说,iloc 是 DataFrame 的索引器(indexer),用于通过整数位置来选择数据。它的一般用法是 DataFrame.iloc[row_indices, column_indices],其中 row_indicescolumn_indices 是用于选择行和列的整数位置或整数切片。

以下是一些示例用法:

  1. 选择单个元素:

    element = train_data.iloc[0, 1]  # 选择第一行、第二列的元素
    
  2. 选择多个元素:

    elements = train_data.iloc[[0, 1], [1, 2]]  # 选择第一行和第二行,第二列和第三列的元素
    
  3. 切片选择数据:

    sliced_data = train_data.iloc[1:5, 2:4]  # 选择第2行到第5行,第3列到第4列的数据
    

iloc 的参数可以是单个整数位置、整数位置列表、整数切片,可以用于选择单个元素、多个元素或切片数据,非常灵活和方便。值得注意的是,iloc 是基于整数位置进行选择的,与 .loc 属性不同,后者是基于标签进行选择的。

4. fillna(0)

fillna(0) 是 Pandas DataFrame 或 Series 对象的一个方法,用于将缺失值(NaN)替换为指定的值(这里是 0)。具体来说,fillna(0) 将 DataFrame 或 Series 中的所有缺失值用指定的值(0)进行填充。

示例用法如下:

  • 对于 DataFrame:
    import pandas as pd
    
    # 创建一个包含缺失值的 DataFrame
    df = pd.DataFrame({'A': [1, 2, None], 'B': [None, 4, 5]})
    print("原始 DataFrame:")
    print(df)
    
    # 使用 fillna(0) 将缺失值填充为 0
    df_filled = df.fillna(0)
    print("填充后的 DataFrame:")
    print(df_filled)
    

输出结果:

原始 DataFrame:
     A    B
0  1.0  NaN
1  2.0  4.0
2  NaN  5.0

填充后的 DataFrame:
     A    B
0  1.0  0.0
1  2.0  4.0
2  0.0  5.0
  • 对于 Series:
    import pandas as pd
    
    # 创建一个包含缺失值的 Series
    series = pd.Series([1, None, 3, None, 5])
    print("原始 Series:")
    print(series)
    
    # 使用 fillna(0) 将缺失值填充为 0
    series_filled = series.fillna(0)
    print("填充后的 Series:")
    print(series_filled)
    

输出结果:

原始 Series:
0    1.0
1    NaN
2    3.0
3    NaN
4    5.0
dtype: float64

填充后的 Series:
0    1.0
1    0.0
2    3.0
3    0.0
4    5.0
dtype: float64

在这个示例中,我们首先创建了一个包含缺失值的 DataFrame 或 Series,然后使用 fillna(0) 方法将缺失值替换为指定的值(0)。填充后的结果会生成一个新的对象,原始对象不会被修改。

5. pd.get_dummies()

pd.get_dummies() 是 Pandas 库中的一个函数,用于将分类变量(categorical variable)转换为哑变量(dummy variables)或独热编码(one-hot encoding)。这在机器学习和数据预处理中很常见,特别是在处理分类数据时。

具体来说,pd.get_dummies() 接受一个 Series 或 DataFrame,并将其中的分类变量(通常是字符串类型或分类类型)转换为哑变量或独热编码。对于每个分类变量,它会创建一个新的二进制列,其中包含了该变量可能的取值,每个取值对应一个新的二进制列,取值出现的位置上为1,其他位置为0。

以下是一个简单的示例:

import pandas as pd

# 创建一个包含分类变量的 DataFrame
df = pd.DataFrame({'A': ['cat', 'dog', 'cat', 'bird', 'dog']})

# 使用 get_dummies() 将分类变量转换为哑变量
df_dummies = pd.get_dummies(df['A'])

print("原始 DataFrame:")
print(df)

print("\n转换后的 DataFrame:")
print(df_dummies)

输出结果:

原始 DataFrame:
      A
0   cat
1   dog
2   cat
3  bird
4   dog

转换后的 DataFrame:
   bird  cat  dog
0     0    1    0
1     0    0    1
2     0    1    0
3     1    0    0
4     0    0    1

在这个示例中,我们首先创建了一个包含分类变量的 DataFrame,并使用 pd.get_dummies() 将分类变量 ‘A’ 转换为哑变量。转换后的结果生成了一个新的 DataFrame df_dummies,其中的每个分类值都被转换为对应的二进制列。

pd.get_dummies(all_features, dummy_na=True) 中的 dummy_na=True 是指在转换分类变量为哑变量时,是否包含对缺失值的处理。

具体来说,当设置 dummy_na=True 时,pd.get_dummies() 会额外创建一个用于表示缺失值的哑变量列(dummy variable column)。这个哑变量列的取值为1表示原始数据中的值为缺失值(NaN),其他列的取值为0表示对应的值不是缺失值。

举个例子:

import pandas as pd

# 创建一个包含缺失值的 DataFrame
df = pd.DataFrame({'A': ['cat', 'dog', None, 'bird', 'dog']})

# 使用 get_dummies() 将分类变量转换为哑变量,并包含对缺失值的处理
df_dummies = pd.get_dummies(df['A'], dummy_na=True)

print("原始 DataFrame:")
print(df)

print("\n转换后的 DataFrame:")
print(df_dummies)

输出结果:

原始 DataFrame:
      A
0   cat
1   dog
2  None
3  bird
4   dog

转换后的 DataFrame:
   bird  cat  dog  NaN
0     0    1    0    0
1     0    0    1    0
2     0    0    0    1
3     1    0    0    0
4     0    0    1    0

在这个示例中,我们首先创建了一个包含缺失值的 DataFrame,并使用 pd.get_dummies() 将分类变量 ‘A’ 转换为哑变量,并设置 dummy_na=True。转换后的结果生成了一个新的 DataFrame df_dummies,其中的每个分类值都被转换为对应的二进制列,同时还包含了一个用于表示缺失值的哑变量列(‘NaN’ 列)。

6. nn.MSELoss()

nn.MSELoss() 是 PyTorch 中的一个损失函数,用于计算均方误差(Mean Squared Error,MSE)。均方误差是回归问题中常用的损失函数之一,用于衡量模型预测值与真实值之间的差异。

在 PyTorch 中,nn.MSELoss() 是一个类,通常与神经网络模型一起使用。它计算的是预测值与真实值之间每个元素差的平方的均值,公式如下:

MSE = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 \text{MSE} = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 MSE=n1i=1n(yiy^i)2

其中, y i y_i yi 是真实值, y ^ i \hat{y}_i y^i 是模型预测值, n n n 是样本数量。

使用 nn.MSELoss() 的一般步骤如下:

  1. 定义模型:首先需要定义一个神经网络模型,并定义模型的输入和输出。

  2. 定义损失函数:使用 nn.MSELoss() 创建一个均方误差损失函数对象。

  3. 计算损失:将模型的预测值和真实值作为参数传递给损失函数对象,调用该对象的方法计算均方误差损失。

示例代码如下所示:

import torch
import torch.nn as nn

# 创建模型
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc = nn.Linear(10, 1)  # 输入特征大小为10,输出大小为1

    def forward(self, x):
        x = self.fc(x)
        return x

# 定义输入数据和真实标签
inputs = torch.randn(1, 10)  # 输入数据,大小为1x10
targets = torch.randn(1)     # 真实标签,大小为1

# 创建模型和损失函数对象
model = Net()
criterion = nn.MSELoss()

# 前向传播
outputs = model(inputs)

# 计算损失
loss = criterion(outputs, targets)

print("MSE损失:", loss.item())

在这个示例中,我们首先定义了一个简单的神经网络模型 Net,然后使用 nn.MSELoss() 创建了一个均方误差损失函数对象 criterion。接着,我们生成了模型的预测值 outputs,并将预测值和真实标签传递给损失函数对象 criterion,调用其方法计算均方误差损失。最后打印出计算得到的均方误差损失值。

7. torch.clamp() torch.sqrt()

这两个命令分别是 torch.clamp()torch.sqrt() 函数的使用。

  1. torch.clamp(net(features), 1, float('inf'))

    • torch.clamp() 函数用于将张量中的元素限制在指定范围内。它的语法是 torch.clamp(input, min, max),其中 input 是输入张量,minmax 分别是元素的下限和上限。
    • 在这个命令中,net(features) 表示使用神经网络 net 对特征 features 进行预测,然后将预测结果张量中的元素限制在 1 到正无穷大之间,即大于等于1的值保持不变,小于1的值被设为1。
    • 这种操作通常用于处理预测结果中可能出现的非法或不合理的值,比如负数或极小的正数值。
  2. rmse = torch.sqrt(loss(torch.log(clipped_preds), torch.log(labels)))

    • torch.sqrt() 函数用于计算张量元素的平方根。它的语法是 torch.sqrt(input),其中 input 是输入张量。
    • 在这个命令中,torch.log(clipped_preds)torch.log(labels) 分别是对预测结果和真实标签取对数。然后,这两个对数张量被传递给损失函数 loss,并计算得到的结果取平方根,即得到了均方根误差(Root Mean Squared Error,RMSE)。
    • RMSE 是用来衡量模型预测值与真实值之间的差异的常用指标,它对于损失函数中的值取对数是为了处理可能存在的数据范围较大或变化幅度较大的情况。

综合起来,这两个命令一起使用的目的是对神经网络模型的预测结果进行处理(限制在合理范围内),然后计算预测结果与真实标签之间的均方根误差。

8. 模型训练的代码逻辑

这几行代码是一个简单的训练循环,用于训练神经网络模型。下面我来解释这几行代码的执行逻辑:

  1. for epoch in range(num_epochs)::这是外部循环,用于控制训练的轮数,num_epochs 表示训练的总轮数。

  2. for X, y in train_iter::这是内部循环,用于遍历训练数据集。train_iter 是一个迭代器(iterator),每次迭代返回一个批次的训练样本和对应的标签。X 是特征数据,y 是标签数据。

  3. optimizer.zero_grad():这一行代码用于清除优化器中之前的梯度信息,因为在 PyTorch 中,梯度是累积的。每次更新模型参数之前,需要先清除之前的梯度信息,避免对新的梯度信息造成影响。

  4. l = loss(net(X), y):这一行代码用于计算模型对当前批次数据的预测结果并计算损失。net(X) 表示将特征数据 X 输入到神经网络模型中进行前向传播,得到模型的预测结果。然后,将预测结果和真实标签 y 一起传递给损失函数 loss,计算得到当前批次数据的损失值 l

  5. l.backward():这一行代码用于反向传播计算梯度。通过调用 l.backward() 方法,PyTorch 会自动计算损失函数关于模型参数的梯度,并将梯度信息保存在各个参数的 .grad 属性中。

  6. optimizer.step():这一行代码用于更新模型参数。调用 optimizer.step() 方法会根据优化器的设置,使用梯度信息来更新模型的参数,从而使模型在当前批次数据上的损失尽量减小。

整体来说,这几行代码的执行逻辑是:在每个训练轮次中,遍历训练数据集的每个批次数据,对模型进行前向传播计算损失,然后进行反向传播计算梯度,并使用优化器更新模型参数,以使模型逐渐收敛到最优解。

9. assert用法

assert 是 Python 中的一个关键字,用于断言条件是否为真。它通常用于在开发过程中进行调试和测试,可以帮助检查代码中的假设是否成立。assert 的语法如下:

assert expression, message

其中,expression 是一个条件表达式,如果表达式为假(False),则会触发 AssertionError 异常;message 是可选的,用于在触发异常时输出自定义的错误消息。

例如,我们可以使用 assert 来检查变量是否符合预期的条件,如果条件不满足,则触发 AssertionError 异常。示例代码如下:

def divide(a, b):
    assert b != 0, "除数不能为0"
    return a / b

# 调用 divide 函数进行除法运算
result = divide(10, 2)
print("结果:", result)

# 尝试除以0,触发 AssertionError 异常
try:
    divide(10, 0)
except AssertionError as e:
    print("错误信息:", e)

输出结果:

结果: 5.0
错误信息: 除数不能为0

在这个示例中,我们定义了一个 divide 函数,用于进行除法运算。在函数中,我们使用 assert 来检查除数是否为0,如果除数为0,则触发 AssertionError 异常,并输出自定义的错误消息。这样可以帮助我们在开发过程中及时发现并修复代码中的问题。

10. 类型转换报错

train_features = torch.tensor(data_np, dtype=torch.float32)
TypeError: can't convert np.ndarray of type numpy.object_.   The only supported types are: float64, float32, float16, complex64, complex128, int64, int32, int16, int8, uint8, and bool.
# 要先有一个变量接收pandas转成numpy的数据类型, numpy数据类型有torh不接受的,就先转成float32
train_np = np.array(all_features[:n_train].values, dtype=np.float32)
train_features = torch.tensor(train_np, dtype=torch.float32)
test_np = np.array(all_features[n_train:].values, dtype=np.float32)
test_features = torch.tensor(test_np, dtype=torch.float32)

这个错误表明你的 NumPy 数组中包含了无法被 Torch 接受的数据类型,通常是由于数组中包含了字符串、对象或混合类型的数据。为了解决这个问题,你需要确保将 NumPy 数组转换为 Torch Tensor 时,数组中的数据类型是 Torch 支持的数据类型之一。支持的数据类型包括 float64、float32、float16、complex64、complex128、int64、int32、int16、int8、uint8 和 bool。

首先,你可以检查一下你的 NumPy 数组的数据类型,使用 dtype 属性查看数组的数据类型。然后,根据数据类型的情况,可以采取以下几种解决方法之一:

  1. **检查数据类型:**确保 NumPy 数组中的数据类型是 Torch 支持的数据类型之一。如果发现数组中包含了不支持的数据类型(如字符串或对象类型),需要将其转换为 Torch 支持的数据类型。

  2. **转换数据类型:**可以使用 NumPy 的 .astype() 方法将数组转换为 Torch 支持的数据类型。例如,将 float64 转换为 float32。

  3. **处理特殊数据:**如果数组中包含了特殊的数据类型或对象,需要根据具体情况进行处理。例如,将对象转换为字符串或数字形式,然后再进行转换和处理。

下面是一个示例,演示了如何将 NumPy 数组中的数据类型转换为 Torch 支持的数据类型:

import numpy as np
import torch

# 示例数据,包含不支持的数据类型
data_np = np.array(['hello', 1, 2.5])

# 尝试转换数据类型
try:
    data_tensor = torch.tensor(data_np, dtype=torch.float32)
except TypeError as e:
    print("转换错误:", e)

# 将数据类型转换为支持的类型
data_np_fixed = np.array([1, 2, 3], dtype=np.float32)
data_tensor_fixed = torch.tensor(data_np_fixed, dtype=torch.float32)

print("转换后的 Torch 张量:", data_tensor_fixed)

在这个示例中,我们首先创建了一个包含不支持的数据类型的 NumPy 数组 data_np,然后尝试将其转换为 Torch 张量,由于包含了不支持的数据类型,会触发 TypeError。接着,我们创建了一个符合要求的 NumPy 数组 data_np_fixed,并将其成功转换为 Torch 张量 data_tensor_fixed,以演示正确的转换方法。

11. 判断训练数据特征值是否是字符串类型

numeric_features = all_features.dtypes[all_features.dtypes != 'object'].index

这条命令是针对 Pandas 数据框(DataFrame)的操作,用于获取所有数值型特征的列索引。

让我们逐步解释这条命令:

  1. all_features.dtypesdtypes 属性用于获取数据框中每一列的数据类型。这个属性返回一个 Series 对象,其中索引是数据框的列名,值是对应列的数据类型。

  2. [all_features.dtypes != 'object']:这是一个布尔索引操作,它对数据框中的每一列进行判断,如果列的数据类型不是 'object'(即非字符串类型),则返回 True,否则返回 False。这样就得到了一个布尔类型的 Series,其中值为 True 的位置表示对应列是数值型特征。

  3. .index:最后,.index 属性用于获取布尔 Series 中值为 True 的索引,即数值型特征的列索引。

因此,整个命令的作用是获取数据框 all_features 中所有数值型特征的列索引,并将这些索引保存在变量 numeric_features 中。这样一来,您就可以通过 numeric_features 来访问数据框中的数值型特征,进行进一步的处理或分析。

12. 训练数据特征值做标准化

这条命令是对数据框 all_features 中的所有数值型特征进行标准化(即将数据转换为均值为0,标准差为1的分布)。让我们逐步解释这条命令:

  1. all_features[numeric_features]:这部分表示从数据框 all_features 中选取数值型特征,其中 numeric_features 是之前获取到的数值型特征的列索引。

  2. .apply(lambda x: (x - x.mean()) / (x.std())):这部分是对选取到的数值型特征应用函数。其中,lambda x: (x - x.mean()) / (x.std()) 是一个匿名函数,用于计算每列数据的标准化值。具体步骤如下:

    • x.mean():对每列数据取均值,即计算每列数据的平均值。
    • x.std():对每列数据取标准差,即计算每列数据的标准差。
    • (x - x.mean()) / (x.std()):对每列数据进行标准化处理,即用每个数据减去该列数据的均值,再除以该列数据的标准差。

    这样就完成了对数值型特征的标准化处理,使得每列数据都符合均值为0,标准差为1的标准正态分布。这种处理通常有助于提高机器学习模型的性能,特别是对于基于距离或者梯度的模型来说。

13. 报错 rnumpy.core._exceptions._ArrayMemoryError: Unable to allocate 76.4 GiB for an array with shape (216160, 47439) and data type object

(79065, 216160)
这个报错是由于尝试分配过大的内存给数组导致的。报错中显示尝试分配 76.4 GiB 的内存给一个形状为 (216160, 47439) 的数组,且数据类型为 object。这意味着您在进行某个操作时,系统无法分配这么大的内存来存储这个数组。

可能的原因和解决方法包括:

  1. **内存不足:**您的系统内存可能不足以分配给这么大的数组。您可以尝试释放其他占用大量内存的进程或程序,或者考虑在更高内存的环境中运行程序。

  2. **数据类型问题:**数组的数据类型为 object,这通常表示数组中的元素是 Python 对象而不是基本数据类型(如整数、浮点数等)。这种情况下,数组的内存消耗会更大。如果可能的话,尝试使用更小的数据类型来存储数据,如 float64 替代 object。

  3. **数组大小优化:**考虑是否可以通过分块处理数据或者使用稀疏数据结构来减少数组的大小,以降低内存消耗。

  4. **优化代码逻辑:**检查代码是否存在不必要的内存占用或者重复计算,优化代码逻辑可以减少内存消耗。

  5. **分布式计算:**如果数据量过大无法在单机上处理,考虑使用分布式计算框架(如Dask、Spark等)来处理数据,以利用多台机器的资源。

在解决这个问题时,需要根据具体情况采取相应的措施,如增加系统内存、优化数据结构或算法、分布式计算等。

14. 根据列名选取数据

您可以使用 Pandas 的 lociloc 方法根据列名选取指定的列,并组成新的 DataFrame 或 Series。下面是使用这两种方法的示例:

  1. 使用 loc 方法选取指定列名的列,然后将这些列组成新的 DataFrame:
import pandas as pd

# 示例数据
data = {'A': [1, 2, 3], 'B': [4, 5, 6], 'C': [7, 8, 9]}
df = pd.DataFrame(data)

# 选取列名为'A'和'C'的列组成新的 DataFrame
new_df = df.loc[:, ['A', 'C']]
print(new_df)
  1. 使用 iloc 方法根据列的索引位置选取列,然后将这些列组成新的 DataFrame 或 Series:
import pandas as pd

# 示例数据
data = {'A': [1, 2, 3], 'B': [4, 5, 6], 'C': [7, 8, 9]}
df = pd.DataFrame(data)

# 选取索引位置为0和2的列组成新的 DataFrame
new_df = df.iloc[:, [0, 2]]
print(new_df)

在这两个示例中,lociloc 方法的第一个参数表示行的选取方式,使用 : 表示选取所有行;第二个参数是列的选取方式,使用列名或列的索引位置列表来指定要选取的列。选取完成后,可以将选取的列组成新的 DataFrame 或 Series,根据需要进行进一步的操作。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/606961.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Linux网络部分——部署YUM仓库及NFS共享服务

目录 一、yum仓库服务 1. 软件仓库的提供方式 2.如何构建并使用ftp软件仓库(与本地yum源方法一致) 3.如何搭建使用yum在线源? 4.yum软件包下载如何保存? 二、NFS共享存储服务 1.存储类型 2.提供共享存储的组合 3.NFS网络…

带你快速了解并掌握TypeScript

TypeScript 📌TypeScript(简称:TS)是微软推出的开源语言 📌TypeScript 是 JavaScript 的超集(JS 有的 TS 都有) 📌TypeScript Type JavaScript(在 JS 基础上增加了类型支持) 📌TypeScript 文件扩展名为 ts 📌TypeScri…

JMeter断言介绍

JMeter是一个功能强大的性能测试工具,它不仅可以模拟用户的行为,还可以对web应用程序的响应进行检测。其中断言就是JMeter中非常实用的功能之一。 断言是用于验证服务器响应是否正确的测试元素。它会检查服务器响应中的部分或全部内容,并在响…

[NSSRound#1 Basic]basic_check

[NSSRound#1 Basic]basic_check 开题什么都没有,常规信息搜集也无效 发现题目允许PUT的两种做法: 1、 CURL的OPTIONS请求方法查看允许的请求方式 curl -v -X OPTIONS http://node4.anna.nssctf.cn:28545/index.php2、 kali自带的nikto工具扫描网址 Nik…

vscode调试typescript(单文件)

环境 tsc: Version 5.4.5 ts-node: v10.9.2 node: v20.12.0 步骤 1.创建文件夹,下方创建一个index.ts。 function test() {let str: string Hello world.console.log(str) } test()2.安装ts调试插件。 3.点击VSCode的运行和调试Tab(第三个&#xff…

el-dialog设置el-head固定

0 效果 1 代码 ::v-deep .adTextDetailDialogClass .el-dialog__body{max-height: calc(100vh - 150px);overflow: auto;border-top:1px solid #dfdfdf;border-bottom:1px solid #dfdfdf; } ::v-deep .adTextDetailDialogClass .el-dialog{position: fixed;height:fit-content;…

Leetcode—155. 最小栈【中等】

2024每日刷题(130) Leetcode—155. 最小栈 实现代码 class MinStack { public:MinStack() {}void push(int val) {if(st.empty()) {st.emplace(val, val);} else {st.emplace(val, min(val, st.top().second));}}void pop() {if(st.empty()) {return;}…

接口数据脱敏实现方案

背景 敏感信息如手机号、身份证、邮箱等信息需要脱敏后展示给前台,如果需要查看,则需要申请权限,查询时需要记录操作日志。 方案 通过JsonSerializer和注解,在json序列化的时候做脱敏操作 此处使用redis存储了加密后的key和明…

查看pytorch与cuda对应版本

查看cuda版本 打开cmd,输入nvidia-smi,即可可以看到cuda的版本了 2. pytorch与cuda版本对应关系 可以参考这篇文章,写的非常详细:https://blog.csdn.net/FL1768317420/article/details/134769203

预测市场?预测股票?如何让预测有更高的准确率?

我们发现在足球赛中,只要知道一个简单的讯息(主队过去的获胜机率超过一半),预测力就会明显好过随便乱猜。如果再加上第二个简单的讯息(胜负纪录较佳的队伍会略占优势),可以再进一步提升预测力。…

遇事不决,阿尔萨斯(Arthas)

文章目录 一、cat log.log | grep 流水号 引发的惨案二、Collections.sort排序long型强转int型引发的惨案 一、cat log.log | grep 流水号 引发的惨案 接口报错,查看日志是空指针,但是没有详细的报错信息。 以为是日志打印格式的问题,遂改变…

2024年软件测试最新Web安全测试(文末送电子书)_电子书下载 安全测试,腾讯软件测试开发面试经验

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。 需要这份系统化的资料的朋友,可以戳这里获取 一个人可以走的很快,但一群人才能走的更…

Spring AI实战之一:快速体验(OpenAI)

欢迎访问我的GitHub 这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos 关于Spring AI Spring Boot、Spring Cloud、Spring Data,作为一名Java程序员,相信您对这些概览早已耳熟能详,或者天天在用…

本地搭建springboot服务并实现公网远程调试本地接口

💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。 推荐:kwan 的首页,持续学…

重发被恶意举报的主食冻干测评,速看可能再被删!PR、希喂和SC真实对比PK!

要给猫咪提供高品质主食,主食冻干是不二之选。主食冻干不仅含肉量高、吸收消化率高,还有着丰富的、普通猫粮无法提供的各类营养素,满足猫咪微量元素的需求。可以说是营养与生骨肉喂养媲美,又能完美避开生骨肉细菌超标带来的一系列…

KaiwuDB 解析器之语义解析

KaiwuDB 解析器介绍 解析器是数据库系统的重要组成部分之一,主要的功能是将客户端输入的 SQL 语句分解为语法单元,然后将这些语法单元转化成数据库内部可识别的数据结构,最终生成数据库可以执行的计划。 KaiwuDB 的一条 SQL 执行的整个生命…

go导入包时提示no required module provides package解决方法

原因,这个包在你的本机没有安装 如redis包的提示为 could not import github.com/gomodule/redigo/redis (no required module provides package "github.com/gomodule/redigo/redis")解决方法: go get github.com/gomodule/redigo/redis

PHP+MySQL组合开发 自定义商城系统源码 带完整的安装代码包以及安装部署教程

随着电子商务的蓬勃发展,越来越多的企业和个人希望拥有自己的在线商城系统。小编给大家分享一款基于PHP和MySQL技术栈,开发的一套自定义商城系统源码。该系统旨在帮助用户快速搭建稳定、高效的电子商务平台,并提供灵活的自定义功能&#xff0…

日本站群服务器的优点以及适合该服务器的业务类型?

日本站群服务器的优点以及适合该服务器的业务类型? 日本站群服务器是指位于日本地区的多个网站共享同一台服务器的架构。这种服务器架构有着诸多优点,使其成为许多企业和网站管理员的首选。以下是日本站群服务器的优点以及适合该服务器的业务类型的分析&#xff1…

链表经典面试题02--链表的带环问题

目录 引言 环形链表 题目描述: 思路分析: 代码展示: 面试中遇到的问题: 环形链表Ⅱ 题目描述: 思路分析: 代码展示: 面试中遇到的问题: 方法二: 随机链表的复制 题目描述: 思路分析: 代码展示: 小结 引言 这个专题专门讲解链表的带环问题,并且对面试有关链表带环…