社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

一文彻底搞懂机器学习 - Softmax回归(Softmax Regression)

架构师带你玩转AI • 1 月前 • 59 次点击  
Softmax回归是机器学习中的一种分类算法,特别适用于多分类问题。它是多分类问题的逻辑回归推广,通过线性模型将输入特征映射到类别得分上,并利用Softmax函数将得分转换为概率分布,以实现对多类别数据的分类,同时使用交叉熵损失函数优化模型。
Softmax Regression

一、Softmax回归

Softmax回归(Softmax Regression) 是什么?Softmax回归是一种多分类算法,通过线性模型将输入特征映射到每个类别的得分上,并使用Softmax函数将这些得分转换为概率分布,从而实现对多类别数据的分类。

Softmax函数是什么?Softmax函数是一种在多分类问题中广泛使用的激活函数,特别是在神经网络的输出层。它的作用是将原始的分类评分(也称为logits)转换成概率分布。
具体来说,给定一个包含任意实数值的向量,Softmax函数会将这些值转换为正数且和为1的概率分布,每个值对应一个类别的概率。 -- 指数函数的魅力

在Python中实现Softmax函数并进行可视化,可以通过以下步骤完成。首先,我们编写Softmax函数的实现,然后生成一些示例数据来应用这个函数,并使用matplotlib库来可视化结果。

import numpy as npimport matplotlib.pyplot as plt
# Softmax函数实现def softmax(logits): exp_logits = np.exp(logits - np.max(logits, axis=-1, keepdims=True)) # 为了数值稳定性减去最大值 return exp_logits / np.sum(exp_logits, axis=-1, keepdims=True)
# 生成示例数据logits = np.array([[2.0, 1.0, 0.1], [1.0, 3.0, 2.0], [0.1, 2.0, 4.0]])
# 计算Softmax概率probabilities = softmax(logits)
# 打印结果print("Logits:")print(logits)print("Probabilities:")print(probabilities)
# 可视化Softmax输出labels = ['Class 1', 'Class 2', 'Class 3']fig, ax = plt.subplots()
# 对于每个输入向量,绘制对应的概率分布for i, probs in enumerate(probabilities): ax.bar(labels, probs, label=f'Input {i+1}')
ax.set_xlabel('Classes')ax.set_ylabel('Probabilities')ax.set_title('Softmax Probabilities')ax.legend()
# 显示图表plt.show()

Softmax回归的损失函数是什么?Softmax回归的损失函数通常是交叉熵损失(Cross Entropy Loss)。在多分类问题中,Softmax函数将模型的输出转换为概率分布,而交叉熵损失函数则用来衡量这个预测的概率分布与真实标签之间的差异。-- 对数函数的魅力

Python代码实现了交叉熵损失函数的计算,并通过可视化展示了对于一个三分类问题中,当真实标签为第0类时,交叉熵损失如何随着第0类预测概率的变化而变化。

import numpy as npimport matplotlib.pyplot as plt
# 交叉熵损失函数实现def cross_entropy_loss(y_true, y_pred): """ 计算交叉熵损失 :param y_true: 真实标签的独热编码(numpy数组) :param y_pred: 预测概率(numpy数组) :return: 交叉熵损失值 """ # 确保y_pred中的值不会为0或太小,以避免log(0)的情况 epsilon = 1e-15 y_pred = np.clip(y_pred, epsilon, 1. - epsilon) # 计算交叉熵损失 loss = -np.sum(y_true * np.log(y_pred)) return loss
# 生成模拟数据num_classes = 3 # 类别数num_samples = 100 # 样本数
# 随机生成真实标签(独热编码)y_true = np.zeros((num_samples, num_classes))for i in range(num_samples): class_idx = np.random.randint(0, num_classes) y_true[i, class_idx] = 1
# 生成预测概率(随机但确保每行和为1)y_pred_raw = np.random.rand(num_samples, num_classes)y_pred = y_pred_raw / y_pred_raw.sum(axis=1, keepdims=True)
# 为了可视化,我们只选择一个样本并改变其预测概率sample_idx = 0y_true_sample = y_true[sample_idx]y_pred_sample = y_pred[sample_idx].copy()
# 初始化可视化数据prob_values = np.linspace(epsilon, 1 - epsilon, 100) # 避免log(0)loss_values = []
# 计算不同预测概率下的损失值for prob in prob_values: # 假设真实标签是第0类(为了简化,我们只考虑一个类) # 注意:这里我们手动设置y_pred_sample[0]为prob,其他为(1-prob)/2(简化情况) # 在实际应用中,你应该根据真实标签来调整y_pred_sample y_pred_sample[0] = prob y_pred_sample[1:] = (1 - prob) / (num_classes - 1) # 简化:均匀分布剩余概率 # 确保和为1 y_pred_sample = y_pred_sample / y_pred_sample.sum() # 计算损失 loss = cross_entropy_loss(y_true_sample, y_pred_sample) loss_values.append(loss)
# 可视化plt.plot(prob_values, loss_values, label='Cross Entropy Loss')plt.xlabel('Predicted Probability for Class 0')plt.ylabel('Loss')plt.title('Cross Entropy Loss vs Predicted Probability') plt.legend()plt.grid(True)plt.show(

二、示例代码

PyTorch框架如何实现Softmax回归模型对Iris数据集进行三分类任务?使用PyTorch框架实现Softmax回归模型对Iris数据集进行三分类任务的完整流程,包括数据预处理、模型训练、损失可视化、测试集预测以及混淆矩阵的打印与可视化。
  1. 加载和预处理数据使用sklearn.datasets加载Iris数据集,并使用StandardScaler进行标准化。

  2. 定义Softmax回归模型创建一个简单的线性模型,并在forward法中返回输出(Softmax函数在损失函数中自动应用)。

  3. 训练模型使用随机梯度下降(SGD)优化器和交叉熵损失函数来训练模型,并记录每个epoch的损失值。

  4. 可视化损失值使用matplotlib绘制损失值随epoch变化的曲线。

  5. 评估模型在测试集上进行预测,并使用混淆矩阵来评估模型的性能。混淆矩阵也使用matplotlib进行可视化。




    
import torchimport torch.nn as nnimport torch.optim as optimimport numpy as npfrom sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom torch.utils.data import DataLoader, TensorDatasetfrom sklearn.metrics import confusion_matrix, ConfusionMatrixDisplayimport matplotlib.pyplot as plt
# 加载数据集iris = load_iris()X, y = iris.data, iris.target
# 数据标准化scaler = StandardScaler()X = scaler.fit_transform(X)
# 转换为PyTorch张量X_tensor = torch.tensor(X, dtype=torch.float32)y_tensor = torch.tensor(y, dtype=torch.long)
# 划分数据集X_train, X_test, y_train, y_test = train_test_split(X_tensor, y_tensor, test_size=0.2, random_state=42)
# 创建数据加载器train_dataset = TensorDataset(X_train, y_train)train_loader = DataLoader(train_dataset, batch_size=16, shuffle=True)
# 定义Softmax回归模型class SoftmaxRegression(nn.Module): def __init__(self, input_dim, num_classes): super(SoftmaxRegression, self).__init__() self.linear = nn.Linear(input_dim, num_classes)
def forward(self, x): return self.linear(x) # Softmax在CrossEntropyLoss中自动应用
# 初始化input_dim = X.shape[1]num_classes = len(set(y))model = SoftmaxRegression(input_dim, num_classes)criterion = nn.CrossEntropyLoss()optimizer = optim.SGD(model.parameters(), lr=0.01)
# 训练并记录损失num_epochs = 100losses = []for epoch in range(num_epochs): model.train() running_loss = 0.0 for inputs, labels in train_loader: optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() epoch_loss = running_loss / len(train_loader) losses.append(epoch_loss) # 可视化损失值plt.plot(losses)plt.xlabel('Epoch')plt.ylabel('Loss')plt.title('Softmax Regression Loss Over Epochs')plt.grid(True)plt.show()
# 在测试集上进行预测model.eval()with torch.no_grad(): y_pred_probs = model(X_test).detach().numpy() y_pred = np.argmax(y_pred_probs, axis=1)
# 打印混淆矩阵cm = confusion_matrix(y_test.numpy(), y_pred)disp = ConfusionMatrixDisplay(confusion_matrix=cm, display_labels=iris.target_names)disp.plot(cmap=plt.cm.Blues)plt.title('Confusion Matrix')plt.show()
# 打印混淆矩阵的数值print("Confusion Matrix:")print(cm)

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/177022
 
59 次点击