当前位置:AIGC资讯 > AIGC > 正文

快速学会一个算法,CNN

今天给大家分享一个超强的算法,CNN

卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,广泛应用于图像和视频分析、自然语言处理和其他相关领域。CNN 通过模拟生物视觉系统的处理方式,能够自动学习数据的层次特征。

在了解什么是 CNN 以及它们如何运作之前,我们需要先了解神经网络。

什么是神经网络?

神经网络是一种深度学习方法,源自人类大脑生物神经网络的概念。它由大量相互连接的人工神经元(也称为节点或单元)组成,每个神经元接收输入,进行简单处理后生成输出,并将结果传递给下一层的神经元。

图片

传统神经网络的问题

传统神经网络,也称为全连接神经网络,在处理输入数据(如图像)之前,将其展平为一长串数字。

想象一下,你有一个构成图像的像素网格,你将该网格变成一长排像素。当你这样做时,你会丢失有关每个像素相对于其他像素的位置的重要空间信息。这就像拆开一个拼图,将所有碎片排成一行,你会失去这些碎片组成的图画。

由于空间信息的丢失,传统的神经网络不太擅长理解图像。

CNN 如何解决这个问题

卷积神经网络 (CNN) 是一种特殊类型的神经网络,专门用于处理网格状数据(例如图像)。

CNN 的设计目的是以一种保持空间信息完整的方式处理图像。它们使用称为卷积层的特殊层,以小部分扫描图像,寻找模式。

图片

  1. 卷积层
    卷积层是 CNN 的核心组件。它通过应用卷积核(过滤器)在输入数据上滑动,提取局部特征。每个卷积核都是一个小矩阵,通常尺寸较小(如 3x3、5x5)。卷积操作计算输入图像的局部区域与卷积核的点积,产生特征图(feature map)。多个卷积核可以提取图像的不同特征。
  2. 池化层
    池化层用于下采样,减少特征图的尺寸,同时保留重要信息。常用的池化方法包括最大池化(Max Pooling)和平均池化(Average Pooling)。最大池化选取池化窗口内的最大值,而平均池化计算池化窗口内的平均值。
  3. 全连接层
    全连接层将一层中的每个神经元链接到下一层中的每个神经元,从而能够根据卷积层和池化层提取的特征做出高级决策。

技术细节

卷积运算

卷积运算包括在输入图像上滑动过滤器并计算过滤器与过滤器覆盖的图像块之间的点积。

图片

此过程会生成一个特征图,突出显示特定特征,例如边缘或纹理。通过卷积操作收集的特征类型取决于它使用的过滤器/内核。

2.激活函数

激活函数将非线性引入网络,使其能够学习更复杂的模式。CNN 中最常用的激活函数是 ReLU(整流线性单元),它将负像素值替换为零,从而使网络学习速度更快、性能更好。

图片

3.池化层

池化层对特征图进行下采样,在保留基本信息的同时减小其大小。

最大池化从特征图的每个块中选择最大值,因其在总结特征方面的有效性而被广泛使用。

图片

4.全连接层

卷积层和池化层完成从图像中提取和汇总特征的工作后,需要对数据进行解释和分类。这就是全连接层 (FC) 的作用所在,它在卷积神经网络 (CNN) 的决策过程中起着至关重要的作用。

图片

案例分享

以下是使用 Keras 实现 CNN 的示例,用于实现手写数字识别任务(MNIST 数据集)。

1.导入库和数据集

首先,导入必要的库和 MNIST 数据集。

import numpy as np
import matplotlib.pyplot as plt
from tensorflow.keras.datasets import mnist
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Conv2D, MaxPooling2D, Flatten
from tensorflow.keras.utils import to_categorical

# 加载 MNIST 数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()

# 数据预处理
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1).astype('float32') / 255
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1).astype('float32') / 255

# 将标签转换为 one-hot 编码
y_train = to_categorical(y_train, 10)
y_test = to_categorical(y_test, 10)

2.构建 CNN 模型

接下来,定义 CNN 模型的架构。

model = Sequential()

# 第一个卷积层,带有 32 个 3x3 的滤波器,激活函数为 ReLU
model.add(Conv2D(32, kernel_size=(3, 3), activatinotallow='relu', input_shape=(28, 28, 1)))

# 第一个池化层,池化大小为 2x2
model.add(MaxPooling2D(pool_size=(2, 2)))

# 第二个卷积层,带有 64 个 3x3 的滤波器,激活函数为 ReLU
model.add(Conv2D(64, kernel_size=(3, 3), activatinotallow='relu'))

# 第二个池化层,池化大小为 2x2
model.add(MaxPooling2D(pool_size=(2, 2)))

# 将多维数据展平为一维
model.add(Flatten())

# 全连接层,具有 128 个神经元,激活函数为 ReLU
model.add(Dense(128, activatinotallow='relu'))

# 输出层,具有 10 个神经元(对应 10 个类别),激活函数为 softmax
model.add(Dense(10, activatinotallow='softmax'))

3.编译模型

编译模型,指定损失函数、优化器和评价指标。

model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

4.训练模型

使用训练数据训练模型。

history = model.fit(x_train, y_train, validation_data=(x_test, y_test), epochs=10, batch_size=200, verbose=2)

5.评估模型

评估模型在测试数据上的性能。

scores = model.evaluate(x_test, y_test, verbose=0)
print(f"Accuracy: {scores[1]*100:.2f}%")

6.可视化训练过程

绘制训练和验证的损失及准确率曲线。

# 绘制训练和验证损失曲线
plt.plot(history.history['loss'])
plt.plot(history.history['val_loss'])
plt.title('Model Loss')
plt.ylabel('Loss')
plt.xlabel('Epoch')
plt.legend(['Train', 'Validation'], loc='upper right')
plt.show()

图片

更新时间 2024-06-06