1 解题思路

读取数据、构建模型、预训练模型、验证模型:

image-20200523214221527

定长字符知识点:

2 数据读取与数据扩增

主要内容为数据读取、数据扩增方法和Pytorch读取赛题数据三个部分组成

2.1 图像读取

2.2.1 Pillow

Pillow是Python图像处理函式库(PIL)的一个分支。Pillow提供了常见的图像读取和处理的操作,而且可以与ipython notebook无缝集成,是应用比较广泛的库。

例子:

IMG

conda activate pytorch_gpu
jupyter-notebook

#启动环境,打开jupyter
from PIL import Image, ImageFilter
im =Image.open('./cat.png')

im2 = im.filter(ImageFilter.BLUR)
im2.save('blur.jpg', 'jpeg')
               
w, h = im.size # 获得图像尺寸
im.thumbnail((w//2, h//2))
im.save('thumbnail.jpg', 'jpeg')
2.2.2 OpenCV
import cv2
# 导入Opencv库
img = cv2.imread('./cat.png')
# Opencv默认颜色通道顺序是BRG,转换一下
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)

cv2.imshow("Image", img)
cv2.waitKey()
cv2.destroyAllWindows()

img2 = cv2.imread('./cat.png')
img2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)

cv2.imshow("Image", img2)
cv2.waitKey()
cv2.destroyAllWindows()

img3 = cv2.imread('./cat.png')
img3 =cv2.cvtColor(img3, cv2.COLOR_BGR2GRAY)
# 转换为灰度图
# Canny边缘检测
edges = cv2.Canny(img3, 30, 70)
cv2.imwrite('canny.jpg', edges)

2.3 数据扩增方法

2.3.1 数据扩增介绍

在深度学习中数据扩增方法非常重要,数据扩增可以增加训练集的样本,同时也可以有效缓解模型过拟合的情况,也可以给模型带来的更强的泛化能力。

有哪些数据扩增方法?

数据扩增方法有很多:从颜色空间、尺度空间到样本空间,同时根据不同任务数据扩增都有相应的区别。
对于图像分类,数据扩增一般不会改变标签;对于物体检测,数据扩增会改变物体坐标位置;对于图像分割,数据扩增会改变像素标签。

2.3.2 常见的数据扩增方法

在常见的数据扩增方法中,一般会从图像颜色、尺寸、形态、空间和像素等角度进行变换。当然不同的数据扩增方法可以自由进行组合,得到更加丰富的数据扩增方法。

以torchvision为例,常见的数据扩增方法包括:

transforms.CenterCrop 对图片中心进行裁剪

transforms.ColorJitter 对图像颜色的对比度、饱和度和零度进行变换

transforms.FiveCrop 对图像四个角和中心进行裁剪得到五分图像

transforms.Grayscale 对图像进行灰度变换

transforms.Pad 使用固定值进行像素填充

transforms.RandomAffine 随机仿射变换

transforms.RandomCrop 随机区域裁剪

transforms.RandomHorizontalFlip 随机水平翻转

transforms.RandomRotation 随机旋转

transforms.RandomVerticalFlip 随机垂直翻转

2.3.3 常用的数据扩增库

torchvision

https://github.com/pytorch/vision
pytorch官方提供的数据扩增库,提供了基本的数据数据扩增方法,可以无缝与torch进行集成;但数据扩增方法种类较少,且速度中等;

imgaug

https://github.com/aleju/imgaug
imgaug是常用的第三方数据扩增库,提供了多样的数据扩增方法,且组合起来非常方便,速度较快;

albumentations

https://albumentations.readthedocs.io
是常用的第三方数据扩增库,提供了多样的数据扩增方法,对图像分类、语义分割、物体检测和关键点检测都支持,速度较快。

2.4 Pytorch读取数据

由于本次赛题我们使用Pytorch框架讲解具体的解决方案,接下来将是解决赛题的第一步使用Pytorch读取赛题数据。
在Pytorch中数据是通过Dataset进行封装,并通过DataLoder进行并行读取。所以我们只需要重载一下数据读取的逻辑就可以完成数据的读取。

import os, sys, glob, shutil, json
import cv2

from PIL import Image
import numpy as np

import torch
from torch.utils.data.dataset import Dataset
import torchvision.transforms as transforms


class SVHNDataset(Dataset):
    def __init__(self, img_path, img_label, transform=None):
        self.img_path = img_path
        self.img_label = img_label 
        if transform is not None:
            self.transform = transform
        else:
            self.transform = None

    def __getitem__(self, index):
        img = Image.open(self.img_path[index]).convert('RGB')

        if self.transform is not None:
            img = self.transform(img)
        
        # 原始SVHN (Street View House Numbers)中类别10为数字0,数字1~9对应标签1~9,而“0”的标签则为10
        lbl = np.array(self.img_label[index], dtype=np.int)
        lbl = list(lbl)  + (5 - len(lbl)) * [10]
        
        return img, torch.from_numpy(np.array(lbl[:5]))

    def __len__(self):
        return len(self.img_path)

train_path = glob.glob('./mchar_train/*.png')
train_path.sort()
train_json = json.load(open('./mchar_train.json'))
train_label = [train_json[x]['label'] for x in train_json]

data=SVHNDataset(train_path, train_label,
                transforms.Compose([
                    transforms.Resize((64, 128)),
                    transforms.RandomCrop((60, 120)),
                    transforms.ColorJitter(0.3, 0.3, 0.2),
                    transforms.RandomRotation(10),
                    transforms.ToTensor(),
                    transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ]))

代码说明:

train_json格式:
'000000.png': {'height': [219, 219],
  'label': [1, 9],
  'left': [246, 323],
  'top': [77, 81],
  'width': [81, 96]},
  
 train_label为train_json中label集合,举例train_label[0]为[1, 9]
上述代码中:
lbl=np.array(train_label[0], dtype=np.int)
array([1, 9])
lbl = list(lbl)  + (5 - len(lbl)) * [10]
[1, 9, 10, 10, 10]
  • Dataset:对数据集的封装,提供索引方式的对数据样本进行读取
  • DataLoder:对Dataset进行封装,提供批量读取的迭代读取
train_loader = torch.utils.data.DataLoader(
        SVHNDataset(train_path, train_label,
                   transforms.Compose([
                       transforms.Resize((64, 128)),
                       transforms.ColorJitter(0.3, 0.3, 0.2),
                       transforms.RandomRotation(5),
                       transforms.ToTensor(),
                       transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
            ])), 
    batch_size=10, # 每批样本个数
    shuffle=False, # 是否打乱顺序
    num_workers=0, # 读取的线程个数,windows为0
)

for data in train_loader:
    break

By 哒哒 CV实践小分队 17 2


本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!

零基础入门CV - Task3 字符识别模型 上一篇
零基础入门CV task1 下一篇