OpenCV(40)——K近邻算法识别数字

K近邻算法

机器学习算法是从数据中产生模型,也就是进行学习的算法。我们把经验提供给算法,它就能够根据经验数据产生模型。在面对新的情况时,模型就会为我们提供预测的结果。例如,识别数字,文字时,其实识别它们并不需要颜色,使用二值图像就行,而二值图像的数字文字都是0,1组成,机器学习会根据0与1的位置匹配最相近的文字或者数字,从而得出结果。而机器学习中的K近邻算法最适合识别图像中的文字或者数字信息。

K近邻算法又称为KNN算法,是非常经典的机器学习算法。其原理非常简单:对于一个新样本,这里可以理解为一个新数字图像或文字图像,K近邻算法会在已有数据中寻找与它最相似的K个数据,或者说离它最近的K个数据,如果这K个数据大多数属于某个类别,则该样本也属于这个类别。

识别数字

在OpenCV-Python开发指南的第一篇我们就介绍了二值图像,二值图像可以区分形状已经物体大概的轮廓。如下图所示:

这里的图像A就是0和1的矩阵集合,数字1代表有颜色的地方,数字0代表无颜色的地方。

这里,我们提供给机器学习的样本数据为1024个元素的一维数组,通过Excel表格提供,而图像是一个矩阵并不是一维数组。所以,在处理原始图像时,我们需要将图片的矩阵数据转换为一维数组,以便于机器学习的匹配预测。

调整图像

首先,我们需要识别的数字图像可能并不是一个二值图像,甚至可能不是一个灰度图像。所以我们需要将其转换为二值图像。

其次,OpenCV转换的二值图像是一个矩阵,而机器学习训练的数据是一个1024长度的一维数组。所以,我们还需要将图像缩小为32*32像素的图像,这样其转换为一维数组才是1024个0,1数据。

具体代码如下:

import cv2

img = cv2.imread("40.jpg")
img = cv2.resize(img, (32, 32))
img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
t, img = cv2.threshold(img, 127, 255, cv2.THRESH_BINARY_INV)
img[img == 255] = 1
img_array= img.reshape(1, -1)  # 转换为一维数组

这里,我们首先获取图像,然后将图像转换为32*32像素的大小。接着,再转换为灰度图像,并通过二值化处理将图像变更为0和255两个值,最后将255白色的部分替换成1。最后,将其转换为一维数组。

K近邻算法模型搭建

不管是K近邻算法还是机器学习算法,我们一般搭建机器学习模型都分为2个步骤。第1步,划分训练集与测试集,第2步完成模型的搭建.

下面我们具体实现,代码如下:

import cv2
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier as KNN

df = pd.read_excel("手写字体识别.xlsx")
# 提取特征变量,识别数字时,其特征就是1024个0,1数据,而目标变量就是1024个数字组成对应的结果数字
X = df.drop(columns="对应数字")
Y = df['对应数字']

x_train, x_test, y_train, y_test = train_test_split(X, Y, test_size=0.2, random_state=111)
knn = KNN(n_neighbors=5)
knn.fit(x_train, y_train)

answer=knn.predict(img_array)
print("图中的数字是:"+str(answer[0]))

这里,我们首先读取手写字体识别的数据集,然后提取特征变量与目标变量。

再然后,使用train_test_split函数将获取的数据集分为测试集与训练集,test_size=0.2表示将20%的数据划为测试集,训练集返回x_train,y_train,测试集返回x_test,y_test。

接着,使用训练集数据建模fit,这里K近邻算法n_neighbors=5,表示选取5个近邻点来决定数字图片的分类,或者说识别判断。

建模完成之后,可以将上面转换图片的一维数组,直接代入到knn.predict函数中,得到预测的结果。我们测试的图片如下:

运行之后,得到的结果如下:


文档点击下载:
https://download.csdn.net/download/liyuanjinglyj/15635951

举报
评论 0