深度学习(1):逻辑回归

深度学习(Deep Learning)机器学习(Machine Learning)的一大分支,它试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。

逻辑回归(Logistic Regression,也译作“对数几率回归”)是离散选择法模型之一,属于多重变量分析范畴,是社会学、生物统计学、临床、数量心理学、计量经济学、市场营销等统计实证分析的常用方法。

符号约定

逻辑回归一般用于二分类(Binary Classification)问题中,给定一些输入,输出结果是离散值。例如用逻辑回归实现一个猫分类器,输入一张图片$x$,预测图片是否为猫,输出该图片中存在猫的概率结果$y$。
猫分类器

图片是一类非结构化的数据,在计算机中,一张图片以RGB编码方式存储时,是将它以红、绿、蓝为三基色,以每个像素点上三种颜色的十六进制颜色码进行编码,形成一个包含三个信道(Channel),各信道大小和图片的大小相同的矩阵。例如图中的猫图大小为$64 \times 64$,那么表示为矩阵后的每个信道大小即为$64\times64$。

模式识别(Pattern Recognition)以及机器学习中,处理的各种类型的数据都需要用一些特征向量来表示。为了将上例中的图片表示为一个特征向量$x$,将每三个信道中三种颜色的值进行拆分重塑,最终形成的特征向量$x$的维数为$n_x = 64 \times 64 \times 3 = 12288 $:
特征向量x
实现一个猫分类器,需要准备大量的猫图及少量的非猫图,取其中大部分组成该分类器的训练样本,少部分组成测试样本。将这些样本都以上述的方式表示为特征向量的形式,则一个样本由一对(x,y)进行表示,其中x为$n_x$维的特征向量,y是该特征向量的标签(Label),根据该特征向量表示的是猫或非猫,值为0或1。m个训练样本对将被表示为:$$ {(x^{(1)},y^{(1)}),(x^{(2)},y^{(2)}),…,(x^{(m)},y^{(m)})} $$

将训练集的中的特征向量$x^{(1)}$、$x^{(2)}$…以及它们的标签$y^{(1)}$、$y^{(2)}$…分别堆叠起来,组成两个矩阵$X$、$Y$:$$ {X = [x^{(1)},x^{(2)},…,x^{(m)}]}$$ $$ {Y = [y^{(1)},y^{(2)},…,y^{(m)}]}$$
则$X$会是个大小为$n_x \times m$的矩阵,$Y$是个大小为$1 \times m$的矩阵。

逻辑回归

逻辑回归是一种用于解决监督学习(Supervised Learning)问题的学习算法。进行逻辑回归的目的,是使训练数据的标签值与预测出来的值之间的误差最小化。

猫分类器要实现的,是给定以一个$n_x$维特征向量$x$表示,标签为$y$的一张图片,估计这张图片为猫图的概率$\hat{y}$,即:$$\hat{y} = p(y = 1|x), 0 \le \hat{y} \le 1$$

有大量猫图的数据$X$时,希望能用一个函数,来表示出$\hat{y}$。所以考虑使用线性拟合的方法,从大量数据中寻找规律,从而实现这个猫分类器。规定一个$n_x$维向量$w$和一个值$b$作为参数,可得到线性回归的表达式:$${\hat{y} = w^TX + b}$$

由于$\hat{y}$为概率值,取值范围为$[0,1]$,简单地进行线性拟合,得出的$\hat{y}$可能非常大,还可能为负值。这时,便需要一个逻辑回归单元来对其值域进行约束。以sigmoid函数为逻辑回归单元,而sigmoid函数的表达式为:$$\sigma{(z)} = \frac{1}{1+e^{-z}}$$

其函数图像为:
sigmoid函数

由函数图像可知,sigmoid函数有以下几个很好的性质:

  • 当$z$趋近于正无穷大时,$\sigma{(z)} = 1$;
  • 当$z$趋近于负无穷大时,$\sigma{(z)} = 0$;
  • 当$z = 0$时,$\sigma{(z)} = 0.5$。

所以可以用sigmoid函数来约束$\hat{y}$的值域,此时:$${ \hat{y} = σ(w^TX + b) = \frac{1}{1+e^{-(w^TX + b)}}}$$

成本函数

为了训练逻辑回归模型中的参数w和b,使得输出值$\hat{y}$与真实值y尽可能一致,即尽可能准确地判断一张图是否为猫,需要定义一个成本函数(Cost Function)作为衡量的标准。

损失函数(Loss Function)来衡量单个样本预测值(${\hat y}^{(i)}$)与真实值($y^{(i)}$)之间的差异,换句话说,损失函数用来计算单个训练样本的预测值与真实值之间的误差。平方误差(Square Loss)是一种常用的损失函数:$${\mathcal{L}(\hat y,y)=\frac{1}{2}(\hat y-y)^2}$$

但在逻辑回归中一般不使用这个损失函数,因为在训练参数过程中,使用这个损失函数将得到一个非凸函数,最终将存在很多局部最优解,这种情况下使用梯度下降(Gradient Descent)将无法获得最优解。对逻辑回归模型,希望满足条件概率:
$$p(y|x) = \begin{cases} \hat{y}, & \text{$(y=1)$} \\ 1 - \hat{y}, & \text{$(y=0)$} \end{cases}$$

将上下两个式子合二为一,可写成:$$p(y|x) = \hat{y}^y (1 - \hat{y})^{(1 - y)} $$

对两边取对数,进一步化简为:$$log\ p(y|x) = ylog\ \hat y+(1-y)log\ (1-\hat y) $$

$p(y|x)$的值需要最大化,而损失函数需要最小化,所以在原来的式子中填上负号,就可以将它作为一个损失函数。在上式右边添加一个负号,就推导出了应用很广的交叉熵(Cross Entropy)损失函数,表达式为:$${\mathcal{L}(\hat y,y)=-(ylog\ \hat y+(1-y)log\ (1-\hat y))}$$

交叉熵损失函数有如下性质:

  • 当$y^{(i)}=1$时,${\mathcal{L}({\hat y}^{(i)},y^{(i)})=-log\ {\hat y}^{(i)}}$
  • 当$y^{(i)}=0$时,${\mathcal{L}({\hat y}^{(i)},y^{(i)})=-log\ (1-{\hat y}^{(i)})}$

对m个训练样本整体的成本函数,可以使用数理统计中的极大似然估计法(Maximum Likelihood Estimation)推导出来的。

假设所有训练样本独立同分布,则联合概率为所有样本概率的乘积:
$$P = \prod_{i=1}^m p(y^{(i)}|x^{(i)})$$

对上式进行极大似然估计,还是两边取对数得:
$$log\ P = \sum_{i=1}^m log\ p(y^{(i)}|x^{(i)}) = -\sum_{i=1}^m \mathcal{L}(\hat{y}^{(i)}, y^{(i)})$$

对上式再取平均值,得成本函数为:
$${J(w,b) = \frac{1}{m} \sum_{i=1}^m \mathcal{L}({\hat y}^{(i)}, y^{(i)})}$$

梯度下降

想找到使成本函数的值最小的参数w和b的值,一般采用梯度下降法。

标量场中某一点上的梯度指向标量场增长最快的方向,梯度的长度是这个最大的变化率。
J(w,b)空间图像

在空间坐标中以w,b为轴画出损失函数J(w,b)的三维图像,可知这个函数为一个凸函数。为了找到合适的参数,先将w和b赋一个初始值,正如图中的小红点。

在逻辑回归中,几乎任何初始化方法都有效,通常将参数初始化为零。随机初始化也起作用,但通常不会在逻辑回归中这样做,因为这个成本函数是凸的,无论初始化的值是多少,总会到达同一个点或大致相同的点。梯度下降就是从起始点开始,试图在最陡峭的下降方向下坡,以便尽可能快地下坡到达最低点,这个下坡的方向便是此点的梯度值。
J(w,b)二维图像
在二维图像中来看,顺着导数的方向,下降速度最快,用数学公式表达即是:$${w:=w-\alpha\frac{\partial J(w,b)}{\partial w}}$$
$${b:=b-\alpha\frac{\partial J(w,b)}{\partial b}}$$

其中的“:=”意思为赋值,$\alpha$为学习率,通常为一个小于1的数,用来控制梯度下降过程中每一次移动的规格,相当于迈的步子大小。$\alpha$的不宜太小也不宜过大:太小会使迭代次数增加,容易陷入局部最优解;太大容易错过最优解。

Python实现

使用Python编写一个逻辑回归分类器来识别猫,以此来了解如何使用神经网络的思维方式来进行这项任务,识别过程如图:
识别过程示意图

实现过程

其中用到的Python包有:

  • numpy是使用Python进行科学计算的基础包。
  • matplotlib是Python中著名的绘图库。
  • h5py在Python提供读取HDF5二进制数据格式文件的接口,本次的训练及测试图片集是以HDF5储存的。
  • PIL(Python Image Library)为Python提供图像处理功能。
  • scipy基于NumPy来做高等数学、信号处理、优化、统计和许多其它科学任务的拓展库。
    几个Python包的安装及基本使用方法详见官网。

1.导入要用到的所有包

1
2
3
4
5
6
7
#导入用到的包
import numpy as np
import matplotlib.pyplot as plt
import h5py
import scipy
from PIL import Image
from scipy import ndimage

2.导入数据

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
#导入数据
def load_dataset():
train_dataset = h5py.File("train_cat.h5","r") #读取训练数据,共209张图片
test_dataset = h5py.File("test_cat.h5", "r") #读取测试数据,共50张图片

train_set_x_orig = np.array(train_dataset["train_set_x"][:]) #原始训练集(209*64*64*3)
train_set_y_orig = np.array(train_dataset["train_set_y"][:]) #原始训练集的标签集(y=0非猫,y=1是猫)(209*1)

test_set_x_orig = np.array(test_dataset["test_set_x"][:]) #原始测试集(50*64*64*3
test_set_y_orig = np.array(test_dataset["test_set_y"][:]) #原始测试集的标签集(y=0非猫,y=1是猫)(50*1)

train_set_y_orig = train_set_y_orig.reshape((1,train_set_y_orig.shape[0])) #原始训练集的标签集设为(1*209)
test_set_y_orig = test_set_y_orig.reshape((1,test_set_y_orig.shape[0])) #原始测试集的标签集设为(1*50)

classes = np.array(test_dataset["list_classes"][:])
return train_set_x_orig, train_set_y_orig, test_set_x_orig, test_set_y_orig, classes

需要说明的是,本次的训练及测试图片集是以HDF5格式储存的,train_cat.h5、test_cat.h5文件打开后结构如下:

h5文件结构

另外,也可以调用以下方法来查看训练集或测试集中的图片:

1
2
3
4
5
6
7
8
9
#显示图片
def image_show(index,dataset):
index = index
if dataset == "train":
plt.imshow(train_set_x_orig[index])
print ("y = " + str(train_set_y[:, index]) + ", 它是一张" + classes[np.squeeze(train_set_y[:, index])].decode("utf-8") + "' 图片。")
elif dataset == "test":
plt.imshow(test_set_x_orig[index])
print ("y = " + str(test_set_y[:, index]) + ", 它是一张" + classes[np.squeeze(test_set_y[:, index])].decode("utf-8") + "' 图片。")

3.sigmoid函数

1
2
3
4
#sigmoid函数
def sigmoid(z):
s = 1/(1+np.exp(-z))
return s

4.初始化参数w,b

1
2
3
4
5
#初始化参数w,b
def initialize_with_zeros(dim):
w = np.zeros((dim,1)) #w为一个dim*1矩阵
b = 0
return w, b

5.计算Y_hat,成本函数J以及dw,db

1
2
3
4
5
6
7
8
9
10
11
12
13
14
#计算Y_hat,成本函数J以及dw,db
def propagate(w, b, X, Y):
m = X.shape[1] #样本个数
Y_hat = sigmoid(np.dot(w.T,X)+b)
cost = -(np.sum(np.dot(Y,np.log(Y_hat).T)+np.dot((1-Y),np.log(1-Y_hat).T)))/m #成本函数

dw = (np.dot(X,(Y_hat-Y).T))/m
db = (np.sum(Y_hat-Y))/m

cost = np.squeeze(cost) #压缩维度
grads = {"dw": dw,
"db": db} #梯度

return grads, cost

6.梯度下降找出最优解

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
#梯度下降找出最优解
def optimize(w, b, X, Y, num_iterations, learning_rate, print_cost = False):#num_iterations-梯度下降次数 learning_rate-学习率,即参数ɑ
costs = [] #记录成本值

for i in range(num_iterations): #循环进行梯度下降
grads, cost = propagate(w,b,X,Y)
dw = grads["dw"]
db = grads["db"]

w = w - learning_rate*dw
b = b - learning_rate*db

if i % 100 == 0: #每100次记录一次成本值
costs.append(cost)

if print_cost and i % 100 == 0: #打印成本值
print ("循环%i次后的成本值: %f" %(i, cost))

params = {"w": w,
"b": b} #最终参数值

grads = {"dw": dw,
"db": db}#最终梯度值

return params, grads, costs

7.得出预测结果

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
#预测出结果
def predict(w, b, X):
m = X.shape[1] #样本个数
Y_prediction = np.zeros((1,m)) #初始化预测输出
w = w.reshape(X.shape[0], 1) #转置参数向量w

Y_hat = sigmoid(np.dot(w.T,X)+b) #最终得到的参数代入方程

for i in range(Y_hat.shape[1]):
if Y_hat[:,i]>0.5:
Y_prediction[:,i] = 1
else:
Y_prediction[:,i] = 0

return Y_prediction

8.建立整个预测模型

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
#建立整个预测模型
def model(X_train, Y_train, X_test, Y_test, num_iterations = 2000, learning_rate = 0.5, print_cost = False): #num_iterations-梯度下降次数 learning_rate-学习率,即参数ɑ
w, b = initialize_with_zeros(X_train.shape[0]) #初始化参数w,b

parameters, grads, costs = optimize(w, b, X_train, Y_train, num_iterations, learning_rate, print_cost) #梯度下降找到最优参数

w = parameters["w"]
b = parameters["b"]

Y_prediction_train = predict(w, b, X_train) #训练集的预测结果
Y_prediction_test = predict(w, b, X_test) #测试集的预测结果

train_accuracy = 100 - np.mean(np.abs(Y_prediction_train - Y_train)) * 100 #训练集识别准确度
test_accuracy = 100 - np.mean(np.abs(Y_prediction_test - Y_test)) * 100 #测试集识别准确度

print("训练集识别准确度: {} %".format(train_accuracy))
print("测试集识别准确度: {} %".format(test_accuracy))

d = {"costs": costs,
"Y_prediction_test": Y_prediction_test,
"Y_prediction_train" : Y_prediction_train,
"w" : w,
"b" : b,
"learning_rate" : learning_rate,
"num_iterations": num_iterations}

return d

9.初始化样本,输入模型,得出结果

1
2
3
4
5
6
7
8
9
10
11
12
13
14
#初始化数据
train_set_x_orig, train_set_y, test_set_x_orig, test_set_y, classes = load_dataset()

m_train = train_set_x_orig.shape[0] #训练集中样本个数
m_test = test_set_x_orig.shape[0] #测试集总样本个数
num_px = test_set_x_orig.shape[1] #图片的像素大小

train_set_x_flatten = train_set_x_orig.reshape(train_set_x_orig.shape[0],-1).T #原始训练集的设为(12288*209)
test_set_x_flatten = test_set_x_orig.reshape(test_set_x_orig.shape[0],-1).T #原始测试集设为(12288*50)

train_set_x = train_set_x_flatten/255. #将训练集矩阵标准化
test_set_x = test_set_x_flatten/255. #将测试集矩阵标准化

d = model(train_set_x, train_set_y, test_set_x, test_set_y, num_iterations = 2000, learning_rate = 0.005, print_cost = True)

结果分析

运行程序最终得到的结果为:
结果
训练集识别准确率接近100%,测试集的准确率有70%。由于训练使用的小数据集,而且逻辑回归是线性分类器,所以这个结果对于这个简单的模型实际上还是不错。

使用mathplotlib画出学习曲线:

1
2
3
4
5
6
7
# 画出学习曲线
costs = np.squeeze(d['costs'])
plt.plot(costs)
plt.ylabel('cost')
plt.xlabel('iterations (per hundreds)')
plt.title("Learning rate =" + str(d["learning_rate"]))
plt.show()

学习曲线

学习率不同时的学习曲线:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
learning_rates = [0.01, 0.001, 0.0001]
models = {}
for i in learning_rates:
print ("学习率: " + str(i))
models[str(i)] = model(train_set_x, train_set_y, test_set_x, test_set_y, num_iterations = 1500, learning_rate = i, print_cost = False)
print ('\n' + "-------------------------------------------------------" + '\n')

for i in learning_rates:
plt.plot(np.squeeze(models[str(i)]["costs"]), label= str(models[str(i)]["learning_rate"]))

plt.ylabel('cost')
plt.xlabel('iterations')

legend = plt.legend(loc='upper center', shadow=True)
frame = legend.get_frame()
frame.set_facecolor('0.90')
plt.show()

几个不同学习率下的学习曲线
说明不同的学习率会带来不同的成本,从而产生不同的预测结果。

参考资料

  1. 吴恩达-神经网络与深度学习-网易云课堂
  2. Andrew Ng-Neural Networks and Deep Learning-Coursera
  3. deeplearning.ai
  4. 课程代码与资料-GitHub

注:本文涉及的图片及资料均整理翻译自Andrew Ng的Deep Learning系列课程,版权归其所有。翻译整理水平有限,如有不妥的地方欢迎指出。


更新历史:

  • 2017.09.13 完成初稿
  • 2017.09.17 修正部分错误
  • 2018.02.13 调整部分内容
文章作者: Hugsy
文章链接: http://binweber.top/2017/09/12/deep_learning_1/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 Weber
支付宝打赏~
微信打赏~