第5章
CHAPTER 5


Python回归算法





回归(Regression)是另一类重要的监督学习算法。与分类问题不同的是,在回归问题中,其目标是通过对训练样本的学习,得到从样本特征到样本标签之间的映射,其中,在回归问题中,样本标签是连续值。典型的回归问题有: 
(1) 根据人的身高、性别和体重等信息预测其鞋子的大小; 
(2) 根据房屋的面积、卧室的数量预测房屋的价格等。
5.1线性回归
线性回归(Linear Regression)是一类重要的回归问题。在线性回归中,目标值与特征之间存在线性相关的关系。
5.1.1基本线性回归
1.  线性回归的模型

对于线性回归算法,我们希望从训练数据中学习到线性回归方程,即

y=b+∑ni=1wi·xi

其中,b称为偏置,wi为回归系数。对于上式,令x0=1,则上式可以表示为: 

y=∑ni=0wi·xi

2.  线性回归模型的损失函数
在线性回归模型中,其目标是求出线性回归方程,即求出线性回归方程中的回归系数wi。线性回归的评价是指如何度量预测值(Prediction)与标签(Label)之间的接近程度,线性回归模型的损失函数可以是绝对损失(Absolute Loss)或者平方损失(Squared Loss)。其中,绝对损失函数为: 

l=y-y^


式中的y^为预测值,且y^=∑ni=0wi·xi。
平方损失函数为: 

l=(y-y^)2

由于平方损失处处可导,所以通常使用平方误差作为线性回归模型的损失函数。假设有m个训练样本,每个样本中有n-1个特征,则平方误差可以表示为: 

l=12∑mi=1y(i)-∑n-1j=0wj·x(i)j2

对于如上的损失函数,线性回归的求解是希望求得平方误差的最小值。
【例51】(二维直线例子)已知线性方程y=a*x+b表示平面上的一直线。在下面的例子中,根据房屋面积、房屋价格的历史数据,建立线性回归模型。然后,根据给出的房屋面积,来预测房屋价格。房屋的数据为: 

square_feetprice

0150 6450

1200 7450

2250 8450

3300 9450

435011450

540015450

660018450

实现的Python代码为: 

import pandas as pd

from io import StringIO

from sklearn import linear_model

import matplotlib.pyplot as plt



#房屋面积与价格历史数据(csv文件)

csv_data = 'square_feet,price\n150,6450\n200,7450\n250,8450\n300,9450\n350,11450\n400,15450\n600,18450\n'

#读入dataframe

df = pd.read_csv(StringIO(csv_data))

print(df)

#建立线性回归模型

regr = linear_model.LinearRegression()

#拟合

regr.fit(df['square_feet'].values.reshape(-1, 1), df['price'])  #注意此处.reshape(-1, 1),因为X是一维的!

#不难得到直线的斜率、截距

a, b = regr.coef_, regr.intercept_

#给出待预测面积

area = 238.5

#方式1:根据直线方程计算的价格

print(a * area + b)

#方式2:根据predict方法预测的价格

print(regr.predict(area))

#画图

#1.真实的点

plt.scatter(df['square_feet'], df['price'], color='blue')

#2.拟合的直线

plt.plot(df['square_feet'], regr.predict(df['square_feet'].values.reshape(-1,1)), color='red', linewidth=4)

plt.show()

运行程序,得到房屋的预测价格如下,效果如图51所示。

[8635.02659574]

[8635.02659574]



图51房屋面积与价格之间的关系



【例52】(三维平面的例子)已知线性方程z=ax+by+c表示一空间平面,利用一组虚拟的数据绘制其平面。

import numpy as np

from sklearn import linear_model

from mpl_toolkits.mplot3d import Axes3D

import matplotlib.pyplot as plt



xx, yy = np.meshgrid(np.linspace(0,10,10), np.linspace(0,100,10))

zz = 1.0 × xx + 3.5 × yy + np.random.randint(0,100,(10,10))

#构建成特征、值的形式

X, Z = np.column_stack((xx.flatten(),yy.flatten())), zz.flatten()

#建立线性回归模型

regr = linear_model.LinearRegression()

#拟合

regr.fit(X, Z)

#不难得到平面的斜率、截距

a, b = regr.coef_, regr.intercept_

#给出待预测的一个特征

x = np.array([[5.8, 78.3]])

#方式1:根据线性方程计算待预测的特征x对应的值z(注意:np.sum)

print(np.sum(a * x) + b)

#方式2:根据predict方法预测的值z

print(regr.predict(x))

#画图

fig = plt.figure()

ax = fig.gca(projection='3d')

#1.画出真实的点

ax.scatter(xx, yy, zz)

#2.画出拟合的平面

ax.plot_wireframe(xx, yy, regr.predict(X).reshape(10,10))

ax.plot_surface(xx, yy, regr.predict(X).reshape(10,10), alpha=0.3)

运行程序,得到输出值如下,效果如图52所示。

335.4328672727273

[335.43286727]



图52绘制空间平面图

5.1.2线性回归的最小二乘解法
对于线性回模型,假设训练集中有m个训练样本,每个训练样本中有n-1个特征,可以使用矩阵的表示方法,预测函数可以表示为: 

Y=XW

其损失函数可以表示为: 

(Y-XW)T(Y-XW)

其中,标签Y为m×1的矩阵,训练特征X为m×n的矩阵,回归系数W为n×1的矩阵。在最小二乘法中,对W求导,即

ddW(Y-XW)T(Y-XW)=XT(Y-XW)

令其为0,得到

W^=(XTX)-1XTY

现在利用Python实现最小二乘的解法。
【例53】利用最小二乘法求解。

import numpy as np

#导入Python的矩阵计算模块

import matplotlib.pyplot as plt



def fun2ploy(x,n):

'''

数据转化为[x^0,x^1,x^2,…x^n]

首列变1

'''

lens = len(x)

X = np.ones([1,lens])

for i in range(1,n):

X = np.vstack((X,np.power(x,i)))#按行堆叠

return X



def leastseq_byploy(x,y,ploy_dim):

'''

最小二乘求解

'''

#散点图

plt.scatter(x,y,color="r",marker='o',s = 50)

X = fun2ploy(x,ploy_dim);

#直接求解

Xt = X.transpose();#转置变成列向量

XXt=X.dot(Xt);#矩阵乘

XXtInv = np.linalg.inv(XXt)#求逆

XXtInvX = XXtInv.dot(X)

coef = XXtInvX.dot(y.T)

y_est = Xt.dot(coef)

return y_est,coef



def fit_fun(x):

'''

要拟合的函数

'''

#return np.power(x,5)

return np.sin(x) 



if __name__ == '__main__':

data_num = 100;

ploy_dim =10;#拟合参数个数,即权重数量

noise_scale = 0.2;

##数据准备

x = np.array(np.linspace(-2*np.pi,2*np.pi,data_num)) #数据 

y = fit_fun(x)+noise_scale*np.random.rand(1,data_num)#添加噪声

#最小二乘拟合

[y_est,coef] = leastseq_byploy(x,y,ploy_dim)

#显示拟合结果

org_data = plt.scatter(x,y,color="r",marker='o',s = 50)

est_data = plt.plot(x,y_est,color="g",linewidth= 3)

plt.xlabel("X")

plt.ylabel("Y")

plt.title("Fit funtion with leastseq method")

plt.legend(["Noise data","Fited function"]);

plt.show()

运行程序,效果如图53所示。


图53最小二乘拟合效果


我们都知道用最小二乘拟合线性函数没有问题,那么能不能拟合二次函数甚至更高次的函数呢?答案当然是可以的。下面就试试用最小二乘来拟合抛物线形状的图像。
对于二次函数来说,一般形状为f(x)=ax2+bx+c,其中a、b、c为3个要求解的参数。为了确定a、b、c,需要根据给定的样本,然后通过调整这些参数,直到最后找出一组参数a、b、c,使这些所有的样本点距离f(x)的距离平方和最小。用什么方法来调整这些参数呢?最常见的就是梯度下降法。
spicy库中有名为leastsq的方法,只需要输入一系列样本点,给出待求函数的基本形状,就可以针对上述问题求解了。
【例54】利用最小二乘拟合二次抛物线函数。

import numpy as np

import matplotlib.pyplot as plt

from scipy.optimize import leastsq

#待拟合的数据

X = np.array([1,2,3,4,5,6])

Y=np.array([9.1,18.3,32,47,69.5,94.8])

#二次函数的标准形式

def func(params, x):

a, b, c = params

return a * x * x + b * x + c

#误差函数,即拟合曲线所求的值与实际值的差

def error(params, x, y):

return func(params, x) - y



#对参数求解

def slovePara():

p0 = [10, 10, 10]

Para = leastsq(error, p0, args=(X, Y))

return Para



#输出最后的结果

def solution():

Para = slovePara()

a, b, c = Para[0]

print("a=",a," b=",b," c=",c)

print( "cost:" + str(Para[1]))

print( "求解的曲线是:")

print("y="+str(round(a,2))+"x*x+"+str(round(b,2))+"x+"+str(c))

plt.figure(figsize=(8,6))

plt.scatter(X, Y, color="green", label="sample data", linewidth=2)



# 画拟合直线

x=np.linspace(0,12,100) ##在0-12直接画100个连续点

y=a*x*x+b*x+c ##函数式

plt.plot(x,y,color="red",label="solution line",linewidth=2)

plt.legend() #绘制图例

plt.show()

solution()

运行程序,输出如下,效果如图54所示。

a= 2.066071414252538b= 2.597500103604725c= 4.689999854964827

cost:1

求解的曲线是:

y=2.07x*x+2.6x+4.689999854964827



图54最小二乘拟合二次抛物线效果


在上面的代码中,需注意的是如下几点:  
(1) func是待拟合的曲线的形状,本例中为二次函数的标准形式。 
(2) error为误差函数。很多人会问不应该是最小平方和吗?为什么不是func(params, x) - y * func(params, x)-y?原因是leastsq已进行最小平方和计算了。sklearn中源码为: 

Minimize the sum of squares of a set of equations.

x = arg min(sum(func(y)**2,axis=0))

y

leastsq函数除了可以模拟线性函数二次函数等多项式,还适用于任何波形的模拟。比如方波: 

def square_wave(x,p):

a, b, c, T = p

y = np.where(np.mod(x-b,T)<T/2, 1+c/a, 0)

y = np.where(np.mod(x-b,T)>T/2, -1+c/a, y)

return a*y

比如高斯分布: 

def gaussian_wave(x,p):

a, b, c, d= p

return a*np.exp(-(x-b)**2/(2*c**2))+d

只要将上面代码中的func换成对应的函数即可。
5.1.3牛顿法
除了前面介绍的梯度下降法,牛顿法也是机器学习中用得比较多的一种优化算法。牛顿法的基本思想是利用迭代点xk处的一阶导数(梯度)和二阶导数(海森矩阵)对目标函数进行二次函数近似,然后把二次函数的极小点作为新的迭代点,并不断重复这一过程,直至求得满足精度的近似值。牛顿法下降的速度比梯度下降得快,而且能高度逼近最优值。
1.  基本牛顿法的原理
基本牛顿法是一种基于导数的算法,它每一步的迭代方向都沿着当前点函数值下降的方向。对于一维的情形,对于一个需要求解的优化函数f(x),求函数极值的问题可以转化为求导函数f′(x)=0。对函数f(x)进行泰勒展开到二阶,得到: 

f(x)=f(xk)+f′(xk)(x-xk)+12f″(xk)(x-xk)2

对上式求导并令其为0,则有

f′(xk)+f″(xk)(x-xk)=0

即得到

x=xk-f′(xk)f″(xk)

这就是牛顿法的更新公式。
2.  基本牛顿法的流程
基本牛顿法的流程主要表现在: 
(1) 给定终止误差值0≤ε1,初始点x0∈Rn,令k=0; 
(2) 计算gk=f(xk),如果‖gk‖≤ε,则停止,输出x*≈xk; 
(3) 计算Gk=2f(xk),并求解线性方程组Gkd=-gk得到解dk; 
(4) 令xk+1=xk+dkk=k+1,并转到步骤(2)。
3.  全局牛顿法
牛顿法最突出的优点是收敛速度快,具有局部二阶收敛性,但是,基本牛顿法初始点需要足够“靠近”极小点; 否则,有可能导致算法不收敛,此时就引入了全局牛顿法。全局牛顿法的流程主要表现为: 
(1) 给定终止误差值0≤ε1,δ∈(0,1),σ∈(0,0.5),初始点x0∈Rn,令k=0; 
(2) 计算gk=f(xk),如果‖gk‖≤ε,则停止,输出x*≈xk; 
(3) 计算Gk=2f(xk),并求解线性方程组Gkd=-gk得到解dk; 
(4) 设mk是不满足下列不等式的最小非负整数m: 

f(xk+δmdk)≤f(xk)+σδmgTkdk

(5) 令αk=δmk,xk+1=xk+αkdk,k=k+1,并转到步骤(2)。
【例55】以Rosenbrock函数为例,即有

f(x)=100(x2-x21)2+(1-x1)2

于是可得函数的梯度

g(x)=f(x)=(-400(x2-x21)x1-2(1-x1)200(x2-x21))T

函数f(x)的海森矩阵为

-400(x2-3x21)+2-400x1
-400x1200

利用牛顿法求解的Python代码为: 

"""

牛顿法

Rosenbrock函数

函数 f(x)=100*(x(2)-x(1).^2).^2+(1-x(1)).^2

梯度 g(x)=(-400*(x(2)-x(1)^2)*x(1)-2*(1-x(1)),200*(x(2)-x(1)^2))^(T)

"""

import numpy as np

import matplotlib.pyplot as plt



def jacobian(x):

return np.array([-400*x[0]*(x[1]-x[0]**2)-2*(1-x[0]),200*(x[1]-x[0]**2)])

def hessian(x):

return np.array([[-400*(x[1]-3*x[0]**2)+2,-400*x[0]],[-400*x[0],200]])



X1=np.arange(-1.5,1.5+0.05,0.05)

X2=np.arange(-3.5,2+0.05,0.05)

[x1,x2]=np.meshgrid(X1,X2)

f=100*(x2-x1**2)**2+(1-x1)**2; #给定的函数

plt.contour(x1,x2,f,20) #画出函数的20条轮廓线



def newton(x0):

print('初始点为:')

print(x0,'\n')

W=np.zeros((2,10**3))

i = 1

imax = 1000

W[:,0] = x0 

x = x0

delta = 1

alpha = 1

while i<imax and delta>10**(-5):

p = -np.dot(np.linalg.inv(hessian(x)),jacobian(x))

x0 = x

x = x + alpha*p

W[:,i] = x

delta = sum((x-x0)**2)

print('第',i,'次迭代结果:')

print(x,'\n')

i=i+1

W=W[:,0:i]#记录迭代点

return W



x0 = np.array([-1.2,1])

W=newton(x0)

plt.plot(W[0,:],W[1,:],'g*',W[0,:],W[1,:]) #画出迭代点收敛的轨迹

plt.show()

运行程序,输出如下,效果如图55所示。

初始点为:

[-1.21. ]

第 1 次迭代结果:

[-1.1752809 1.38067416]

第 2 次迭代结果:

[ 0.76311487 -3.17503385]

第 3 次迭代结果:

[0.76342968 0.58282478]

第 4 次迭代结果:

[0.99999531 0.94402732]

第 5 次迭代结果:

[0.99999570.99999139]

第 6 次迭代结果:

[1. 1.]



图55牛顿迭代法求解


【例56】Python实现牛顿迭代法求三角函数极值。

#coding=utf-8

import math

a=0.001 #定义收敛步长

xd=1#定义寻找步长

x=0 #定义一个种子x0

i=0 #循环迭代次数

y=0

dic={}

import math

def f(x):

y=math.sin(x) #定义函数f(x)=sinx

return y

def fd(x):

y=math.cos(x) #函数f(x)导数fd(X)=cosx

return y

while y>=0 and y<3.14*4:

y=y+xd

x=y

while abs(fd(x))>0.001: #定义精度为0.001

x=x+fd(x)/f(x)

if x>=0 and x<3.14*4:

#print(x,f(x))

dic[y]=x

#print(dic)

ls=[]

for i in dic.keys():

cor=0

if ls is None:

ls.append(dic[i])

else:

for j in ls:

if dic[i]-j<0.1:

cor=1

break

if cor==0:

ls.append(dic[i])

print(ls)

运行程序,输出如下: 

[1.5706752771612507, 4.712388980912051, 7.8539818558789225, 10.995653476776056]

5.1.4局部加权线性回归
在线性回归中会出现欠拟合的情况,有些方法可以用来解决这样的问题。局部加权线性回归(Locally Weighted Linear Regression,LWLR)就是这样的一种方法。局部加权线性回归采用的是给预测点附近的每个点赋予一定的权重,此时的回归系数可以表示为: 

W^=(XTMX)-1XTMY

其中,M为每个点的权重。
LWLR使用核函数来对附近的点赋予更高的权重,常用的有高斯核,对应的权重为: 

M(i,j)=exp‖Xi-X‖2-2k2

这样的权重矩阵只含对角元素。
【例57】给定不同的k值,绘制对应的局部线性拟合图像。

#k=1.0出现了欠拟合,k=0.1时效果最佳,k=0.003时出现了过拟合

from numpy import *

def loadDataSet(filename):

numFeat = len(open(filename).readline().split('\t')) - 1

dataMat = []

labelMat = []

fr = open(filename)

for line in fr.readlines():

lineArr = []

curLine = line.strip().split('\t')

for i in range(numFeat):

lineArr.append(float(curLine[i]))

dataMat.append(lineArr)

labelMat.append(float(curLine[-1]))

return dataMat,labelMat

def standRegress(xArr,yArr):

xMat = mat(xArr)

yMat = mat(yArr).T

xTx = xMat.T * xMat

if linalg.det(xTx) == 0.0:

print('error')

return

ws = xTx.I * (xMat.T * yMat)

return ws

def lwlr(testPoint,xArr,yArr,k=1.0):

xMat = mat(xArr)

yMat = mat(yArr).T

m = shape(xMat)[0]

weights = mat(eye((m)))

for j in range(m):

diffMat = testPoint - xMat[j,:]

weights[j,j] = exp(diffMat*diffMat.T/(-2.0*k**2))

xTx = xMat.T * (weights * xMat)

if linalg.det(xTx) == 0.0:

print("error")

return

ws = xTx.I * (xMat.T * (weights * yMat))

return testPoint * ws

def lwlrTest(testArr,xArr,yArr,k=1.0):

m = shape(testArr)[0]

yHat = zeros(m)

for i in range(m):

yHat[i] = lwlr(testArr[i],xArr,yArr,k)

return yHat

def rssError(yArr,yHatArr):

return ((yArr-yHatArr)**2).sum()



xArr,yArr = loadDataSet('ex0.txt')

xMat = mat(xArr)

yMat = mat(yArr)

k = [1.0,0.01,0.003]

for i in range(3):

yHat = lwlrTest(xArr, xArr, yArr, k[i])

srtInd = xMat[:, 1].argsort(0)

xSort = xMat[srtInd][:, 0, :]

import matplotlib.pyplot as plt

fig = plt.figure(i+1)

ax = fig.add_subplot(111)

ax.plot(xSort[:, 1], yHat[srtInd])

ax.scatter(xMat[:, 1].flatten().A[0], yMat.T[:, 0].flatten().A[0], s=2, c='red')

plt.title('k=%g' % k[i])

plt.show()

当k=1时,最终的结果如图56所示; 当k=0.003时,最终的结果如图57所示; 当k=0.1时,最终的结果如图58所示。


图56k=1时的加权线性拟合效果




图57k=0.003时的加权线性拟合效果




图58k=0.01时的加权线性拟合效果


当k的值逐渐变小,其拟合数据的能力也在变强。当k取较大值时,如图56所示,出现了欠拟合,不能很好地反映数据的真实情况; 当k值取较小值时,如图57所示,出现了过拟合。
5.2岭回归与Lasso回归
在处理较为复杂的数据回归问题时,普通的线性回归算法通常会出现预测精度不够,如果模型中的特征之间有相关关系,就会增加模型的复杂程度,并且对整个模型的解释并不高,这时就需要对数据中的特征进行选择。对于回归算法,特征选择的方法有岭回归(Ridge Regression)和Lasso回归。
岭回归和Lasso回归都属于正则化的特征选择方法,对于处理较为复杂的数据问题通常选用这两种方法。
5.2.1线性回归存在的问题
如果模型中的特征之间有相关关系,就会增加模型的复杂程度。当数据中的特征之间有较强的线性相关时,即特征之间出现严重共线时,用普通最小二乘法估计模型参数,往往参数估计的方差太大,此时,求解出来的模型就很不稳定。在具体取值上与真值有较大的偏差,有时会出现与实际意义不符的正负号。
假设已知线性回归模型为: 

y=10+2x1+5x2

其中,x1∈(0,10),x2∈(10,25)。其中部分训练数据如表51所示。


表51部分训练数据



x10.444719.7887310.463429.0223270.931401410.2632910.464259.875585
x211.256710.895321.534219.578122.6748424.331718.176619.1721

利用普通最小二乘法求回归系数的估计得: 

w0=22.7096264655

w1=3.06628545742

w2=4.07831381518

这与实际模型中的参数有很大的差别。计算x1、x2的样本相关系数得r12=0.9854,表明x1与x2之间高度相关。通过这个例子可以看到,解释变量之间高度相关时,普通最小二乘估计明显变坏。
5.2.2岭回归模型
岭回归是在平方误差的基础上增加正则项: 

l=∑mi=1y(i)-∑nj=0wjx(i)j2+λ∑nj=0w2j

其中,λ>0。通过确定λ的值可以使得在方差和偏差之间达到平衡; 随着λ的增大,模型方差减小而偏差增大。
1.  岭回归模型的求解
与线性回归一样,在利用最小二乘法求解岭回归模型的参数时,首先对W求导,结果为: 

2XT(Y-XW)-2λW

令其为0,可求得W的值为: 

W^=(XTX+λI)-1XTY

其中,I为单位对角矩阵。
【例58】下面给出一个岭回归简单的代码示例,这个代码显示了不同的alpha对模型参数w的影响程度。alpha越大,则w的数值越小; alpha越小,则w的数值越大,注意为了更好地观察所生成的图片,将x轴做了反转。

"""

岭回归测试代码

这里需要先生成一个线性相关的设计矩阵X,再使用岭回归对其进行建模

岭回归中最重要的就是参数alpha的选择,本例显示了不同的alpha下

模型参数omega不同的结果

"""

import numpy as np

import matplotlib.pyplot as plt

from sklearn import linear_model



#这里设计矩阵X是一个希尔伯特矩阵(Hilbert matrix)

#其元素A(i,j)=1(i + j -1),i和j分别为其行标和列标

#希尔伯特矩阵是一种数学变换矩阵,正定且高度病态

#任何一个元素发生一点变动,整个矩阵的行列式的值和逆矩阵都会发生巨大变化

#这里设计矩阵是一个10×5的矩阵,即有10个样本,5个变量

X = 1. / (np.arange(1, 6) + np.arange(0, 10)[:, np.newaxis])

y = np.ones(10)



print('设计矩阵为:')

print(X)



#alpha 取值为10^(-10)到10^(-2)之间的连续的200个值

n_alphas = 200

alphas = np.logspace(-10, -2, n_alphas)

print('\n alpha的值为:')

print(alphas)



#初始化一个Ridge Regression

clf = linear_model.Ridge(fit_intercept=False)



#参数矩阵,即每一个alpha对应的参数所组成的矩阵

coefs = []

#根据不同的alpha训练出不同的模型参数

for a in alphas:

clf.set_params(alpha=a)

clf.fit(X, y)

coefs.append(clf.coef_) 

#获得绘图句柄

ax = plt.gca()

#参数中每一个维度使用一个颜色表示

ax.set_color_cycle(['b', 'r', 'g', 'c', 'k'])



#绘制alpha和对应的参数之间的关系图

ax.plot(alphas, coefs)

ax.set_xscale('log')#x轴使用对数表示

ax.set_xlim(ax.get_xlim()[::-1])#将x轴反转,便于显示

plt.grid()

plt.xlabel('alpha')

plt.ylabel('weights')

plt.title('Ridge coefficients as a function of the regularization')

plt.axis('tight')

plt.show()

运行程序,输出如下,效果如图59所示。

设计矩阵为: 

[[1. 0.50.33333333 0.25 0.2 ]

[0.50.33333333 0.25 0.20.16666667]

[0.33333333 0.25 0.20.16666667 0.14285714]

[0.25 0.20.16666667 0.14285714 0.125 ]

[0.20.16666667 0.14285714 0.1250.11111111]

[0.16666667 0.14285714 0.1250.11111111 0.1 ]

[0.14285714 0.1250.11111111 0.10.09090909]

[0.1250.11111111 0.10.09090909 0.08333333]

[0.11111111 0.10.09090909 0.08333333 0.07692308]

[0.10.09090909 0.08333333 0.07692308 0.07142857]]

alpha的值为: 

[1.00000000e-10 1.09698580e-10 1.20337784e-10 1.32008840e-10

1.44811823e-10 1.58856513e-10 1.74263339e-10 1.91164408e-10

2.09704640e-10 2.30043012e-10 2.52353917e-10 2.76828663e-10

3.03677112e-10 3.33129479e-10 3.65438307e-10 4.00880633e-10

4.39760361e-10 4.82410870e-10 5.29197874e-10 5.80522552e-10

…………

1.72258597e-03 1.88965234e-03 2.07292178e-03 2.27396575e-03

2.49450814e-03 2.73644000e-03 3.00183581e-03 3.29297126e-03

3.61234270e-03 3.96268864e-03 4.34701316e-03 4.76861170e-03

5.23109931e-03 5.73844165e-03 6.29498899e-03 6.90551352e-03

7.57525026e-03 8.30994195e-03 9.11588830e-03 1.00000000e-02]




图59不同的alpha值对模型参数w的影响程度



【例59】随机产生100组数据集,每组数据集包含25个点,每个点满足: y=sin2πx+e,其中x∈{0.041×i,i=1,2,…,24},e是添加的高斯噪声(0,0.32)。在每组数据集上用具有不同λ的7阶多项式进行岭回归拟合。

import numpy as np 

import matplotlib.pyplot as plt

from tkinter import _flatten



x_arange = 0.041 * np.arange(0, 25, 1) #每组数据的25个点

y_True = np.sin(2 * np.pi * x_arange)#每个数据点对应的值(没有添加噪声)

y_Noise = np.zeros(y_True.shape) #添加噪声的值

x_Prec = np.linspace(0, 24*0.041, 100) #画图范围



mu = 0#噪声的mu值

sigma = 0.3#噪声的sigma值

Num = 100#100组数据集

n = 8#7阶多项式

lamda = [np.exp(1), np.exp(0), np.exp(-5), np.exp(-10)]#不同的lambda值

phi = np.mat(np.zeros((x_arange.size, n)))#phi矩阵

x = np.mat(x_arange).T#输入数据矩阵



#phi矩阵运算

for i_n in range(n):

for y_n in range(x_arange.size):

phi[y_n, i_n] = x[y_n, 0] ** i_n



plt.figure(figsize=(15, 10))

index = 221

for i_lamda in lamda:

plt.subplot(index)

index += 1

plt.title("lambda = %f" % i_lamda)

plt.plot(x_Prec, np.sin(2 * np.pi * x_Prec), color='g')

for k in range(Num):

for i in range(x_arange.size):

y_Noise[i] = y_True[i] + np.random.normal(mu, sigma)

y = np.mat(y_Noise).T

#求解w参数

W = (phi.T * phi + i_lamda*np.eye(n)).I * phi.T * y



ploy = list(_flatten(W.T.tolist()))

ploy.reverse()

p = np.poly1d(ploy)

if k%5==0:#只画20条曲线

plt.plot(x_Prec, p(x_Prec), color='r')

plt.show()

运行程序,效果如图510所示。


图510具有不同λ的7阶多项式进行岭回归拟合


2.  基于交叉验证的岭回归
在前面提到过,在岭回归中,alpha的选择是一个比较麻烦的问题。这其实是一个模型选择的问题,在模型选择中,最简单的模型选择方法就是交叉验证(Crossvalidation),将交叉验证内置在脊回归中,就免去了alpha的人工选择,其具体实现方式如下。
【例510】基于交叉验证的岭回归实现。

"""

基于交叉验证的岭回归alpha选择

可以直接获得一个相对不错的alpha

""" 

import numpy as np

import matplotlib.pyplot as plt

from sklearn import linear_model 



#这里设计矩阵X是一个希尔伯特矩阵(Hilbert matrix)

#其元素A(i,j)=1(i + j -1),i和j分别为其行标和列标

#希尔伯特矩阵是一种数学变换矩阵,正定且高度病态

#任何一个元素发生一点变动,整个矩阵的行列式的值和逆矩阵都会发生巨大变化

#这里设计矩阵是一个10×5的矩阵,即有10个样本,5个变量

X = 1. / (np.arange(1, 6) + np.arange(0, 10)[:, np.newaxis])

y = np.ones(10) 

print('设计矩阵为:')

print(X)



#初始化一个Ridge Cross-Validation Regression

clf = linear_model.RidgeCV(fit_intercept=False) 

#训练模型

clf.fit(X, y) 

print

print('alpha的数值 : ', clf.alpha_)

print('参数的数值:', clf.coef_)

运行程序,输出如下: 

设计矩阵为:

[[1. 0.50.33333333 0.25 0.2 ]

[0.50.33333333 0.25 0.20.16666667]

[0.33333333 0.25 0.20.16666667 0.14285714]

[0.25 0.20.16666667 0.14285714 0.125 ]

[0.20.16666667 0.14285714 0.1250.11111111]

[0.16666667 0.14285714 0.1250.11111111 0.1 ]

[0.14285714 0.1250.11111111 0.10.09090909]

[0.1250.11111111 0.10.09090909 0.08333333]

[0.11111111 0.10.09090909 0.08333333 0.07692308]

[0.10.09090909 0.08333333 0.07692308 0.07142857]]

alpha的数值 :0.1

参数的数值: [-0.438165481.192292281.541188341.608556321.58565451]

5.2.3Lasso回归模型
Lasso回归模型采用的是L1正则,即Lasso是在平方误差的基础上增加L1正则: 

l=∑mi=1y(i)-∑nj=0wjx(i)j2+λ∑nj=0wj

其中,λ>0。通过确定λ的值可以使得在方差和偏差之间达到平衡: 随着λ的增大,模型方差减小而偏差增大。与基于L2正则的岭回归不同的是,上述的损失函数在wj=0处是不可导的,因此传统的基于梯度的方法不能直接应用在上述的损失函数的求解上。为了求解这样的问题,一些近似的优化算法被采用,或者可以采用一些简单的方法来近似这样的优化过程。
【例511】利用Lasso回归模型实现数据拟合效果。

import numpy as np #快速操作结构数组的工具

import matplotlib.pyplot as plt#可视化绘制

from sklearn.linear_model import Lasso,LassoCV,LassoLarsCV#Lasso回归,LassoCV交叉验证实现alpha的选取,LassoLarsCV基于最小角回归交叉验证实现alpha的选取



#样本数据集,第一列为x,第二列为y,在x和y之间建立回归模型

data=[

[0.067732,3.176513],[0.427810,3.816464],[0.995731,4.550095],[0.738336,4.256571],

[0.981083,4.560815],[0.526171,3.929515],[0.378887,3.526170],[0.033859,3.156393],

[0.132791,3.110301],[0.138306,3.149813],[0.247809,3.476346],[0.648270,4.119688],

[0.731209,4.282233],[0.236833,3.486582],[0.969788,4.655492],[0.607492,3.965162],

[0.358622,3.514900],[0.147846,3.125947],[0.637820,4.094115],[0.230372,3.476039],

[0.070237,3.210610],[0.067154,3.190612],[0.925577,4.631504],[0.717733,4.295890],

[0.015371,3.085028],[0.335070,3.448080],[0.040486,3.167440],[0.212575,3.364266],

[0.617218,3.993482],[0.541196,3.891471]

]

#生成X和Y矩阵

dataMat = np.array(data)

X = dataMat[:,0:1]

y = dataMat[:,1]



#----------Lasso回归-------

model = Lasso(alpha=0.01)#调节alpha可以实现对拟合的程度

#model = LassoCV()#LassoCV自动调节alpha可以实现选择
#最佳的alpha

#model = LassoLarsCV()#LassoLarsCV自动调节alpha可以实现
#选择最佳的alpha

model.fit(X, y) #线性回归建模

print('系数矩阵:\n',model.coef_)

print('线性回归模型:\n',model)

#print('最佳的alpha:',model.alpha_)#只有在使用LassoCV、LassoLarsCV时
#才有效

#使用模型预测

predicted = model.predict(X)

#绘制散点图 参数:x横轴 y纵轴

plt.scatter(X, y, marker='x')

plt.plot(X, predicted,c='r')

#绘制x轴和y轴坐标

plt.xlabel("x")

plt.ylabel("y")

#显示图形

plt.show()

运行程序,输出如下,效果如图511所示。

系数矩阵:

[1.52826579]

线性回归模型:

Lasso(alpha=0.01, copy_X=True, fit_intercept=True, max_iter=1000,

normalize=False, positive=False, precompute=False, random_state=None,

selection='cyclic', tol=0.0001, warm_start=False)



图511Lasso回归效果

5.2.4拟牛顿法
BFGS算法是使用较多的一种拟牛顿法,是由Broyden、Fletcher、Goldfarb和Shanno 4人分别提出的,故称为BFGS校正。
拟牛顿方程为

f(xk)=f(xk+1)+Gk+1(xk-xk+1)

可化简为

Gk+1(xk+1-xk)=f(xk+1)-f(xk)

令Bk+1ΔGk+1,则可得

Bk+1(xk+1-xk)=f(xk+1)-f(xk)

在BFGS校正方法中,假设

Bk+1=Bk+Ek

1.  BFGS校正公式的推导
令Ek=αukuTk+βvkvTk,其中uk、vk均为n×1的向量。yk=f(xk+1)-f(xk),sk=xk+1-xk,
则拟牛顿方程Bk+1(xk+1-xk)=f(xk+1)-f(xk)可以化简为

Bk+1sk=yk

将Bk+1=Bk+Ek代入上式,即有

(Bk+Ek)sk=yk

将Ek=αukuTk+βvkvTk代入上式,则有

(Bk+αukuTk+βvkvTk)sk=yk

α(uTksk)uk+β(vTksk)vk=yk-Bksk

已知uTksk、vTksk均为实数,yk-Bksk为n×1的向量。上式中,参数α和β解的可能性有很多,取特殊的情况,假设uk=rBksk,vk=θyk,则

Ek=αr2sksTkBk+βθ2ykyTk

可以推出

α(rBksk)(rBksk)+β(θyk)Tsk(θyk)=yk-Bksk

即

αr2(sTkBksk)+1(Bksk)+βθ2(yTksk)-1(yk)=0

令αr2(sTkBksk)+1=0,即βθ2(yTksk)-1=0,则

αr2=-1sTkBksk

βθ2=1yTksk

最终的BFGS校正公式为

Bk+1=Bk-BksksTkBksTkBksk+ykyTkyTksk

2.  BFGS校正的算法流程
设Bk对称正定,Bk+1由上述的BFGS校正公式确定,那么Bk+1对称正定的充要条件是yTksk>0。
在利用Armijo搜索准则时,并不是都满足上述的充要条件,此时可以对BFGS校正公式做些改变: 

Bk+1=Bk,yTksk≤0
BksksTkBksTkBksk+ykyTkyTksk,yTksk>0

BFGS拟牛顿的算法流程为: 
(1) 初始化参数δ∈(0,1),σ∈(0,0.5),初始化点x0,终止误差0≤ε1,初始化对称正定矩阵B0。令k:=0。
(2) 重复以下过程。
①  计算gk-f(xk)。如果‖gk‖≤ε,退出。输出xk作为近似极小值点。
②  解线性方程组得解dk: Bkd=-gk。
③  设mk是满足如下不等式的最小非负整数m: 

f(xk+δmdk)≤f(xk)+σδmgTkdk

令αk=δmk,xk+1=xk+αkdk
④  由上述公式确定Bk+1。
(3) 令k∶=k+1。
利用ShermanMorrison公式可对上式进行变换,得到: 

B-1k+1=I-skyTkyTkskTB-1kI-yksTkyTksk+sksTkyTksk

令Hk+1=B-1k+1,则得到: 

Hk+1=I-skyTkyTkskTHkI-yksTkyTksk+sksTkyTksk

【例512】利用拟牛顿法求解无约束优化问题

minx=(t1,t2)∈R2t21+2t22

s.t.x0=(1,1)T

实现的Python代码为: 

#基于DFP的拟牛顿法

import numpy as np

from numpy import linalg

import matplotlib.pyplot as plt 



def compute_original_fun(x):

""" 1. 计算原函数的值 

input:x, 一个向量

output: value, 一个值

"""

value = x[0]**2 + 2*x[1]**2

return value 



def compute_gradient(x):

""" 2. 计算梯度 

input:x, 一个向量

output: value, 一个向量

"""

value = np.mat([[0],[0]], np.double)

value[0] = 2*x[0]

value[1] = 4*x[1]

return value 



def draw_result(result):

""" 3. 将收敛过程(即最小值的变化情况)画图 """

plt.figure("min value")

plt.plot(range(len(result)), result, "y", label="min value")

plt.title("min value's change")

plt.legend()

return plt 



def main(x0, H, epsilon = 1e-6, max_iter = 1000): 

"""

x0: 初始迭代点

H: 校正的对角正定矩阵

eplison: 最小值上限

max_iter: 最大迭代次数

result: 最小值

alpha**m: 步长

d: 方向

"""

result = [compute_original_fun(x0)[0,0]]

for k in range(max_iter):

#计算梯度

g = compute_gradient(x0)

#终止条件

if linalg.norm(g) < epsilon:

break

#计算搜索方向

d = -H*g

#简单线搜索求步长

alpha = 1/2

for m in range(max_iter):

if compute_original_fun(x0 + alpha**m*d) <= (compute_original_fun(x0) + (1/2)*alpha**m*g.T*d):

break

x = x0 + alpha**m*d

#DFP校正迭代矩阵

s = x - x0

y = compute_gradient(x) - g

if s.T * y > 0:

H = H - (H*y*y.T*H)/(y.T*H*y) + (s*s.T)/(s.T*y)

x0 = x

result.append(compute_original_fun(x0)[0,0])

return result 



if __name__ == "__main__":

x0 = np.asmatrix(np.ones((2,1)))

H = np.asmatrix(np.eye(x0.size))

result = main(x0, H)

draw_result(result).show()

运行程序,效果如图512所示。


图512拟牛顿求解效果


5.2.5LBFGS求解岭回归模型
1.  BGFS算法存在的问题

在BFGS算法中,每次都要存储近似海森矩阵B-1k,在高维数据时,存储B-1k将浪费很多存储空间,而在实际的运算过程中,需要的是搜索方向,因此出现了LBFGS算法,这是BFGS算法的一种改进算法。在LBFGS算法中,只保存最近的m次迭代信息,以减少数据的存储空间。
2.  LBFGS算法思路
令ρk=1yTksk,Vk=I-yksTkyTksk,则BFGS算法中的Hk+1可以表示为

Hk+1=VTkHkVk+ρksksTk

如果假定初始的矩阵H0=I,则可以得到: 

H2=VT1H1V1+ρ1s1sT1
=VT1(VT0H0V0+ρ0s0sT0)V1+ρ1s1sT1
=VT1VT0H0V0V1+VT1ρ0s0sT0V1+ρ1s1sT1

则Hk+1为

Hk+1=(VTkVTk-1…VT1VT0)H0(V0V1…Vk-1Vk)+
(VTkVTk-1…VT1)ρ1s1sT1(V1…Vk-1Vk)+…+
VTkρk-1sk-1sTk-1Vk+ρksksTk

这样,在LBFGS算法中,不再保存完整的Hk,而是存储向量序列sk和yk,需要矩阵Hk时,使用向量序列sk和yk计算就可以得到,而向量序列sk和yk也不是都要保存,只要保存最新的m步向量即可。LBFGS算法中确定新的下降方向的具体过程为: 
 d=-f(xk)
 令i=k-1:k-m

◎ αi=si·psi·yi

◎ p=p-αi·yi
 p=sk-1·yk-1yk-1·yk-1
 令i=k-m:k-1

◎ β=yi·pyi·yi

◎ p=p+(αi-β)·si
【例513】利用岭回归对数据进行预测。

import numpy as np



def load_data(file_path):

'''导入训练数据

input:file_path(string):训练数据

output: feature(mat):特征

label(mat):标签

'''

f = open(file_path)

feature = []

label = []

for line in f.readlines():

feature_tmp = []

lines = line.strip().split("\t")

feature_tmp.append(1)#x0

for i in range(len(lines) - 1):

feature_tmp.append(float(lines[i]))

feature.append(feature_tmp)

label.append(float(lines[-1]))

f.close()

return np.mat(feature), np.mat(label).T



def ridge_regression(feature, label, lam):

'''最小二乘的求解方法

input:feature(mat):特征

label(mat):标签

output: w(mat):回归系数

'''

n = np.shape(feature)[1]

w = (feature.T * feature + lam * np.mat(np.eye(n))).I * feature.T * label

return w



def get_gradient(feature, label, w, lam):

'''

input:feature(mat):特征

label(mat):标签

output: w(mat):回归系数

'''

err = (label - feature * w).T 

left = err * (-1) * feature 

return left.T + lam * w



def get_result(feature, label, w, lam):

'''

input:feature(mat):特征

label(mat):标签

output: w(mat):回归系数

'''

left = (label - feature * w).T * (label - feature * w)

right = lam * w.T * w

return (left + right) / 2



def get_error(feature, label, w):

'''

input:feature(mat):特征

label(mat):标签

output: w(mat):回归系数

'''

m = np.shape(feature)[0]

left = (label - feature * w).T * (label - feature * w)

return (left / (2 * m))[0, 0]



def bfgs(feature, label, lam, maxCycle):

'''利用bfgs训练岭回归模型

input:feature(mat):特征

label(mat):标签

lam(float):正则化参数

maxCycle(int):最大迭代次数

output: w(mat):回归系数

'''

n = np.shape(feature)[1]

#1. 初始化

w0 = np.mat(np.zeros((n, 1)))

rho = 0.55

sigma = 0.4

Bk = np.eye(n)

k = 1

while (k < maxCycle):

print("\titer: ", k, "\terror: ", get_error(feature, label, w0))

gk = get_gradient(feature, label, w0, lam)#计算梯度

dk = np.mat(-np.linalg.solve(Bk, gk))

m = 0

mk = 0

while (m < 20):

newf = get_result(feature, label, (w0 + rho ** m * dk), lam)

oldf = get_result(feature, label, w0, lam)

if (newf < oldf + sigma * (rho ** m) * (gk.T * dk)[0, 0]):

mk = m

break

m = m + 1



#BFGS校正

w = w0 + rho ** mk * dk

sk = w - w0

yk = get_gradient(feature, label, w, lam) - gk 

if (yk.T * sk > 0):

Bk = Bk - (Bk * sk * sk.T * Bk) / (sk.T * Bk * sk) + (yk * yk.T) / (yk.T * sk)



k = k + 1

w0 = w

return w0 



def lbfgs(feature, label, lam, maxCycle, m=10):

'''利用lbfgs训练岭回归模型

input:feature(mat):特征

label(mat):标签

lam(float):正则化参数

maxCycle(int):最大迭代次数

m(int):lbfgs中选择保留的个数

output: w(mat):回归系数

'''

n = np.shape(feature)[1]

#1. 初始化

w0 = np.mat(np.zeros((n, 1)))

rho = 0.55

sigma = 0.4

H0 = np.eye(n)

s = []

y = []

k = 1

gk = get_gradient(feature, label, w0, lam)#3X1

print(gk)

dk = -H0 * gk

#2. 迭代

while (k < maxCycle):

print("iter: ", k, "\terror: ", get_error(feature, label, w0)) 

m = 0

mk = 0

gk = get_gradient(feature, label, w0, lam)

#2.1 Armijo线搜索

while (m < 20):

newf = get_result(feature, label, (w0 + rho ** m * dk), lam)

oldf = get_result(feature, label, w0, lam)

if newf < oldf + sigma * (rho ** m) * (gk.T * dk)[0, 0]:

mk = m

break

m = m + 1

#2.2 LBFGS校正

w = w0 + rho ** mk * dk

#保留m个

if k > m:

s.pop(0)

y.pop(0)

#保留最新的

sk = w - w0

qk = get_gradient(feature, label, w, lam)#3X1

yk = qk - gk

s.append(sk)

y.append(yk)

#two-loop

t = len(s)

a = []

for i in range(t):

alpha = (s[t - i - 1].T * qk) / (y[t - i - 1].T * s[t - i - 1])

qk = qk - alpha[0, 0] * y[t - i - 1]

a.append(alpha[0, 0])

r = H0 * qk



for i in range(t):

beta = (y[i].T * r) / (y[i].T * s[i])

r = r + s[i] * (a[t - i - 1] - beta[0, 0])

if yk.T * sk > 0:

print("update OK!!!!")

dk = -r

k = k + 1

w0 = w

return w0



def save_weights(file_name, w0):

'''保存最终的结果

input:file_name(string):需要保存的文件

w0(mat):权重

'''

f_result = open("weights", "w")

m, n = np.shape(w0)

for i in range(m):

w_tmp = []

for j in range(n):

w_tmp.append(str(w0[i, j]))

f_result.write("\t".join(w_tmp) + "\n")

f_result.close()



if __name__ == "__main__":

#1. 导入数据

print("----------1.load data ------------")

feature, label = load_data("data.txt")

#2. 训练模型

print("----------2.training ridge_regression ------------")

method = "lbfgs"#选择的方法

if method == "bfgs":#选择BFGS训练模型

w0 = bfgs(feature, label, 0.5, 1000)

elif method == "lbfgs":#选择LBFGS训练模型

w0 = lbfgs(feature, label, 0.5, 1000, m=10)

else:#使用最小二乘的方法

w0 = ridge_regression(feature, label, 0.5)

#3. 保存最终的模型

print("----------3.save model ------------")

save_weights("weights", w0)

运行程序,输出如下: 

----------1.load data ------------

----------2.training ridge_regression ------------

[[ -19745.73360913]

[-110149.14499117]

[-306327.80345624]]

iter:1error:5165.1938312549155

update OK!!!!

iter:2error:140.3163820505484

update OK!!!!

iter:3error:137.40907856263757

……

iter:997error:76.68074448016529

iter:998error:76.68074448016529

iter:999error:76.68074448016529

----------3.save model ------------

5.3小结
回归通常是机器学习中使用的第一个算法。通过学习因变量和自变量之间的关系实现对数据的预测。本章节通过线性回归、岭回归、Lasso回归这几个方面介绍回归问题,每章节通过理论与Python实践相结合,让读者快速掌握以Python解决回归问题的方法。
5.4习题
1.  BFGS算法是使用较多的一种,是由、、和 4人分别提出的,故称为BFGS校正。
2. 牛顿法最突出的优点是,具有局部,但是,基本牛顿法初始点需要足够“靠近”,否则,有可能导致算法不收敛,此时就引入了全局牛顿法。
3. 岭回归和Lasso回归都属于的特征选择方法,对于处理较为复杂的通常选用这两种方法。
4. 典型的回归问题有哪些?
5. 利用Python编写代码实现经典线性回归模型。