博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
吴恩达机器学习系列7:逻辑回归
阅读量:6993 次
发布时间:2019-06-27

本文共 991 字,大约阅读时间需要 3 分钟。

你们有没有每天被垃圾短信骚扰的经历呢?假设我收到了一条短信,这条短信对我来说只有两种情况,要么是对我有用的,要么是没用的。我想通过一个模型去预测该短信是否为垃圾短信,这时候用原来学过的线性回归算法就不太好用了,因为结果只有两种值,要么是垃圾短信(假设为 1),要么不是垃圾短信(假设为 0)。这时候我们要学习一种新的算法去预测这种分类问题,它就是逻辑回归算法(Logistic Regression)。逻辑回归是一种分类算法。

让我们来看一下逻辑回归算法,逻辑回归算法的假设函数 hθ(x) 由以下表达式组成:

其中g(z) 称为逻辑函数(Logistic Function),又称为 Sigmoid Function。g(z) 的函数图像为:

对于逻辑回归算法的假设函数 hθ(x) 可以这样理解,对于给定的参数 θ ,一组数据(x, y),通过 x 去预测 y = 1  的概率有多大,或 y = 0 的概率有多大。如果要写成表达式,如下:

y 只有两种可能性,要么为 0,要么为 1,因此通过 x 去预测 y = 1 和 y = 0 的概率之和为 1。 

让我们回到 g(z) 的函数图像,当 z > 0 时,g(z) > 0.5 ,y =1 概率比 y = 0 的概率大,我们就可以假设 y =1。当 z < 0 时,g(z) < 0.5 ,y =1 概率比 y = 0 的概率小,我们就可以假设 y = 0。那么预测 y 的值全部取决于 z 的值。举个例子来说,假设我有以下数据集:

我想要对该数据集进行分类,那么假设函数 hθ(x) 为:

当我给定参数向量的值为 θ = [-3 1 1] ,那么 z = -3 + x_1  + x_2  ,现在就变成当  -3 + x_1  + x_2  > 0 时 y = 1。我们可以在画出  -3 + x_1  + x_2  =  0 这条直线:

这条直线划分的两个范围,就是 y = 0 和 y = 1 的范围,这条直线就叫做决策边界(Decision Boundary。决策边界只与参数 θ 有关。

ps. 本篇文章是根据吴恩达机器学习课程整理的学习笔记。如果想要一起学习机器学习,可以关注微信公众号「SuperFeng」,期待与你的相遇。

转载于:https://juejin.im/post/5c80c82ae51d4526e619cd8c

你可能感兴趣的文章
struts1标签库
查看>>
git - openstack代码提交
查看>>
命令行关闭特定服务和调整服务启动方式
查看>>
为何总是拿到薪资范围下限的offer?
查看>>
事务一致性的错误
查看>>
jquery中使用css,offset和position设置top和left属性
查看>>
MyBatis 之 延迟加载(Lazy Load)
查看>>
Disruptor剖析
查看>>
oracle数据仓库物理模型设计
查看>>
请求的操作需要提升
查看>>
Android应用程序组件Content Provider的启动过程源代码分析(5)
查看>>
Squid三种代理方式的实现及ACL
查看>>
C语言中字符串的理解和常用的字符串操作
查看>>
平均指数一般编制方法
查看>>
在透视表中定义公式
查看>>
我的友情链接
查看>>
close_wait状态的产生原因及解决(1)
查看>>
我的友情链接
查看>>
servlet下载文件
查看>>
安永:第19届全球信息安全调查报告
查看>>