搜索:深度学习

(转)深度解析 PouchContainer 的富容器技术

转载 2019-05-04 02:33 阅读(155)次
最近阅读了阿里的pouchcontainer,容器方面还不敢说精通,但我觉得在原有(旧)服务迁移容器过程中,考虑运维工具和一些系统服务还是很常见且需要考虑的。本文转载:作者:阿里开发者链接:https://www.jianshu.com/p/efb6dba9fa6a来源:简书PouchContainer 是阿里巴巴集团开源的高效、轻量级企业级富容器引擎技术,拥有隔离性强、可移植性高、资源占用少等特性。可以帮助企业快速实现存量业务容器化,同时提高超大规模下数据中心的物理资源利用率PouchContainer 源自阿里巴巴内部场景,诞生初期,在如何为互联网应用保驾护航方面,倾尽了阿里巴巴工程师们的...

Java程序员月薪达到三万,需要技术水平达到什么程?(转)

转载 2018-08-21 16:26 阅读(202)次
最近看到一篇文章,是谈论JAVA的收入水平。几张图还是包含了主要的知识点的。其实这些知识全部看了要花好多时间的,但确实对刚工作不久的小伙伴是一个正确方向的指引。 原文地址:https://blog.csdn.net/bntx2jsqfehy7/article/details/80269618 ,但他也是转载的,并且没有注明出处,恕我无法找到源头。 后面一些宣传的广告我就去掉了。 最近跟朋友在一起聚会的时候,提了一个问题,说Java程序员如何能月薪达到三万,技术水平需要达到什么程度?人回答说这只能是大企业或者互联网企业工程师才能拿到。也许是的,小公司或者非互联网企业拿二万的不太可能是码农了,应该...

(转自CSDN)深度学习入门必须理解这25个概念

转载 2018-06-06 21:34 阅读(122)次
最近在一个公众号看到推送了这篇文章,写得还是通俗易懂的,如果有基础的小伙伴看起来应该很不错,我觉得用来复习巩固知识非常合适 我联系博主,还没回复,容我转载过来自己时常复习。如有不妥,请联系我删除。 原文地址:https://blog.csdn.net/pangjiuzala/article/details/72630166    作者 Star先生神经网络基础1)神经元(Neuron)——就像形成我们大脑基本元素的神经元一样,神经元形成神经网络的基本结构。想象一下,当我们得到新信息时我们该怎么做。当我们获取信息时,我们一般会处理它,然后生成一个输出。类似地,在神经网络的情况...

常见但不要滥用的优化机器学习结果的方式

原创 2018-05-10 11:50 阅读(128)次
机器学习的结果就是预测函数,或者叫做model(mahout里面是称之为model)。 当我们使用这个预测函数,不论是回归还是分类或者聚类,我们把新的数据传入到预测函数,多少还是需要人工判断一下预测结果的准确度的。当发现结果不理想的时候,一般可以从以下几个方面考虑。 首先,在极少的情况下,你可以把这个预测函数可视化,也就是画图展示出来。这有个苛刻的条件,你的特征项不能超过3个,否则3维以上的图形是很难画出来的。如果你有幸特征项是在3个以下,请尝试画出函数图,看看是否过拟合训练数据。 抛弃理想情况,更多的我们是要观察一下机器学习算法的训练数据是否合适。 首先看看训练样本数量是否足够,特别是多分...

监督学习的数据集的划分和模型的选择

原创 2018-05-09 17:41 阅读(152)次
对于监督学习中的训练样本数据,划分技巧是很重要的。 往往我们的划分是七三分,70%训练集,30%测试集。 但这并不是最好的。 因为不管是回归还是分类问题,在多次项 polynomial 的选择上有很多。在讨论过拟合问题中我们提到过,高次项过多是过拟合的一种表征,而都是1次项组成又容易发生欠拟合。 多次项如何选择呢。就需要数据集的划分出验证集来做验证。 数据集首先应该打乱顺序,因为一些数据可能存在递增递减,或者按时间段起伏的特点,如果在划分数据的时候是按顺序划分,很可能让每份数据差别很大。所以需要随机并按比例分。 其次数据集应该分为三分,60%训练集,20%验证集,20%测试集。 为什么会多出了...

概率的那些“差”

原创 2018-04-21 11:47 阅读(123)次
平均数,一般用字母μ表示 算数平均数 ,mean,表达的都是同一种意思,一般是指 不过还有加权平均数,即每项都有不同权重值。即 标准差,一般用字母σ表示   方差,variance  为总体方差,  为变量,  为总体均值,  为总体例数。

下降法处理正则化后的逻辑回归,解决过拟合

原创 2018-04-08 01:00 阅读(144)次
逻辑回归的代价函数是 这个可以看  分类之逻辑回归的代价函数costfunction 过拟合问题和正则化可以看这里       欠拟合,过拟合问题     正则化-解决过拟合 正则化后就是加入了惩罚项:  带入梯度下降法     得到 这和线性回归部分看似相同,但记得h(θ)是sigmoid函数,而线性回归h(θ)是线性方程。 会发现,其实是在θj的部分,多乘上一个 ,而由于α , λ , m 皆为正数,所以实际上每进行一个梯度下降的循环,θj都缩小一些。而后面...

下降处理正则化后的线性回归,解决过拟合

原创 2018-04-07 23:12 阅读(245)次
过拟合问题 和正则化 在   欠拟合,过拟合问题  和 正则化-解决过拟合  中解释过。 现在我们要把正则化应用到线性回归算法中来解决可能出现的过拟合问题。 就是把           带入到梯度下降   更正: 在这里的J(θ0,θ1)  应该是 J(θ) 中 得到 可以看出来,θ0的梯度下降是跟之前未加入正则化的时候一样的。这也符合了我们正则化-解决过拟合  提到的,惩罚项不包过θ0的说法。 j 输入1到n的部分,可以将θj提取出来得到...

正则化-解决过拟合

原创 2018-04-07 16:20 阅读(146)次
过拟合的问题我已经介绍过了: 过拟合 我们知道过拟合的表征就是预测函数有太多高阶项比如3次方,4次方,或者更高。那我们可以通过降低或者去除这些项来解决过拟合问题,正则化的本质是为了简化预测函数的模型,使函数曲线更平滑,而减少这些高次项带来的过拟合。 由于h(x)是一个以x为自变量的函数,我们无法控制输入的数据x,所以简化函数的手段就是去减少或者去除某些参数θk。 去除高次项需要一些正确人工判断,人工就存在主观,可能带来错误,把一些对正确预测结果有帮助的特征项(但可能帮助很小,但却被扩大而造成过拟合)去掉。此时减少这些被扩大的影响比去除掉此特征项更合适。 在做预测函数h(x)求参数θ解...

-极大似然估计

转载 2018-04-02 00:30 阅读(119)次
这是一个基于概率的算法。 转自百度百科的原理  极大似然估计 它是建立在极大似然原理的基础上的一个统计方法,极大似然原理的直观想法是,一个随机试验如有若干个可能的结果A,B,C,... ,若在一次试验中,结果A出现了,那么可以认为实验条件对A的出现有利,也即出现的概率P(A)较大。极大似然原理的直观想法我们用下面例子说明。设甲箱中有99个白球,1个黑球;乙箱中有1个白球.99个黑球。现随机取出一箱,再从抽取的一箱中随机取出一球,结果是黑球,这一黑球从乙箱抽取的概率比从甲箱抽取的概率大得多,这时我们自然更多地相信这个黑球是取自乙箱的。一般说来,事件A发生的概率与某一未知参数&...

-最小二乘法

转载 2018-03-23 16:54 阅读(121)次
我这里转载知乎上 司马懿 的回答,我个人认为通俗易懂,写得非常好。原文地址在 知乎-最大似然估计和最小二乘法怎么理解?的回答 设想一个例子,教育程度和工资之间的关系。我们观察到的数据无非就是一个教育程度,对应着一个工资。我们希望的自然是找到两者之间的规律:如果把教育程度的初中、高中、大学、研究生及博士定义为1234的话,我们希望找到类似于工资=1000 +2000x教育程度  的这种规律,其中1000和2000是我们需要从数据里面发现的,前者称之为底薪,后者称之为教育增量薪水。 如果我们就观察到两个数据,那解起来很简单,直接把两个数据带进去,二元一次方程组,就得到底薪和教育...

-arg

原创 2018-03-23 16:24 阅读(107)次
公式中常见到 arg min()  或者 arg max() 他们的含义是 argument of the maximum/minimum。 即 arg max f(x): 当f(x)取最大值时,x的取值集合 arg min f(x):当f(x)取最小值时,x的取值集合 如:    f(x)  = 1 - |x|   .         arg max f(x)  就是 {0} ,  因为当x = 0 的时候, 1-|x| = 1 是f(x)的极限。 如果...

-范数

转载 2018-03-22 17:43 阅读(148)次
范数分为   向量范数和矩阵范数。范数,是具有“长度”概念的函数。 参考:https://blog.csdn.net/zouxy09/article/details/24971995   https://blog.csdn.net/jack_20/article/details/72896459   https://www.zhihu.com/question/20473040          引用了其中很多学习到的内容 向量范数:  对N维度的空间中任意一个向量X,按照一定的法...

-线性,非线性

转载 2018-03-22 17:12 阅读(126)次
在机器学习中,经常讨论线性和非线性,这是一个入门级扫盲,我记录下来完全是自己查阅。 我查看了不同的一些网上说法,选择这个解释 转载自:  https://zhidao.baidu.com/question/94379061.html 线性linear,指量与量之间按比例、成直线的关系,在空间和时间上代表规则和光滑的运动; 非线性non-linear则指不按比例、不成直线的关系,代表不规则的运动和突变。 线性:指量与量之间按比例、成直线的关系,在数学上可以理解为一阶导数为常数的函数; 非线性:则指不按比例、不成直线的关系,一阶导数不为常数。 线性关系:两个变量之间存在一次方函...

概念- 矩阵特征值,特征向量

原创 2018-03-22 17:00 阅读(128)次
笔者深入地学习机器学习后,发现多年前的数学已经都还给了老师。还有一些是没有学习过的知识。 这里我打算我需要重新确认的数学知识记录下来。 但我能力有限,很多是转载,在这里先感谢那些在网上编写这些数学知识的达人。 矩阵特征值和特征向量我反正是还给老师了,重新学习后,感觉还是需要一些生动的比拟来解释。 这些是我结合知乎和CSDN上的内容的整合。 定义: 设A是n阶矩阵,如果数λ和n维非零向量x使关系式    成立,那么,这样的数λ称为矩阵A的特征值,非零向量v称为A的对应于特征值λ的特征向量。 首先得先弄清矩阵的概念:一个矩阵代表的是一个线性变换规则,而一个矩阵的乘法运行代表...

共轭梯

原创 2018-03-22 10:26 阅读(125)次
参考了百度文库的此文,加以个人理解:https://wenku.baidu.com/view/593769d8a76e58fafbb00393.html 无约束最优化问题,即为在不对所求问题定义域或值域做任何限制情况下,对目标函数求最小值的一类问题。 简单说就是 y=f(x)的函数,就是对x,y都没有限制,求f(x)最小值的问题。 无约束最优化问题的求解方法大多是采用逐次一维搜索的迭代算法。这类迭代算法可分为两类。一类需要用目标函数的导函数,称为解析法;另一类不涉及导数,只用到函数值,称为直接法。 看我的 梯度下降法  一文的很快会发现梯度下降就是第一类。 其中属于解析型的...

多分类问题的求解思路

原创 2018-03-19 18:21 阅读(134)次
在 机器学习之分类入门 一文中,我们介绍过分类问题中有多分类的问题,在之前的介绍中,我们更多的都是在寻找二分类的问题的决策边界。在二维坐标系中,二分类的决策边界是一条直线,3D坐标系,决策边界是一个平面。 而多分类问题,假设类别有1,2,3,4   四种分类,四种分类的样本分布在二维坐标系中,此时是无法只用一条线把多种分类划分出来。但我们换位思考,我们把这些样本看成类别1和其他类别(包含了类别2,3,4) -----  两种分类,那就可以用一条线把类别1,和其他类别-1划分出来。同理,我们把样本看成类别2和其他类别(包含了类别1,3,4),那我...

线性回归用梯下降求解

原创 2018-03-19 11:46 阅读(130)次
对于多元线性回归还是一元线性回归,他们使用梯度下降求解的方法是相同的。 梯度下降法的介绍在这里: 梯度下降 gradient descent 都是遵循线性梯度下降方法,区别只是同时更新的θ的个数         代入 相当于 使用梯度下降法的几个加快收敛的注意事项: 1.    特征缩放 如果有多个特征项,他们的取值范围差异很大,会造成对应他们的θ的取值范围也很大。 假设x1 取值范围较大,对应的θ1的取值范围则会较小,因为θ1也改变得较大,会造成h(x)的振幅很大。反之亦然。 这样不利于梯度下降收敛。由于Θ中有一...

机器学习之回归入门

原创 2018-03-03 18:18 阅读(131)次
什么是回归问题转换成数学问题线性回归什么是回归问题        预测明天甚至未来一周的气温,这是回归问题。 预测 iphone的价格走势,这是回归问题 预测房价的走势,这是回归的问题。 甚至位于数学界最深渊的问题,预测股价,也是回归问题 从上面这4个问题我们能发现回归问题预测的是连续的结果(这是相对于分类的离散值而言),是一个具体的数值。 这就是机器学习的回归问题。 同时他也是监督学习的一种。 监督学习:首先他需要由一定数量的训练数据集,数据集中包含训练需要的特征项,同时也包含正确的"答案"。   ...

下降 gradient descent

原创 2018-02-25 20:34 阅读(159)次
梯度下降法,用来最小化一个函数的方法,可以用在机器学习的很多地方,特别是cost function,但不仅限于此。 也有称之为最速下降法。 梯度下降的原理就是沿着曲线逐步调整,以一定的学习速率向最低点移动,直到找到全局最低点或者局部最低点。 梯度下降需要有一下几个注意事项: 1.   因为很可能会停留在局部最低值,所以对应的曲线图形最好是凸函数图形,即只有全局最低点,不存在局部最低点的图形,这样就可以排除局部最低点的困扰。 如图,因为到了X点的时候,导数是0,梯度下降不会在移动参数了,认为是最低点了,但其实红点才是最低点。 2.   学习速率的选择,就...

分类之逻辑回归的代价函数costfunction梯下降求解

原创 2018-02-25 17:14 阅读(158)次
我们在 分类之  分类之逻辑回归的代价函数costfunction  此文中已经给出了cost function, 现在我们要求解。 依然是用梯度下降法来求解,找到cost function  的最小值    minJ(θ)。 因为minJ(θ) 就是说明预测和真实值最接近,预测函数得出的错误“代价”最小。        梯度下降法就是重复做下面的计算 而后半部分求导得到         ...

octave之算数Arithmetic

原创 2018-02-23 14:24 阅读(187)次
数学的遗忘是我学习机器学习中最烦恼的事情了。我不知道有多少程序员跟我一样把数学大部分都已经还给老师了。但要学好机器学习甚至是深度学习,数学得捡回来。Exponents and Logarithms 指数和对数Trigonometry 三角函数其他Exponents and Logarithms 指数和对数e 约等于2.718这件事情没忘吧。exp (x)计算以自然对数e为底的指数计算exp(3) ans = 20.086log (x)以e为底求对数log(2.71) ans = 0.99695log1p (x)相当于log(x+1) ,貌似没什么用的方法。...

机器学习之分类入门

原创 2018-02-14 16:37 阅读(170)次
分类问题    数学问题    线性回归不适用    目标    什么是分类问题       判断一个水果,他是苹果,梨子,葡萄,还是桔子。这就是分类问题。       判断一个人是否可以得到贷款,这也是分类问题。       判断一颗植物是否还能存活,这同样是分类问题。       判断一个水果还过多久才能成熟,这就...