SVM 训练14000条数据得多久

SVM中,高斯核为什么会把原始维度映射到无穷多维 2015-10-13    2

SVM中,高斯核为什么会把原始维度映射到无穷多维
SVM中,对于线性不可分的情况下,我们利用升维,把低维度映射到到维度让数据变得"更可能线性可分",为了避免维度爆炸,我们巧妙的运用了核函数,避免了在高维度空间的计算,而只需要在低维度空间进行计算.对于核函数,有:多项式核高斯核:对于多项式核,我们把低维度映射到高维度,我们可以从公式中很容易的理解,但是对于高斯核,"把维度映射到无穷多维", ...

学习神经网络、SVM等机器学习的知识,为了更好的投入到应用当中,用matlab还是c++好呢 2015-10-14    20

我目前主要是从事NLP和神经网络相关开发.两者都应该学习,理由如下:1. matlab语法简单,矩阵计算优化好,文献中有很多程序都是用matlab写的.如果想要制作产品原型,或者阅读别人的代码,学习matlab都是很好的途径.另外matlab也很好学,做几个习题基本的方法就能学会了.2. C++运算速度快,应用面广,在计算量大的时候可以考虑使用C++作为产品开发的语言.可以配合一些优化较好的矩阵库,比如Eigen.我在我的电脑(Phenom X4 + ddr2 8G + ubuntu 12.04

什么是latent SVM 2015-10-18    1

希望牛人可以解答一下.linear SVM是他的一个特例么?菜鸟试着简单答一下 但是表示自己对Latent SVM(下面简称LSVM)也还是认识很模糊 希望可以抛砖引玉引来大神对LSVM的独到见解 首先总觉得从题主的问题内容来看,应该再回去好好读读SVM是什么,因为Latent SVM和Linear SVM完全没有可比性啊 Linear SVM中的Linear指的仅仅是SVM算法所使用的核函数是线性核,核函数的选择应该是SVM的基本知识了 核有很多种 比如RBF核 高斯核 多项式核等,这些是应该

MFCC特征如何输入到SVM里面做训练 2015-11-22    1

MFCC特征结果是N*24的矩阵,N是随声音长短而改变的,这样的情况下应该如何输入svm训练呢?谢谢.截取相同长度的特征向量作为样本特征进行训练就行. 5

什么是一类支持向量机one class SVM,是指分两类的支持向量机吗 2015-11-23    4

什么是一类支持向量机one class SVM,是指分两类的支持向量机吗
我对"一类"这个定语不是很理解One Class SVM 是指你的training data 只有一类positive (或者negative)的data, 而没有另外的一类.在这时,你需要learn的实际上你training data 的boundary.而这时不能使用 maximum margin 了,因为你没有两类的data. 所以呢,在这边文章中,& ...

mitchell的机器学习为什么没有讲到svm 2015-11-24    1

svm不是应该着重介绍的么?可是为什么这本书翻不到呢?97年3月出版的,SVM 95年才提出,成为研究热点貌似也是90年代末20世纪初了,这个有点儿强人所难.Support vector machineMachine Learning: Tom M. Mitchell: 9780070428072: Amazon.com: Books 6

svm和linear regression或者logistic regression相比有哪些优势 2015-11-24    2

svm为什么应用这么广泛? 优势在哪里?linear regression和另外两个没有可比性,这个是做回归的,其他两个是做分类的.svm用kernel的话时间复杂度会低很多?这种表达不准确.kernel是方便求高维空间内积的,如果你不用映射到高维,也就不用kernel,当然比用kernel快.如果你要映射到高维,kernel会降低复杂度,并且有些无限维空间没有kernel是跟本没法求的.SVM和logistic regression区别在 loss fuction. SVM是hingle lo

Linear SVM 和 LR 有什么异同 2015-11-26    8

Linear SVM 和 LR 有什么异同
SVM和LR,本质上,不都是找一个分类超平面吗?那他们有什么本质上的差别吗?题主问本质差别,最本质就是loss function不同."lr 和 svm本质不同在于loss function的不同,不过想想这几乎对所有的单层模型都使用,lr的损失函数是 cross entropy loss, adaboost的损失函数是 expotional loss ,svm是hi ...

SVM和logistic回归分别在什么情况下使用 2015-11-26    5

两者都是线性分类器的话,只是实现方式不同,那么各自适用于哪些场景呢?两种方法都是常见的分类算法,从目标函数来看,区别在于逻辑回归采用的是logistical loss,svm采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重.SVM的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器.而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重.两者的

SVM分类中一个token属于多个类别的问题 2015-11-26    2

现在需要使用SVM进行分类,我们需要把每个token进行分类,但是现在问题是每个token可能属于不止一类,比如一个token可能属于类别1和类别2.想请教一下大家这种情况下应该怎么样标注训练集,如何训练和测试.谢谢.对每个类别分别训练一个正/负分类器.训练时,凡是属于这一类的数据都算正类(而不管它们是否同时属于别的类),不属于这一类的数据都算负类.测试时,对每条数据,有几个分类器输入为正,就算这条数据属于几个类. 1每个token可能属于1类和2类的话,为什么不用logist

人工神经网络ANN现在发展到什么的样的状态 有很多人说SVM和adaboost比ANN强,又有人说deep learning的ANN更好.到底如何呢. 2015-12-02    5

先说结论:通常情况下,深层模型(Deep Learning)比浅层模型会有更好的表达能力,ensemble技术(adaboost)比单一分类器会有更小的分类错误.在<学习OpenCV>讲述Adaboost算法的章节中,称通常情况下,Adaboost和Random Forest往往会比其他模型表现得更好.其实上,Adaboost与ANN.SVM存在一些本质的不同,它是一种ensemble思想下的模型,是boost的经典实现.经典的Adaboost是以决策树作为弱分类器,以弱分类器的集成来构建强分

svm高斯核中的sigma参数具体是在控制什么 2015-12-03    1

性质 1 若RBF核中尺度参数σ趋于0,则拉格朗日乘子向量的所有分量都大于0,即全部样本点都是支持向量. 性质1 说明,对于任意给定的训练集,只要σ>0且充分小,RBF核SVM必定可对所有训练样本正确分类,这很容易造成'过学习'的情况. 性质 2 当σ趋于无穷时,SVM的判别函数为一常函数,其推广能力或对新样本的正确分类能力为零,即把所有样本点判为同一类. 实际上,当σ比训练样本点之间的距离小得多时,就能达到σ趋于0的效果,当σ比训练样本点之间的距离大得多的时候,就产生σ趋于无穷的效果.有人能解

各种机器学习的应用场景分别是什么例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型。 2015-12-03    7

各种机器学习的应用场景分别是什么例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型。
k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型,隐马尔科夫,条件随机场,adaboost,em 这些在一般工作中,分别用到的频率多大?一般用途是什么?需要注意什么?本人刚看了机器学习实战和统计学习方法,刚了解这些东西,希望有经验的大牛回答下,以便于后续有针对的学习,谢谢一般来说Machine Learning主要有3种:Supervised LearningSemi- ...

svm(支持向量机)的训练时用到了一些核函数(kernel function),怎么样正确理解它们的作用 2015-12-16    7

其实可函数和SVM可以理解为两个不同的东西,SVM只不过是用到了kernel trick是的有些线性不可分的情况变得在高维线性可分(理想上),任何可以用内积计算距离的分类器或者其他的都可以用kernel trick.可函数的好处是把低维空间投影到高维,有些核函数投影到有限维,比如多项式核,有些投影到无穷维,比如RBF.但这只是增大的线性可分的可能性,并不能保证.所以还要进入松弛系数(slash coefficients) 如果形象的理解,就是如果你有N个点,如果N个点分布在N维空间里,那他们肯定

全幅单反拍摄视频录音用Rode SVM ,Rode Videomic Pro,ZOOM H4N和SONY D50那个更好区别在 2015-12-17    2

我明白Rode SVM是Camera Mount的.分期录音会比同期麻烦很多吗? 对话录音, 单声道和立体声区别在哪儿?关于话筒我不是太熟就不乱说了:关于H4N和D50,可以看看这篇文章http://www.musicstn.com/tech/evaluating/200905/tech_20090525110338_1891.html关于对话录音,我对分期同期的概念不是很清楚,我经历过一些半专业的微电影拍摄,说说我知道的吧:1.一般是用挑杆搭载指向性好的话筒直接录表演时的现场对话,然后再专门录

支持向量机svm比岭回归rr强在哪里 2015-12-22    1

无.这两个不是一个层面的东西吧...非要说的话,可以对比SVM和LR,都是分类器.SVM 和LR都可以添加正则化项,比如RR.SVM 和LR 的对比参见http://www.zhihu.com/question/21704547 1

5D2和5D3接RODE SVM录音有很大噪音,怎么解决 2015-12-24    3

刚购买了一支RODE SVM,本意是改善录音质量的,谁知录音后音频有大量的沙沙声音,一直存在,以致于素材完全无法使用.使用5D2相机自带的麦克都没有这样大的噪音.当时以为是麦克有问题,返回到中音维修,他们告知麦克没有问题.今天使用了3个不同的相机,两个5D2一个5D3试验,这个噪音问题依然存在.有谁能告诉我这是什么原因吗?如何解决?我的用途就是拍摄采访,希望麦克能够方便的接在相机上,而且音质比相机自带的麦克有所提升,是否有其他品牌或者类型的麦克插在5D2上没有这样大的噪音???不知你是不是开启了

用e1071 package建立非线性SVM模型后,要如何提取分类超平面 2016-01-13    2

目前需要将一个训练好的非线性SVM模型做可视化.设想中的策略是把分类超平面提取出来,然后投射到已经建立好的PCA score plot上不过我查看了一下文档,似乎e1071和knerlab都没有提供提取超平面的函数.那么如果想提取这个超平面的话,有没有什么手工的方法?没用过你说的工具包,不过根据模型参数构造超平面并不难.如果你的工具包给出的模型是primal form,那么模型参数本身就是超平面方程里的参数.如果你的工具包给出的模型是dual form(即支持向量和它们的权重),那么把支持向量按

文本分类树模型与线性分类器i.e.,LR,SVM对比 2016-01-19    1

在做文本分类时,如通过标题关键词,文章长度等提取出50维左右特征,想了解这种情况为什么通常用linear svm,lr 比决策树效果好?50维算比较少的,一般的文本分类维数都比较高,这种情况下一般都是线性可分的,也就是在高维空间用一个线性的超平面就能区分开来了,这样线性分类器效果已经很好了,速度还比较快,如果用非线性分类器,像决策树,非线性svm等,速度慢不说,参数调不好还容易过拟合,效果反而差. 8
一周排行