Caffe(深度学习框架)

利用caffe模型在CPU上测试大概耗时多久 2016-02-17    1

如果我用caffe里的cifar10模型(32*32)去测试,cpu:2.5 Ghz,4G,无GPU,一张图片大概耗时多久呢我是弄过汉字识别,自己训练的caffe模型5M多,一张55*55的汉字小图识别大概是0.013秒,大概一秒钟七八十张图,用CPU的,我的笔记本的CPU是i120M 2.5GHz 1

卷积网络Convnet如何识别干扰图像 2016-02-09    1

卷积网络Convnet如何识别干扰图像,比如我做一个数字的OCR,对于字符图像可能很容易识别,增加训练样本训练卷积网络即可,但是对于非的字符图像如何有效的拒识?置信度还是增加第11个干扰样本类别训练?感觉置信度不太好用啊.各位都有啥经验?谢谢.先拿数字类与非数字类的数据集训练出两个分类,再将数字类的细分再训 5

深度学习工具caffe在windows上的性能表现真的没有在Linux上好吗 2016-02-02    4

听到有些人说caffe for windows不能做dl研究,原因是速度慢.请问,分别考虑使用cpu计算和使用gpu计算两种情况时,caffe在windows上的性能真的不如在Linux上吗?---我个人在两台电脑(一台装windows,另一台是centos)上配置.运行过caffe,但没进行过对比,都使用gpu时没感觉速度有明显区别,到底速度有没有影响,还请大神指点!个人感觉不会有啥本质差别.如果有差别的话,那基本上就可能是:(1) 你用的底层数学库不一样,而这些底层数学库的速度不同.比如说A

caffe官方将会支持TX1的fp16的特性吗 2016-01-31    2

1. caffe官方将会支持TX1的fp16的特性吗?2. 如果官方将不支持,有什么好的建议?3. 如果我想自己修改caffe源码,支持fp16的运算,是否可行?欢迎有兴趣的朋友指点迷津.目前caffe里面的fp16支持NVIDIA还在写.因为caffe最开始的设计写残了,数据格式的支持是靠C++模板从Net开始一路hard code下来的,所以不是很好一层一层渐进地加fp16支持.简单地说,如果要用fp16,那网络里面所有的层都需要用fp16,那就得一把把所有的层都写好才能测试,这个限制略狠了

Caffe训练二分类分类器loss居高不下 2016-01-30    6

我利用Caffe训练一个二分类分类器(基于caffenet),将train_val.prototxt的输出层的输出类别数目改为2,训练一直不收敛,loss很高:当把输出改成3或10(>=2)的时候,网络可以收敛.也就是caffenet结构的输出层的类别数一定要大于我训练集的类别数才可以收敛,这是什么原因,百思不得其解,望赐教!注:已对数据做shuffle处理近来caffe的作业题,老是邀请人我做呀,而且大部分都不是caffe本身设置的问题....条件太少,根据描述,我猜测如下:你确定你的二类真的

caffe中用C++如何实现类似matlab和python接口的classification的功能 2016-01-22    2

使用caffe做深度学习的工具,主要用C++,在测试网络时,希望能直接读入图像,而不是把图像转化为levelDB或lmdb后再使用.现在的C++接口中,是在data layer中的source里写明db数据的路径,而matlab和python接口中则可以read image,然后进行运算.求教,C++中如何实现类似功能?应该修改哪部分的代码?python接口中还有net.predict([input_image])的功能,C++如何实现?求教思路.补充:我是在Windows下运行参考exampl

cuDNN怎么无法下载呢 2015-12-21    2

cuDNN怎么无法下载呢
要下载cuDNN,注册完点了download后,说是要完成一个survey才能下载,但是完全看不到survey在哪啊,肿么破.网盘上看到有可以下载的cudnn-6.5-linux-R1.tgz.感觉不是最新的,强迫症表示想装最新的.显然你没有注册为nv开发者 6你要注册一下nvidia,然后填问卷调查 .或者留下邮箱我发给你 4

用 Caffe 可以做什么好玩的 Project 2015-12-20    4

刚开始接触 Caffe,看了官网上的 Tutorial,想自己做个小 Project 熟悉下这个框架,有木有好玩的 Project 推荐?纯新手,太难了可能做不出来,谢谢-色情封面检测:分享个自己爬的数据集http://pan.baidu.com/s/1c0s8wdq10000通販AV+10000Yahoo映画海报 6人品鉴别器.情侣速配器.直男鉴别器,这些好玩不...想简单可以用MNIST来练习 6<你家的狗是什么品种> 6欢迎来到Dee

计算机视觉小白,请教大神们keras和caffe如何选择它们各自的利弊 2015-12-20    2

研一狗,计算机视觉方向,对于这两个的选择有点迷茫~我觉得搞计算机视觉还是往博士上读,如果读博士的话,你有大把时间把两个都学了.如果只想毕业滚蛋,建议实习为主. 3我用过caffe.caffe的配置安装很麻烦,但是他的速度相对keras应该是快多了,推荐caffe.caffe的底层代码还可以优化.如果追求功能强大的话,也可以用剑桥大学vgg组开发的Matconv,这个深度学习框架用起来感觉速度要比caffe慢,但是他能够在像素级别上对背景还有目标进行区分.这一点是caffe没有的

如何调用caffe已经训练好的net 2015-12-03    3

如何调用caffe已经训练好的net
在尝试用caffe分类一个自己的二分类图像数据库.根据训练过程来看,训练应该是已经收敛了,(反正loss一直在减小).然而测试集上的accuracy一直都是=0.5.所以现在想着把生成的模型文件调出来用数据测试下,观察下是什么问题,请问应当如何去实现呢.或者各位如果能指点下,可能是什么原因导致的accuracy = 0.5 不变.那就更好啦.谢谢!关于准确率一直是0.5:我不了 ...

python中caffe训练好的模型分类图像显示no module named _caffe什么原因 2015-11-24    1

我实现装的caffe,然后过了一段时间才装了python:装完python之后 用export PYTHONPATH=$PYTHONPATH:/home/cj695/protobuf/python/ 配置了环境变量.这么做是不是不对?求指导按照官网的安装教程装好caffe的python库,在caffe的目录下sudo make pycaffe即可export PYTHONPATH=$PYTHONPATH:你的caffe目录/python 3

利用caffe训练siamese网络时,有训练出很好结果的吗请问准备pair数据上有什么建议吗 2015-11-19    3

计算机 caffe 深度学习添个回答来抛砖引玉吧,推荐两篇论文:Learning to Compare Image Patches via Convolutional Neural NetworkMatchNet: Unifying Feature and Metric Learning for Patch-Based Matching同时出现在CVPR2015上,我个人对这块工作很感兴趣,欢迎讨论! 9准备pair时的总体思想:正样本的距离越远越好 负样本的距离越近越好. 2

multi-task深度神经网络如何实现,优化 2015-11-15    2

Multi-task神经网络理论上可以得到更加具有表现力的特征,同时也能使各个任务不用单独训练网络参数.以最经典的图片分类任务为例,传统的训练都是针对单个任务,一张图片对应一个类别标签,如果现在需要对每张图片做K个分类任务(任意一个任务都能单独训练网络并取得不错的准确率),可不可以直接在最后一个特征层后增加几个softmax层进行多任务分类?如果可以,什么情况下网络能收敛?此时各个任务的分类准确率与原来相比是否会上升或下降?Multi-Task 指的是不同的但是相关的任务共享网络结构以期达到整体

mxnet的代码要怎么读 2015-10-14    9

最近在看 mxnet 的源码 dmlc/mxnet · GitHub.初步体会感觉 mxnet 有潜力成为一个非常优秀的深度学习的框架.足够灵活,速度足够快,扩展新的功能比较容易.如果我没理解错的话,mxnet 透过 parameter server 能够直接做到多机多卡并行,透过 mshdow 可以写一份代码同时可以在 cpu 和 gpu 上面跑,symbol的作用我还没搞明白.总体来说,我认为 mxnet 是一套非常棒的深度学习的工具.所以,我计划深入代码研究.然而,dmlc 的初衷好像是提

在众多的神经网络框架如chainer, caffe, torch之间如何做选择 2015-10-14    2

神经网络框架有很多,它们之间实际的对比效果如何,如何选择合适的框架.如果喜欢c++并且追求代码效率,可以考虑caffee,如果喜欢python,并且对网络有较高的个性化定制需求,推荐theano,如果喜欢python但是只需要使用cnn,rnn等的标准模块.,强烈推荐keras,如果不会python,喜欢灵活架构的,可以考虑torch,使用的是lua这个入门比较简单的脚本语言,keras很多借鉴的就是torch匿名 7分布式就dmlc,caffe都是在跟dmlc里mxnet的脚

用caffe训练和用caffe fine tune时,solver.prototxt的参数有什么区别 2015-10-14    1

我做fine tune时没有问题,精度也挺高的,但是做训练时同样的数据精度只有1%左右,所以我想应该是solver的参数设置错了,我尝试了不少修改,也没有得到正确的答案.求大神指教怎么调!fine-tune时用已经训练好的权值进行初始化,结果一般比直接训练会好很多,尤其是训练数据不多的情况下.solver文件中最重要的可能是学习率了,一般fine-tune时学习率比直接train时小一些,一般训练的学习率0.001~0.01之间,可以多试试.知道 5

caffe的finetuning是如何更新网络参数的 2015-10-14    1

大家好,一直很困惑caffe在做fine-tuning时,有两个问题:1.如果将imagenet训练得到的网络最后的softmax层的输出由1000改为20,那么用自己的数据进行训练后,之前net中的卷积层,全连接层的参数是否会发生更新?2.假设fine-tune时网络参数发生变化,我不想让某些特定层的参数在fine-tuning的时候发生变化,是否可以将这些层的学习率置0?谢谢!1.会更新,finetune的过程相当于继续训练,跟直接训练的区别是初始化的时候:a. 直接训练是按照网络定义指定的
一周排行