如何开启深度学习之旅

作者&投稿:肥骅 (若有异议请与网页底部的电邮联系)
如何开启深度学习之旅~

1.第一步就是理解机器学习

2.接下来就是开发你自己的神经网络。所以大胆向前尝试吧,写下你的第一个神经网络(first Neural Network ),并且尽情享受乐趣。
3.理解神经网络是非常重要的,但是简单的神经网络却不足以解决那些最有趣的实际问题。而变化的卷积神经网络在视觉任务的处理上表现非常出色。斯坦福大学的教程笔记和PPT都在这里提供大家参考:CS231n Convolutional Neural Networks for Visual Recognition(notes), and CS231n: Convolutional Neural Networks for Visual Recognition (lecture slides)。

4.下一步就是根据之前做的工作,在自己电脑上运行你首个CNN网络。
· 购买GPU并且安装CUDA
· 安装Caffe框架和它的GUI Digit平台
· 安装Boinc(这或许不能再深度学习方面对你产生帮助,但是能够让其他的研究者在空闲时间使用你的GPU)
5.Digit为你提供了一些算法,诸如-用于字符识别的Lenet,用于图像分类算法的GoogleNet.你需要下载Lenet的数据集和GoogleNet的数据集来运行这些算法。你也可以修改这些算法,并且尝试其他有趣的图片识别任务,像我们在这儿做的(here)。
6.针对很多自然语言处理(NLP)任务,RNNs(回馈神经网络)是最好的解决办法。而学习RNNs的最好方法是斯坦福的课程讲义视频(Stanford lecture videos here)。你可以下载Tensorflow并且用它来建立RNNs。
7.到了现在,你可以继续向前进并且选择一个深度学习问题,从人脸检测到自动驾驶的语音识别,并且尝试去解决这些问题。
如果你已经将以上的步骤完成,

讲真 有点编程基础 非常好入门
没有编程基础 就找点视频讲解(直接去网上找入门视频,尽量找3.X的) 边看视频边学
入门真的很简单

如何开启深度学习之旅?这三大类125篇论文为你导航(附资源下载) 

如果你现在还是个深度学习的新手,那么你问的第一个问题可能是「我应该从哪篇文章开始读呢?在 G上,s准备了一套深度学习阅读清单,而且这份清单在随时更新。

项目地址:

这份清单依照下述 4 条原则建立:

从整体轮廓到细节

从过去到当代

从一般到具体领域

聚焦当下最先进技术

你会发现很多非常新但很值得一读的论文。这份清单我会持续更新。

1、深度学习的历史与基础知识

1.0 书籍

[0] Bengio, Yoshua, Ian J. Goodfellow, and Aaron Courville. 深度学习(Deep learning), An MIT Press book. (2015). (这是深度学习领域的圣经,你可以在读此书的同时阅读下面的论文)。

1.1 调查类:

[1] LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. 深度学习 (Deep learning), Nature 521.7553 (2015): 436-444. (深度学习三位大牛对各种学习模型的评价)

1.2 深度信念网络(DBN)(深度学习前夜的里程碑)

[2] Hinton, Geoffrey E., Simon Osindero, and Yee-Whye Teh. 一个关于深度信念网络的快速学习算法(A fast learning algorithm for deep belief nets), (深度学习的前夜)

[3] Hinton, Geoffrey E., and Ruslan R. Salakhutdinov. 使用神经网络降低数据的维度(Reducing the dimensionality of data with neural networks), (里程碑式的论文,展示了深度学习的可靠性)

1.3 ImageNet 的演化(深度学习从这里开始)

[4] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. 使用深度卷积神经网络进行 ImageNet 分类任务(Imagenet classification with deep convolutional neural networks)(AlexNet, 深度学习的突破)

[5] Simonyan, Karen, and Andrew Zisserman. 针对大尺度图像识别工作的的超深卷积网络(Very deep convolutional networks for large-scale image recognition) (VGGNet, 神经网络开始变得非常深!)

[6] Szegedy, Christian, et al. 更深的卷积(Going deeper with convolutions)(GoogLeNet)

[7] He, Kaiming, et al. 图像识别的深度残差学习(Deep residual learning for image recognition)(ResNet,超级超级深的深度网络!CVPR--IEEE 国际计算机视觉与模式识别会议-- 最佳论文)

1.4 语音识别的演化

[8] Hinton, Geoffrey, et al. 语音识别中深度神经网络的声学建模(Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups)(语音识别中的突破)

[9] Graves, Alex, Abdel-rahman Mohamed, and Geoffrey Hinton. 用深度循环神经网络进行语音识别(Speech recognition with deep recurrent neural networks)(RNN)

[10] Graves, Alex, and Navdeep Jaitly. 面向端到端语音识别的循环神经网络(Towards End-To-End Speech Recognition with Recurrent Neural Networks)

[11] Sak, Ha?im, et al. 语音识别中快且精准的循环神经网络声学模型(Fast and accurate recurrent neural network acoustic models for speech recognition)(语音识别系统)

[12] Amodei, Dario, et al. Deep speech 2:英语和汉语的端到端语音识别(Deep speech 2: End-to-end speech recognition in english and mandarin)(百度语音识别系统)

[13] W. Xiong, J. Droppo, X. Huang, F. Seide, M. Seltzer, A. Stolcke, D. Yu, G. Zweig,在对话语音识别中实现人类平等(Achieving Human Parity in Conversational Speech Recognition)

当你读完了上面给出的论文,你会对深度学习历史有一个基本的了解,深度学习建模的基本架构(包括了 CNN,RNN,LSTM)以及深度学习如何可以被应用于图像和语音识别问题。下面的论文会让你对深度学习方法,不同应用领域中的深度学习技术和其局限有深度认识。

2 深度学习方法

2.1 模型

[14] Hinton, Geoffrey E., et al. 通过避免特征检测器的共适应来改善神经网络(Improving neural networks by preventing co-adaptation of feature detectors)(Dropout)

[15] Srivastava, Nitish, et al. Dropout:一种避免神经网络过度拟合的简单方法(Dropout: a simple way to prevent neural networks from overfitting)

[16] Ioffe, Sergey, and Christian Szegedy. Batch normalization:通过减少内部协变量加速深度网络训练(Batch normalization: Accelerating deep network training by reducing internal covariate shift)(2015 年一篇杰出论文)

[17] Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E. Hinton.层归一化(Layer normalization)(批归一化的升级版)

[18] Courbariaux, Matthieu, et al. 二值神经网络:训练神经网络的权重和激活约束到正 1 或者负 1(Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to+ 1 or?1)(新模型,快)

[19] Jaderberg, Max, et al. 使用合成梯度的解耦神经接口(Decoupled neural interfaces using synthetic gradients)(训练方法的发明,令人惊叹的文章)

[20] Chen, Tianqi, Ian Goodfellow, and Jonathon Shlens. Net2net:通过知识迁移加速学习(Net2net: Accelerating learning via knowledge transfer) (修改之前的训练网络以减少训练)

[21] Wei, Tao, et al. 网络形态(Network Morphism)(修改之前的训练网络以减少训练 epoch)

2.2 优化

[22] Sutskever, Ilya, et al. 有关深度学习中初始化与动量因子的研究(On the importance of initialization and momentum in deep learning) (动量因子优化器)

[23] Kingma, Diederik, and Jimmy Ba. Adam:随机优化的一种方法(Adam: A method for stochastic optimization)(可能是现在用的最多的一种方法)

[24] Andrychowicz, Marcin, et al. 通过梯度下降学习梯度下降(Learning to learn by gradient descent by gradient descent) (神经优化器,令人称奇的工作)

[25] Han, Song, Huizi Mao, and William J. Dally. 深度压缩:通过剪枝、量子化训练和霍夫曼代码压缩深度神经网络(Deep compression: Compressing deep neural network with pruning, trained quantization and huffman coding) (ICLR 最佳论文,来自 DeePhi 科技初创公司,加速 NN 运行的新方向)

[26] Iandola, Forrest N., et al. SqueezeNet:带有 50x 更少参数和小于 1MB 模型大小的 AlexNet-层级精确度(SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size.) (优化 NN 的另一个新方向,来自 DeePhi 科技初创公司)

2.3 无监督学习/深度生成模型

[27] Le, Quoc V. 通过大规模无监督学习构建高级特征(Building high-level features using large scale unsupervised learning.) (里程碑,吴恩达,谷歌大脑,猫)

[28] Kingma, Diederik P., and Max Welling. 自动编码变异贝叶斯(Auto-encoding variational bayes.) (VAE)

[29] Goodfellow, Ian, et al. 生成对抗网络(Generative adversarial nets.)(GAN, 超酷的想法)

[30] Radford, Alec, Luke Metz, and Soumith Chintala. 带有深度卷曲生成对抗网络的无监督特征学习(Unsupervised representation learning with deep convolutional generative adversarial networks.)(DCGAN)

[31] Gregor, Karol, et al. DRAW:一个用于图像生成的循环神经网络(DRAW: A recurrent neural network for image generation.) (值得注意的 VAE,杰出的工作)

[32] Oord, Aaron van den, Nal Kalchbrenner, and Koray Kavukcuoglu. 像素循环神经网络(Pixel recurrent neural networks.)(像素 RNN)

[33] Oord, Aaron van den, et al. 使用像素 CNN 解码器有条件地生成图像(Conditional image generation with PixelCNN decoders.) (像素 CNN)

2.4 RNN/序列到序列模型

[34] Graves, Alex. 带有循环神经网络的生成序列(Generating sequences with recurrent neural networks.)(LSTM, 非常好的生成结果,展示了 RNN 的力量)

[35] Cho, Kyunghyun, et al. 使用 RNN 编码器-解码器学习词组表征用于统计机器翻译(Learning phrase representations using RNN encoder-decoder for statistical machine translation.) (第一个序列到序列论文)

[36] Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le. 运用神经网路的序列到序列学习(Sequence to sequence learning with neural networks.」)(杰出的工作)

[37] Bahdanau, Dzmitry, KyungHyun Cho, and Yoshua Bengio. 通过共同学习来匹配和翻译神经机器翻译(Neural Machine Translation by Jointly Learning to Align and Translate.)

[38] Vinyals, Oriol, and Quoc Le. 一个神经对话模型(A neural conversational model.)(聊天机器人上的序列到序列)

2.5 神经图灵机

[39] Graves, Alex, Greg Wayne, and Ivo Danihelka. 神经图灵机器(Neural turing machines.)arXiv preprint arXiv:1410.5401 (2014). (未来计算机的基本原型)

[40] Zaremba, Wojciech, and Ilya Sutskever. 强化学习神经图灵机(Reinforcement learning neural Turing machines.)

[41] Weston, Jason, Sumit Chopra, and Antoine Bordes. 记忆网络(Memory networks.)

[42] Sukhbaatar, Sainbayar, Jason Weston, and Rob Fergus. 端到端记忆网络(End-to-end memory networks.)

[43] Vinyals, Oriol, Meire Fortunato, and Navdeep Jaitly. 指示器网络(Pointer networks.)

[44] Graves, Alex, et al. 使用带有动力外部内存的神经网络的混合计算(Hybrid computing using a neural network with dynamic external memory.)(里程碑,结合上述论文的思想)

2.6 深度强化学习

[45] Mnih, Volodymyr, et al. 使用深度强化学习玩 atari 游戏(Playing atari with deep reinforcement learning.) (第一篇以深度强化学习命名的论文)

[46] Mnih, Volodymyr, et al. 通过深度强化学习达到人类水准的控制(Human-level control through deep reinforcement learning.) (里程碑)

[47] Wang, Ziyu, Nando de Freitas, and Marc Lanctot. 用于深度强化学习的决斗网络架构(Dueling network architectures for deep reinforcement learning.) (ICLR 最佳论文,伟大的想法 )

[48] Mnih, Volodymyr, et al. 用于深度强化学习的异步方法(Asynchronous methods for deep reinforcement learning.) (当前最先进的方法)

[49] Lillicrap, Timothy P., et al. 运用深度强化学习进行持续控制(Continuous control with deep reinforcement learning.) (DDPG)

[50] Gu, Shixiang, et al. 带有模型加速的持续深层 Q-学习(Continuous Deep Q-Learning with Model-based Acceleration.)

[51] Schulman, John, et al. 信赖域策略优化(Trust region policy optimization.) (TRPO)

[52] Silver, David, et al. 使用深度神经网络和树搜索掌握围棋游戏(Mastering the game of Go with deep neural networks and tree search.) (阿尔法狗)

2.7 深度迁移学习/终身学习/尤其对于 RL

[53] Bengio, Yoshua. 表征无监督和迁移学习的深度学习(Deep Learning of Representations for Unsupervised and Transfer Learning.) (一个教程)

[54] Silver, Daniel L., Qiang Yang, and Lianghao Li. 终身机器学习系统:超越学习算法(Lifelong Machine Learning Systems: Beyond Learning Algorithms.) (一个关于终生学习的简要讨论)

[55] Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. 提取神经网络中的知识(Distilling the knowledge in a neural network.) (教父的工作)

[56] Rusu, Andrei A., et al. 策略提取(Policy distillation.) (RL 领域)

[57] Parisotto, Emilio, Jimmy Lei Ba, and Ruslan Salakhutdinov. 演员模仿:深度多任务和迁移强化学习(Actor-mimic: Deep multitask and transfer reinforcement learning.) (RL 领域)

[58] Rusu, Andrei A., et al. 渐进神经网络(Progressive neural networks.)(杰出的工作,一项全新的工作)

2.8 一次性深度学习

[59] Lake, Brenden M., Ruslan Salakhutdinov, and Joshua B. Tenenbaum. 通过概率程序归纳达到人类水准的概念学习(Human-level concept learning through probabilistic program induction.)(不是深度学习,但是值得阅读)

[60] Koch, Gregory, Richard Zemel, and Ruslan Salakhutdinov. 用于一次图像识别的孪生神经网络(Siamese Neural Networks for One-shot Image Recognition.)

[61] Santoro, Adam, et al. 用记忆增强神经网络进行一次性学习(One-shot Learning with Memory-Augmented Neural Networks ) (一个一次性学习的基本步骤)

[62] Vinyals, Oriol, et al. 用于一次性学习的匹配网络(Matching Networks for One Shot Learning.)

[63] Hariharan, Bharath, and Ross Girshick. 少量视觉物体识别(Low-shot visual object recognition.)(走向大数据的一步)

3 应用

3.1 NLP(自然语言处理)

[1] Antoine Bordes, et al. 开放文本语义分析的词和意义表征的联合学习(Joint Learning of Words and Meaning Representations for Open-Text Semantic Parsing.)

[2] Mikolov, et al. 词和短语及其组合性的分布式表征(Distributed representations of words and phrases and their compositionality.) (word2vec)

[3] Sutskever, et al. 运用神经网络的序列到序列学习(Sequence to sequence learning with neural networks.)

[4] Ankit Kumar, et al. 问我一切:动态记忆网络用于自然语言处理(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing.)

[5] Yoon Kim, et al. 角色意识的神经语言模型(Character-Aware Neural Language Models.)

[6] Jason Weston, et al. 走向人工智能-完成问题回答:一组前提玩具任务(Towards AI-Complete Question Answering: A Set of Prerequisite Toy Tasks.) (bAbI 任务)

[7] Karl Moritz Hermann, et al. 教机器阅读和理解(Teaching Machines to Read and Comprehend.)(CNN/每日邮件完形风格问题)

[8] Alexis Conneau, et al. 非常深度卷曲网络用于自然语言处理(Very Deep Convolutional Networks for Natural Language Processing.) (在文本分类中当前最好的)

[9] Armand Joulin, et al. 诡计包用于有效文本分类(Bag of Tricks for Efficient Text Classification.)(比最好的差一点,但快很多)



看完这个就知道学什么了




图解深度神经网络的架构!
1的静态可视化美观,但它们的局限性也值得我们关注。深度学习的可视化艺术并非易事,每个细节和选择都承载着科学与艺术的双重挑战。通过这次图解之旅,我们不仅欣赏了深度神经网络的美学,也深化了对其内在机制的理解。让我们继续探索,用视觉语言解锁神经网络的神秘世界。

前光子及Hero极光工作室概念画师新作,将自然遗迹的繁华与衰败尽数展现...
深度学习之旅- 详尽视频教程:49小时全程,涵盖Blender 2.93-3.3版本,Photoshop技巧,专为视觉艺术爱好者精心打造。课程亮点- 从基础教学到实战演练,全面展现大厂级制作流程。- 原价399元的课程,现在特别优惠至339元,VIP用户更有更多惊喜。- 立即加入,解锁视觉遗迹的秘密,链接在此:[领取优惠链接]...

python需要学习什么内容?
Python的学习内容还是比较多的,我们将学习的过程划分为4个阶段,每个阶段学习对应的内容,具体的学习顺序如下:Python学习顺序:①Python软件开发基础 掌握计算机的构成和工作原理 会使用Linux常用工具 熟练使用Docker的基本命令 建立Python开发环境,并使用print输出 使用Python完成字符串的各种操作 使用Python re...

了解、学习诗词该从哪里开始看起?
、持之以恒,坚持背诵。小学阶段需要掌握的古诗词一共有八十首,要把着八十首放到每一天的语文学习中,每天花一点时间学习。古诗词的背诵并不是一天两天就可以完全掌握的,要坚持学习,持之以恒。古诗词的意境是需要反复揣摩,每一次学习都会不一样的感悟,所以别把古诗词的学习当作一种负担,好好去...

剪辑初学者如何开始学习视频剪辑?
对于剪辑世界的初学者,你的探索之旅已然开启!现在,视频剪辑不再局限于专业领域,它就像日常学习Word一样,变得越来越普遍。作为爱好者,只需通过观看基础教程,就能掌握大部分剪辑技巧;非相关专业背景的人群,也能通过自学或在工作之余逐渐提升,但选择培训时务必谨慎,优选那些拥有实战经验和作品展示的...

理解梯度
选择哪种梯度优化器,就像在艺术画廊中挑选画作,既要考虑个人偏好,还要结合实际需求。每种方法都有其独特的魅力和局限,了解它们的特点,才能在深度学习的海洋中驾驭自如。最后,一幅可视化比较图,如繁星点缀的夜空,清晰地展示了各种优化算法的特性,任君挑选,开启你的深度学习优化之旅。

从零开始用Python构建神经网络
幸运的是我们的学习之旅还没有结束,仍然有很多关于神经网络和深度学习的内容需要学习。例如:? 除了 Sigmoid 以外,还可以用哪些激活函数 ? 在训练网络的时候应用学习率 ? 在面对图像分类任务的时候使用卷积神经网络 我很快会写更多关于这个主题的内容,敬请期待!最后的想法 我自己也从零开始写了很多神经...

新网师如何选课?这些案例兴许能给你启发
他的这个方法有别于王老师分享的学长推荐。这是一种寻找学伴的方法。虽然选课后进入学习群的基本上都是尺码相同的人,应该不差学伴。但是如果有一位你比较喜欢的老师能一同加入,开启学习之旅,那效果一定是更好的。张文质老师特别强调,亲子关系最重要的是陪伴。良好的陪伴能让孩子成长得更好。一年的写作...

安卓Android从0开始到入门,开启编程之路分享
进入中级阶段,推荐以视频教程为主,配合参考书籍进行深度学习,遇到问题可在社区寻求帮助,利用丰富的资源解决入门阶段的常见疑问。现在,全套的零基础Android教程已经为你准备,点击下方链接,免费获取你的学习资源!无论是初学者还是进阶者,这里都有你需要的知识点和工具,开启你的Android编程探索之旅吧!

神经网络入门基础知识
代价函数和目标函数的差异,展示了模型性能的多维度考量。实践与资源:一起探索深度学习之旅 深入理解这些概念后,推荐学习资源不容错过:吴恩达的深度学习教程、李宏毅的《deeplearning》以及周志华的《机器学习》。在GitHub仓库AIShareLab,你可以找到更多具体实现和实战教程,一同踏上神经网络探索之旅。

泉山区19851059413: 怎么打开大脑中的深层学习回路? -
亓可当归: 三次问自己热爱学习吗,有一次回答否定,就意味着深层还没有建立学习回路.假如热爱学习从今天开始读500本书.其中一半和专业有关.全部能够在一个月以后讲解书本概略.说明深层学习回路已经建立和适合接受知识.

泉山区19851059413: 如何自学深度学习技术并少走弯路 -
亓可当归: 确定自学方向的原则 确定自学方向,实际是个优选法问题.方向对头,少走弯路,容易成功.确定自学方向,应该注意如下几条原则. 一是同步效应原则.即尽量做到专业选择与工作业务同步;奋斗目标与兴趣爱好同步;发展方向与社会需求...

泉山区19851059413: 深度学习如何入门? -
亓可当归: 最近几年,人工智能技术快速发展,深度学习领域迎来爆发,越来越多的人才加入到深度学习行业.很多小白在初学深度学习的时候,经常会遇到各种各样的问题,如何才能快速入门呢?我们知道,深度学习是一个将理论算法与计算机工程技术紧密结合的领域,需要扎实的理论基础来帮助你分析数据,同时需要工程能力去开发模型和部署服务.所以只有编程技能、机器学习知识、数学三个方面共同发展,才能取得更好的成果.按我们的学习经验,从一个数据源开始——即使是用最传统、已经应用多年的机器学习算法,先完整地走完机器学习的整个工作流程,不断尝试各种算法深挖这些数据的价值,在运用过程中把数据、特征和算法搞透,真正积累出项目经验,才能更快、更靠谱的掌握深度学习技术.

泉山区19851059413: 学习深度学习如何下手 -
亓可当归: 1、机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术. 2、深度学习本来并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络.但由于近几年该领域发展迅猛,一些特有的学习...

泉山区19851059413: deep learning初学该怎么入门?是要先好好学习神经网络吗 -
亓可当归: 深度学习的概念源于人工神经网络的研究.含多隐层的多层感知器就是一种深度学习结构.深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示.所以学习深度学习的基本前提就是好好学习神经网络,在对神经网络有足够深刻的基础上再学习深度学习的部分.于此同时呢,深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本.所以推荐的学习顺序是,机器学习,神经网络,深度学习,希望对你有所帮助.

泉山区19851059413: 如何引导学生进行深度学习 -
亓可当归: 所谓深度学习:是指在理解学习的,基础上学习者能够批判的学习新的思想和事实,并把它们融入原有的认知结构中,能在众多思想中进行联系,并能将已有的知识迁移到新的情景中去,并作出决策和解决问题的学习.或者是指通过探究学习的共同体促进有条件的知识和原认知发展的学习.它鼓励学习者积极地探索、反思和创造,而不是反复的记忆.我们可以把深度学习理解为一种基于理解的学习.它强调学习者批判性地学习新思想和知识,把它们纳入原有的认知结构中,将已有的知识迁移到新的情境中,从而帮助决策、解决问题.

泉山区19851059413: 如何成为深度学习专家的七大步骤 -
亓可当归: 专家 (在学术、技艺等方面有专门研究或特长的人) 指在学术、技艺等方面有专门技能或专业全面知识的人;特别精通某一学科或某项技艺的有较高造诣的专业人士.详细解释1).指在学术、技艺等方面有专门研究或特长的人. 南朝 梁 沉约 《到著作省表》:“臣艺不博古,学谢专家.” 清 薛福成《应诏陈言疏》:“ 中国 则不然,凡百工技艺,视为鄙事,聪明之士不肯留意於其间,此所以少专家也.” 柯岩 《船长》:“这可是国际港口,面对的都是专家,一张嘴就知道你有多少斤两.”(2).指学术上的某一家.《清史稿·儒林传序》:“后如 孔广森 之於 公羊 《春秋》, 张惠言 之於 孟 虞 《易》说……皆专家孤学也.”

泉山区19851059413: 自己学习深度学习时,有哪些途径寻找数据集 -
亓可当归: 深度学习和机器学习的区别是,深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本.同机器学习方法一样,深度机器学习方法也有监督学...

泉山区19851059413: 如何在10个星期学会深度学习并赢得了$5000 -
亓可当归: 作者 David Brailovsky 是深度学习领域的一个 quick learner,他仅仅用了十周时间,就学会了应用深度学习,并利用他做出来的识别系统参加 Nexar 交通灯识别挑战赛* 获得了第一名.在这篇文章里,他详细阐述了他用的方法,以及他所做的不论是成功或是失败的尝试.没有技术基础也不用担心,文章的着眼点主要是方案和想法,而不是讨论技术

泉山区19851059413: 浅谈如何引导学生进行深度学习 -
亓可当归: 感觉上次看国外的公开课里面很多可...借鉴的.如对方说历史...不是中国背诵历史事件的时间.更多是让你去理解和感受...为什么历史人物会做出这样的判断.如果你是这个时期的人...你会做什么事情.等等这样的开放思维会让你更加努力去思考吧.这些就是你说的深度学习...

你可能想看的相关专题

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网