除了图像识别之外,CNNS已经应用于自然语言处理,药物发现和玩耍。
自然语言处理(NLP)是深度学习的另一个主要应用领域。除了通过谷歌翻译解决的机器翻译问题之外,主要的NLP任务包括自动摘要,共同参考分辨率,话语分析,形态分割,命名实体识别,自然语言生成,自然语言理解,言语分配标记,情绪分析和语音识别。
除了CNN之外,NLP任务通常是用经常性神经网络(RNN)的解决,其包括长短期存储器(LSTM)模型。如前所述,在经常性神经网络中,神经元可以直接或间接地通过下一层影响自己。换句话说,RNN可以具有循环,这使其能够在处理序列时持续某些信息历史 - 而语言没有序列。LSTMS是一种特别有吸引力的RNN形式,具有一个更强大的更新方程和更复杂的重复模块结构。
跑步深入学习
不用说,深入的CNN和LSTMS通常需要严重的计算能力进行培训。请记住谷歌脑队如何需要几千GPU来训练新的A.I.谷歌版本翻译?这不是一个笑话。一个GPU需要三个小时的培训会议可能会采取30.CPU上的时间。此外,GPU的重要事项:对于最深入的学习包,您需要一个或多个CUDA兼容的NVIDIA GPU,内部内存有足够的内存来运行模型。
这可能意味着您需要在云中运行您的培训:AWS,Azure和Bluemix所有提供GPU的实例,就像这份写作一样,谷歌在2017年的早期就会提供GPU。
虽然最大的云GPU实例可以耗费14美元来运行,但有更便宜的替代品。具有单个GPU的AWS实例可以花费不到每小时1美元的费用,并且Azure Batch造船厂它使用NCS系列的GPU的实例使用NC系列的深度学习配方在计算池中运行您的培训,其中小型NC6实例为每小时90美分。
是的,你可以并且应该在你自己的计算机上安装你选择的深度学习包,以用于学习目的,无论它是否有合适的GPU。但是,当需要大规模训练模型时,您可能不想将自己限制在现场恰好拥有的硬件上。
深入学习
只需通过安装一个深入学习的包,尝试样本并阅读其教程,您可以简单地学习很多关于深度学习。有关更多深度,请考虑以下一个或多个资源:
- 神经网络和深度学习,由Michael Nielsen
- 神经网络简要介绍,由大卫kriesel
- 深度学习,由Yoshua Bengio,Ian Goodfellow,以及亚伦·古佛
- 机器学习课程,HalDauméIII
- 这Tensorflow Playground.,由Daniel Smilkov和Shan Carter
- 斯坦福CS类CS231N:用于视觉识别的卷积神经网络
相关文章
这个故事,“真正的深度学习意味着”最初是出版的InfoWorld. 。