HappyPuppy - D1h.Net第一号博客
赞助
返回主页

HappyPuppy

随笔 - 26  文章 - 0  评论 - 19
摘要:概述 命名实体识别在NLP的应用中也是非常广泛的,尤其是是information extraction的领域。Named Entity Recognition(NER) 的应用中,最常用的一种算法模型是隐式马可夫模型(Hidden Markov Modelling)- HMM。本节内容主要是通过介绍 阅读全文
posted @ 2020-03-28 00:19 HappyPuppy 阅读 (92) 评论 (0) 编辑
摘要:概述 Attention Model 的出现,在sequence model的领域中算是一个跨时代的事件。在Many-to-Many的sequence model中,在decoder network中的每一个time step的输出应该跟encoder network中的不同的time step的值 阅读全文
posted @ 2020-03-22 22:43 HappyPuppy 阅读 (22) 评论 (0) 编辑
摘要:1. 概述 在情感分析的应用领域,例如判断某一句话是positive或者是negative的案例中,咱们可以通过传统的standard neuro network来作为解决方案,但是传统的神经网络在应用的时候是不能获取前后文字之间的关系的,不能获取到整个句子的一个整体的意思,只能通过每一个词的意思来 阅读全文
posted @ 2020-03-19 12:10 HappyPuppy 阅读 (106) 评论 (0) 编辑
摘要:概述 LSTM在机器学习上面的应用是非常广泛的,从股票分析,机器翻译 到 语义分析等等各个方面都有它的用武之地,经过前面的对于LSTM结构的分析,这一节主要介绍一些LSTM的一个小应用,那就是sequence generation。其实sequence generation本事也是对一些应用的统称, 阅读全文
posted @ 2020-03-10 22:47 HappyPuppy 阅读 (113) 评论 (0) 编辑
摘要:概述 RNN是递归神经网络,它提供了一种解决深度学习的另一个思路,那就是每一步的输出不仅仅跟当前这一步的输入有关,而且还跟前面和后面的输入输出有关,尤其是在一些NLP的应用中,经常会用到,例如在NLP中,每一个输出的Word,都跟整个句子的内容都有关系,而不仅仅跟某一个词有关。LSTM是RNN的一种 阅读全文
posted @ 2020-03-02 20:52 HappyPuppy 阅读 (43) 评论 (0) 编辑
摘要:概述 自然语言是非常复杂多变的,计算机也不认识咱们的语言,那么咱们如何让咱们的计算机学习咱们的语言呢?首先肯定得对咱们的所有文字进行编码吧,那咱们很多小伙伴肯定立马就想出了这还不简单嘛,咱们的计算机不都是ASCII编码的嘛,咱直接拿来用不就好啦?我只能说too young too simple。咱们 阅读全文
posted @ 2020-02-09 19:42 HappyPuppy 阅读 (191) 评论 (0) 编辑
摘要:概述 对于计算机视觉的应用现在是非常广泛的,但是它背后的原理其实非常简单,就是将每一个像素的值pixel输入到一个DNN中,然后让这个神经网络去学习这个模型,最后去应用这个模型就可以了。听起来是不是很简单,其实如果大家深入研究的话,这里面还是有很多内容去学习的,例如:咱们的图片大小可能不一样,同一张 阅读全文
posted @ 2020-02-05 23:30 HappyPuppy 阅读 (197) 评论 (0) 编辑
摘要:概述 神经网络是深度学习的基础,它在人工智能中有着非常广泛的应用,它既可以应用于咱们前面的章节所说的Linear Regression, classification等问题,它还广泛的应用于image recognition,NLP 等等应用中,当然啦,这一节咱们主要讲述神经网络的最基础的结构以及应 阅读全文
posted @ 2020-02-03 19:55 HappyPuppy 阅读 (186) 评论 (0) 编辑
摘要:概述 前面几节讲的是linear regression的内容,这里咱们再讲一个非常常用的一种模型那就是classification,classification顾名思义就是分类的意思,在实际的情况是非常常用的,例如咱们可以定义房价是否过高,如果房价高于100万,则房价过高,设置成true;如果房价低 阅读全文
posted @ 2020-02-01 22:45 HappyPuppy 阅读 (185) 评论 (1) 编辑
摘要:概述 这一节主要介绍一下TensorFlow在应用的过程中的几个小的知识点,第一个是关于features的处理的,例如Bucketized (Binned) Features 和 Feature scalling。第二个是简单的介绍一下常用的几个Optimizer之间的区别,例如SGD, Adagr 阅读全文
posted @ 2020-01-30 23:26 HappyPuppy 阅读 (122) 评论 (0) 编辑
Copyright © 2020 HappyPuppy
Powered by .NET Core on Kubernetes

问答 28u iTmz.Net 3q科技 A8团队1 A8团队2 A8团队3 A8备