0%

1.简介

P问题:一类可以通过确定性图灵机在多项式时间内解决的问题集合。
NP问题:一类可以通过非确定性图灵机在多项式时间内解决的决策问题集合。
**P与NP:**任何可以被图灵机在多项式时间内解决的问题都可以被非确定性的图灵机解决,不确定是否是真子集。
**NPC问题:**一个NPC问题需要同时满足两个条件。①该问题是NP问题;②NP里所有问题可以在多项式时间内转为该问题。
**NPH问题:**只需要满足NPC中的第二个性质,所以,NPC是NPH的子集。
上述元素的近似关系图:
image.png
PcoNP\mathbf{P} \subseteq \mathbf{co}-\mathbf{N} \mathbf{P}
①因为P在运算下封闭,如果一个语言在P中,这时他的补语言co-P也在P中。综上得P与co-P都在NP中。
②一个语言在co-NP当且仅当他的补语言在NP。综上得P与co-P都在co-NP中。
image.png)
**补语(复杂性类):**记为co-C。一个决策问题 X是反C的成员,当且仅当它的互补 X是在复杂类C【维基百科】。补的例子:一个重要问题是数字是否是素数,它的补充是确定一个数字是否是一个复合数,这里补语的域是超过1的所有整数的集合。这个补也许还是一个NP问题,也许不是一个NP问题。

2.结语

才疏学浅,如有不正确的言语,还请指出。

概述

ReLU函数的计算是在卷积之后进行的,因此它与tanh函数和sigmoid函数一样,同属于非线性激活函数。ReLU函数的倒数在正数部分是恒等于1的,因此在深度网络中使用relu激活函数就不会导致梯度小时和爆炸的问题。并且,ReLU函数计算速度快,加快了网络的训练。不过,如果梯度过大,导致很多负数,由于负数部分值为0,这些神经元将无法激活(可通过设置较小学习率来解决)。

阅读全文 »

论文名:ScratchDet: Training Single-Shot Object Detectors from
论文链接:https://arxiv.org/pdf/1810.08425.pdfScratch

这篇论文主要的贡献如下

(1) 这是一个融入了BatchNorm使得更好地收敛的检测器,在诸如VGG与Resnet上都可以很好的表现。
(2) 修改了网络第一层结构,使得检测准确性有明显的提升,尤其是在小物体检测上。
(3) SractchDet比最前沿的train_from_scratch还要优秀,甚至比一些基于预训练的网络得到的结果也好。

阅读全文 »

提出背景

  1. 在大规模且复杂性高的数据中及时检测故障愈发重要,面对该问题出现了诸多数据降维算法。
  2. PCA与其衍生算法虽然可以降低数据的复杂型,但是只考虑了数据的全局结构。
  3. 局部保持投影LPP算法能够发现原始高维数据的内在特征或非线性结构,通过该算法得到的投影子空间保存了原始样本点的局部信息。
  4. 结合了PCA与LPP的LGSPP算法将原始数据投影到具有相似局部结构的低维空间的同时也保证在低维空间中数据方差最大化。
  5. 贝叶斯分类是模式识别中一种利用概率统计进行分类的散发,具有方法简单、分类准确率高、速度快的特点。所以,在使用LGSPP处理高维数据后,在使用Bayes来进行故障检测。
阅读全文 »