摘要
本文介绍后缀数组的基本概念、方法以及应用
概念:
- 构造后缀数组的倍增算法——$O(nlogn)$
- 最长公共前缀LCP(Longest Common Prefix)
- height数组——$O(n)$
应用:
论文 | 备注 | time(ms) | mAP(%) |
---|---|---|---|
Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation | 利用CNN结果物体检测问题利用迁移学习思想缓解标注数据过少的问题 | 13000 | VOC 2012: 53.3 |
Fast R-CNN | 结合RCNN和SPPnet的改进版本实现detection流程端对端一体化训练 | 1830 | VOC 2012: 65.7 |
Faster R-CNN | 本文的主旨是将生成proposal的过程也使用神经网络处理共享了classification的中间卷积结果,大大减少了proposal过程的用时 | 198 | VOC 2012: 67.0 |
论文 | 备注 | top5 error |
---|---|---|
Network In Network | 提出了1 x 1卷积核代替maxout 提供了更好的多filter聚合能力 | CIFAR-100 数据集 1 model; 1 crop; top1 error: 35.68% |
Going deeper with convolutions | 将NIN中子网络的概念更加泛化利用多个不同大小的filter抽取信息利用1 X 1卷积增加信息稠密程度减少计算量 | ILSVRC 2014 数据集1 model; 1 crop: 10.07%ensemble(7 models, 144 crops): 6.67% |
Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift | 提出并利用BN结构解决内部协变量漂移问题大幅提升网络训练速度 | LSVRC 2012 数据集ensemble(6 models, 144 crops): 4.94% |
Rethinking the Inception Architecture for Computer Vision | 提出了4个设计网络的原则 提出了用多个小卷积代替大卷积的方法 提出了用非对称卷积 提出了更高效的pooling方式——conv和pool并行计算然后concat到一起 提出新的正则化方式——标签平滑 |
LSVRC 2012 数据集 1 model; 1 crop:5.6% ensemble(4 models, 144 crops): 3.58% |
Inception-v4, Inception-ResNet and the Impact of Residual Connection on Learning | 在v3的基础上加了一些小改动提出v4与ResNet结合提出Inception-ResNet提出了当filter数量超过1000的时候防止训练崩溃的缩放残差方法 | ILSVRC 2012 数据集 1 model; 1 crop: Inception-v4: 5.0% Inception-ResNet-v1: 5.5% Inception-ResNet-v2: 4.9% Inception-v4 + 3 * Inception-ResNet-v2: 3.1% |
论文 | 备注 |
---|---|
Generative Adversarial Nets | GAN原始论文, 提出了对抗结构和原始优化目标函数 |
Conditional Generative Adversarial Nets | 加了条件作为额外的输入,可以用于给生成指定类别的图像和和图像打标签 |
Unsupervised representation learning with deep convolutional Generative Adersarial Networks | DCGAN, 提出一种新的生成器结构改善生成图像效果,并对训练出的模型的可视化做了探索 |
Towards Principled Methods for Training Generative Adversarial Networks | 首次从数学的角度聊GAN,分析了之前GAN中所存在的问题,提出了加噪声的解决方案 |
Wasserstein GAN | 提出了用Wasserstein距离代替JS散度的方案,解决了训练不稳定,模型坍塌的问题,并提供了一种模型训练进度的可量化指标 |
now:
this paper is proposed to make theoretical steps towards fully understanding the training dynamics of GANs
three sections:
in this paper we hope to help bridge the gap between the success of CNNs for supervised learning and unsupervised learning
this net can be constructed by adding condition information to both generator and discriminator
propose a new framework for estimating generative models via adversarial process
simultaneously train two models:
ILSVRC 2012 数据集
文章提出了四点设计原则: