导航菜单
首页 >  怎么看论文是不是硕士论文  > 研究生不知道怎么看论文?赶紧把学长的经验码起来

研究生不知道怎么看论文?赶紧把学长的经验码起来

如何读论文 选paper 根据名称、来源、年份、作者、引用数,选取最新的,最有影响力的paper。名称决定了内容相关性来源决定了paper质量年份决定了paper的新颖程度作者有时候决定了任务的一系列成果引用数决定了paper的影响力。 读paper

要“主动”的读paper!!! 要“主动”的读paper!!! 要“主动”的读paper!!!

带着问题去paper中找问题。有助于快速定位要点和快速理解文章。我个人一般是按下面几个要点去探索一篇文章。

1、task 了解文章要解决的主要问题是怎么样的。abstract,introduction,conclusion 2、related work (有的文章可以把这部分放到最后再读) 针对task,现有工作是怎么做的,有哪些视角和方法。视角决定了你未来可能采用的方式。常用的方法奠定了你在这个领域的基础。这些文章也非常重要。如果对这些文章不理解。通常去要发掘其中的关键、经典文章,精读。abstract, introduction, related work. 3、motivation 这是为什么有这么一篇文章的关键。要么遇到了新的task,要么是现有task中,现有方法解决不了一些特定的问题。abstract,introduction,conclusion 4、Method 这与motivation是息息相关的。前面提出了现在有什么问题,那么method就要有相应的解决方案。通常情况下,一个问题对应一个模块,多个问题对应多个模块。abstract,introduction,conclusion、method/framework 5、验证 所有提出的解决方案,都需要用实验验证其有效性。这依赖于实验设置与实验效果。实验设置包含数据集、评价指标、baseline。数据集会有相应的处理,以符合文章task的基本假设。例如,如果文章是解决推荐系统的冷启动问题,那么在数据中,一定会想办法构造冷启动的情况,并加以验证。评价指标应该是能够评价motivation问题的方案。例如,如果说现有方法在top-5表现不好,那么就会有top-5的各类指标。baseline应该是SOTA的方法,能够与提出方法做公平对比。可以是子分支的SOTA方法,也就是说它的performance不一定是全部方法中最好的,但是基本接近第一梯队,并且在分支里是最好的。例如,如果改进SVM达到了接近CNN的效果,即便没有超过,也是一篇优秀的论文。实验效果应该说明提出方法的某个角度的问题。每一张图、每一个表,都有着作者相应的解释,证明提出方法在motivation上的有效性。或者提出的方法本身的一些特性研究,如泛化能力,子模块的必要性等。experiments. 6、未来可以拓展的方向 文章通常会给出一些作者考虑的可以继续深入的角度,供参考。conclusion.

扫文章: 上述是精读一篇文章的方法。如果文章本身不复杂,或是本身对领域比较了解时,可以简化上述过程。读一读abstract,了解1、3、4,即可确定是否需要继续深入了解这篇文章。

略读: 读一读abstract,conclusion,introduction,结合method部分,即可理解文章的概要。

读论文要点

1、Paper题目、来源(会议期刊名)、年份、作者、引用数。目的是能够大致的判断文章的质量。 2、Motivation。这篇文章为什么要做这件事情。这是所有文章的核心。如果motivation不清晰,后续做的所有事情都是没意义的。 3、相关文献。现有的方法是怎么做的,怎么不足了。 4、方法。也就是解决方案。应该与Motivation和相关文献中提到的不足一一对应。要从逻辑和公式两个角度将解决方案讲清楚。介绍逻辑的过程应该是一个主观的感受,不要与公式混杂。 5、实验。包括数据集、指标、实验设计的角度和效果。 6、展望。conclusion中说的可以继续探索的部分。

论文讲解模板

第一部分: 1、Paper题目、来源(会议期刊名)、年份、作者、引用数。 2、任务介绍,包括动机(传统方法的不足),输入输出格式。 3、(可选)重要的相关工作。

第二部分: 1、模型主要结构,各部分的介绍。可以列公式,但尽量避免讲公式。 2、强调模型是如何解决第一部分中提到的动机问题的。

第三部分: 1、实验数据集及预处理方案。如何组织测试数据的。 2、评价指标。 3、baseline介绍。

第四部分: 1、实验中重要的表或图。 2、表或图对应的验证结论。 3、强调图或表验证了动机或模型的哪一个方面。

1、使用pytorch,手动实现Lenet分类minist,并训练出有效的分类模型。 目标: 理解模型训练、验证和测试过程。 熟练掌握pytorch的数据加载和预处理架构。 熟练掌握网络层的定义、关键参数和使用方法。 理解正向反向传播流程。 理解优化器的使用方法。

2、看懂caffe的Lenet代码。 目标: 理解caffe的配置文件 了解caffe的层定义方法

3、把caffe的caffenet的代码编译运行起来。 目标: 掌握C++编译和执行过程。 理解caffe的运行机制

4、把Wheel的代码编译通过。https://github.com/duxy-me/mm2017-wheel 目标: 掌握MPI+Cuda的编译过程。

1、第一篇文章还是需要仔细带,从找题,解题,实现到成文,整个过程需要深度参与。 2、上手不要做热点问题,最好是经典问题的扩展。能够快速得到结果,以免打击科研积极性。 3、前期都不要做太难的问题,由简入难。刷了几篇文章以后,再考虑花时间做一点难的问题。 4、要培养学生的独立性。 5、多扔到企业实习。

完成coursera上Andrew NG的课程 https://www.coursera.org/learn/machine-learning自学cs231n课程 http://cs231n.stanford.edu/

目标: 1、了解机器学习

基本概念:训练、测试、目标函数、过拟合、欠拟合、调参,等 2、了解神经网络基本概念:全连接层、卷积层、正向传播、反向传播经典技术:Convolutional Kernel, Dropout, Residual Block (ResNet), Adversarial Learning, Attention Mechanism, Generative Adversarial Network (GAN). 3、了解编码环境虚拟环境:Anaconda开发框架:Pytorch常用工具:Jupyter, Github

BadTalk.pdf

综述 DeepFakes and Beyond: A Survey of Face Manipulation and Fake DetectionDeep Learning for Deepfakes Creation and Detection Strong Baselines Face X-ray for More General Face Forgery Detection 数据集 FaceForensics++: Learning to Detect Manipulated Facial ImagesCeleb-DF: A Large-scale Challenging Dataset for DeepFake Forensics 对抗相关 Watch your Up-Convolution: CNN Based Generative Deep Neural Networks are Failing to Reproduce Spectral DistributionsEvading Deepfake-Image Detectors with White- and Black-Box AttacksThe Role of ‘ Sign ’ and ‘ Direction ’ of Gradient on the Performance of CNNAdversarial Attack on Deep Learning-Based Splice Localization 对杭样本STOA Explaining and harnessing adversarial examplesEfficient adversarial training with transferable adversarial examplesFast is better than free: Revisiting adversarial training

机器视觉就是要代替人眼,机器学习就是要代替人脑。

相关推荐: