机器学习热门论文

  • Attention Is All You Need

    Vaswani et al. 2017 NeurIPS

    提出了Transformer模型架构,彻底改变了序列建模领域,成为当今大语言模型的基础。

  • BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    Devlin et al. 2018 NAACL

    引入了双向Transformer预训练方法,在11项自然语言理解任务上取得了state-of-the-art结果。

  • Proximal Policy Optimization Algorithms

    Schulman et al. 2017 arXiv

    提出了一种用于强化学习的新型策略梯度方法,在多种任务上表现出色且易于实现。

深度学习前沿研究

  • ImageNet Classification with Deep Convolutional Neural Networks

    Krizhevsky et al. 2012 NeurIPS

    AlexNet模型在ImageNet竞赛中大幅提升识别准确率,开启了深度学习在计算机视觉领域的新时代。

  • Generative Adversarial Networks

    Goodfellow et al. 2014 NeurIPS

    提出了生成对抗网络(GAN)框架,通过生成器和判别器的对抗训练实现高质量数据生成。

  • Deep Residual Learning for Image Recognition

    He et al. 2015 CVPR

    引入了残差学习框架,解决了极深神经网络训练困难的问题,在多个视觉任务上取得突破。

自然语言处理突破

  • GPT-3: Language Models are Few-Shot Learners

    Brown et al. 2020 NeurIPS

    展示了1750亿参数语言模型在少量示例甚至零示例情况下的强大泛化能力。

  • BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    Devlin et al. 2018 NAACL

    通过掩码语言模型预训练方法,实现了深度双向语言表示学习。