机器学习热门论文
-
Attention Is All You Need
提出了Transformer模型架构,彻底改变了序列建模领域,成为当今大语言模型的基础。
-
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
引入了双向Transformer预训练方法,在11项自然语言理解任务上取得了state-of-the-art结果。
-
Proximal Policy Optimization Algorithms
提出了一种用于强化学习的新型策略梯度方法,在多种任务上表现出色且易于实现。
深度学习前沿研究
-
ImageNet Classification with Deep Convolutional Neural Networks
AlexNet模型在ImageNet竞赛中大幅提升识别准确率,开启了深度学习在计算机视觉领域的新时代。
-
Generative Adversarial Networks
提出了生成对抗网络(GAN)框架,通过生成器和判别器的对抗训练实现高质量数据生成。
-
Deep Residual Learning for Image Recognition
引入了残差学习框架,解决了极深神经网络训练困难的问题,在多个视觉任务上取得突破。
自然语言处理突破
-
GPT-3: Language Models are Few-Shot Learners
展示了1750亿参数语言模型在少量示例甚至零示例情况下的强大泛化能力。
-
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
通过掩码语言模型预训练方法,实现了深度双向语言表示学习。