2023 年引用次数最多的 10 篇人工智能论文
1️⃣ LLaMA: Open and Efficient Foundation Language Models,Meta 发布,引用数 8534 次——Meta 发布的首个超越 GPT-3 并向社区开放的基础模型集合。
2️⃣ Llama 2: Open Foundation and Fine-Tuned Chat Models,Meta发布,引用数7774 次——Llama 系列的第二版,这次针对对话进行了微调。
3️⃣ Segment Anything,Meta发布,引用数5293次 ——发布用于零样本图像分割的模型和数据集。
4️⃣ GPT-4 Technical Report,OpenAI发布,引用数3384次——比 GPT-3 和多模式(文本和图像)输入有显著改进。
5️⃣ BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models,Salesforce发布, 引用数3099次——使用更少参数实现 SOTA 视觉语言性能的预训练方法。
6️⃣ Visual Instruction Tuning, 威斯康星大学麦迪逊分校、微软和哥伦比亚大学发布,引用数2818次—— LLaVA, 一种针对多模式聊天功能进行调整的大型多模式模型。
7️⃣ InstructBLIP: Towards General-purpose Vision-Language Models with Instruction Tuning,Salesforce、香港科技大学和南洋理工大学发布,引用数2818 次——通过视觉语言指令调整对 BLIP-2 进行了改进。
8️⃣ Sparks of Artificial General Intelligence: Early experiments with GPT-4, 微软发布,引用数2712 次——微软深入研究 GPT-4 功能,AGI 已经实现吗?
9️⃣ A Survey of Large Language Models,中国人民大学、蒙特利尔大学发布,引用数2275次—— 对LLMs的一次全面调查。
🔟 Adding Conditional Control to Text-to-Image Diffusion Models,斯坦福大学发布,引用数2263次—— ControlNet, 这是一种文本到图像的扩散模型,可通过边缘、深度和分割等各种输入对图像生成进行精确控制。
速评助手认为,2023 年无疑是 LLM 和 chatGPT 取得突破的一年。在引用量排名前 100 的论文中,高达 83% 的论文是关于 LLM 的。剩下的只有 17 篇是关于其他主题的,例如计算机视觉或机器人技术。