GPT论文列表

发布时间:

  1. [2023/08] ChatGPT在推理、幻觉和互动方面的多任务、多语言、多模态评估。 Yejin Bang等人 arXiv. [论文]
  2. [2023/06] LLM-Eval:针对大型语言模型的开放领域对话的统一多维自动评估。 Yen-Ting Lin等人 arXiv. [论文]
  3. [2023/04] ChatGPT是否是高度流利的语法错误校正系统?综合评估。 Tao Fang等人 arXiv. [论文]

 

深刻理解

 

  1. [2023/06] Clever Hans还是心灵理论的大型语言模型的社交推理的压力测试。 Natalie Shapira等人 arXiv. [论文]
  2. [2022/08] 从上下文中推断语言的奖励。 Jessy Lin等人 ACL. [论文]
  3. [2021/10] 基于心灵理论的辅助通信在复杂的人机合作中。 Moritz C. Buehler等人 arXiv. [论文]

 

1.1.2 知识

预训练模型

 

  1. [2023/04] 从未标记的数据中学习句子的分布式表示。 Felix Hill(剑桥大学)等人 arXiv. [论文]
  2. [2020/02] 你可以将多少知识装入语言模型的参数中? Adam Roberts(Google)等人 arXiv. [论文]
  3. [2020/01] 神经语言模型的扩展规律。 Jared Kaplan(约翰斯·霍普金斯大学)等人 arXiv. [论文]
  4. [2017/12] 机器智能中的常识知识。 Niket Tandon(艾伦人工智能研究所)等人 SIGMOD. [论文]
  5. [2011/03] 从零开始的自然语言处理。 Ronan Collobert(普林斯顿大学)等人 arXiv. [论文]

 

语言知识

 

  1. [2023/02] ChatGPT在推理、幻觉和互动方面的多任务、多语言、多模态评估。 Yejin Bang等人 arXiv. [论文]
  2. [2021/06] 对预训练语言模型进行语义属性及其值的探究。 Meriem Beloucif等人 EMNLP. [论文]
  3. [2020/10] 对预训练语言模型的词汇语义进行探究。 Ivan Vulić等人 arXiv. [论文]
  4. [2019/04] 用于在词汇表示中查找句法的结构性探针。 John Hewitt等人 ACL. [论文]
  5. [2016/04] 利用更多语义知识进行改进的自动关键词提取。 H Leung. 高级应用系统. [论文]

 

 

常识知识

 

  1. [2022/10] 代码语言模型是少样式常识学习者。 Aman Madaan等人 arXiv. [论文]
  2. [2021/04] 上下文语言模型中的关系世界知识表示:综述。 Tara Safavi等人 arXiv. [论文]
  3. [2019/11] 我们如何知道语言模型知道什么? Zhengbao Jiang等人 arXiv. [论文]

 

可操作知识

 

  1. [2023/07] 医学中的大型语言模型。 Arun James Thirunavukarasu等人 自然. [论文]
  2. [2023/06] DS-1000:数据科学代码生成的自然可靠基准。 Yuhang Lai等人 ICML. [论文]
  3. [2022/10] 代码语言模型是少样式常识学习者。 Aman Madaan等人 arXiv. [论文]
  4. [2022/02] 大型代码语言模型的系统性评估。 Frank F. Xu等人 arXiv. [论文]
  5. [2021/10] 培训验证器解决数学单词问题。 Karl Cobbe等人 arXiv. [论文]

 

知识潜在问题

 

  1. [2023/05] 编辑大型语言模型:问题、方法和机会。 Yunzhi Yao等人 arXiv. [论文]
  2. [2023/05] 自检查器:与大型语言模型进行事实核查的即插即用模块。 Miaoran Li等人 arXiv. [论文]
  3. [2023/05] CRITIC:大型语言模型可以通过工具互动批评自我修正。 Zhibin Gou等人 arXiv. [论文]
  4. [2023/04] 基于基础模型的工具学习。 Yujia Qin等人 arXiv. [论文]
  5. [2023/03] SelfCheckGPT:生成型大型语言模型的零资源黑盒幻觉检测。 Potsawee Manakul等人 arXiv. [论文]
  6. [2022/06] 规模化的基于记忆的模型编辑。 Eric Mitchell等人 arXiv. [论文]
  7. [2022/04] 关于语言模型作为知识库的综述。 Badr AlKhamissi等人 arXiv. [论文]
  8. [2021/04] 编辑语言模型中的事实知识。 Nicola De Cao等人 arXiv. [论文]
  9. [2017/08] 测量神经网络中的灾难性遗忘。 Ronald Kemker等人 arXiv. [论文]

 

1.1.3 记忆

记忆能力

 

提升Transformer的长度限制

  1. [2023/05] 随机位置编码提升Transformer对长度的泛化能力。 Anian Ruoss (DeepMind)等人 arXiv. [论文] [代码]
  2. [2023-03] CoLT5:具有条件计算的更快速长程Transformer。 Joshua Ainslie (Google Research)等人 arXiv. [论文]
  3. [2022/03] 使用Transformer高效分类长文档。 Hyunji Hayley Park (伊利诺伊大学)等人 arXiv. [论文] [代码]
  4. [2021/12] LongT5:用于长序列的高效文本到文本Transformer。 Mandy Guo (Google Research)等人 arXiv. [论文] [代码]
  5. [2019/10] BART:用于自然语言生成、翻译和理解的去噪序列到序列预训练。 Michael Lewis(Facebook AI)等人 arXiv. [论文] [代码]

总结记忆

  1. [2023/09] 通过链接大型语言模型增强个人辅导。 Yulin Chen (清华大学)等人 arXiv. [论文]
  2. [2023/08] ExpeL:LLM代理是经验性学习者。 Andrew Zhao (清华大学)等人 arXiv. [论文] [代码]
  3. [2023/08] ChatEval:通过多代理辩论实现更好的基于LLM的评估。 Chi-Min Chan (清华大学)等人 arXiv. [论文] [代码]
  4. [2023/05] MemoryBank:增强大型语言模型的长期记忆。 Wanjun Zhong (哈尔滨工业大学)等人 arXiv. [论文] [代码]
  5. [2023/04] 生成代理:人类行为的交互模拟。 Joon Sung Park (斯坦福大学)等人 arXiv. [论文] [代码]
  6. [2023/04] 通过自控制记忆系统为大规模语言模型释放无限长度输入能力。 Xinnian Liang(北京航空航天大学)等人 arXiv. [论文] [代码]
  7. [2023/03] Reflexion:具有言语强化学习的语言代理。 Noah Shinn (东北大学)等人 arXiv. [论文] [代码]
  8. [2023/05] RecurrentGPT:(任意)长文本的交互生成。 Wangchunshu Zhou (AIWaves)等人 arXiv. [论文] [代码]

使用向量或数据结构压缩记忆

  1. [2023/07] 用于软件开发的沟通代理。 Chen Qian (清华大学)等人 arXiv. [论文] [代码]
  2. [2023/06] ChatDB:使用数据库增强LLMs作为它们的符号记忆。 Chenxu Hu(清华大学)等人 arXiv. [论文] [代码]
  3. [2023/05] Minecraft中的幽灵:通过大型语言模型与基于文本的知识和记忆的开放世界环境的普遍能力代理。 Xizhou Zhu (清华大学)等人 arXiv. [论文] [代码]
  4. [2023/05] RET-LLM:朝着大型语言模型的通用读写内存。 Ali Modarressi (LMU慕尼黑大学)等人 arXiv. [论文] [代码]
  5. [2023/05] RecurrentGPT:(任意)长文本的交互生成。 Wangchunshu Zhou (AIWaves)等人 arXiv. [论文] [代码]

 

记忆检索

 

  1. [2023/08] Memory Sandbox:对话代理的透明交互记忆管理。 Ziheng Huang(加州大学圣迭戈分校)等人 arXiv. [论文]
  2. [2023/08] AgentSims:大型语言模型评估的开源沙盒。 Jiaju Lin (PTA Studio)等人 arXiv. [论文] [项目页面] [代码]
  3. [2023/06] ChatDB:使用数据库增强LLMs作为它们的符号记忆。 Chenxu Hu(清华大学)等人 arXiv. [论文] [代码]
  4. [2023/05] MemoryBank:增强大型语言模型的长期记忆。 Wanjun Zhong (哈尔滨工业大学)等人 arXiv. [论文] [代码]
  5. [2023/04] 生成代理:人类行为的交互模拟。 Joon Sung Park (斯坦福大学)等人 arXiv. [论文] [代码]
  6. [2023/05] RecurrentGPT:(任意)长文本的交互生成。 Wangchunshu Zhou (AIWaves)等人 arXiv. [论文] [代码]

 

1.1.4 推理与规划

推理

 

  1. [2023/05] 自我优化:通过问题细化增强大型语言模型中的推理能力。 Zhiheng Xi (复旦大学)等人 arXiv. [论文] [代码]
  2. [2023-03] 大型语言模型是零-shot推理者。 Takeshi Kojima (东京大学)等人 arXiv. [论文](https://arxiv.org/abs/2205.11916)(https://github.com/kojima-takeshi188/zero_shot_cot)]
  3. [2023/03] 自我精炼:自我反馈的迭代精炼。 Aman Madaan (卡内基梅隆大学)等人 arXiv. [论文] [代码]
  4. [2022/05] 选择-推断:利用大型语言模型进行可解释的逻辑推理。 Antonia Creswell (DeepMind)等人 arXiv. [论文]
  5. [2022/03] 自我一致性改善语言模型中的思维链推理。 Xuezhi Wang(谷歌研究)等人 arXiv. [论文] [代码]
  6. [2022/01] 思维链提示引发大型语言模型的推理。 Jason Wei (谷歌研究)等人 arXiv. [论文]

规划

计划制定

  1. [2023/05] 思维之树:与大型语言模型一起进行深思熟虑的问题解决。 Shunyu Yao (普林斯顿大学)等人 arXiv. [论文] [代码]
  2. [2023/05] 计划、消除和跟踪 - 语言模型是具有身体能力的良师。 Yue Wu(卡内基梅隆大学)等人 arXiv. [论文]
  3. [2023/05] 与语言模型进行推理就是使用世界模型进行规划。 Shibo Hao (加州大学圣迭戈分校)等人 arXiv. [论文] [代码]
  4. [2023/05] SwiftSage:一种具有快速和慢思考的生成代理,用于复杂的互动任务。 Bill Yuchen Lin (人工智能艾伦研究所)等人 arXiv. [论文] [代码]
  5. [2023/04] LLM+P:赋予大型语言模型最佳规划能力。 Bo Liu (德克萨斯大学奥斯汀分校)等人 arXiv. [论文] [代码]
  6. [2023/03] HuggingGPT:使用ChatGPT及其在Hugging Face的伙伴解决AI任务。 Yongliang Shen (微软亚洲研究院)等人 arXiv. [论文] [代码]
  7. [2023/02] 描述、解释、规划和选择:与大型语言模型一起进行交互规划,实现开放式多任务代理。 ZiHao Wang (北京大学)等人 arXiv. [论文] [代码]
  8. [2022/05] 从最少到最多提示实现大型语言模型中的复杂推理。 Denny Zhou (谷歌研究)等人 arXiv. [论文]
  9. [2022/05] MRKL系统:一种模块化的神经符号架构,结合了大型语言模型、外部知识源和离散推理。 Ehud Karpas (AI21实验室)等人 arXiv. [论文]
  10. [2022/04] 听其所能,而非其所言:将语言与机器人动作结合。 Michael Ahn (谷歌机器人)等人 arXiv. [论文]
  11. [2023/05] Agents:用于自主语言代理的开源框架。 Wangchunshu Zhou (AIWaves)等人 arXiv. [论文] [代码]

规划反思

  1. [2023/08] SelfCheck:使用LLMs(大型语言模型)来零-shot检查其自身的逐步推理。 Ning Miao (牛津大学)等人 arXiv. [论文] [代码]
  2. [2023/05] ChatCoT:在基于聊天的大型语言模型上进行工具增强的思维链推理。 Zhipeng Chen (中国人民大学)等人 arXiv. [论文] [代码]
  3. [2023/05] Voyager:具有大型语言模型的开放式具身代理。 Guanzhi Wang (NVIDIA)等人 arXiv. [论文] [代码]
  4. [2023/03] 与环境对话:使用大型语言模型进行交互多模态感知。 Xufeng Zhao (汉堡大学)等人 arXiv. [论文] [代码]
  5. [2022/12] LLM-Planner:具有大型语言模型的具体代理的少数样本基础规划。 Chan Hee Song (俄亥俄州立大学)等人 arXiv. [论文] [代码]
  6. [2022/10] ReAct:在语言模型中协同推理和行动。 Shunyu Yao (普林斯顿大学)等人 arXiv. [论文] [代码]
  7. [2022/07] 内心独白:通过语言模型进行规划的具体推理。 Wenlong Huang (谷歌机器人)等人 arXiv. [论文] [代码]
  8. [2021/10] AI链:通过链接大型语言模型提示实现透明和可控的人机交互。 Tongshuang Wu (华盛顿大学)等人 arXiv. [论文]

 

1.2.1 视觉

 

  1. [2023/05] 语言并不是你所需要的一切:将感知与语言模型对齐。 Shaohan Huang等人 arXiv. [论文]]
  2. [2023/05] InstructBLIP:通过指令调整实现通用视觉语言模型。 Wenliang Dai等人 arXiv. [论文]
  3. [2023/05] MultiModal-GPT:用于与人类对话的视觉和语言模型。 Tao Gong等人 arXiv. [论文]
  4. [2023/05] PandaGPT:一个用于遵循各种指令的通用模型。 Yixuan Su等人 arXiv. [论文]
  5. [2023/04] Visual Instruction Tuning. Haotian Liu等人 arXiv. [论文]
  6. [2023/04] MiniGPT-4:借助先进的大型语言模型增强视觉语言理解。 Deyao Zhu arXiv. [论文]
  7. [2023/01] BLIP-2:通过冻结图像编码器和大型语言模型引导语言-图像预训练。 Junnan Li等人 arXiv. [论文]
  8. [2022/04] Flamingo:一种用于少样本学习的视觉语言模型。 Jean-Baptiste Alayrac等人 arXiv. [论文]
  9. [2021/10] MobileViT:轻量级、通用且适用于移动设备的Vision Transformer。 Sachin Mehta等人 arXiv. [论文]
  10. [2021/05] MLP-Mixer:用于视觉的全MLP架构。 Ilya Tolstikhin等人 arXiv. [论文]
  11. [2020/10] 一张图值16x16个词:规模化图像识别的Transformer。 Alexey Dosovitskiy等人 arXiv. [论文]
  12. [2017/11] 神经离散表示学习。 Aaron van den Oord等人 arXiv. [论文]

 

1.3.1 工具使用

 

  1. [2023/07] ToolLLM:使大型语言模型掌握16000多个现实世界API。 Yujia Qin等人 arXiv. [论文] [代码] [数据集]
  2. [2023/05] 大型语言模型作为工具制造者。 Tianle Cai等人 arXiv. [论文] [代码]
  3. [2023/05] CREATOR:通过工具创建消解大型语言模型的抽象和具体推理。 Cheng Qian等人 arXiv. [论文]
  4. [2023/04] 使用Foundation Models进行工具学习。 Yujia Qin等人 arXiv. [论文] [代码]
  5. [2023/04] ChemCrow:用化学工具增强大型语言模型。 Andres M Bran(EPFL人工化学智能实验室)等人 arXiv. [论文] [代码]
  6. [2023/04] GeneGPT:通过领域工具增强大型语言模型以改进对生物医学信息的访问。 Qiao Jin、Yifan Yang、Qingyu Chen、Zhiyong Lu arXiv. [论文] [代码]
  7. [2023/04] OpenAGI:当LLM遇到领域专家。 Yingqiang Ge等人 arXiv. [论文] [代码]
  8. [2023/03] HuggingGPT:使用Hugging Face中的ChatGPT和其伙伴解决AI任务。 Yongliang Shen等人 arXiv. [论文] [代码]
  9. [2023/03] Visual ChatGPT:使用视觉基础模型进行对话、绘画和编辑。 Chenfei Wu等人 arXiv. [论文] [代码]
  10. [2023/02] 增强型语言模型:一项调查。 Grégoire Mialon等人 arXiv. [论文]
  11. [2023/02] Toolformer:语言模型可以自学使用工具。 Timo Schick等人 arXiv. [论文]
  12. [2022/05] TALM:工具增强型语言模型。 Aaron Parisi等人 arXiv. [论文]
  13. [2022/05] MRKL Systems:一种模块化的神经符号体系结构,将大型语言模型、外部知识源和离散推理相结合。 Ehud Karpas等人 arXiv. [论文]
  14. [2022/04] 随我而动:通过语言模型中的机器人可供性对语言进行基础。 Michael Ahn等人 arXiv. [论文]
  15. [2021/12] WebGPT:带有人类反馈的浏览器辅助问答。 Reiichiro Nakano等人 arXiv. [论文]
  16. [2021/07] 评估在代码上训练的大型语言模型。 Mark Chen等人 arXiv. [论文] [代码]

 

1.3.2 具体行动

 

  1. [2023/07] 交互语言:实时与机器人对话。 Corey Lynch等人 IEEE(RAL) [论文]
  2. [2023/05] Voyager:具备大型语言模型的开放式具体行动代理。 Guanzhi Wang等人 Arxiv. [论文]
  3. [2023/05] AVLEN:三维环境中的音频-视觉-语言具体行动。 Sudipta Paul等人 NeurIPS. [论文]
  4. [2023/05] EmbodiedGPT:通过具体思维链的视觉-语言预训练。 Yao Mu等人 Arxiv [论文] [代码]
  5. [2023/05] NavGPT:使用大型语言模型进行视觉与语言导航的显式推理。 Gengze Zhou等人 Arxiv [论文]
  6. [2023/05] AlphaBlock:在机器人操作中进行视觉-语言推理的具体微调。 Chuhao Jin等人 Arxiv [论文]
  7. [2023/03] PaLM-E:具体多模式语言模型。 Danny Driess等人 Arxiv. [论文]
  8. [2023/03] Reflexion:具备语言增强学习的语言代理。 Noah Shinn等人 Arxiv [论文] [代码]
  9. [2023/02] 与具体推理的语言模型合作。 Ishita Dasgupta等人 Arxiv. [论文]
  10. [2023/02] 代码作为策略:用于具体控制的语言模型程序。 Jacky Liang等人 IEEE(ICRA). [论文]
  11. [2022/10] ReAct:语言模型中的推理和行动协同作用。 Shunyu Yao等人 Arxiv [论文] [代码]
  12. [2022/10] 具体指令遵循代理与多模式Transformer。 Hao Liu等人 CVPR [论文] [代码]
  13. [2022/07] 内心独白:通过语言模型进行具体推理的具体行动。 Wenlong Huang等人 Arxiv. [论文]
  14. [2022/07] LM-Nav:具备语言、视觉和行动的大型预训练模型的机器人导航。 Dhruv Shah等人 CoRL [论文] [代码]
  15. [2022/04] 随我而动:通过语言模型中的机器人可供性对语言进行基础。 Michael Ahn等人 Arxiv. [论文]
  16. [2022/01] 具体AI综述:从模拟器到研究任务。 Jiafei Duan等人 IEEE(TETCI). [论文]
  17. [2022/01] 语言模型作为零射击规划者:提取具体代理的可行知识。 Wenlong Huang等人 Arxiv. [论文] [代码]
  18. [2020/04] 经验铺平语言之路。 Yonatan Bisk等人 EMNLP [论文]
  19. [2019/03] 机器人操纵的深度强化学习回顾。 Hai Nguyen等人 IEEE(IRC). [论文]
  20. [2005/01] 具体认知的发展:从婴儿学到的六堂课。 Linda Smith等人 Artificial Life. [论文]

 

2.1.1 任务导向部署

 

在网络场景中

  1. [2023/07] WebArena:用于构建自主代理的现实网络环境。 Shuyan Zhou (CMU)等人 arXiv. [论文] [代码]
  2. [2023/07] 具备规划、长上下文理解和程序合成的现实世界WebAgent。 Izzeddin Gur (DeepMind)等人 arXiv. [论文]
  3. [2023/06] SYNAPSE:利用少样本实例进行人类级计算机控制。 Longtao Zheng (南洋理工大学)等人 arXiv. [论文] [代码]
  4. [2023/06] Mind2Web:走向网络通用代理。 Xiang Deng (俄亥俄州立大学)等人 arXiv. [论文] [代码]
  5. [2023/05] 使用指令微调基础模型的多模态Web导航。 Hiroki Furuta (东京大学)等人 arXiv. [论文]
  6. [2023/03] 语言模型可以解决计算机任务。 Geunwoo Kim (加利福尼亚大学)等人 arXiv. [论文] [代码]
  7. [2022/07] WebShop:实现具体语言代理的可伸缩现实世界Web交互。 Shunyu Yao (普林斯顿大学)等人 arXiv. [论文] [代码]
  8. [2021/12] WebGPT:带有人类反馈的浏览器辅助问答。 Reiichiro Nakano (OpenAI)等人 arXiv. [论文]
  9. [2023/05] Agents:用于自主语言代理的开源框架。 Wangchunshu Zhou (AIWaves)等人 arXiv. [论文] [代码]

在生活场景中

  1. [2023/08] InterAct:探索ChatGPT作为合作代理的潜力。 Po-Lin Chen等人 arXiv. [论文]
  2. [2023/05] 计划、消除和跟踪--语言模型是具体代理的好老师。 Yue Wu (CMU)等人 arXiv. [论文]
  3. [2023/05] 用大型语言模型增强Autotelic代理。 Cédric Colas (MIT)等人 arXiv. [论文]
  4. [2023/03] 通过纠正性重新提示进行大型语言模型的规划。 Shreyas Sundara Raman (布朗大学)等人 arXiv. [论文]
  5. [2022/10] 使用具有环境感知的语言模型生成可执行行动计划。 Maitrey Gramopadhye (北卡罗来纳大学教堂山分校)等人 arXiv. [论文] [代码]
  6. [2022/01] 语言模型作为零射击规划者:提取具体代理的可行知识。 Wenlong Huang (加州大学伯克利分校)等人 arXiv. [论文] [代码]

 

2.1.2 创新导向的部署

 

  1. [2023/08] 程序分析的《银河系漫游指南》:与大型语言模型的旅程。 Haonan Li (加州大学河滨分校)等人 arXiv. [论文]
  2. [2023/08] ChatMOF:用于预测和生成金属-有机骨架的自主AI系统。 Yeonghun Kang (韩国科学技术高级研究院)等人 arXiv. [论文]
  3. [2023/07] 数学代理:计算基础设施、数学嵌入和基因组学。 Melanie Swan (伦敦大学学院)等人 arXiv. [论文]
  4. [2023/06] 通过会话式大型语言模型实现自主测试代理。 Robert Feldt (查尔姆斯理工大学)等人 arXiv. [论文]
  5. [2023/04] 大型语言模型的新兴自主科学研究能力。 Daniil A. Boiko (CMU)等人 arXiv. [论文]
  6. [2023/04] ChemCrow:使用化学工具增强大型语言模型。 Andres M Bran(EPFL人工化学智能实验室)等人 arXiv. [论文] [代码]
  7. [2022/03] ScienceWorld:你的代理比五年级生聪明吗? Ruoyao Wang (亚利桑那大学)等人 arXiv. [论文] [代码]

 

2.1.3 生命周期导向的部署

 

  1. [2023/05] Voyager:具备大型语言模型的开放式具身代理。 Guanzhi Wang (NVIDIA)等人 arXiv. [论文] [代码]
  2. [2023/05] 我的世界中的幽灵:通过基于文本的知识和记忆具有一般能力的大型语言模型实现开放式世界环境。 Xizhou Zhu (清华大学)等人 arXiv. [论文] [代码]
  3. [2023/03] Plan4MC:用于开放式世界我的世界任务的技能强化学习和规划。 Haoqi Yuan (北京大学)等人 arXiv. [论文] [代码]
  4. [2023/02] 描述、解释、计划和选择:与大型语言模型互动规划实现开放式多任务代理。 Zihao Wang (北京大学)等人 arXiv. [论文] [代码]
  5. [2023/01] 具身代理会梦见像素化的羊吗:使用语言引导的世界建模进行具体决策。 Kolby Nottingham (加州大学欧文分校)等人 arXiv. [论文] [代码]

 

2.2.1 互补合作

 

无序合作

  1. [2023/07] 在大型语言模型中释放认知协同作用:通过多人自我协作实现任务求解代理。 Zhenhailong Wang (伊利诺伊大学香槟分校)等人 arXiv. [论文] [代码]
  2. [2023/07] RoCo:使用大型语言模型进行辩证式多机器人协作。 Zhao Mandi, Shreeya Jain, Shuran Song (哥伦比亚大学)等人 arXiv. [论文] [代码]
  3. [2023/04] ChatLLM网络:更多大脑,更多智慧。 Rui Hao (北京邮电大学)等人 arXiv. [论文]
  4. [2023/01] 盲目判断:基于代理的最高法院模型与GPT。 Sil Hamilton (麦吉尔大学). arXiv. [论文]
  5. [2023/05] Agents:面向自主语言代理的开源框架。 Wangchunshu Zhou (AIWaves)等人 arXiv. [论文] [代码]

有序合作

  1. [2023/08] CGMI:可配置的通用多代理互动框架。 Shi Jinxin (华东师范大学)等人 arXiv. [论文]
  2. [2023/08] ProAgent:使用大型语言模型构建主动合作AI。 Ceyao Zhang (香港中文大学深圳)等人 arXiv. [论文] [代码]
  3. [2023/08] AgentVerse:促进多代理协作并探索代理的新兴行为。 Weize Chen (清华大学)等人 arXiv. [论文] [代码]
  4. [2023/08] AutoGen:通过多代理对话框架实现下一代LLM应用。 Qingyun Wu (宾夕法尼亚州立大学)等人 arXiv. [论文] [代码]
  5. [2023/08] MetaGPT:多代理协作框架的元编程。 Sirui Hong (DeepWisdom)等人 arXiv. [论文] [代码]
  6. [2023/07] 用于软件开发的沟通代理。 Chen Qian (清华大学)等人 arXiv. [论文] [代码]
  7. [2023/06] 多代理协作:利用智能LLM代理的力量。 Yashar Talebira (艾伯塔大学)等人 arXiv. [论文]
  8. [2023/05] 在模拟人类社会中培训社会对齐的语言模型。 Ruibo Liu (达特茅斯学院)等人 arXiv. [论文] [代码]
  9. [2023/05] SwiftSage:用于复杂互动任务的具有快速和慢思维的生成代理。 Bill Yuchen Lin (艾伯塔人工智能研究所)等人 arXiv. [[论文](https://arxiv.org/abs/2305

 

 

2.2.2 推动对抗交互

 

  1. [2023/08] ChatEval:通过多代理辩论实现更好的基于LLM的评估器。 Chi-Min Chan (清华大学)等人 arXiv.* [论文] [代码]
  2. [2023/05] 通过多代理辩论提高语言模型中的事实性和推理能力。 Yilun Du (麻省理工学院计算机科学与人工智能实验室)等人 arXiv. [论文] [代码]
  3. [2023/05] 通过自我对战和从AI反馈中的上下文学习,改善语言模型协商。 Yao Fu (爱丁堡大学)等人 arXiv. [论文] [代码]
  4. [2023/05] 通过辩论深入分析大型语言模型的内部一致性。 Kai Xiong (哈尔滨工业大学)等人 arXiv. [论文] [代码]
  5. [2023/05] 通过多代理辩论鼓励大型语言模型的发散性思维。 Tian Liang (清华大学)等人 arXiv. [论文] [代码]

 

2.3.1 导师执行范式

教育

 

  1. [2023/07] 数学代理: 计算基础设施、数学嵌入和基因组学。 Melanie Swan (伦敦大学学院)等人 arXiv. [论文]
  2. 与人类进行交流,帮助他们理解和使用数学。
  3. [2023/03] 嘿,Dona!你能帮我处理学生课程注册吗? Vishesh Kalvakurthi (密歇根州立大学)等人 arXiv. [论文]
  4. 这是一个名为Dona的应用程序,在学生课程注册中提供虚拟语音协助,其中人类提供指令。

 

健康

 

  1. [2023/08] 中经:通过专家反馈和真实多轮对话增强大型语言模型的中医能力。 杨松华 (郑州大学)等人 arXiv. [论文] [代码]
  2. [2023/05] HuatuoGPT,朝着驯服语言模型成为医生。 张洪波 (中文大学(深圳))等人 arXiv. [论文] [代码] [演示]
  3. [2023/05] 通过AI增强的实践和反馈来支持同龄心理辅导员。 Shang-Ling Hsu (乔治亚理工学院)等人 arXiv. [论文]
  4. [2020/10] 面向患有自闭症谱系障碍的青少年的虚拟对话代理:实验结果和设计经验。 Mohammad Rafayet Ali (罗切斯特大学)等人 IVA '20. [论文]

 

其他应用

 

  1. [2023/08] RecMind:基于大型语言模型的推荐代理。 王彦成 (亚利桑那州立大学,亚马逊)等人 arXiv. [论文]
  2. [2023/08] 在电话营销中将多轮对话代理作为销售助手。 高婉婷 (暨南大学)等人 IEEE. [论文]
  3. [2023/07] PEER:协作式语言模型。 Timo Schick (Meta AI)等人 arXiv. [论文]
  4. [2023/07] DIALGEN:通过AI生成的对话的多轮对话,以改进对人际对话的理解。 卢柏儒 (华盛顿大学)等人 arXiv. [论文]
  5. [2023/06] AssistGPT:一种可以规划、执行、检查和学习的通用多模态助手。 高迪飞 (新加坡国立大学)等人 arXiv. [论文]
  6. [2023/05] Agents:用于自主语言代理的开源框架。 Wangchunshu Zhou (AIWaves)等人 arXiv. [论文] [代码]

 

2.3.2 平等合作范式

充满同理心的交流者

 

  1. [2023/08] SAPIEN:由大型语言模型驱动的情感虚拟代理。 Masum Hasan等人 arXiv. [论文] [代码] [项目页面] [数据集]
  2. [2023/05] 帮助帮助者:通过AI赋能的实践和反馈来支持同龄心理辅导员。 Shang-Ling Hsu (乔治亚理工学院)等人 arXiv. [论文]
  3. [2022/07] 营销互动中的人工同理心:弥合情感和社交客户体验中的人工智能和人类差距。 刘玉平-汤普金斯等人. [论文]

 

人类级参与者

 

  1. [2023/08] 量化大型语言模型对集体意见动态的影响。 Chao Li等人 CoRR. [论文]
  2. [2023/06] 通过人类正规化强化学习和规划掌握无压外交游戏。 Anton Bakhtin等人 ICLR. [论文]
  3. [2023/06] 面向决策的人机协作对话。 Jessy Lin等人 CoRR. [论文]
  4. [2022/11] 通过将语言模型与战略推理相结合在外交游戏中实现人类级别的游戏水平。 FAIR等人 Science. [论文]

 

3.1 LLM-based Agents的行为和个性

3.1.1 社交行为

 

个体行为

  1. [2023/05] Voyager:具有大型语言模型的开放式体验代理。 Guanzhi Wang(NVIDIA)等人 arXiv. [论文] [代码]
  2. [2023/04] LLM+P:赋予大型语言模型最佳规划能力。 Bo Liu(德克萨斯大学)等人 arXiv. [论文] [代码]
  3. [2023/03] Reflexion:具有语言强化学习的语言代理。 Noah Shinn(东北大学)等人 arXiv. [论文] [代码]
  4. [2023/03] PaLM-E:具有多模态语言模型的具体行动。 Danny Driess(Google)等人 ICML. [论文] [项目页面]
  5. [2023/03] ReAct:在语言模型中协同推理和行动。 Shunyu Yao(普林斯顿大学)等人 ICLR. [论文] [项目页面]
  6. [2022/01] 链式思考提示引发大型语言模型的推理。 Jason Wei(Google)等人 NeurIPS. [论文]

群体行为

  1. [2023/09] 探索大型语言模型在沟通游戏中的应用:关于狼人杀的实证研究。 Yuzhuang Xu(清华大学)等人 arXiv. [论文]
  2. [2023/08] AgentVerse:促进多代理协作并探索代理中的新兴行为。 Weize Chen(清华大学)等人 arXiv. [论文] [代码]
  3. [2023/08] AutoGen:通过多代理对话框架实现下一代LLM应用。 Qingyun Wu(宾夕法尼亚州立大学)等人 arXiv. [论文] [代码]
  4. [2023/08] ChatEval:通过多代理辩论实现更好的基于LLM的评估。 Chi-Min Chan(清华大学)等人 arXiv. [论文] [代码]
  5. [2023/07] 软件开发的交流代理。 Chen Qian(清华大学)等人 arXiv. [论文] [ 最后更新时间: 2024-10-11 02:33:30

    评论

单击展开

© 点点猫科技 鄂公网安备42011102004252号 鄂ICP备2020022439号-1

声明:所有软件和文章来自互联网 如有异议 请与本站联系 本站为非赢利性网站 不接受任何赞助和广告 反馈邮箱:adcenter77@163.com

建议您使用Edge、Chrome 80+、FireFox 86+、360极速模式等主流浏览器浏览本网站