Generative Agents: Interactive Simulacra of Human Behavior
Joon Sung Park
Stanford University
Stanford, USA
joonspk@stanford.edu
Joseph C. O’Brien
Stanford University
Stanford, USA
jobrien3@stanford.edu
Carrie J. Cai
Google Research
Mountain View, CA, USA
cjcai@google.com
Meredith Ringel
Morris
Google Research
Seattle, WA, USA
merrie@google.com
Percy Liang
Stanford University
Stanford, USA
pliang@cs.stanford.edu
Michael S. Bernstein
Stanford University
Stanford, USA
msb@cs.stanford.edu
CCS CONCEPTS • Human-centered computing → Interactive systems and tools; • Computing methodologies → Natural language processing. KEYWORDS Human-AI Interaction, agents, generative AI, large language models ACM Reference Format:
Joon Sung Park, Joseph C. O’Brien, Carrie J. Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein. 2023. Generative
Agents: Interactive Simulacra of Human Behavior. In . ACM, New York, NY, USA, 29 pages. https://doi.org/xx.xx/xx.xx
stanford-agent-生成式代理 - 人类行为的交互式仿真
Generative Agents: Interactive Simulacra of Human Behavior
Joon Sung Park Stanford University Stanford, USA joonspk@stanford.edu Joseph C. O’Brien Stanford University Stanford, USA jobrien3@stanford.edu Carrie J. Cai Google Research Mountain View, CA, USA cjcai@google.com Meredith Ringel Morris Google Research Seattle, WA, USA merrie@google.com Percy Liang Stanford University Stanford, USA pliang@cs.stanford.edu Michael S. Bernstein Stanford University Stanford, USA msb@cs.stanford.edu
图 1: 生成型Agent可以为交互应用程序创建可信的人类行为模拟物。在这项工作中,我们通过在一个类似《模拟人生》的沙盒环境中放置了25个Agent来展示生成型Agent。用户可以观察和干预Agent们的日常计划、新闻分享、人际关系建立以及团体活动协调。
摘要
警告:该PDF由GPT-Academic开源项目调用大语言模型+Latex翻译插件一键生成,版权归原文作者所有。翻译内容可靠性无保障,请仔细鉴别并以原文为准。项目Github地址: https://github.com/binary-husky/gpt_academic/ 。 项目在线体验地址: https://chatpaper.org 。 当前大语言模型: gpt-3.5-turbo,当前语言模型温度设定: 1。为了防止大语言模型的意外谬误产生扩散影响,禁止移除或修改此警告。
可信的人类行为代理可以为交互式应用程序提供支持,包括沉浸式环境、人际交流排练空间和原型工具。本文介绍了生成型代理——计算机软件代理,模拟可信的人类行为。生成型代理会起床,煮早餐,然后去上班;艺术家们绘画,作者们写作;他们形成观点,注意到彼此,并开始对话;他们回忆过去的日子,为下一天制定计划。为了实现生成型代理,我们描述了一种架构,通过扩展大型语言模型,使用自然语言存储代理的完整经历记录,并随时间将这些记忆综合成更高级的思考,动态地检索它们以规划行为。我们使用生成型代理来填充受《模拟人生》启发的交互式沙盒环境,用户可以使用自然语言与25个代理在一个小镇中进行交互。在评估中,这些生成型代理产生了可信的个体和集体社会行为:例如,仅从一个用户指定的想法开始,即一个代理想要举办情人节派对,代理在接下来的两天内自主地传播了派对的邀请,结交了新朋友,约对方参加派对,并协调好在正确时间一起参加派对。通过消融实验,我们证明了我们的代理架构的各个组成部分——观察、规划和反思——对于代理行为的可信度至关重要。通过将大型语言模型和计算机交互代理融合起来,本研究引入了用于实现可信人类行为模拟的架构和交互模式。
1 INTRODUCTION
如何打造一个反映可信人类行为的交互式人工社会?从《模拟人生》等沙盒游戏到认知模型和虚拟环境等应用 [21] ,在过去的四十多年里,研究者和实践者设想了计算代理人,可以作为可信赖的人类行为代理。在这些设想中,计算强化的代理人会根据他们过去的经验行事,并对他们的环境做出可信的反应。这种对人类行为的模拟可以使虚拟空间和社区充满逼真的社会现象 [26, 79],帮助人们处理罕见但困难的人际关系问题 [43, 51, 93],测试社会科学理论 [11, 45],构建人机处理模型以进行理论和可用性测试 [21, 38, 50],推动普适计算应用 [30]和社交机器人 [9, 13],以及支撑复杂人际关系下的非可玩游戏角色 [58, 84]。
然而,人类行为的空间是广阔而复杂的 [84, 108]。尽管大型语言模型取得了显著的进展 [17],可以在单一时间点模拟可信的人类行为 [38, 79],但要确保长期连贯性的完全通用代理机制更适合管理不断增长的记忆,并根据新的互动、冲突和事件的产生和消失处理级联的社会动态,成功需要一种能够在长时间内检索相关事件和互动,反思这些记忆以进行概括和得出更高层次推断,并应用这种推理来创建计划和反应,既在当下具有意义,也符合代理人行为的长期发展。
本文介绍了生成代理——一种利用生成模型模拟可信人类行为的代理,证明它们能够产生出个体和新兴群体行为的可信化模拟。生成代理对自身、其他代理和环境进行广泛的推演;它们制定反映其特征和经验的日常计划,实施这些计划,并在适当时进行反应和重新计划;它们在最终用户改变环境或以自然语言命令他们时做出响应。例如,生成代理在看到早餐烧焦时会关闭炉子,在浴室有人使用时会在外等候,并在遇到想交谈的其他代理时停下来聊天。一个充满生成代理的社会充满了新的社会动态,新的关系被建立,信息扩散,代理之间的协调产生。
为了实现生成代理,我们描述了一个代理体系结构,用于存储、综合和应用相关记忆,以使用大型语言模型生成可信行为。我们的体系结构包括三个主要组件。第一个是记忆流,它是一个长期记忆模块,以自然语言记录代理的丰富经验。检索模型结合关联性、最新性和重要性,提供所需的记录,为代理的瞬时行为提供信息。第二个是反思,它将记忆综合为随时间推移的更高层次推断,使代理能够对自己和他人做出结论,更好地引导其行为。第三个是规划,它将这些结论和当前环境转化为高层次的行动计划,然后递归地转化为详细的行为和反应。这些反思和计划反馈到记忆流中,影响代理的未来行为。这种架构提出了在多个领域中的应用,从角色扮演和社交原型制作到虚拟世界和游戏。在社交角色扮演场景中(例如面试准备),用户可以安全地排练困难、充满冲突的对话。在原型设计社交平台时,设计师可以超越临时角色来设计动态、复杂的交互行为。在本文中,我们关注通过类似《模拟人生》等游戏的方式,创建一个小型的可交互智能体社会的能力。通过将我们的架构连接到ChatGPT大型语言模型[76],我们在游戏环境中展示了一个由25个智能体组成的小型智能体社会。终端用户可以观察和与这些智能体进行交互。例如,如果终端用户或开发者想让小镇举办一个游戏内的情人节派对,传统的游戏环境通常需要手动编写十几个角色的行为脚本。我们的研究表明,通过生成式智能体,只需告诉一个智能体她想要办派对即可。尽管存在许多潜在的失败点派对策划者必须记得告诉其他智能体派对的事情,参加者必须记得邀请,记得的人们必须决定是否实际出席,还有其他可能的失败点-但我们的环境中的智能体们却成功了。他们传播了派对的信息,然后出席了派对,一位智能体甚至邀请另一位智能体一起参加派对,这一切只需一个用户生成的种子提示。
我们进行了两个生成式智能体的评估:一个受控评估用于测试智能体在孤立状态下是否能产生可信的个体行为,以及一个端到端的评估,在两天的游戏时间内,生成式智能体们以开放式的方式相互交互,以了解它们的稳定性和新兴社会行为。在技术评估中,我们利用了一个方法学机会,通过自然语言对智能体进行“面试”来评估智能体的知识和行为,以探测智能体在保持角色、记忆、计划、反应和准确反映方面的能力。我们比较了几种限制智能体获取记忆、反思和计划能力的方案。我们观察到这些组件对于在这些面试任务中取得优异表现至关重要。在技术评估和端到端评估中,智能体最常见的错误是未能获取相关的记忆、虚构记忆中的细节,或从语言模型中继承了过于正式的语言或行为。
综上所述,本文提供了以下贡献:
• 生成式智能体,这些智能体是对人类行为进行可信仿真,其行为会根据智能体不断变化的经验和环境而动态调整。 • 一种新颖的架构,使生成代理能够记忆、检索、反思、与其他代理进行互动,并通过不断变化的环境进行规划。该架构利用大型语言模型的强大提示功能,并补充这些功能以支持长期的代理一致性、管理动态演化的记忆能力,并递归产生更多的生成物。 • 两个评估(控制评估和端到端评估)能够确定架构组件的重要性的因果效应,并且可以识别由于不当的内存检索等原因而导致的故障。 • 对交互系统中生成式代理的机遇、伦理和社会风险进行讨论。我们认为,这些代理应当被调整以减轻用户形成寄生性关系的风险,记录以减轻源自深度伪造和定制说服的风险,并以补充而不是取代设计过程中的人类利益相关者的方式进行应用。识别由于不当的内存检索等原因而导致的故障。 • 对交互系统中生成式代理的机遇、伦理和社会风险进行讨论。我们认为,这些代理应当被调整以减轻用户形成寄生性关系的风险,记录以减轻源自深度伪造和定制说服的风险,并以补充而不是取代设计过程中的人类利益相关者的方式进行应用。
2 RELATED WORK
在本节中,我们回顾了关于人工智能与人类互动的先前文献,并将构建可信的人类行为代理的议程置于其中的正典之中。这一议程曾被赞誉为互动、游戏和人工智能社区的北极星 [9, 58, 84, 85],但由于人类行为的复杂性,它一直具有挑战性 [16, 108]。我们将这项研究综合起来,建议使用适当的架构和利用大型语言模型,尽管它们本身不足以实现,但却为创建可信代理打开了一个新的角度。