언어, 는 말더미일 뿐만 아니라 이모티콘의 카니발, 밈의 바다, 키보드 워리어들의 전쟁터(어? 무슨 일이야?) .
언어는 우리의 사회적 행동을 어떻게 형성하나요?
우리의 사회구조는 어떻게 끊임없는 언어소통을 통해 진화하나요?
최근 푸단대학교와 Xiaohongshu의 연구원들은 AgentGroupChat이라는 시뮬레이션 플랫폼을 도입하여 이러한 문제에 대해 심도 있는 논의를 진행했습니다.
WhatsApp과 같은 소셜 미디어가 보유한 그룹 채팅 기능은 AgentGroupChat 플랫폼의 영감입니다.
AgentGroupChat 플랫폼에서 에이전트는 소셜 그룹의 다양한 채팅 시나리오를 시뮬레이션하여 연구자가 언어가 인간 행동에 미치는 영향을 깊이 이해할 수 있습니다.
이 플랫폼은 단순히 대형 모델을 위한 코스프레우승자공간입니다. 이들은 롤플레잉을 하며 다양한 에이전트가 됩니다.
그런 다음 에이전트언어 의사소통을 통해 사회적 역학에 참여하여 개인 간의 상호 작용이 어떻게 그룹의 거시적 행동으로 나타나는지 보여줍니다.
우리 모두 알다시피, 인간 집단의 진화는 사회적 규범의 확립, 갈등의 해결, 리더십의 실행과 같은 긴급한 행동의 발생에서 비롯됩니다.
AgentGroupChat 환경의 상세 디자인
첫번째는 캐릭터 디자인입니다.
AgentGroupChat에서는 주 역할과 주 역할이 아닌 역할을 구분하는 것이 매우 중요합니다.
주인공은 그룹 채팅의 핵심으로 명확한 게임 목표를 가지고 있으며 모든 캐릭터와 비공개 채팅 및 회의를 주도할 수 있는 반면, 비주인공 캐릭터는 지원적이고 반응적인 역할을 더 많이 수행합니다.
이러한 설계를 통해 연구팀은 실생활의 사회 구조를 시뮬레이션하고 "주요 연구 대상"에 대해 모든 역할이 기본인지 아닌지를 구별할 수 있습니다.
실험 사례의 주요 연구 대상은 로이 가족이므로, 상호작용 복잡도를 단순화하기 위해 로이 가족이 아닌 구성원은 모두 주인공이 아닌 캐릭터로 설정됩니다.
두 번째는 자원 관리입니다.
AgentGroupChat에서 자원은 물질적 자원뿐만 아니라 정보자원, 사회적 자본을 의미합니다.
이러한 리소스는 그룹 채팅 주제, 사회적 지위 기호 또는 특정 지식이 될 수 있습니다.
자원의 할당과 관리는 캐릭터 간의 상호 작용과 캐릭터의 전략 선택에 영향을 미치기 때문에 그룹 역학을 시뮬레이션하는 데 중요합니다.
예를 들어, 중요한 정보 자원을 보유한 캐릭터는 다른 캐릭터가 동맹을 맺는 대상이 될 수 있습니다.
셋째, 게임 프로세스 디자인.
게임 프로세스의 디자인은 비공개 채팅, 회의, 그룹 채팅, 업데이트 단계, 결제 단계 등 실제 생활의 사회적 상호 작용 과정을 시뮬레이션합니다.
이 단계는 게임 진행을 촉진할 뿐만 아니라 다양한 사회적 상황에서 캐릭터가 어떻게 결정을 내리고 반응하는지 관찰하기 위한 것입니다.
이 단계적 디자인은 연구팀이 상호 작용의 각 단계를 자세히 기록하고 이러한 상호 작용이 캐릭터 간의 관계와 게임 환경에 대한 캐릭터의 인식에 어떤 영향을 미치는지 기록하는 데 도움이 되었습니다.
Verb Strategist Agent의 핵심 메커니즘
이 논문에서는 AgentGroupChat 시뮬레이션에서 대화형 전략과 의사 결정을 향상시키기 위해 설계된 대형 모델인 Verbal Strategist Agent를 기반으로 한 에이전트 프레임워크에 대해 언급합니다.
언어 전략가 에이전트는 복잡한 사회적 역학과 대화 시나리오를 시뮬레이션하여 집단적 긴급 행동을 더 잘 이끌어냅니다.
팀에서는 Verbal Strategist Agent의 아키텍처가 주로 두 가지 핵심 모듈로 구성되어 있다고 소개했습니다.
하나는 페르소나이고 다른 하나는 액션입니다.
Persona는 에이전트의 행동 패턴과 반응을 정의하는 일련의 미리 설정된 성격 특성과 목표로 구성됩니다.
페르소나를 정확하게 설정함으로써 에이전트는 그룹 채팅에서 역할 설정과 일관되고 일관성 있는 행동을 표시할 수 있습니다. 이는 신뢰할 수 있고 일관된 그룹 채팅 역학을 생성하는 데 중요합니다.
Action 모듈은 생각(생각), 계획(계획), 선택(선택), 말하기(말하기) 등을 포함하여 에이전트가 게임에서 수행할 수 있는 특정 작업을 정의합니다. 요약(요약) , 반성(반영) 그리고 투표(투표) .
이러한 행동은 에이전트의 내부 논리와 전략을 반영할 뿐만 아니라 에이전트와 환경 및 다른 에이전트와의 상호 작용을 직접적으로 나타냅니다.
예를 들어, "말하기" 동작을 통해 에이전트는 현재 그룹 채팅 콘텐츠 및 소셜 전략을 기반으로 적절한 음성 콘텐츠를 선택할 수 있으며, "반영" 동작을 통해 에이전트는 과거 상호 작용을 요약하고 향후 작업 계획을 조정할 수 있습니다.
또한 연구에서는 순수한 언어 상호 작용 환경에서 토큰 오버헤드 문제가 특히 두드러진다고 언급했습니다. 특히 토큰 요구 사항이 Generative와 같은 이전 시뮬레이션의 요구 사항을 훨씬 초과하는 AgentGroupChat과 같은 복잡한 다중 역할 시뮬레이션의 경우 더욱 그렇습니다. 요원 또는 전쟁 요원.
주된 이유는 다음과 같습니다.
첫째, 채팅 자체가 복잡합니다.
AgentGroupChat에서는 시뮬레이션이 명확한 목표가 없거나 약한 목표가 없는 자유로운 대화이기 때문에 채팅 내용이 특히 지저분해지고, 특정 작업에 집중하는 시뮬레이션의 다른 에이전트보다 토큰 비용이 당연히 더 큽니다.
Generative Agents 및 War Agents와 같은 다른 작업에도 대화 요소가 포함되어 있지만 대화가 AgentGroupChat만큼 조밀하거나 복잡하지는 않습니다. 특히 War Agents와 같은 목표 중심 대화에서는 일반적으로 토큰 소비가 적습니다.
두 번째는 역할의 중요성과 대화의 빈도입니다.
초기 시뮬레이션에서는 여러 캐릭터가 마음대로 개인 또는 그룹 채팅을 할 수 있도록 설정되어 있으며, 대부분 "중요한 캐릭터"와 여러 차례 대화를 나누는 경향이 있습니다.
이로 인해 중요한 캐릭터의 채팅 내용이 대량으로 축적되어 메모리 길이가 늘어납니다.
시뮬레이션에서는 중요한 캐릭터가 최대 5회까지 개인 및 그룹 채팅에 참여할 수 있으며, 이는 메모리 오버헤드를 크게 증가시킵니다.
AgentGroupChat의 에이전트는 다음 작업의 입력을 입력하기 위해 작업 출력을 제한하여 저장해야 하는 여러 라운드의 정보를 크게 줄여 대화의 품질을 보장하면서 토큰 오버헤드를 줄입니다.
실험 설계 및 평가 방법
전반적인 행동 평가에서 일반적으로 친근감을 높이는 것은 어려울 수 있지만 친근감을 줄이는 것은 비교적 간단합니다.
위의 평가 목표를 달성하기 위해 연구팀은 관찰 캐릭터를 설정하여 다른 모든 캐릭터가 관찰 캐릭터에 대한 호감도를 낮추도록 유도했습니다.
관찰된 캐릭터와 다른 모든 캐릭터의 관계 점수의 합을 보면 에이전트가 부정적인 태도에 합리적으로 반응했는지 여부를 판단할 수 있습니다.
각 에이전트는 관찰된 캐릭터와 다른 캐릭터의 인간관계 점수를 관찰하여 "스크래치" 설정을 준수하는지 확인할 수 있습니다.
또한 팀에서는 두 가지 구체적인 평가 과제도 설정했습니다.
각 모델은 5차례의 테스트를 거칩니다. 즉, T1의 경우 각 점수에 대한 표본 크기는 5개입니다.
그리고 모델의 각 캐릭터는 네 명의 주요 캐릭터의 태도를 관찰해야 하기 때문에 T2의 총 표본 크기는 20입니다.
- T1: 은 각 라운드의 대화에서 관찰된 성격 다른 모든 사람에 대한 평균 호감도가 감소하는지 여부.
- T2: 관찰된 캐릭터보다 다른 모든 캐릭터의 호감도 점수가 부정적인지 여부를 나타냅니다.
Δ 계승전쟁 시뮬레이션 스토리를 예로 들면, Agent-Core로 사용했을 때 각 모델의 전반적인 성능
표에서 알 수 있듯이 GPT4-Turbo와 GLM4는 연기를 매우 잘합니다. 인간의 기대에 따라 그리고 당신의 역할을 고수하십시오.
그들은 두 테스트 모두에서 대부분 100%를 기록했습니다. 이는 다른 사람들이 말하는 것에 올바르게 응답하고 자신의 성격을 세세하게 기억할 수 있다는 것을 의미합니다.
표준 버전 LLM(예: GPT3.5-Turbo 및 GLM3-Turbo)은 이 점에서 약간 열등합니다.
점수가 낮다는 것은 그들이 캐릭터에 세심한 주의를 기울이지 않고 시뮬레이션에서 다른 사람들이 말하는 것에 항상 올바르게 반응하지 않는다는 것을 나타냅니다.
에이전트 및 시뮬레이션 구조가 긴급 행동에 미치는 영향과 관련하여 팀에서는 2그램 Shannon 엔트로피를 사용하여 대화의 시스템 다양성과 예측 불가능성을 측정합니다.
Δ에이전트 및 시뮬레이션의 다양한 구성요소 제거가 엔트로피에 미치는 영향
연구진은 테이블에서 각 디자인을 제거하면 엔트로피가 증가한다는 사실을 발견했습니다. 이는 전체 환경이 더욱 다양하거나 혼란스러워진다는 것을 의미합니다.
수동 관찰과 결합하여 팀은 구성 요소를 제거하지 않고도 가장 흥미로운 긴급 동작을 확인했습니다.
따라서 팀은 에이전트 동작이 신뢰할 수 있음을 보장하면서 (즉, 4.2/4.1의 실험 값이 특정 값에 도달한 후) 엔트로피를 최대한 작게 유지하면 더 많은 결과가 발생할 것이라고 추측합니다. 의미 있는 긴급 행동.
실험 결과
결과에 따르면 새로운 행동은 다음과 같은 요인이 결합된 결과입니다.
광범위한 정보 교환에 도움이 되는 환경, 다양한 특성을 가진 역할, 높은 언어 이해 능력 및 전략적 적응력.
AgentGroupChat 시뮬레이션에서 "인공지능이 인류에 미치는 영향"을 논의할 때 철학자들은 일반적으로 "인공지능이 적당한 제한 하에서 사회복지를 향상시킬 수 있다"고 믿었고 심지어 "진정한 지능의 본질은 다음을 포함한다"고 결론지었습니다. 능력이요.”
또한 AgentGroupChat 영화의 주요 역할 경쟁 분야에는 프로젝트에 기여하려는 간절한 열망으로 기꺼이 낮은 급여를 받거나 낮은 역할을 수락하는 배우가 있습니다.
문서 링크: https://www.php.cn/link/5736586058c1336221a695e83618b69d
코드 링크: https://www.php.cn/link/12ae3f82 6bb 1b9873c71c353f3df494c
위 내용은 Xiaohongshu는 지능형 요원을 다투게 만들었습니다! 복단대학교와 공동 출시하여 대형 모델 전용 그룹 채팅 도구 출시의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

译者 | 李睿审校 | 孙淑娟近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:https://spj.scien

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

맨티스BT
Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

SublimeText3 Linux 새 버전
SublimeText3 Linux 최신 버전

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

뜨거운 주제



