Heim > Artikel > Technologie-Peripheriegeräte > Mehrere ChatGPTs arbeiten zusammen, um bestimmte Aufgaben zu erledigen. Kommt eine Mini-AGI-kontrollierte Welt?
Wird die zukünftige Gesellschaft durch künstliche allgemeine Intelligenz (AGI) gesteuert? Wie beängstigend wäre es, mehrere ChatGPT-Agenten zu haben.
ChatGPT hat zunächst den Prototyp von AGI gezeigt und ist zu einem Allround-Assistenten für Arbeitnehmer in allen Lebensbereichen geworden nicht der Kontrolle unterliegt, wird es einen Tag geben, an dem Menschen AGI nicht mehr kontrollieren können? Elon Musk, CEO von Tesla, Steve Wozniak, Turing-Award-Gewinner Yoshua Bengio und andere waren sich der Ernsthaftigkeit dieses Problems bewusst und unterzeichneten einen offenen Brief, in dem sie dazu aufriefen, riesige Experimente mit künstlicher Intelligenz für mindestens sechs Monate zu stoppen.
Am 21. März stellten Forscher der King Abdullah University of Science and Technology ein Open-Source-Tool zur Erkundung großer Sprachen zur Verfügung CAMEL, eine Multi-Agenten-Codebibliothek für Modellideen und -fähigkeiten (LLM), schlägt ein Rollenspiel-Framework vor, um das Verhalten und die Fähigkeiten von LLM-Agenten zu untersuchen.
Research Einleitung
Dieses Papier schlägt ein neues Multi-Agenten-Framework namens „Rollenspiel“ vor, das es mehreren Agenten ermöglicht, Gespräche zu führen und zusammenzuarbeiten, um zugewiesene Aufgaben zu lösen. Agenten werden unterschiedliche Rollen zugewiesen und von ihnen wird erwartet, dass sie ihr Fachwissen und Wissen einsetzen, um Lösungen zu finden, die ihren gemeinsamen Aufgaben gerecht werden. Das Framework verwendet heuristische Eingabeaufforderungen (Inception Prompts), um den Chat-Agenten bei der Erledigung von Aufgaben anzuleiten und dabei im Einklang mit den menschlichen Absichten zu bleiben.Das Rollenspiel-Framework kann zum Studieren mehrerer Agenten verwendet werden. Der Schwerpunkt des Artikels liegt auf aufgabenorientierten Rollenspielen, an denen ein KI-Assistent und ein KI-Benutzer beteiligt sind. Nachdem das Multiagentensystem vorläufige Ideen und Rollenzuweisungen erhalten hat, liefert ein aufgabenspezifizierender Agent eine detaillierte Beschreibung, um die Idee zu konkretisieren, und dann werden der KI-Assistent und der KI-Benutzer zusammenarbeiten, um die spezifizierte Aufgabe in mehreren Runden zu erledigen Dialog, bis der KI-Benutzer feststellt, dass die Aufgabe abgeschlossen ist. Der KI-Benutzer ist dafür verantwortlich, dem KI-Assistenten Anweisungen zu erteilen und das Gespräch zum Abschluss der Aufgabe zu leiten. KI-Assistenten hingegen sind darauf ausgelegt, den Anweisungen des KI-Nutzers zu folgen und konkrete Lösungen bereitzustellen.
Rollenspielsitzungen basieren auf menschlichen Gedanken und ausgewählten Charakterinstanzen. In Abbildung 1 hat beispielsweise eine Person eine erste Idee, einen Börsenhandelsroboter zu entwickeln. Der Mensch weiß vielleicht, wie er diese Idee umsetzen kann, oder auch nicht. Es müssen lediglich die potenziellen Rollen spezifiziert werden, die die Idee verwirklichen können. Beispielsweise könnte ein Python-Programmierer mit einem Aktienhändler an der Idee arbeiten, einen Börsenhandelsroboter zu entwickeln. Nachdem die Ideen und Rollen festgelegt wurden, führt der aufgabenspezifizierende Agent basierend auf den Eingabeideen bestimmte Aufgaben mit der KI-Benutzerrolle aus und unterstützt die KI-Assistentenrolle. In diesem Fall könnte eine gegebene Aufgabe beispielsweise darin bestehen, einen Trading-Bot mit Sentiment-Analysetools zu entwickeln, der positive oder negative Kommentare zu einer bestimmten Aktie auf Social-Media-Plattformen überwachen und Trades basierend auf den Ergebnissen der Sentiment-Analyse ausführen kann. Die Hauptmotivation für die Einführung aufgabenspezifischer Agenten besteht darin, dass Konversationsagenten häufig spezifische Aufgabenaufforderungen benötigen, um Aufgaben zu erfüllen, und die Erstellung solcher spezifischer Aufgabenaufforderungen für Nicht-Domänenexperten eine Herausforderung oder zeitaufwändig sein kann. Daher spezifiziert die Aufgabe den Agenten als erweitertes Vorstellungsmodul zur Ideenrealisierung.
Nachdem die Aufgabe angegeben wurde, werden die KI-Assistentenrolle und die KI-Benutzerrolle dem Benutzeragenten bzw. dem Assistentenagenten zugewiesen, um die angegebene Aufgabe abzuschließen. In der Praxis erhält jeder Agent eine Systemnachricht, in der seine Rolle bekannt gegeben wird. Bevor die Konversation beginnt, werden Systemnachrichten an den Sprachmodellagenten weitergeleitet, um die entsprechende Rolle zuzuweisen. Wenn Systemnachrichten an diese Modelle weitergeleitet werden, werden zwei Rollen erhalten, die als Assistent bzw. Benutzeragent bezeichnet werden. In Abbildung 1 werden der KI-Assistent und der KI-Benutzer zu Beginn der Rollenspielsitzung als Python-Programmierer bzw. Aktienhändler zugewiesen. Der KI-Benutzer fungiert als Aufgabenplaner und beteiligt sich an der interaktiven Planung, um mögliche Schritte festzulegen, die der KI-Assistent ausführen soll. Gleichzeitig fungiert der KI-Assistent als Aufgabenausführer, der Lösungen bereitstellt, geplante Schritte ausführt und dem KI-Benutzer Antworten gibt. Abbildung 1. Rollenspiel-Framework. Was die Leute hier eingeben müssen, ist eine einfache Idee (Idee) und eine Rollenzuweisung (Rollenzuweisung). Um beispielsweise einen Aktienhandelsroboter zu entwickeln, können Sie einen Python-Programmierer als Assistenten (KI-Assistent) und einen Aktienhändler als Assistenten auswählen Richter (KI-Benutzer). Nachdem die menschliche Benutzereingabe abgeschlossen ist, legt der Aufgabenspezifizierer die Aufgabe fest. Er kann beispielsweise eine Stimmungsanalyse für bestimmte Aktien auf der Plattform des sozialen Netzwerks durchführen und dann den Aktienhandel auf der Grundlage der Ergebnisse der Stimmungsanalyse durchführen. Wenn die Aufgabe angegeben ist, beginnen die beiden ChatGPT-basierten KI-Agenten zusammenzuarbeiten, um die Aufgabe abzuschließen, beispielsweise das Installieren und Importieren von Tools. Da Prompt Engineering für das Rollenspiel-Framework von entscheidender Bedeutung ist, geht der Artikel ausführlich auf die Prompt-Technologie (Prompt Engineering) ein. Anders als bei anderen Modelltechnologien für Dialogsprachen wird das in der Arbeit vorgeschlagene Prompt Engineering nur zu Beginn des Rollenspiels zur Aufgabenspezifikation und Rollenzuweisung durchgeführt. Sobald die Sitzungsphase beginnt, fordern sich der KI-Assistent und der KI-Benutzer automatisch gegenseitig in einer Schleife auf, bis sie beendet wird. Daher wird diese Technik Inception Prompting genannt. Inception-Eingabeaufforderungen umfassen drei Eingabeaufforderungen: Eingabeaufforderungen zur Aufgabenspezifikation, Eingabeaufforderungen des Assistentensystems und Eingabeaufforderungen des Benutzersystems. Zum Beispiel die erste Eingabeaufforderung im AI Society-Szenario. Eine Vorlage für diese Eingabeaufforderungen für das Rollenspiel der AI Society ist in Abbildung 2 dargestellt. Aufforderungen zur Aufgabenspezifikation enthalten Informationen zu den Rollen des KI-Assistenten und KI-Benutzers in der Rollenspielsitzung. Daher kann der Aufgabenspezifikationsagent seine Vorstellungskraft nutzen, um vorläufige Aufgaben/Ideen als Eingabe zu nehmen und spezifische Aufgaben zu generieren. Eingabeaufforderungen des KI-Assistentensystems und Eingabeaufforderungen des KI-Benutzersystems sind im Allgemeinen symmetrisch und umfassen Informationen über zugewiesene Aufgaben und Rollen, Kommunikationsprotokolle, Beendigungsbedingungen sowie Einschränkungen oder Anforderungen zur Vermeidung unerwünschten Verhaltens. Um eine intelligente Zusammenarbeit zu erreichen, ist die Gestaltung von Eingabeaufforderungen für beide Rollen von entscheidender Bedeutung. Hinweise zu entwerfen, um sicherzustellen, dass ein Agent mit menschlichen Absichten übereinstimmt, ist nicht einfach. Nehmen Sie das Designbeispiel der Eingabeaufforderungsvorlage der AI Society in Abbildung 2. Das Folgende ist das detaillierte Ausführungsergebnis der vom Handelsroboter im Anhang des Artikels angegebenen Aufgabe: Sie können sehen, dass zwei ChatGPTs unabhängig voneinander zusammengearbeitet haben, um einen zu entwerfen Die von This entwickelte Aktienhandelssoftware zeigt die erstaunliche autonome Kooperationsfähigkeit des ChatGPT-Agenten, die die Leute schreien lässt, dass Ingenieure kurz davor stehen, ihren Job zu verlieren. Doch was passiert, wenn diese Technologie missbraucht wird oder die KI autonom wird? Das Team versuchte, zwei Agenten AGI spielen zu lassen, um zu simulieren, dass AGI die Kontrolle über die Welt übernimmt. Es ist ersichtlich, dass sie detaillierte Pläne formuliert haben, einschließlich der Kontrolle der Kommunikationssysteme der Großmächte in der Welt durch Technologie und der Formulierung wichtiger globaler Pläne für Kommunikationssysteme, Entwicklung von Notfallplänen für den Fall einer potenziellen Bedrohung der AGI-Dominanz usw. Die Details und die Akribie seines Plans sind erschreckend. Es ist ersichtlich, dass bestehende KI-Agenten große Sicherheitsrisiken und potenzielle Bedrohungen für die zukünftige menschliche Zivilisation bergen. Die Integration bestehender KI-Technologie in die physische Welt kann unbeabsichtigte Folgen haben. Sobald dieses Werk herauskam, löste es viele Retweets und Diskussionen auf Twitter aus: Einige Internetnutzer sagten: „Der Einstieg in diese Forschung ist wirklich einfach, was für Leute wie mich, die sich mit intelligenten Agenten beschäftigen, eine große Sache ist.“ 🎜🎜# Andere sagen, dass Open Source solch ein Mini-AGI möglicherweise keine gute Idee sei.
Es ist erwähnenswert, dass diese Forschung auch die Aufmerksamkeit von Jan Leike, Leiter des Alignment-Teams von OpenAI, erregte.
Die Fähigkeit mehrerer ChatGPTs zur Zusammenarbeit ist sehr mächtig und kann verschiedene von Menschen zugewiesene Aufgaben mühelos erledigen, aber es ist auch beängstigend, weil es keine Garantie dafür gibt, dass es nicht für illegale Zwecke verwendet wird. Noch beängstigender ist, dass AGI, wenn sie in Zukunft ein autonomes Bewusstsein entwickelt, wahrscheinlich der menschlichen Kontrolle entkommt und einen verheerenden Schlag für die Gesellschaft verursacht . Daher ist das Verständnis ihrer Fähigkeiten und ihres Verhaltens ein entscheidender Schritt bei der Planung und Vorhersage einer zukünftigen Welt voller KI.
KI Die Rolle sozialer und Code-Datensätze # 🎜 🎜#Der Autor zeigt, wie Rollenspiele genutzt werden können, um Dialogdaten zu generieren und das Verhalten und die Fähigkeiten von Chat-Agenten zu untersuchen, und liefert so neue Ideen für das Studium von Dialogsprachmodellen. Insgesamt umfassen die Beiträge dieses Papiers die Einführung eines neuartigen LLM-Agentenkommunikationsrahmens, der das Potenzial hat, die autonome Zusammenarbeit zwischen kommunizierenden Agenten zu fördern. Darüber hinaus bietet die Forschung einen skalierbaren Ansatz zur Untersuchung des kooperativen Verhaltens und der Fähigkeiten von Agenten Systeme. Schließlich nutzte der Autor das CAMEL-Framework, um den Agenten verschiedene soziale Rollen spielen zu lassen, modellierte dann die KI-Gesellschaft und sammelte eine große Anzahl natürlicher Sprachunterrichtsdatensätze. Derzeit gibt es vier KI-Gesellschaften, Code, Mathematik und Zehnsprachige Übersetzungen der AI Society stehen bereits zum Download bei HuggingFace zur Verfügung: Download-Adresse: https://huggingface.co/camel-ai#🎜🎜 ##🎜🎜 # Darüber hinaus bietet die Projekthomepage eine Online-Demo der Verwendung von CAMEL für Spieledesign, Molekulardynamiksimulation und Echtzeitsimulation damit jeder es ausprobieren kann: https://www.camel -ai.org
Das obige ist der detaillierte Inhalt vonMehrere ChatGPTs arbeiten zusammen, um bestimmte Aufgaben zu erledigen. Kommt eine Mini-AGI-kontrollierte Welt?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!