Einführung
LLM -Wirkstoffe (Language Language Model) sind fortschrittliche KI -Systeme, die LLMs als zentrale Computermotor verwenden. Sie können bestimmte Aktionen ausführen, Entscheidungen treffen und mit externen Werkzeugen oder Systemen autonom interagieren. Dies ermöglicht es ihnen, komplexe Aufgaben zu erledigen, die im Gegensatz zu Standard-LLMs komplexe Argumentation erfordern, die sich hauptsächlich auf auf Text-Generation-basierte Eingaben konzentrieren. Angesichts des zunehmenden Interesses an den Anwendungsfällen von LLM -Agenten in verschiedenen Branchen gibt es mehrere Fragen zu ihnen, die beantwortet werden müssen. In diesem Blog werde ich die häufig gestellten LLM -Agentenfragen behandeln. Dies beinhaltet Fragen, die von Grundlagen über Komponenten bis hin zu praktischen Anwendungen reichen. Gehen wir also zu diesen Fragen.
Überblick
- Verstehen Sie, was LLM -Agenten sind und wie sie sich von LLMs, RL -Agenten und Lappen unterscheiden.
- Erforschen Sie einige interessante Anwendungsfälle und Beispiele für LLM -Agenten.
- Erfahren Sie mehr über die Komponenten von LLM -Agenten und einige der damit verbundenen Tools und beliebten Frameworks.
- Kennen Sie die Einschränkungen und ethischen Anliegen in Bezug auf LLM -Agenten und wie man mit ihnen umgeht.
15 am häufigsten gestellte Fragen
Q1) Was sind Agenten in LLMs?
Der Begriff „Agent“ im Kontext von „LLM Agent“ bezieht sich auf autonome KI -Systeme, die die Fähigkeiten von LLMs über die Textgenerierung hinaus nutzen. Der Agent ist dafür verantwortlich, bestimmte Aufgaben auszuführen, indem die Aufgabe verstanden, Entscheidungen getroffen und mit der externen Umgebung interagiert werden. Einige von ihnen sind:
- Aufgabenausführungen: Sie basieren auf den angegebenen Anweisungen, z. B. auf der Planung einer Besprechung oder der Buchung eines Flugtickets.
- Entscheidungsfindung: Bei der Entscheidungsfindung werden Daten analysiert, um die beste Vorgehensweise auf der Grundlage der verfügbaren Informationen zu bestimmen.
- Aufgabenverwaltung: Agenten erinnern sich an frühere Aktionen, um sicherzustellen, dass sie allen Anweisungen mit mehreren Schritten folgen, ohne den Überblick zu verlieren.
- Interaktion mit externen Systemen: Agenten können mit externen Tools und Funktionen verknüpfen, um die Datensätze zu aktualisieren, die erforderlichen Informationen abzurufen, Berechnungen durchzuführen und Code auszuführen.
- Anpassungsfähigkeit: Agenten können sich an Änderungen oder neue Informationen anpassen, indem sie ihr Verhalten in Echtzeit anpassen.
Lesen Sie auch: Der Aufstieg von LLM -Agenten: revolutionieren KI mit iterativen Workflows
F2) Was ist ein Beispiel für einen LLM -Agenten?
Betrachten Sie John, der einen Urlaub plant. Um dies zu tun, sucht er Hilfe von einem Chatbot.
John zum Chatbot: "Was ist die beste Zeit, um Ägypten zu besuchen?"
Der Chatbot ist mit einem allgemeinen LLM ausgestattet, um eine breite Palette von Informationen bereitzustellen. Es kann den Standort, die Geschichte und die allgemeinen Attraktionen Ägyptens teilen.
Diese Frage zum besten Zeitpunkt für den Besuch von Ägypten erfordert jedoch spezifische Informationen zu Wettermustern, Spitzenzeiten und anderen Faktoren, die das Touristenerlebnis beeinflussen. Um solche Fragen genau zu beantworten, benötigt der Chatbot spezielle Informationen. Hier kommt ein fortgeschrittener LLM -Agent ins Spiel.
Ein LLM -Agent kann vergangene Gespräche nachdenken, verstehen und sich daran erinnern und verschiedene Tools verwenden, um Antworten basierend auf Situationen zu ändern. Wenn John also einen virtuellen Reise -Chatbot, der auf basierendem LLM -Agenten entworfen wurde, die gleiche Frage stellt, so geht es darum.
John to Chatbot: „Ich möchte eine sieben Tage nach Ägypten planen. Bitte helfen Sie mir, die beste Zeit für diese sieben Tage zu besuchen und mir Flüge, Unterkünfte und eine Reiseroute zu finden.“
Der in den LLM -Chatbot eingebettete Agent verarbeitet anfänglich die Eingaben des Benutzers. In diesem Fall möchte der Benutzer seine Reise nach Ägypten planen, einschließlich der besten Zeit zum Besuch, Flugtickets, Unterkunft und Reiseroute.
Im nächsten Schritt verteilt der Agent die Aufgaben in
- Finden Sie die beste Zeit, um Ägypten zu besuchen
- Buchung von Flugtickets
- Unterkunft Buchung
- Routenplanung
Während der Ausführung dieser Aktionen sucht der Agent die Reisedatenbank nach geeigneten Reisezeiten und die perfekte siebentägige Route. Für Flug- und Hotelbuchungen verbindet sich der Agent jedoch mit der Buchung von APIs (wie Skyscanner oder Cleartrip für Flugbuchungen und Booking.com oder Trivago für Hotelbuchungen).
Daher kombinieren LLM -Agenten diese Informationen, um den gesamten Reiseplan bereitzustellen. Der Agent wird auch den Flug buchen und die Unterkunft abschließen, wenn der Benutzer Optionen bestätigt. Wenn der Plan in letzter Minute ändert, passt der Agent seine Suche dynamisch an und liefert neue Vorschläge.
F3) Was ist der Unterschied zwischen LLM und Agent?
Die Unterschiede zwischen LLMs und Agenten sind:
S.no | Großsprachenmodell (LLM) | Agent |
1 | LLM ist ein fortschrittliches KI -Modell, das auf massiven Datensätzen ausgebildet ist. | Agent ist eine Softwareinheit, die autonom spezifische Aufgaben ausführen kann, die von Benutzern gegeben wurden. |
2 | Verarbeiten Sie die Texteingabe als Eingabeaufforderung und erzeugen Sie menschlichähnlichen Text als Ausgabe mithilfe der natürlichen Sprachverarbeitung (NLP). | Versteht autonom Inputs, trifft Entscheidungen und führt endgültige Aktionen aus, die auf der Interaktion mit externen Systemen wie APIs oder Datenbanken basieren. |
3 | Externe Umgebungen oder Systeme sind nicht direkt involviert. | Externe Systeme, Tools, Datenbanken und APIs sind direkt beteiligt. |
4 | Beispiel: Zusammenfassungsgenerierung durch GPT-4 | Beispiel: Ein virtueller Assistent kann Flüge für die Benutzer buchen, Follow-up-E-Mails usw. senden. |
F4) Warum brauchen wir LLM -Agenten?
LLM Agent kombiniert NLP mit autonomer Entscheidungsfindung und endgültiger Ausführung. Wenn das Projekt Verständnis, sequentielles Denken, Planung und Speicher verlangt, können LLM-Agenten sehr hilfreich sein, da sie mehrstufige Aufgaben zum Umgang mit komplexen Text beinhalten. Sie können massive Datensätze analysieren, um Einblicke zu erhalten und autonome Entscheidungen zu treffen. LLM Agent interagiert mit externen Systemen, um in Echtzeitinformationen zuzugreifen oder sie abzurufen. Dies verbessert und schafft personalisierte Maßnahmen in verschiedenen Anwendungen von der Gesundheitsversorgung bis zur Bildung und darüber hinaus.
F5) Was sind einige reale Anwendungsfälle von LLM-Agenten?
In der sich schnell bewegenden Welt gibt es in verschiedenen Bereichen verschiedene reale Anwendungsfälle. Einige von ihnen sind unten aufgeführt:
- Alibaba verwendet LLM -Agenten, um den Kundenservice zu verbessern. Dies rationalisiert den gesamten Prozess und erhöht die Kundenzufriedenheit.
- Die in AI ansässige Rechts- und Compliance-Organisation, Brytr, hat einen AI-Agenten namens „E-Mail-Agent“ entwickelt. Dieser KI -Agent kann Entwürfe vorbereiten und auf E -Mails von kommerziellen Teams direkt in MS Outlook oder Google Mail beantworten.
- In einer Arbeitssuchplattform wird LLM-Agenten verwendet, um eine umfassende Liste von Stellenbeschreibungen und Möglichkeiten zu erhalten, die den Arbeitssuchenden anhand ihrer Erfahrungen und Ausbildung entsprechen.
- Oracle , ein Technologieunternehmen, verwendet LLM -Agenten für rechtliche Suche, Revenue Intelligence, Job Recruitment und Call Center -Optimierung. Dies würde Zeit beim Abrufen und Analysieren von Informationen aus komplexen Datenbanken sparen.
- Duolingo , eine E-Learning-Plattform, verwendet auch LLM-Agenten, um die Lernerfahrung ihrer Lernenden zu verbessern.
- Die Automobilfirma Tesla implementiert LLM-Agenten in seinem selbstfahrenden Auto. Diese Agenten tragen zur Forschung und Entwicklung neuer Organisationstechnologien bei.
Lesen Sie auch: 10 Geschäftsanwendungen von LLM -Agenten
F6) Was sind einige beliebte Frameworks und Tools zum Aufbau von LLM -Agenten?
Entwickler verwenden ein LLM -Agent -Framework als eine Reihe von Tools, Bibliotheken und Richtlinien, um AI -Agenten über ein großes Sprachmodell (LLM) zu erstellen, bereitzustellen und zu verwalten. Einige beliebte Frameworks sind:
- Langgraph
Wir wissen, dass ein „Diagramm“ strukturiert eine bildliche Darstellung von Daten ist. Das Langgraph Framework integriert LLMs in strukturierte graphbasierte Darstellungen. Dies hilft dem Modell, logisch relevante Ausgaben zu verstehen, zu analysieren und zu generieren. Dieser Rahmen reduziert die menschlichen Bemühungen, den Informationsfluss für die Entwicklung komplexer Agentenarchitekturen zu konstruieren. - Crewai
Der Begriff „Crew“ bedeutet eine Gruppe von Menschen, die zusammenarbeiten. Der Crewai -Framework ist auf die Zusammenarbeit von LLM -Agenten mit mehreren anderen LLM -Agenten spezialisiert, die jeweils eigene einzigartige Funktionen haben. Alle diese Agenten arbeiten gemeinsam zu einem gemeinsamen Ziel. - Autogen
"Autogen" hängt mit dem Wort "automatisch" zusammen. Autogen erleichtert glatte Gespräche zwischen verschiedenen Wirkstoffen. Es macht es sehr einfach, konversible Agenten zu erstellen, und verfügt über eine Vielzahl von bequemen Agentenklassen, um agentische Rahmenbedingungen zu entwickeln.
Erfahren Sie mehr: Top 5 Frameworks zum Aufbau von KI -Agenten im Jahr 2024
F7) Was sind die Komponenten eines LLM -Agenten?
Ein einfacher LLM -Agent besteht aus 8 Komponenten, wie in der folgenden Abbildung gezeigt:
- Benutzeraufforderung: Die Anweisungen für ein LLM in Form von Text, um Antworten zu generieren. Die erzeugte Ausgabe hängt von der Qualität der Eingabeaufforderung ab.
- Großsprachige Modelle: LLM ist die Kern -Computational Engine eines LLM -Agenten, das auf einem massiven Datensatz trainiert wird. Diese Modelle verarbeiten und verstehen Sprache basierend auf den Daten, die sie geschult werden.
- Planung: Ein Gedankenfluss ist notwendig, um komplexe Aufgaben zu lösen. Das Modell muss zwischen vorhandenen und externen Quellen wählen, um die Ausgabe zu generieren.
- Das vorhandene Wissen von LLM: Dies bezieht sich auf die massiven Datensätze wie Webquellen, Blogs, Forschungsarbeiten, Wikipedia usw., auf denen LLMs geschult sind.
- Tools: Dies sind Systeme, die mit externen Systemen oder Umgebungen interagieren, um Aufgaben wie Datenbankaufruf, API -Aufruf usw. auszuführen.
- Anrufwerkzeug (en): Die Verwendung des erforderlichen Tools zum Extrahieren relevanter Informationen.
- Externe Informationen: Daten auf externe Umgebungen wie Webseiten, Datenbanken, APIs usw. zugegriffen werden.
- Ausgabe: Die endgültige Antwort, die auf der Grundlage des vorhandenen Wissens oder der Kombination von vorhandenem und externem Wissen erzeugt wird.
F8) Was ist der Unterschied zwischen einem RL -Agenten und einem LLM -Agenten?
Unterschiede zwischen Verstärkungslernen (RL) Agent und LLM -Agent sind:
S.no | RL Agent | LLM Agent |
1 | RL -Agenten interagieren mit der externen Umgebung, indem sie kontinuierlich ein sofortiges Feedback in Form von Belohnungen oder Strafen erhalten, um aus früheren Ergebnissen zu lernen. Im Laufe der Zeit steigert diese Rückkopplungsschleife die Entscheidungsfindung. | LLM-Agenten interagieren mit der externen Umgebung über textbasierte Eingabeaufforderungen anstelle von Feedback. |
2 | Deep Q-Networks (DQNs) oder Double Deep Q-Networks (DRRNs) berechnen den Q-Wert, um die entsprechenden Aktionen zu identifizieren. | LLM Agent wählt die optimalste Aktion durch Trainingsdaten und Eingabeaufforderungen aus. |
3 | RL-Agenten werden bei Entscheidungsaufgaben wie Robotik, Simulationen usw. verwendet. | LLM-Agenten werden verwendet, um einen menschlichen Text für virtuelle Unterstützung, Kundenunterstützung usw. zu verstehen und zu generieren. |
F9) Was ist der Unterschied zwischen RAG- und LLM -Agenten?
Unterschiede zwischen RAG- und LLM -Agenten sind
S.no | Abrufer Augmented Generation (LAG) | LLM Agent |
1 | RAG beinhaltet im Allgemeinen zwei zweistufige Prozess. | Der LLM-Agent zählt auf prompt-basierte Eingaben und Argumentation, um die optimale Aktion zu bestimmen, die mehrere Schritte umfassen können |
2 | Bewahren Sie das Langzeitgedächtnis nicht auf. Jede Abfrage wird unabhängig bearbeitet. | LLM Agent behält sowohl ein langes als auch das Kurzzeitgedächtnis bei. |
3 | Führen Sie keine Aktion über die Textgenerierung hinaus. | Hat die Möglichkeit, auf Ausgaben wie dem Senden von E -Mails, der Buchung von Flugtickets usw. zu handeln. |
F10) Wie gehen LLM -Agenten mehrdeutige oder unklare Inputs um?
LLM -Agenten verlassen sich auf Eingabeaufforderungen als Eingabe, und die endgültige Ausgabe hängt von der Qualität der Eingabeaufforderung ab. Bei mehrdeutigen oder unklaren Eingaben benötigt der LLM -Agent Klarheit. Ein LLM-Agent kann einige spezifische Folgefragen erstellen, um die Klarheit zu verbessern.
Beispiel: Wenn der Benutzer den Agenten auffordert, eine E -Mail zu senden, antwortet der Agent mit Fragen wie "Könnten Sie bitte die E -Mail -ID erwähnen?"
Q11) Können LLM -Agenten für bestimmte Branchen oder Aufgaben angepasst werden?
Ja, LLM -Agenten können nach Branchen oder Aufgaben angepasst werden. Es gibt verschiedene Methoden, um einen maßgeschneiderten LLM -Agenten zu erstellen, z. B.:
- Feinabstimmung in bestimmten Domänendaten
- Einbeziehung von domänenspezifischen APIs und Datenbanken
- Anpassungsanforderungen
Q12) Was sind die ethischen Bedenken in Bezug auf LLM -Agenten?
Es gibt viele ethische Bedenken beim Training und der Verwendung von LLM -Agenten. Einige von ihnen sind:
- LLM -Agenten werden auf massiven Datensätzen geschult, die voreingenommene Inhalte enthalten. Infolgedessen können sie manchmal diskriminierende Ergebnisse ausgeben. Sie können auch beleidigende Inhalte produzieren.
- LLM -Agenten können sowohl genaue als auch halluzinierte Antworten erzeugen. Alle LLM-generierten Antworten müssen daher überprüft werden.
- KI -Modelle sind anfällig für Jailbreaking und schnelle Injektion. Sie können für schädliche oder illegale Zwecke verwendet werden, die Sicherheitsmaßnahmen umgehen.
- LLM -Agenten geben unterschiedliche Antworten auf dieselbe Abfrage, zu unterschiedlichen Zeiten oder auf verschiedene Benutzer. Dies wirft die Interpretierbarkeitsbedenken auf.
Das National Institute of Standards and Technology (NIST) hat diese Bedenken jedoch berücksichtigt und Standardrichtlinien entwickelt, die KI -Entwickler bei der Bereitstellung eines neuen Modells einbeziehen sollten.
Erfahren Sie mehr: Wie kann man in der Ära der generativen KI eine verantwortungsvolle KI aufbauen?
Q13) Was sind die Grenzen der aktuellen LLM -Wirkstoffe?
LLM -Agenten sind sehr nützlich, stehen aber immer noch vor einigen Herausforderungen. Einige von ihnen sind:
- Begrenztes Langzeitgedächtnis: LLM-Agenten haben Schwierigkeiten, sich an jedes Detail aus früheren Gesprächen zu erinnern. Es kann gleichzeitig begrenzte Informationen im Auge behalten. Dies könnte einige wichtige Informationen verlieren. VectorStore -Techniken sind nützlich, um weitere Informationen zu speichern, aber das Problem ist immer noch nicht vollständig gelöst.
- Die Eingabe ist eingehend abhängig: Der LLM-Agent basiert auf Eingabeaufforderungen. Ein kleiner Fehler in der Eingabeaufforderung kann zu einer völlig anderen Ausgabe führen, sodass eine raffinierte, strukturierte und klare Eingabeaufforderung erforderlich ist.
- Anfällig für Änderungen in externen Tools: Der LLM -Agent hängt von externen Werkzeugen und Quellen ab, und Änderungen in diesen können die endgültige Ausgabe stören.
- Erzeugt eine inkonsistente Ausgabe: Sie können unterschiedliche Ausgänge erzeugen, selbst wenn sich eine Eingabeaufforderung geringfügig ändert. Dies führt manchmal zu unzuverlässigen Ausgängen, was ein Fehler in der ausgeführten Aufgabe wäre.
- Kosten und Effizienz: LLM-Agenten können sehr ressourcenintensiv sein und mehrmals einen LLM anrufen, um die endgültige Lösung zu ergeben.
Q14) Wie gehen LLM -Agenten mit kontinuierlichem Lernen und Aktualisieren um?
Veränderung ist dauerhaft. Agenten können so eingerichtet werden, dass sie sich an diese Veränderungen mithilfe von Finetuning, der Einbeziehung menschlicher Feedback und der Verfolgung der Leistung für die Selbstreflexion regelmäßig anpassen.
Q15) Wie gewährleisten LLM -Agenten Datenschutz und Sicherheit?
AI-generierter Inhalt kann wichtige oder empfindliche Informationen enthalten. Die Gewährleistung von Privatsphäre und Sicherheit ist ein entscheidender Schritt von LLM -Agentenmodellen. Daher werden viele Modelle geschult, um Datenschutzverletzungsnormen in Echtzeit zu erkennen, z. B. das Teilen persönlich identifizierbarer Informationen (PII) wie Adresse, Telefonnummern usw.
Abschluss
In diesem Artikel haben wir einige der am häufigsten gestellten Fragen zu LLM -Agenten behandelt. LLM -Agenten sind wirksame Werkzeuge zum Umgang mit komplexen Aufgaben. Sie verwenden LLM als Gehirn und verfügen über sieben weitere Hauptkomponenten: User -Eingabeaufforderung, Planung, LLMs vorhandenes Wissen, Tools, Anrufwerkzeuge und Ausgabe. Schließlich erhöht die Integration all dieser Komponenten die Fähigkeit von Agenten, reale Probleme anzugehen. Es gibt jedoch immer noch einige Einschränkungen, wie z. B. ein begrenztes Langzeitgedächtnis und Echtzeitanpassung. Die Bekämpfung dieser Einschränkungen würde das volle Potenzial von LLM -Agentenmodellen erschließen.
Erkunden Sie die futuristische Welt der LLM -Agenten und lernen Sie alles über sie in unserem Genai Pinnacle -Programm.
Das obige ist der detaillierte Inhalt von15 am häufigsten gestellte Fragen zu LLM -Agenten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Große Sprachmodelle (LLMs) sind immer beliebter, wobei die Tool-Calling-Funktion ihre Fähigkeiten über die einfache Textgenerierung hinaus erweitert hat. Jetzt können LLMs komplexe Automatisierungsaufgaben wie dynamische UI -Erstellung und autonomes A erledigen

Kann ein Videospiel Angst erleichtern, Fokus aufbauen oder ein Kind mit ADHS unterstützen? Da die Herausforderungen im Gesundheitswesen weltweit steigen - insbesondere bei Jugendlichen - wenden sich Innovatoren einem unwahrscheinlichen Tool zu: Videospiele. Jetzt einer der größten Unterhaltungsindus der Welt

„Die Geschichte hat gezeigt, dass der technologische Fortschritt das Wirtschaftswachstum zwar nicht selbstverträglich macht, aber nicht eine gerechte Einkommensverteilung sicherstellt oder integrative menschliche Entwicklung fördert“, schreibt Rebeca Grynspan, Generalsekretärin von UNCTAD, in der Präambel.

Easy-Peasy, verwenden Sie generative KI als Ihren Verhandlungslehrer und Sparringspartner. Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruch

Die TED2025 -Konferenz, die in Vancouver stattfand, beendete gestern, dem 11. April, ihre 36. Ausgabe. Es enthielt 80 Redner aus mehr als 60 Ländern, darunter Sam Altman, Eric Schmidt und Palmer Luckey. Teds Thema "Humanity Ranagined" wurde maßgeschneidert gemacht

Joseph Stiglitz ist der renommierte Ökonom und Empfänger des Nobelpreises in Wirtschaftswissenschaften im Jahr 2001. Stiglitz setzt, dass KI bestehende Ungleichheiten und konsolidierte Macht in den Händen einiger dominanter Unternehmen verschlimmern kann, was letztendlich die Wirtschaft untergräbt

Grafikdatenbanken: Datenmanagement durch Beziehungen revolutionieren Wenn sich die Daten erweitern und sich ihre Eigenschaften über verschiedene Bereiche hinweg entwickeln, entstehen Diagrammdatenbanken als transformative Lösungen für die Verwaltung miteinander verbundener Daten. Im Gegensatz zu traditioneller

LLM -Routing von großer Sprachmodell (LLM): Optimierung der Leistung durch intelligente Aufgabenverteilung Die sich schnell entwickelnde Landschaft von LLMs zeigt eine Vielzahl von Modellen mit jeweils einzigartigen Stärken und Schwächen. Einige zeichnen sich über kreative Inhalte aus


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

SecLists
SecLists ist der ultimative Begleiter für Sicherheitstester. Dabei handelt es sich um eine Sammlung verschiedener Arten von Listen, die häufig bei Sicherheitsbewertungen verwendet werden, an einem Ort. SecLists trägt dazu bei, Sicherheitstests effizienter und produktiver zu gestalten, indem es bequem alle Listen bereitstellt, die ein Sicherheitstester benötigen könnte. Zu den Listentypen gehören Benutzernamen, Passwörter, URLs, Fuzzing-Payloads, Muster für vertrauliche Daten, Web-Shells und mehr. Der Tester kann dieses Repository einfach auf einen neuen Testcomputer übertragen und hat dann Zugriff auf alle Arten von Listen, die er benötigt.

SublimeText3 Linux neue Version
SublimeText3 Linux neueste Version

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor

MinGW – Minimalistisches GNU für Windows
Dieses Projekt wird derzeit auf osdn.net/projects/mingw migriert. Sie können uns dort weiterhin folgen. MinGW: Eine native Windows-Portierung der GNU Compiler Collection (GCC), frei verteilbare Importbibliotheken und Header-Dateien zum Erstellen nativer Windows-Anwendungen, einschließlich Erweiterungen der MSVC-Laufzeit zur Unterstützung der C99-Funktionalität. Die gesamte MinGW-Software kann auf 64-Bit-Windows-Plattformen ausgeführt werden.

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)