Qwen hat gerade 8 neue Modelle im Rahmen seiner neuesten Familie veröffentlicht - QWEN3, die vielversprechende Fähigkeiten präsentiert. Das Flaggschiff-Modell QWEN3-235B-A22B übertraf die meisten anderen Modelle, darunter Deepseek-R1, OpenAs O1, O3-Mini, GROK 3 und Gemini 2,5-PRO, in Standard-Benchmarks. In der Zwischenzeit übertraf der kleine QWEN3-30B-A3B QWQ-32B, das ungefähr das 10-fache der aktivierten Parameter als neues Modell aufweist. Mit solchen fortschrittlichen Funktionen erweisen sich diese Modelle als eine gute Wahl für eine breite Palette von Anwendungen. In diesem Artikel werden wir die Merkmale aller QWEN3 -Modelle untersuchen und lernen, wie Sie sie verwenden, um Lappensysteme und KI -Agenten zu erstellen.
Inhaltsverzeichnis
- Was ist Qwen3?
- Schlüsselmerkmale von QWEN3
- So greifen Sie über API auf QWEN3 -Modelle zu
- Verwenden Sie QWEN3, um Ihre KI -Lösungen zu betreiben
- Voraussetzungen
- Aufbau eines AI -Agenten mit QWEN3
- Aufbau eines Lappensystems mit QWEN3
- Anwendungen von Qwen3
- Abschluss
- Häufig gestellte Fragen
Was ist Qwen3?
QWEN3 ist die neueste Serie von Großsprachemodellen (LLMs) in der QWEN -Familie, die aus 8 verschiedenen Modellen besteht. Dazu gehören QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B und QWEN3-0.6B. Alle diese Modelle werden unter Apache 2.0 -Lizenz veröffentlicht, wodurch sie Einzelpersonen, Entwicklern und Unternehmen frei zur Verfügung stellen.
Während 6 dieser Modelle dicht sind, bedeutet dies, dass sie während der Zeit der Inferenz und des Trainings alle Parameter aktiv verwenden, 2 von ihnen sind offen gewichtet:
- QWEN3-235B-A22B: Ein großes Modell mit 235 Milliarden Parametern, von denen 22 Milliarden aktivierte Parameter sind.
- QWEN3-30B-A3B: Eine kleinere MOE mit 30 Milliarden Gesamtparametern und 3 Milliarden aktivierten Parametern.
Hier ist ein detaillierter Vergleich aller 8 QWEN3 -Modelle:
Modelle | Schichten | Köpfe (Q/KV) | Krawattenbettung | Kontextlänge |
Qwen3-0.6b | 28 | 16/8 | Ja | 32k |
Qwen3-1.7b | 28 | 16/8 | Ja | 32k |
Qwen3-4b | 36 | 32/8 | Ja | 32k |
Qwen3-8b | 36 | 32/8 | NEIN | 128K |
Qwen3-14b | 40 | 40/8 | NEIN | 128K |
QWEN3-32B | 64 | 64/8 | NEIN | 128K |
QWEN3-30B-A3B | 48 | 32/4 | NEIN | 128K |
QWEN3-235B-A22B | 94 | 64/4 | NEIN | 128K |
Hier ist, was der Tisch sagt:
- Ebenen: Schichten repräsentieren die Anzahl der verwendeten Transformatorblöcke. Es umfasst mehrkopf Selbstbekämpfungsmechanismus, Vorwärtsnetzwerke, positionelle Codierung, Schichtnormalisierung und Restverbindungen. Wenn ich also sage, dass QWEN3-30B-A3B 48 Schichten hat, bedeutet dies, dass das Modell 48 Transformatorblöcke verwendet, die nacheinander oder parallel gestapelt sind.
- Köpfe: Transformatoren verwenden mehrköpfige Aufmerksamkeit, die seinen Aufmerksamkeitsmechanismus in mehrere Köpfe aufteilt, jeweils ein neues Aspekt aus den Daten. Hier repräsentiert Q/KV:
- Q (Abfrageköpfe): Gesamtzahl der Aufmerksamkeitsköpfe, die zum Generieren von Abfragen verwendet werden.
- KV (Schlüssel und Wert): Die Anzahl der Schlüssel-/Wertköpfe pro Aufmerksamkeitsblock.
HINWEIS: Diese Aufmerksamkeitsköpfe für Schlüssel, Abfrage und Wert unterscheiden sich völlig von der Schlüssel-, Abfrage- und Wertvektor, die durch eine Selbstbekämpfung erzeugt werden.
Lesen Sie auch: QWEN3 -Modelle: Wie man zugreift, Leistung, Funktionen und Anwendungen
Schlüsselmerkmale von QWEN3
Hier sind einige der wichtigsten Merkmale der QWEN3 -Modelle:
- Vorausbildung: Der Prozess vor dem Training besteht aus drei Stufen:
- In der ersten Stufe wurde das Modell auf über 30 Billionen Token mit einer Kontextlänge von 4K -Token vorbereitet. Dies lehrte das Modell grundlegende Sprachkenntnisse und allgemeine Kenntnisse.
- In der zweiten Stufe wurde die Datenqualität verbessert, indem der Anteil wissenintensiver Daten wie STEM, Codierung und Argumentationsaufgaben erhöht wurde. Das Modell wurde dann über weitere 5 Billionen Token trainiert.
- In der letzten Phase wurden hochwertige Langkontextdaten verwendet, indem die Kontextlänge auf 32 -km -Token erhöht wurde. Dies wurde durchgeführt, um sicherzustellen, dass das Modell längere Eingaben effektiv verarbeiten kann.
- Nach der Schulung: Um ein Hybridmodell zu entwickeln, das sowohl schrittweise Argumentation als auch schnelle Reaktionen in der Lage ist, wurde eine 4-stufige Trainingspipeline implementiert. Dies bestand aus:
- Langkette des Gedanke (COT)
- Argumentationsbasierte Verstärkungslernen (RL)
- Denkmodus Fusion
- General Rl
- Hybrid -Denkmodi: QWEN3 -Modelle verwenden einen Hybridansatz zur Problemlösung mit zwei neuen Modi:
- Denkmodus: In diesem Modus nehmen die Modelle Zeit, indem sie eine komplexe Problemaussage in kleine und prozedurale Schritte einteilen, um sie zu lösen.
- Nichtdenkungsmodus: In diesem Modus liefert das Modell schnelle Ergebnisse und eignet sich meistens für einfachere Fragen.
- Mehrsprachige Unterstützung: QWEN3 -Modelle unterstützen 119 Sprachen und Dialekte. Dies hilft Benutzern aus der ganzen Welt, von diesen Modellen zu profitieren.
- Improvisierte Agentenfunktionen: QWEN hat die QWEN3 -Modelle für bessere Codierung und Agentenfunktionen optimiert und das Modellkontextprotokoll (MCP) unterstützt.
So greifen Sie über API auf QWEN3 -Modelle zu
Um die QWEN3 -Modelle zu verwenden, werden wir über API mit der OpenRouter -API darauf zugreifen. Hier erfahren Sie, wie es geht:
- Erstellen Sie ein Konto auf OpenRouter und gehen Sie in die Modellsuchleiste, um die API für dieses Modell zu finden.
- Wählen Sie das Modell Ihrer Wahl und klicken Sie auf der Zielseite auf "API -Taste erstellen", um eine neue API zu generieren.
Verwenden Sie QWEN3, um Ihre KI -Lösungen zu betreiben
In diesem Abschnitt werden wir mit QWEN3 den Prozess des Erstellens von AI -Anwendungen durchlaufen. Wir werden zuerst ein AI-Anbieter-Reiseplaner-Agent mit dem Modell erstellen, und dann einen Q/A-Rag-Bot mit Langchain.
Voraussetzungen
Bevor wir einige reale KI-Lösungen mit QWEN3 erstellen, müssen wir zunächst die grundlegenden Voraussetzungen wie folgt abdecken:
- Vertrautheit mit der Eingabeaufforderung oder dem Terminal und der Fähigkeit, sie durch das Terminal zu führen.
- Fähigkeit, Umgebungsvariablen einzurichten.
- Python muss installiert werden: https://www.python.org/downloads/
- Wissen über die Grundlagen von Langchain: https://www.langchain.com/
Aufbau eines AI -Agenten mit QWEN3
In diesem Abschnitt werden wir QWEN3 verwenden, um ein AI-angetriebenes Reisebüro zu erstellen, das die wichtigsten Reiseplätze für die Stadt oder den Ort, den Sie besuchen, angeben. Wir ermöglichen es dem Agenten auch, das Internet zu durchsuchen, um aktualisierte Informationen zu finden und ein Tool hinzuzufügen, das die Währungskonvertierung ermöglicht.
Schritt 1: Einrichten von Bibliotheken und Tools
Zunächst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Agenten erforderlich sind.
! von Langchain.chat_Models importieren Sie Chatopenai aus Langchain.agents Import -Tool von Langchain.tools Import DuckDuckGoSearchrun importieren von Langchain.agents import initialize_agent llm = chatopenai ( Base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Modell = "Qwen/Qwen3-235b-A22B: Free" ) # Web -Search -Tool search = DuckDuckGoSearchRun () # Tool für DestinationAgent Def get_destinations (Ziel): return search.run (f "Top 3 Touristenplätze in {destination}") DestinationTool = Tool ( name = "Ziel empfohlen", func = get_destinations, BESCHREIBUNG = "Findet Top -Orte in einer Stadt zu besuchen" ) # Tool für Currencyagent Def convert_usd_to_inr (Abfrage): Menge = [float (s) für s in query.split () if S.Replace ('.', '', 1) .isdigit ()]] Wenn Betrag: Rückgabe f "{Menge [0]} USD = {Menge [0] * 83.2: .2f} INR" Return "konnte nicht analysieren." CurrencyTool = Tool ( name = "Währungswandler", func = convert_usd_to_inr, Beschreibung = "Konvertiert USD in INR basierend auf der statischen Rate" )
- Search_tool: DuckDuckGoSearchrun () ermöglicht es dem Agenten, mit der Websuche Informationen über die beliebten Touristenplätze zu erhalten.
- DestinationTool: Wendet die Funktion get_destinations () an, die das Suchwerkzeug verwendet, um die Top 3 Touristenplätze in einer bestimmten Stadt zu erhalten.
- CurrencyTool: Verwendet die Funktion convert_usd_to_inr (), um die Preise von USD in INR zu konvertieren. Sie können 'INR' in der Funktion ändern, um sie in eine Währung Ihrer Wahl umzuwandeln.
Lesen Sie auch: Erstellen Sie einen Reiseassistenten Chatbot mit Huggingface, Langchain und Mistralai
Schritt 2: Erstellen des Agenten
Nachdem wir alle Tools initialisiert haben, gehen wir mit dem Erstellen eines Agenten, der die Tools verwendet und uns einen Plan für die Reise ermöglichen.
Tools = [DestinationTool, CurrencyTool] Agent = initialize_agent ( Werkzeuge = Werkzeuge, llm = llm, Agent_type = "Zero-Shot-React-Dezescription", wörtlich = wahr ) Def Trip_Planner (Stadt, USD_Budget): dest = get_destinations (Stadt) INR_BUDGET = CONVERT_USD_TO_INR (f "{USD_BUDGET} USD TO INR")) Rückkehr f "" "Hier ist Ihr Reiseplan: *Top -Plätze in {City}*: {dest} *Budget*: {inr_budget} Genieße deinen Tagesausflug! "" "
- Initialize_agent: Diese Funktion erstellt einen Agenten mit Langchain mit einem Null-Shot-Reaktionsansatz, mit dem der Agent die Toolbeschreibungen verstehen kann.
- Agent_type: "Zero-Shot-React-Dezescription" ermöglicht es dem Agent LLM, zu entscheiden, welches Tool es in einer bestimmten Situation ohne Vorwissen verwenden soll, indem sie die Beschreibung und die Eingabe verwenden.
- Ausführlich: Ausführlich ermöglicht die Protokollierung des Denkprozesses des Agenten, sodass wir jede Entscheidung überwachen können, die der Agent trifft, einschließlich aller Interaktionen und Tools, die aufgerufen werden.
- TRIP_PLANNER: Dies ist eine Python -Funktion, die Tools manuell aufruft, anstatt sich auf den Agenten zu verlassen. Damit kann der Benutzer das beste Tool für ein bestimmtes Problem auswählen.
Schritt 3: Initialisierung des Agenten
In diesem Abschnitt werden wir den Agenten initialisieren und seine Antwort beobachten.
# Initialisieren Sie den Agenten City = "Delhi" USD_BUDGET = 8500 # Führen Sie den Multi-Agent-Planer aus response = Agent.run (f "Planen Sie eine Tagesausreise nach {City} mit einem Budget von {USD_BUDGET} USD")) Aus Ipython.display Import Markdown, Anzeige Anzeige (Markdown (Antwort))
- Aufruf von Agent: Agent.Run () verwendet die Absicht des Benutzers über Eingabeaufforderung und plant die Reise.
Ausgabe
Aufbau eines Lappensystems mit QWEN3
In diesem Abschnitt werden wir einen Rag -Bot erstellen, der jede Abfrage innerhalb des entsprechenden Eingabedokuments aus der Wissensbasis beantwortet. Dies gibt eine informative Antwort unter Verwendung von QWEN/QWEN3-235B-A22B. Das System würde auch Langchain verwenden, um genaue und kontextbezogene Antworten zu erzeugen.
Schritt 1: Einrichten der Bibliotheken und Tools
Zunächst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Lappensystems erforderlich sind.
! von Langchain_Community.document_loaders Textloader importieren von Langchain.text_splitter importieren charaktertextsplitter von Langchain_Community.VectorStores importieren Chroma von Langchain.embeddings Import HuggingfaceEmbedingdings von Langchain.chains Import Retrievalqa von Langchain.chat_Models importieren Sie Chatopenai # Laden Sie Ihr Dokument auf loader = textloader ("/content/my_docs.txt") docs = lader.load ()
- Laden von Dokumenten: Die Langchain -Klasse „Textloader“ lädt das Dokument wie eine PDF-, TXT- oder DOC -Datei, die für das q/a -Abruf verwendet wird. Hier habe ich my_docs.txt hochgeladen.
- Auswählen des Vektor -Setups: Ich habe Chromadb verwendet, um die Einbettungen aus unserer Vektor -Datenbank für den Q/A -Prozess zu speichern und zu durchsuchen.
Schritt 2: Erstellen der Einbettungen
Nachdem wir unser Dokument geladen haben, gehen wir mit dem Erstellen von Einbettungen daraus, was dazu beiträgt, den Abrufprozess zu lindern.
# In Stücke aufgeteilt splitter = charakterTextsplitter (chunk_size = 300, chunk_overlap = 50) thunks = splitter.split_documents (docs) # Mit dem Umarmungsface -Modell einbetten embettdings = huggingfaceembeddings (model_name = "All-minilm-l6-v2") db = chroma.from_documents (Stücke, Einbettung = Einbettung) # Setup Qwen LLM von OpenRouter aus Setzen llm = chatopenai ( Base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Modell = "Qwen/Qwen3-235b-A22B: Free" ) # Erstellen Sie Rag -Kette retriever = db.as_retriever (search_kwargs = {"k": 2}) rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
- Dokumentspaltung: Der CharakterTextSplitter () spaltet den Text in kleinere Stücke, was hauptsächlich in zwei Dingen hilft. Erstens erleichtert es den Abrufprozess und zweitens hilft es bei der Beibehaltung des Kontextes vom vorherigen Chunk über Chunk_Overlap.
- Einbettungsdokumente: Einbettungsdings konvertieren den Text in die Einbettungsvektoren einer festgelegten Dimension für jeden Token. Hier haben wir Chunk_Size von 300 verwendet, was bedeutet, dass jedes Wort/Token in einen Vektor von 300 Dimensionen umgewandelt wird. Jetzt hat diese Vektoreinbettung alle kontextuellen Informationen dieses Wortes in Bezug auf die anderen Wörter im Chunk.
- Lappenkette: Lappenkette kombiniert das Chromadb mit dem LLM, um einen Lappen zu bilden. Auf diese Weise können wir kontextbezogene Antworten sowohl aus dem Dokument als auch aus dem Modell erhalten.
Schritt 3: Initialisierung des Lappensystems
# Eine Frage stellen response = rag_chain.invoke ({"query": "Wie kann ich Qwen mit MCP verwenden. Bitte geben Sie mir eine schrittweise Anleitung zusammen mit den erforderlichen Code -Snippets"}) Anzeige (Markdown (Antwort ['Ergebnis']))
- Abfrageausführung: Die Methode rag_chain_invoke () sendet die Abfrage des Benutzers an das RAG-System, das dann die relevanten kontextbewussten Brocken aus dem Dokumentstore (Vector DB) abruft und eine kontextbezogene Antwort generiert.
Ausgabe
Hier finden Sie den vollständigen Code.
Anwendungen von Qwen3
Hier finden Sie einige weitere Anwendungen von QWEN3 in Branchen:
- Automatisierte Codierung: QWEN3 kann Code generieren, debuggen und Dokumentationen bereitstellen, mit denen Entwickler Fehler ohne manuelle Aufwand lösen können. Sein 22B-Parametermodell zeichnet sich in der Codierung aus, wobei die Leistungen mit Modellen wie Deepseek-R1, Gemini 2.5 Pro und Openai's O3-Mini vergleichbar sind.
- Bildung und Forschung: QWEN3 Archiv hohe Genauigkeit in Mathematik, Physik und Problemlösung von Logical Denking. Es ist auch mit dem Gemini 2.5 Pro konkurriert, während es sich mit Modellen wie OpenAs O1, O3-Mini, Deepseek-R1 und GROK 3 Beta auszeichnet.
- Agentenbasierte Tool-Integration: QWEN3 führt auch in AI-Agentenaufgaben an, indem sie die Verwendung externer Tools, APIs und MCPs für mehrstufige und multi-agentische Workflows mit seiner Tool-Calling-Vorlage ermöglichen, was die Agenteninteraktion weiter vereinfacht.
- Erweiterte Argumentationsaufgaben: QWEN3 verwendet eine umfassende Denkfähigkeit, um optimale und genaue Antworten zu liefern. Das Modell verwendet die Kette des Gedächtnisses für komplexe Aufgaben und einen Nicht-Denken-Modus für optimierte Geschwindigkeit.
Abschluss
In diesem Artikel haben wir gelernt, wie man QWEN3-Agenten-KI- und RAG-Systeme baut. Die hohe Leistung, die mehrsprachige Unterstützung und die fortschrittliche Fähigkeit von QWEN3 machen es zu einer starken Wahl für das Abrufen von Wissen und agentenbasierte Aufgaben. Durch die Integration von QWEN3 in RAG- und Agenten-Pipelines können wir genaue, kontextbezogene und reibungslose Antworten erhalten, was es zu einem starken Anwärter auf reale Anwendungen für KI-Antriebssysteme macht.
Häufig gestellte Fragen
Q1. Wie unterscheidet sich QWEN3 von anderen LLMs für LAG?A. QWEN3 verfügt über eine hybride Argumentationsfähigkeit, mit der es dynamische Änderungen in den Antworten vornehmen kann, mit der die RAG -Workflows sowohl für die Abruf- als auch für die komplexe Analyse optimiert werden können.
Q2. Was sind die Werkzeuge, die zur Integration von Lappen benötigt werden?A. Es umfasst hauptsächlich die Vektordatenbank, einbettende Modelle, Langchain -Workflow und eine API, um auf das Modell zuzugreifen.
Q3. Kann QWEN3 das Multisep -Werkzeugketten im Agent -Workflow ermöglichen?Ja, mit den integrierten Templates für integrierte Tools in Qwen-Agent können wir sequentielle Tool-Vorgänge wie Websuche, Datenanalyse und Berichterstellung analysieren und aktivieren.
Q4. Wie kann man die Latenz in QWEN3 -Agentenreaktionen reduzieren? A. Man kann die Latenz in vielerlei Hinsicht verringern, einige von ihnen sind:
1. Verwendung von MOE-Modellen wie QWEN3-30B-A3B, die nur 3 Milliarden aktive Parameter haben.
2. Durch Verwendung von GPU-optimierten Schlussfolgerungen.
A. Der übliche Fehler beinhaltet:
1. MCP Server -Initialisierungsfehler wie JSON -Formatierung und Init.
2. Fehlerpaarungsfehler.
3. Kontextfensterüberlauf.
Das obige ist der detaillierte Inhalt vonWie man Lag -Systeme und KI -Agenten mit QWEN3 baut. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

KI -Agenten sind jetzt ein Teil von Enterprises Big und Small. Von Füllformularen in Krankenhäusern und Überprüfung rechtlicher Dokumente bis hin zur Analyse von Videomaterial und Umgang mit Kundenbetreuung haben wir KI -Agenten für alle Arten von Aufgaben. Begleiter

Das Leben ist gut. Auch vorhersehbar - genau die Art und Weise, wie Ihr analytischer Geist ihn bevorzugt. Sie haben heute nur noch in das Büro eingegangen, um einige Papierkram in letzter Minute zu beenden. Gleich danach bringen Sie Ihren Partner und Ihre Kinder für einen wohlverdienten Urlaub nach Sunny H.

Der wissenschaftliche Konsens hat jedoch einen Schluckauf und Gotchas, und vielleicht würde ein umsichtigerer Ansatz über die Verwendung der Konvergenz der Befragung, die auch als Konsilienz bezeichnet werden, bestehen. Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner

Weder Openai noch Studio Ghibli antworteten auf Anfragen nach Kommentaren zu dieser Geschichte. Aber ihr Schweigen spiegelt eine breitere und kompliziertere Spannung in der Kreativwirtschaft wider: Wie sollte das Urheberrecht im Alter der generativen KI funktionieren? Mit Tools wie

Sowohl Beton als auch Software können bei Bedarf für eine robuste Leistung verziert werden. Beide können Stress getestet werden, beide können im Laufe der Zeit an Fissuren und Rissen leiden, beide können untergebracht und in einen „neuen Build“, die Produktion beider Merkmale

Ein Großteil der Berichterstattung stoppt jedoch auf einer sehr Oberflächenebene. Wenn Sie versuchen herauszufinden, worum es bei Windsurf geht, erhalten Sie möglicherweise das, was Sie sich wünschen

Schlüsselfakten Zu den Führungskräften, die den offenen Brief unterschreiben, gehören CEOs hochkarätiger Unternehmen wie Adobe, Accenture, AMD, American Airlines, Blue Origin, Cognizant, Dell, Dropbox, IBM, LinkedIn, Lyft, Microsoft, Salesforce, Uber, Yahoo und Zoom.

Dieses Szenario ist keine spekulative Fiktion mehr. In einem kontrollierten Experiment zeigte die Apollo-Forschung, dass GPT-4 einen illegalen Insider-Trading-Plan ausführte und dann die Ermittler darüber lag. Die Episode ist eine lebendige Erinnerung daran, dass zwei Kurven aufsteigen


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Dreamweaver CS6
Visuelle Webentwicklungstools

SAP NetWeaver Server-Adapter für Eclipse
Integrieren Sie Eclipse mit dem SAP NetWeaver-Anwendungsserver.

mPDF
mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung
