Im März dieses Jahres brachte das skalierbare L1-Blockchain-Netzwerk Artela EVM++ auf den Markt, ein Upgrade auf die EVM-Ausführungsschichttechnologie der nächsten Generation. Das erste „+“ in EVM++ steht für „Erweiterbarkeit“, also die durch die Aspect-Technologie erreichte Skalierbarkeit. Diese Technologie unterstützt Entwickler bei der Erstellung benutzerdefinierter On-Chain-Programme in der WebAssembly-Umgebung (WASM). Diese Programme können mit EVM Collaborate kombiniert werden leistungsstarke, maßgeschneiderte anwendungsspezifische Erweiterungen für dApps. Das zweite „+“ steht für „Skalierbarkeit“, was bedeutet, dass die Netzwerkverarbeitungsfähigkeiten und -effizienz durch parallele Ausführungstechnologie und flexibles Blockraumdesign erheblich verbessert werden. WebAssembly (WASM) ist ein effizientes Binärcodeformat, das eine nahezu native Ausführungsgeschwindigkeit in Webbrowsern ermöglicht und sich besonders für die Verarbeitung rechenintensiver Aufgaben wie KI und Big-Data-Verarbeitung eignet. Am 21. Juni veröffentlichte Artela ein Whitepaper, in dem detailliert beschrieben wird, wie es die Skalierbarkeit der Blockchain durch die Entwicklung eines parallelen Ausführungsstapels und die Einführung eines elastischen Blockraums auf Basis von Elastic Computing verbessert.
Die Bedeutung der Parallelverarbeitung
In der traditionellen Ethereum Virtual Machine (EVM) müssen alle Smart-Contract-Vorgänge und Zustandsübergänge im gesamten Netzwerk konsistent sein. Dies erfordert, dass alle Knoten dieselben Transaktionen in derselben Reihenfolge ausführen. Auch wenn zwischen bestimmten Transaktionen eigentlich keine Abhängigkeit besteht, müssen sie daher nacheinander in der Reihenfolge im Block ausgeführt werden, also seriell verarbeitet werden. Diese Methode verursacht nicht nur unnötige Wartezeiten, sondern ist auch ineffizient.
Parallelverarbeitung ermöglicht es mehreren Prozessoren oder mehreren Rechenkernen, mehrere Rechenaufgaben auszuführen oder Daten gleichzeitig zu verarbeiten, wodurch die Verarbeitungseffizienz erheblich verbessert und die Laufzeit verkürzt wird, insbesondere bei komplexen oder umfangreichen Berechnungen, die in mehrere unabhängige Aufgaben unterteilt werden können Frage.
Parallel EVM ist eine Erweiterung oder Verbesserung der traditionellen Ethereum Virtual Machine. Es kann mehrere Smart Contracts oder Vertragsfunktionsaufrufe gleichzeitig ausführen und so den Durchsatz und die Effizienz des gesamten Netzwerks erheblich verbessern. Darüber hinaus kann die Effizienz der Single-Threaded-Ausführung optimiert werden. Der unmittelbarste Vorteil von parallelem EVM besteht darin, dass vorhandene dezentrale Anwendungen eine Leistung auf Internetebene erreichen können.
Artela Network und EVM++
Artela ist ein L1, das die Skalierbarkeit und Leistung von EVM durch die Einführung von EVM++ verbessert. EVM++ ist ein Upgrade der EVM-Ausführungsschichttechnologie, das die Flexibilität von EVM und die Hochleistungsfunktionen von WASM integriert. Diese erweiterte Version der virtuellen Maschine unterstützt Parallelverarbeitung und effiziente Speicherung, sodass komplexere und leistungsintensivere Anwendungen auf Artela ausgeführt werden können.
EVM++ unterstützt nicht nur herkömmliche Smart Contracts, sondern kann auch dynamisch Hochleistungsmodule in der Kette hinzufügen und ausführen, wie z. B. KI-Agenten. Diese Agenten können unabhängig als On-Chain-Co-Prozessoren laufen oder direkt an der On-Chain teilnehmen Spiele und erschafft wirklich vertrauenswürdige Programmier-NPCs.
Artela stellt sicher, dass die Rechenleistung von Netzwerkknoten durch paralleles Ausführungsdesign je nach Bedarf flexibel erweitert werden kann. Darüber hinaus unterstützt der Validierungsknoten die horizontale Erweiterung und das Netzwerk kann die Größe des Rechenknotens automatisch an die aktuelle Auslastung oder Nachfrage anpassen. Dieser Erweiterungsprozess wird durch das elastische Protokoll koordiniert, um ausreichende Rechenressourcen im Konsensnetzwerk sicherzustellen.
Stellen Sie die Skalierbarkeit der Netzwerkknoten-Rechenleistung durch elastisches Rechnen sicher und erreichen Sie letztendlich elastischen Blockraum, sodass große dApps entsprechend den spezifischen Anforderungen unabhängigen Blockraum beantragen können. Dies erfüllt nicht nur die Notwendigkeit, den öffentlichen Blockraum zu erweitern, sondern stellt auch sicher die Leistung und Stabilität großer Anwendungen.
Detaillierte Erläuterung der parallelen Ausführungsarchitektur von ArtelaPredictive Optimistic Execution ist eine der Kerntechnologien von Artela und unterscheidet sich von anderen parallelen EVMs wie Sei und Monad. Eines der Merkmale. Unter optimistischer Ausführung versteht man eine parallele Ausführungsstrategie, bei der davon ausgegangen wird, dass es im Ausgangszustand keine Konflikte zwischen Transaktionen gibt. Bei diesem Mechanismus verwaltet jede Transaktion eine private Version des Status, wobei Änderungen aufgezeichnet, aber nicht sofort abgeschlossen werden. Nachdem die Transaktion ausgeführt wurde, wird eine Überprüfungsphase durchgeführt, um zu prüfen, ob es Konflikte mit globalen Statusänderungen gibt, die durch andere parallele Transaktionen im gleichen Zeitraum verursacht wurden. Sobald ein Konflikt erkannt wird, wird die Transaktion erneut ausgeführt.
Vorhersagbarkeit bezieht sich auf die Analyse historischer Transaktionsdaten durch ein spezifisches KI-Modell, um die Abhängigkeiten zwischen bevorstehenden Transaktionen vorherzusagen, d Konflikte und doppelte Hinrichtungen. Im Gegensatz dazu verlässt sich Sei in Bezug auf die Vorhersage auf Dateien mit zuvor von Entwicklern definierten Transaktionsabhängigkeiten, während Monad eine statische Analyse auf Compilerebene verwendet, um Dateien mit Transaktionsabhängigkeiten zu generieren, und beiden fehlen die adaptiven Fähigkeiten von Artela dynamisches Vorhersagemodell basierend auf AI.
Die asynchrone Vorladetechnologie hat sich zum Ziel gesetzt, die durch den Statuszugriff verursachten Eingabe- und Ausgabeengpässe (I/O) zu lösen, mit dem Ziel, die Datenzugriffsgeschwindigkeit zu verbessern und die Wartezeit während der Transaktion zu reduzieren Ausführung. . Artela lädt die erforderlichen Zustandsdaten vor der Ausführung der Transaktion auf der Grundlage von Vorhersagemodellen vom langsamen Speicher (z. B. Festplatte) in den schnellen Speicher (z. B. Speicher). Reduzieren Sie die E/A-Wartezeit während der Ausführung, indem Sie die erforderlichen Daten im Voraus laden. Wenn Daten im Voraus geladen und zwischengespeichert werden, können mehrere Prozessoren oder Ausführungsthreads gleichzeitig auf die Daten zugreifen, was die Ausführungsparallelität weiter erhöht.
Mit der Einführung der Parallelausführungstechnologie kann die Transaktionsverarbeitung zwar parallelisiert werden, wenn jedoch die Lese-, Schreib- und Aktualisierungsgeschwindigkeit der Daten nicht gleichzeitig verbessert werden kann, wird die Gesamtsystemleistung eingeschränkt besteht darin, dass sich der Engpass des Systems allmählich auf die Speicherebene verlagert. Lösungen wie MonadDB und SeiDB haben begonnen, sich auf die Optimierung auf Speicherebene zu konzentrieren. Artela nutzt und integriert eine Vielzahl ausgereifter traditioneller Datenverarbeitungstechnologien, um Parallelspeicher zu entwickeln und so die Effizienz der Parallelverarbeitung weiter zu verbessern.
Das parallele Speichersystem ist hauptsächlich darauf ausgelegt, zwei Hauptprobleme zu lösen: Zum einen soll eine parallele Speicherverarbeitung erreicht werden, zum anderen soll die Fähigkeit verbessert werden, den Datenstatus effizient in der Datenbank aufzuzeichnen. Zu den häufigsten Problemen während des Datenspeicherprozesses gehören die Datenerweiterung während des Datenschreibens und ein erhöhter Datenbankverarbeitungsdruck. Um diese Probleme wirksam anzugehen, verfolgt Artela die Trennungsstrategie von State Commitment (SC) und State Storage (SS). Diese Strategie unterteilt Speicheraufgaben in zwei Teile: Ein Teil ist für schnelle Verarbeitungsvorgänge verantwortlich und behält keine komplexen Datenstrukturen bei, wodurch Platz gespart und Datenduplizierungen reduziert werden. Um die Leistung bei der Verarbeitung großer Datenmengen nicht zu beeinträchtigen, verwendet Artela außerdem eine Methode zum Zusammenführen kleiner Datenstücke zu großen Teilen, wodurch die Komplexität der Datenspeicherung verringert wird.
Der Elastic Block Space (EBS) von Artela basiert auf dem Konzept des Elastic Computing und kann die Anzahl der in einem Block untergebrachten Transaktionen basierend auf der Netzwerküberlastung automatisch anpassen. Elastic Computing ist ein Cloud-Computing-Dienstmodell, das es dem System ermöglicht, die Konfiguration von Computerressourcen automatisch an sich ändernde Lastanforderungen anzupassen. Der Hauptzweck besteht darin, die Effizienz der Ressourcennutzung zu optimieren und sicherzustellen, dass bei steigendem Bedarf schnell zusätzliche Rechenleistung bereitgestellt wird. EBS passt die Blockressourcen dynamisch an die spezifischen Anforderungen von dApps an und stellt unabhängigen Erweiterungsblockraum für dApps mit hoher Nachfrage bereit, um das Problem erheblicher Unterschiede in den Blockchain-Leistungsanforderungen für verschiedene Anwendungen zu lösen.
Der Hauptvorteil von EBS ist die „vorhersehbare Leistung“, das heißt, es kann vorhersehbare TPS für dApps bereitstellen. Daher erhalten dApps mit unabhängigen Blockräumen stabile TPS, unabhängig davon, ob der öffentliche Blockraum überfüllt ist oder nicht. Wenn der von der dApp geschriebene Vertrag außerdem Parallelität unterstützt, können darüber hinaus höhere TPS erreicht werden. Man kann sagen, dass EBS im Vergleich zu herkömmlichen Blockchain-Plattformen wie Ethereum und Solana eine stabilere Umgebung bietet. Diese herkömmlichen Plattformen führen häufig zu einer Verschlechterung der dApp-Leistung, wenn das Netzwerk überlastet ist, beispielsweise während des Inscription-Booms oder während der Spitzenaktivität von DeFi. Artela löst solche Probleme effektiv durch individuelles und optimiertes Ressourcenmanagement.
Zusammenfassend lässt sich sagen, dass Artela durch parallele Ausführungsstapel und elastischen Blockraum eine hohe Skalierbarkeit und eine „vorhersehbare“ Netzwerkleistung erreicht. Diese parallele Ausführungsarchitektur nutzt das KI-Modell, um Transaktionsabhängigkeiten präzise vorherzusagen und so Konflikte und wiederholte Ausführungen zu reduzieren. Darüber hinaus können große Anwendungen je nach Bedarf dedizierte Rechenleistung und Ressourcen nutzen, sodass auch bei hoher Netzwerklast eine stabile Leistung gewährleistet ist. Dadurch ist das Artela-Netzwerk in der Lage, komplexere Anwendungsszenarien wie Echtzeit-Big-Data-Verarbeitung und komplexe Finanztransaktionen zu unterstützen.Das obige ist der detaillierte Inhalt vonArtela-Whitepaper-Interpretation: Einzigartiger paralleler Ausführungsstapel + flexibler Blockraum. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!