suchen
HeimTechnologie-PeripheriegeräteKIWie man Lag -Systeme und KI -Agenten mit QWEN3 baut

Qwen hat gerade 8 neue Modelle im Rahmen seiner neuesten Familie veröffentlicht - QWEN3, die vielversprechende Fähigkeiten präsentiert. Das Flaggschiff-Modell QWEN3-235B-A22B übertraf die meisten anderen Modelle, darunter Deepseek-R1, OpenAs O1, O3-Mini, GROK 3 und Gemini 2,5-PRO, in Standard-Benchmarks. In der Zwischenzeit übertraf der kleine QWEN3-30B-A3B QWQ-32B, das ungefähr das 10-fache der aktivierten Parameter als neues Modell aufweist. Mit solchen fortschrittlichen Funktionen erweisen sich diese Modelle als eine gute Wahl für eine breite Palette von Anwendungen. In diesem Artikel werden wir die Merkmale aller QWEN3 -Modelle untersuchen und lernen, wie Sie sie verwenden, um Lappensysteme und KI -Agenten zu erstellen.

Inhaltsverzeichnis

  • Was ist Qwen3?
  • Schlüsselmerkmale von QWEN3
  • So greifen Sie über API auf QWEN3 -Modelle zu
  • Verwenden Sie QWEN3, um Ihre KI -Lösungen zu betreiben
    • Voraussetzungen
    • Aufbau eines AI -Agenten mit QWEN3
    • Aufbau eines Lappensystems mit QWEN3
  • Anwendungen von Qwen3
  • Abschluss
  • Häufig gestellte Fragen

Was ist Qwen3?

QWEN3 ist die neueste Serie von Großsprachemodellen (LLMs) in der QWEN -Familie, die aus 8 verschiedenen Modellen besteht. Dazu gehören QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B und QWEN3-0.6B. Alle diese Modelle werden unter Apache 2.0 -Lizenz veröffentlicht, wodurch sie Einzelpersonen, Entwicklern und Unternehmen frei zur Verfügung stellen.

Während 6 dieser Modelle dicht sind, bedeutet dies, dass sie während der Zeit der Inferenz und des Trainings alle Parameter aktiv verwenden, 2 von ihnen sind offen gewichtet:

  • QWEN3-235B-A22B: Ein großes Modell mit 235 Milliarden Parametern, von denen 22 Milliarden aktivierte Parameter sind.
  • QWEN3-30B-A3B: Eine kleinere MOE mit 30 Milliarden Gesamtparametern und 3 Milliarden aktivierten Parametern.

Hier ist ein detaillierter Vergleich aller 8 QWEN3 -Modelle:

Modelle Schichten Köpfe (Q/KV) Krawattenbettung Kontextlänge
Qwen3-0.6b 28 16/8 Ja 32k
Qwen3-1.7b 28 16/8 Ja 32k
Qwen3-4b 36 32/8 Ja 32k
Qwen3-8b 36 32/8 NEIN 128K
Qwen3-14b 40 40/8 NEIN 128K
QWEN3-32B 64 64/8 NEIN 128K
QWEN3-30B-A3B 48 32/4 NEIN 128K
QWEN3-235B-A22B 94 64/4 NEIN 128K

Hier ist, was der Tisch sagt:

  • Ebenen: Schichten repräsentieren die Anzahl der verwendeten Transformatorblöcke. Es umfasst mehrkopf Selbstbekämpfungsmechanismus, Vorwärtsnetzwerke, positionelle Codierung, Schichtnormalisierung und Restverbindungen. Wenn ich also sage, dass QWEN3-30B-A3B 48 Schichten hat, bedeutet dies, dass das Modell 48 Transformatorblöcke verwendet, die nacheinander oder parallel gestapelt sind.
  • Köpfe: Transformatoren verwenden mehrköpfige Aufmerksamkeit, die seinen Aufmerksamkeitsmechanismus in mehrere Köpfe aufteilt, jeweils ein neues Aspekt aus den Daten. Hier repräsentiert Q/KV:
    • Q (Abfrageköpfe): Gesamtzahl der Aufmerksamkeitsköpfe, die zum Generieren von Abfragen verwendet werden.
    • KV (Schlüssel und Wert): Die Anzahl der Schlüssel-/Wertköpfe pro Aufmerksamkeitsblock.

HINWEIS: Diese Aufmerksamkeitsköpfe für Schlüssel, Abfrage und Wert unterscheiden sich völlig von der Schlüssel-, Abfrage- und Wertvektor, die durch eine Selbstbekämpfung erzeugt werden.

Lesen Sie auch: QWEN3 -Modelle: Wie man zugreift, Leistung, Funktionen und Anwendungen

Schlüsselmerkmale von QWEN3

Hier sind einige der wichtigsten Merkmale der QWEN3 -Modelle:

  1. Vorausbildung: Der Prozess vor dem Training besteht aus drei Stufen:
    • In der ersten Stufe wurde das Modell auf über 30 Billionen Token mit einer Kontextlänge von 4K -Token vorbereitet. Dies lehrte das Modell grundlegende Sprachkenntnisse und allgemeine Kenntnisse.
    • In der zweiten Stufe wurde die Datenqualität verbessert, indem der Anteil wissenintensiver Daten wie STEM, Codierung und Argumentationsaufgaben erhöht wurde. Das Modell wurde dann über weitere 5 Billionen Token trainiert.
    • In der letzten Phase wurden hochwertige Langkontextdaten verwendet, indem die Kontextlänge auf 32 -km -Token erhöht wurde. Dies wurde durchgeführt, um sicherzustellen, dass das Modell längere Eingaben effektiv verarbeiten kann.
  1. Nach der Schulung: Um ein Hybridmodell zu entwickeln, das sowohl schrittweise Argumentation als auch schnelle Reaktionen in der Lage ist, wurde eine 4-stufige Trainingspipeline implementiert. Dies bestand aus:
    • Langkette des Gedanke (COT)
    • Argumentationsbasierte Verstärkungslernen (RL)
    • Denkmodus Fusion
    • General Rl
  1. Hybrid -Denkmodi: QWEN3 -Modelle verwenden einen Hybridansatz zur Problemlösung mit zwei neuen Modi:
    • Denkmodus: In diesem Modus nehmen die Modelle Zeit, indem sie eine komplexe Problemaussage in kleine und prozedurale Schritte einteilen, um sie zu lösen.
    • Nichtdenkungsmodus: In diesem Modus liefert das Modell schnelle Ergebnisse und eignet sich meistens für einfachere Fragen.
  1. Mehrsprachige Unterstützung: QWEN3 -Modelle unterstützen 119 Sprachen und Dialekte. Dies hilft Benutzern aus der ganzen Welt, von diesen Modellen zu profitieren.
  2. Improvisierte Agentenfunktionen: QWEN hat die QWEN3 -Modelle für bessere Codierung und Agentenfunktionen optimiert und das Modellkontextprotokoll (MCP) unterstützt.

So greifen Sie über API auf QWEN3 -Modelle zu

Um die QWEN3 -Modelle zu verwenden, werden wir über API mit der OpenRouter -API darauf zugreifen. Hier erfahren Sie, wie es geht:

  1. Erstellen Sie ein Konto auf OpenRouter und gehen Sie in die Modellsuchleiste, um die API für dieses Modell zu finden.

Wie man Lag -Systeme und KI -Agenten mit QWEN3 baut

  1. Wählen Sie das Modell Ihrer Wahl und klicken Sie auf der Zielseite auf "API -Taste erstellen", um eine neue API zu generieren.

Wie man Lag -Systeme und KI -Agenten mit QWEN3 baut

Verwenden Sie QWEN3, um Ihre KI -Lösungen zu betreiben

In diesem Abschnitt werden wir mit QWEN3 den Prozess des Erstellens von AI -Anwendungen durchlaufen. Wir werden zuerst ein AI-Anbieter-Reiseplaner-Agent mit dem Modell erstellen, und dann einen Q/A-Rag-Bot mit Langchain.

Voraussetzungen

Bevor wir einige reale KI-Lösungen mit QWEN3 erstellen, müssen wir zunächst die grundlegenden Voraussetzungen wie folgt abdecken:

  • Vertrautheit mit der Eingabeaufforderung oder dem Terminal und der Fähigkeit, sie durch das Terminal zu führen.
  • Fähigkeit, Umgebungsvariablen einzurichten.
  • Python muss installiert werden: https://www.python.org/downloads/
  • Wissen über die Grundlagen von Langchain: https://www.langchain.com/

Aufbau eines AI -Agenten mit QWEN3

In diesem Abschnitt werden wir QWEN3 verwenden, um ein AI-angetriebenes Reisebüro zu erstellen, das die wichtigsten Reiseplätze für die Stadt oder den Ort, den Sie besuchen, angeben. Wir ermöglichen es dem Agenten auch, das Internet zu durchsuchen, um aktualisierte Informationen zu finden und ein Tool hinzuzufügen, das die Währungskonvertierung ermöglicht.

Schritt 1: Einrichten von Bibliotheken und Tools

Zunächst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Agenten erforderlich sind.

 !
von Langchain.chat_Models importieren Sie Chatopenai
aus Langchain.agents Import -Tool
von Langchain.tools Import DuckDuckGoSearchrun importieren
von Langchain.agents import initialize_agent


llm = chatopenai (
   Base_url = "https://openrouter.ai/api/v1",
   api_key = "your_api_key",
   Modell = "Qwen/Qwen3-235b-A22B: Free"
)
# Web -Search -Tool
search = DuckDuckGoSearchRun ()


# Tool für DestinationAgent
Def get_destinations (Ziel):
   return search.run (f "Top 3 Touristenplätze in {destination}")


DestinationTool = Tool (
   name = "Ziel empfohlen",
   func = get_destinations,
   BESCHREIBUNG = "Findet Top -Orte in einer Stadt zu besuchen"
)


# Tool für Currencyagent
Def convert_usd_to_inr (Abfrage):
   Menge = [float (s) für s in query.split () if S.Replace ('.', '', 1) .isdigit ()]]
   Wenn Betrag:
       Rückgabe f "{Menge [0]} USD = {Menge [0] * 83.2: .2f} INR"
   Return "konnte nicht analysieren."


CurrencyTool = Tool (
   name = "Währungswandler",
   func = convert_usd_to_inr,
   Beschreibung = "Konvertiert USD in INR basierend auf der statischen Rate"
)
  • Search_tool: DuckDuckGoSearchrun () ermöglicht es dem Agenten, mit der Websuche Informationen über die beliebten Touristenplätze zu erhalten.
  • DestinationTool: Wendet die Funktion get_destinations () an, die das Suchwerkzeug verwendet, um die Top 3 Touristenplätze in einer bestimmten Stadt zu erhalten.
  • CurrencyTool: Verwendet die Funktion convert_usd_to_inr (), um die Preise von USD in INR zu konvertieren. Sie können 'INR' in der Funktion ändern, um sie in eine Währung Ihrer Wahl umzuwandeln.

Lesen Sie auch: Erstellen Sie einen Reiseassistenten Chatbot mit Huggingface, Langchain und Mistralai

Schritt 2: Erstellen des Agenten

Nachdem wir alle Tools initialisiert haben, gehen wir mit dem Erstellen eines Agenten, der die Tools verwendet und uns einen Plan für die Reise ermöglichen.

 Tools = [DestinationTool, CurrencyTool]


Agent = initialize_agent (
   Werkzeuge = Werkzeuge,
   llm = llm,
   Agent_type = "Zero-Shot-React-Dezescription",
   wörtlich = wahr
)
Def Trip_Planner (Stadt, USD_Budget):
   dest = get_destinations (Stadt)
   INR_BUDGET = CONVERT_USD_TO_INR (f "{USD_BUDGET} USD TO INR"))
   Rückkehr f "" "Hier ist Ihr Reiseplan:


*Top -Plätze in {City}*:
{dest}
*Budget*:
{inr_budget}
Genieße deinen Tagesausflug! "" "
  • Initialize_agent: Diese Funktion erstellt einen Agenten mit Langchain mit einem Null-Shot-Reaktionsansatz, mit dem der Agent die Toolbeschreibungen verstehen kann.
  • Agent_type: "Zero-Shot-React-Dezescription" ermöglicht es dem Agent LLM, zu entscheiden, welches Tool es in einer bestimmten Situation ohne Vorwissen verwenden soll, indem sie die Beschreibung und die Eingabe verwenden.
  • Ausführlich: Ausführlich ermöglicht die Protokollierung des Denkprozesses des Agenten, sodass wir jede Entscheidung überwachen können, die der Agent trifft, einschließlich aller Interaktionen und Tools, die aufgerufen werden.
  • TRIP_PLANNER: Dies ist eine Python -Funktion, die Tools manuell aufruft, anstatt sich auf den Agenten zu verlassen. Damit kann der Benutzer das beste Tool für ein bestimmtes Problem auswählen.

Schritt 3: Initialisierung des Agenten

In diesem Abschnitt werden wir den Agenten initialisieren und seine Antwort beobachten.

 # Initialisieren Sie den Agenten
City = "Delhi"
USD_BUDGET = 8500


# Führen Sie den Multi-Agent-Planer aus
response = Agent.run (f "Planen Sie eine Tagesausreise nach {City} mit einem Budget von {USD_BUDGET} USD"))
Aus Ipython.display Import Markdown, Anzeige
Anzeige (Markdown (Antwort))
  • Aufruf von Agent: Agent.Run () verwendet die Absicht des Benutzers über Eingabeaufforderung und plant die Reise.

Ausgabe

Wie man Lag -Systeme und KI -Agenten mit QWEN3 baut

Aufbau eines Lappensystems mit QWEN3

In diesem Abschnitt werden wir einen Rag -Bot erstellen, der jede Abfrage innerhalb des entsprechenden Eingabedokuments aus der Wissensbasis beantwortet. Dies gibt eine informative Antwort unter Verwendung von QWEN/QWEN3-235B-A22B. Das System würde auch Langchain verwenden, um genaue und kontextbezogene Antworten zu erzeugen.

Schritt 1: Einrichten der Bibliotheken und Tools

Zunächst werden wir die erforderlichen Bibliotheken und Tools installieren und importieren, die zum Erstellen des Lappensystems erforderlich sind.

 !
von Langchain_Community.document_loaders Textloader importieren
von Langchain.text_splitter importieren charaktertextsplitter
von Langchain_Community.VectorStores importieren Chroma
von Langchain.embeddings Import HuggingfaceEmbedingdings
von Langchain.chains Import Retrievalqa
von Langchain.chat_Models importieren Sie Chatopenai
# Laden Sie Ihr Dokument auf
loader = textloader ("/content/my_docs.txt")
docs = lader.load ()
  • Laden von Dokumenten: Die Langchain -Klasse „Textloader“ lädt das Dokument wie eine PDF-, TXT- oder DOC -Datei, die für das q/a -Abruf verwendet wird. Hier habe ich my_docs.txt hochgeladen.
  • Auswählen des Vektor -Setups: Ich habe Chromadb verwendet, um die Einbettungen aus unserer Vektor -Datenbank für den Q/A -Prozess zu speichern und zu durchsuchen.

Schritt 2: Erstellen der Einbettungen

Nachdem wir unser Dokument geladen haben, gehen wir mit dem Erstellen von Einbettungen daraus, was dazu beiträgt, den Abrufprozess zu lindern.

 # In Stücke aufgeteilt
splitter = charakterTextsplitter (chunk_size = 300, chunk_overlap = 50)
thunks = splitter.split_documents (docs)


# Mit dem Umarmungsface -Modell einbetten
embettdings = huggingfaceembeddings (model_name = "All-minilm-l6-v2")
db = chroma.from_documents (Stücke, Einbettung = Einbettung)


# Setup Qwen LLM von OpenRouter aus Setzen
llm = chatopenai (
   Base_url = "https://openrouter.ai/api/v1",
   api_key = "your_api_key",
   Modell = "Qwen/Qwen3-235b-A22B: Free"
)


# Erstellen Sie Rag -Kette
retriever = db.as_retriever (search_kwargs = {"k": 2})
rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
  • Dokumentspaltung: Der CharakterTextSplitter () spaltet den Text in kleinere Stücke, was hauptsächlich in zwei Dingen hilft. Erstens erleichtert es den Abrufprozess und zweitens hilft es bei der Beibehaltung des Kontextes vom vorherigen Chunk über Chunk_Overlap.
  • Einbettungsdokumente: Einbettungsdings konvertieren den Text in die Einbettungsvektoren einer festgelegten Dimension für jeden Token. Hier haben wir Chunk_Size von 300 verwendet, was bedeutet, dass jedes Wort/Token in einen Vektor von 300 Dimensionen umgewandelt wird. Jetzt hat diese Vektoreinbettung alle kontextuellen Informationen dieses Wortes in Bezug auf die anderen Wörter im Chunk.
  • Lappenkette: Lappenkette kombiniert das Chromadb mit dem LLM, um einen Lappen zu bilden. Auf diese Weise können wir kontextbezogene Antworten sowohl aus dem Dokument als auch aus dem Modell erhalten.

Schritt 3: Initialisierung des Lappensystems

 # Eine Frage stellen
response = rag_chain.invoke ({"query": "Wie kann ich Qwen mit MCP verwenden. Bitte geben Sie mir eine schrittweise Anleitung zusammen mit den erforderlichen Code -Snippets"})
Anzeige (Markdown (Antwort ['Ergebnis']))
  • Abfrageausführung: Die Methode rag_chain_invoke () sendet die Abfrage des Benutzers an das RAG-System, das dann die relevanten kontextbewussten Brocken aus dem Dokumentstore (Vector DB) abruft und eine kontextbezogene Antwort generiert.

Ausgabe

Wie man Lag -Systeme und KI -Agenten mit QWEN3 baut

Wie man Lag -Systeme und KI -Agenten mit QWEN3 baut

Wie man Lag -Systeme und KI -Agenten mit QWEN3 baut

Hier finden Sie den vollständigen Code.

Anwendungen von Qwen3

Hier finden Sie einige weitere Anwendungen von QWEN3 in Branchen:

  • Automatisierte Codierung: QWEN3 kann Code generieren, debuggen und Dokumentationen bereitstellen, mit denen Entwickler Fehler ohne manuelle Aufwand lösen können. Sein 22B-Parametermodell zeichnet sich in der Codierung aus, wobei die Leistungen mit Modellen wie Deepseek-R1, Gemini 2.5 Pro und Openai's O3-Mini vergleichbar sind.
  • Bildung und Forschung: QWEN3 Archiv hohe Genauigkeit in Mathematik, Physik und Problemlösung von Logical Denking. Es ist auch mit dem Gemini 2.5 Pro konkurriert, während es sich mit Modellen wie OpenAs O1, O3-Mini, Deepseek-R1 und GROK 3 Beta auszeichnet.
  • Agentenbasierte Tool-Integration: QWEN3 führt auch in AI-Agentenaufgaben an, indem sie die Verwendung externer Tools, APIs und MCPs für mehrstufige und multi-agentische Workflows mit seiner Tool-Calling-Vorlage ermöglichen, was die Agenteninteraktion weiter vereinfacht.
  • Erweiterte Argumentationsaufgaben: QWEN3 verwendet eine umfassende Denkfähigkeit, um optimale und genaue Antworten zu liefern. Das Modell verwendet die Kette des Gedächtnisses für komplexe Aufgaben und einen Nicht-Denken-Modus für optimierte Geschwindigkeit.

Abschluss

In diesem Artikel haben wir gelernt, wie man QWEN3-Agenten-KI- und RAG-Systeme baut. Die hohe Leistung, die mehrsprachige Unterstützung und die fortschrittliche Fähigkeit von QWEN3 machen es zu einer starken Wahl für das Abrufen von Wissen und agentenbasierte Aufgaben. Durch die Integration von QWEN3 in RAG- und Agenten-Pipelines können wir genaue, kontextbezogene und reibungslose Antworten erhalten, was es zu einem starken Anwärter auf reale Anwendungen für KI-Antriebssysteme macht.

Häufig gestellte Fragen

Q1. Wie unterscheidet sich QWEN3 von anderen LLMs für LAG?

A. QWEN3 verfügt über eine hybride Argumentationsfähigkeit, mit der es dynamische Änderungen in den Antworten vornehmen kann, mit der die RAG -Workflows sowohl für die Abruf- als auch für die komplexe Analyse optimiert werden können.

Q2. Was sind die Werkzeuge, die zur Integration von Lappen benötigt werden?

A. Es umfasst hauptsächlich die Vektordatenbank, einbettende Modelle, Langchain -Workflow und eine API, um auf das Modell zuzugreifen.

Q3. Kann QWEN3 das Multisep -Werkzeugketten im Agent -Workflow ermöglichen?

Ja, mit den integrierten Templates für integrierte Tools in Qwen-Agent können wir sequentielle Tool-Vorgänge wie Websuche, Datenanalyse und Berichterstellung analysieren und aktivieren.

Q4. Wie kann man die Latenz in QWEN3 -Agentenreaktionen reduzieren?

A. Man kann die Latenz in vielerlei Hinsicht verringern, einige von ihnen sind:
1. Verwendung von MOE-Modellen wie QWEN3-30B-A3B, die nur 3 Milliarden aktive Parameter haben.
2. Durch Verwendung von GPU-optimierten Schlussfolgerungen.

Q5. Was sind die häufigsten Fehler bei der Implementierung von QWEN3 -Agenten?

A. Der übliche Fehler beinhaltet:
1. MCP Server -Initialisierungsfehler wie JSON -Formatierung und Init.
2. Fehlerpaarungsfehler.
3. Kontextfensterüberlauf.

Das obige ist der detaillierte Inhalt vonWie man Lag -Systeme und KI -Agenten mit QWEN3 baut. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
So erstellen Sie einen intelligenten FAQ -Chatbot mit Agentic RagSo erstellen Sie einen intelligenten FAQ -Chatbot mit Agentic RagMay 07, 2025 am 11:28 AM

KI -Agenten sind jetzt ein Teil von Enterprises Big und Small. Von Füllformularen in Krankenhäusern und Überprüfung rechtlicher Dokumente bis hin zur Analyse von Videomaterial und Umgang mit Kundenbetreuung haben wir KI -Agenten für alle Arten von Aufgaben. Begleiter

Von Panik zur Macht: Was Führungskräfte im KI -Alter lernen müssenVon Panik zur Macht: Was Führungskräfte im KI -Alter lernen müssenMay 07, 2025 am 11:26 AM

Das Leben ist gut. Auch vorhersehbar - genau die Art und Weise, wie Ihr analytischer Geist ihn bevorzugt. Sie haben heute nur noch in das Büro eingegangen, um einige Papierkram in letzter Minute zu beenden. Gleich danach bringen Sie Ihren Partner und Ihre Kinder für einen wohlverdienten Urlaub nach Sunny H.

Warum Konvergenz der Evidence, die AGI vorhersagt, wird wissenschaftliche Konsens durch KI-Experten übertreffenWarum Konvergenz der Evidence, die AGI vorhersagt, wird wissenschaftliche Konsens durch KI-Experten übertreffenMay 07, 2025 am 11:24 AM

Der wissenschaftliche Konsens hat jedoch einen Schluckauf und Gotchas, und vielleicht würde ein umsichtigerer Ansatz über die Verwendung der Konvergenz der Befragung, die auch als Konsilienz bezeichnet werden, bestehen. Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner

Das Studio Ghibli Dilemma - Urheberrecht im Zeitalter der generativen KIDas Studio Ghibli Dilemma - Urheberrecht im Zeitalter der generativen KIMay 07, 2025 am 11:19 AM

Weder Openai noch Studio Ghibli antworteten auf Anfragen nach Kommentaren zu dieser Geschichte. Aber ihr Schweigen spiegelt eine breitere und kompliziertere Spannung in der Kreativwirtschaft wider: Wie sollte das Urheberrecht im Alter der generativen KI funktionieren? Mit Tools wie

Mulesoft Formulate Mix für verzinkte Agenten -AI -VerbindungenMulesoft Formulate Mix für verzinkte Agenten -AI -VerbindungenMay 07, 2025 am 11:18 AM

Sowohl Beton als auch Software können bei Bedarf für eine robuste Leistung verziert werden. Beide können Stress getestet werden, beide können im Laufe der Zeit an Fissuren und Rissen leiden, beide können untergebracht und in einen „neuen Build“, die Produktion beider Merkmale

Openai schlägt angeblich 3 Milliarden US -Dollar für den Kauf von Windsurf abOpenai schlägt angeblich 3 Milliarden US -Dollar für den Kauf von Windsurf abMay 07, 2025 am 11:16 AM

Ein Großteil der Berichterstattung stoppt jedoch auf einer sehr Oberflächenebene. Wenn Sie versuchen herauszufinden, worum es bei Windsurf geht, erhalten Sie möglicherweise das, was Sie sich wünschen

Obligatorische KI -Ausbildung für alle US -Kinder? Über 250 CEOs sagen ja JaObligatorische KI -Ausbildung für alle US -Kinder? Über 250 CEOs sagen ja JaMay 07, 2025 am 11:15 AM

Schlüsselfakten Zu den Führungskräften, die den offenen Brief unterschreiben, gehören CEOs hochkarätiger Unternehmen wie Adobe, Accenture, AMD, American Airlines, Blue Origin, Cognizant, Dell, Dropbox, IBM, LinkedIn, Lyft, Microsoft, Salesforce, Uber, Yahoo und Zoom.

Unsere Selbstzufriedenheitskrise: Navigation der KI -TäuschungUnsere Selbstzufriedenheitskrise: Navigation der KI -TäuschungMay 07, 2025 am 11:09 AM

Dieses Szenario ist keine spekulative Fiktion mehr. In einem kontrollierten Experiment zeigte die Apollo-Forschung, dass GPT-4 einen illegalen Insider-Trading-Plan ausführte und dann die Ermittler darüber lag. Die Episode ist eine lebendige Erinnerung daran, dass zwei Kurven aufsteigen

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SAP NetWeaver Server-Adapter für Eclipse

SAP NetWeaver Server-Adapter für Eclipse

Integrieren Sie Eclipse mit dem SAP NetWeaver-Anwendungsserver.

mPDF

mPDF

mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung