suchen
HeimTechnologie-PeripheriegeräteKIEine Einführung in das Debugging und das Testen von LLMs in Langsmith

Ich habe kürzlich eine KI -Plattform gefunden, die automatisch Flashkarten aus jeder Art von Medien generiert. Da ich es liebe, Konzepte mit der Wiederholung von Abstand auswendig zu lernen, habe ich mein XGBoost -Tutorial sofort hochgeladen und die KI gebeten, 50 Flash -Karten darauf zu erstellen.

Aber ich war enttäuscht. Die meisten Fragen waren zu einfach, und nur sehr wenige von ihnen waren von Code -Syntax. Noch seltsamer war, dass 10% der Fragen identisch und völlig unauffällig waren-„Was ist die Hauptstadt Frankreichs?“.

Diese Arten von Fehlern deuten auf eine mangelnde ordnungsgemäße Bewertung und Validierung von Ausgaben hin, die von AI -Diensten erzeugt werden. Vielleicht wussten sie nichts über Langsmith.

Langsmith ist eine vollwertige Plattform zum Testen, Debuggen und Bewerten von LLM-Anwendungen. Vielleicht ist das wichtigste Merkmal die LLM -Ausgangsbewertung und Leistungsüberwachung. In diesem Tutorial sehen wir den Rahmen in Aktion und lernen Techniken, um es in Ihren eigenen Projekten anzuwenden.

Beginnen wir!

Warum Langsmith?

Wie ich oben erwähnt habe, ist Langsmith eine umfassende Plattform für die Bewertung von Anwendungen mit großer Sprache. Hier sind einige seiner Merkmale und greifbare reale Vorteile, die sie mitbringen:

schnelles Setup

Programmierer können in Minuten und nicht in Stunden mit Langsmith experimentieren. Dies bedeutet

Qualitätssicherung

Mit strengen Bewertungswerkzeugen können Unternehmen die Verlegenheit und Kosten fehlerhafter KI -Veröffentlichungen vermeiden (wie das Beispiel, das ich in der Einführung gegeben habe). Mit Langsmith können Sie die Ausgabe von LLMs gegen integrierte Kriterien wie Hilfsbereitschaft, Kohärenz, Frauenfeindlichkeit oder sogar benutzerdefinierte Bewertungen in der natürlichen Sprache wie „Ist der Inhalt des Ausgangsklischee?“ Prüfen. Oder enthält die Karte bei der Erzeugung von Karteikarten eine Codierungsfrage? ".

Echtzeitüberwachung und Visualisierung

langsmith verwendet Spuren, um fast jeden Aspekt von LLM -Läufen zu protokollieren. Dazu gehören Metriken wie Latenz, Token -Anzahl, Preispreis und alle Arten von Metadaten. Mit der Web -Benutzeroberfläche können Sie die Ausführungen schnell auf dem Fehlerprozentsatz, der Latenz, dem Datum oder sogar durch Textinhalte unter Verwendung natürlicher Sprache filtern. Dies bedeutet, dass Sie, wenn beispielsweise ein KI -Tutor in seinen Antworten auf tatsächliche Schüler stört, in wenigen Stunden eine Lösung herausschieben können.

Integration in Langchain

Langchain ist das übergeordnete Rahmen von Langsmith, der sich speziell auf die Entwicklungsphase von LLMs konzentriert. Es bietet modulares Software -Design, um mehrere LLMs (Agenten) zu ketten und sie in andere APIs wie YouTube, Google Search usw. zu integrieren. Langsmith ist die Kirsche oben und stellt sicher, dass Prototypen, die mit Langchain gebaut wurden

Schauen Sie sich unsere LLM -Anwendungen mit Langchain Tutorial an, um mehr über Langchain zu erfahren.

Datensätze

Ein weiteres großartiges Merkmal von Langsmith sind Datensätze. Sie können verwendet werden, um die Langchain -Ketten, -Vermittel oder -modelle anhand einer Reihe von standardisierten Beispielen vor dem Einsatz zu verbessern. Zum Beispiel haben wir möglicherweise eine CSV -Datei mit zwei Spalten - Fragen und Antworten für Flitzkarten in einem bestimmten Format.

Durch Konvertieren dieser Datei in einen Referenzdatensatz können wir LLMs anweisen, ihre eigene Ausgabe mithilfe der zuvor genannten Qualitätssicherungsmetriken zu bewerten.

Wir werden jetzt all diese Funktionen anhand von Beispielen eins von einem einzelnen sehen.

llm Application Development Workflow

In der ML-App-Entwicklung sammeln Sie Daten, Zug-, Feinabstimmung, Test- und Einsatzmodelle-die Schritte sind gut definiert. Bei LLM-Apps beginnen Sie jedoch häufig mit einem vorgefertigten Modell eines Verkäufers. Feinabstimmung? Das kann teuer sein. Sie konzentrieren sich also viel darauf, die richtigen Eingabeaufforderungen zu erstellen - es geht darum, Ihre LLM -App die richtigen Fragen zu stellen. Stellen Sie sich vor, Sie benötigen viele Aufforderungen, um Dinge zu testen, genau wie Sie viele Daten für ein gutes ML -Modell benötigen.

Mit Eingabeaufforderungen beschäftigen Sie sich jedoch mit Texten, die ein- und aussteigen, nicht mit Zahlen. Die üblichen Möglichkeiten, Fehler oder Genauigkeit wie MSE oder Cross-Entropy zu messen, funktionieren hier nicht hier. Stellen Sie sich vor, Sie lesen jeden Eingang und jede Ausgabe für die Bewertung - das würde Tage dauern, wenn Sie Tausende von Eingabeaufforderungen zur Bewertung haben.

Sie benötigen also einen Workflow, in dem es darum geht, diese Eingabeaufforderungen effizient zu erstellen und zu testen, um zu sehen, wie gut Ihre LLM -App abschneidet, ohne in manuellen Überprüfungen zu ertrinken. So könnte das aussehen:

1. Entwickeln

In dieser Phase werden Sie das Grundgestein Ihrer Anwendung anhand von Frameworks wie Langchain prototypisieren. Bei einem Projekt mit Flashcard -Generator kann Ihr Prototyp mehrere Komponenten über Ihrem ausgewählten LLM von einem Anbieter enthalten. Zum Beispiel müssen Sie es möglicherweise anketten, um:

  • Retriever: Suchmaschinen -APIs, Web Scrapers
  • Dokumentlader: Dateieingaben - PDF, Text, CSV, JSON, Zwischenablage, YouTube, Suche usw.
  • Chat Loader
  • Vektor speichert
  • Einbettungsmodelle
  • callbacks

und so weiter (siehe, welche Art von Komponenten Sie von dieser Seite von Langchain -Dokumenten hinzufügen können). Sie können jedoch Ihre Entwicklungszeit drastisch verkürzen, indem Sie von Langchain für gemeinsame Aufgaben auf hoher Ebene angeboten werden.

2. Productionize

In dieser Phase testen Sie Ihre Bewerbung an so vielen Szenarien wie möglich. Das bedeutet

Angesichts der LLMs sind nicht deterministisch (sie erzeugen nicht die gleiche Ausgabe für denselben Eingang) und die Komplexität der zusätzlichen Komponenten. Sie werden die meiste Zeit in dieser Phase verbringen. Und Langsmith wurde mit dem einzigen Zweck entwickelt, diese Zeit so kurz wie möglich zu machen. Wir werden dies im gesamten Tutorial mehr diskutieren.

3. Bereitstellen

Sobald Sie eine praktikable Anwendung haben, können Sie sie als REST -API bereitstellen. Eine REST -API wandelt grundsätzlich Ihre vorhandenen Langchain -Ketten oder -Argentäter in HTTPS -Links um, die andere Anfragen zur Interaktion mit Ihrem KI -Modell senden können. Jetzt erstellen Sie die Benutzeroberfläche Ihres Dienstes wie eine Desktop -Anwendung oder häufiger eine Website.

Im Moment gibt es keine einfache Möglichkeit, dies zu tun, aber Langchain -Entwickler sind im Begriff, Langserve zu veröffentlichen, die in Fastapi integriert werden (wie großartig wäre das?). Schauen Sie sich den Sneak Peak von dieser Seite der Dokumentation an.

Lassen Sie uns nun endlich anfangen, an Langsmith zu basteln.

Langsmith -Plattformübersicht

Wir werden mit dem Verständnis der Web -Benutzeroberfläche beginnen. Es ist über Smith.langchain.com Link erhältlich. Für den Zugriff müssen Sie sich anmelden und aus der Warteliste gelöscht werden, da es sich derzeit in geschlossener Beta befindet.

Aber sobald Sie sich befinden, sieht die Zielseite so aus:

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Die beiden Hauptabschnitte sind Projekte und Datensätze und Tests, und beide Abschnitte können über Python SDK manipuliert werden. Die Plattform verfügt auch über Registerkarten für Bereitstellungs- und Annotationswarteschlangen, aber sie sind jenseits des Rahmens dieses Artikels.

Einrichten von Langsmith Python SDK

Die Verwaltung von Projekten in Langsmith ist mit seinem Python SDK, der über einen API -Schlüssel mit der Plattform verbunden ist, viel einfacher.

.

Um einen Schlüssel zu erhalten, klicken Sie auf das Schlüsselsymbol in der Plattform und speichern Sie es an einem sicheren Ort. Erstellen Sie in einem neuen Verzeichnis mit einer neuen virtuellen Umgebung eine .env -Datei. Fügen Sie die folgenden zwei Zeilen ein:
LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"

Führen Sie als nächstes in Ihrem Terminal die folgenden Befehle aus, um Langsmith und Python-dotenv zu installieren, um Umgebungsvariablen zu lesen:
python-dotenv to read environment variables:
pip install -U langsmith
pip install python-dotenv

Jetzt Zeit zum Schreiben von Code:
import warnings

from dotenv import find_dotenv, load_dotenv

warnings.filterwarnings("ignore")

Wir importieren find_dotenv und load_dotenv Funktionen, um Umgebungsvariablen zu lesen, und richten Sie sie mit Betriebssystem ein:
import os

load_dotenv(find_dotenv())
os.environ["LANGCHAIN_API_KEY"] = str(os.getenv("LANGCHAIN_API_KEY"))
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_ENDPOINT"] = "https://api.smith.langchain.com"

Einstellen von Langchain_Tracing_v2 in true ermöglicht die Verfolgung (Protokollierung), was für das Debuggen von LLMs von entscheidender Bedeutung ist. Anschließend initialisieren wir einen Kunden, um mit der Langsmith -Plattform zu sprechen:
from langsmith import Client

# Initialize a client
client = Client()

Client enthält Befehle auf hoher Ebene, um Projekte und Vermögenswerte in Langsmith zu manipulieren. Der erste Befehl des Clients, den wir verwenden werden, ist das Erstellen eines neuen Projekts:
import uuid

# Create id
uid = uuid.uuid4()
# Create a unique name
PROJECT_NAME = "flashcards-generator-" + str(uid)
# Create the project
session = client.create_project(
   project_name=PROJECT_NAME,
   description="A project that generates flashcards from user input",
)

Nach erfolgreicher Ausführungen create_project sehen Sie das Projekt im Abschnitt Projekte der Web -Benutzeroberfläche:

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Als nächstes müssen wir das neue Projekt als Standard mit einer anderen Umgebungsvariablen festlegen:
os.environ["LANGCHAIN_PROJECT"] = PROJECT_NAME

Jetzt brauchen wir ein LLM für unser Projekt. Wir werden mit GPT-3,5 Turbo gehen, da es billiger ist, aber Sie können viele andere Modelle verwenden, die über Langchain verfügbar sind. OpenAI -Modelle werden über die Chatopenai -Klasse initialisiert.
from langchain.chat_models import ChatOpenAI

llm = ChatOpenAI()  # Uses gpt-3.5-turbo by default

Lassen Sie uns unseren ersten Lauf machen:
LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"

Wenn Sie das Projekt von der Benutzeroberfläche schnell überprüfen, sehen Sie den oben genannten Lauf (protokolliert):

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Wenn wir die Umgebungsvariablen und den Client eingerichtet haben, haben wir automatisch die Protokollierung aktiviert. Wie Sie sehen können, haben wir bereits ein paar Metadaten über den Lauf.

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Lassen Sie uns ein paar weitere Eingabeaufforderungen ausführen:

python-dotenv to read environment variables:
pip install -U langsmith
pip install python-dotenv

Wir können bereits einen grundlegenden Textübersichtszusatz erstellen. Fassen wir die Ausgabe des letzten Laufs zusammen:

import warnings

from dotenv import find_dotenv, load_dotenv

warnings.filterwarnings("ignore")

Großartig, jetzt ist es Zeit, unseren ersten Datensatz zu erstellen.

Erstellen eines nicht makellosen Datensatzes in Langsmith

Wie ich im Abschnitt „LLM Application Development Workflow“ erwähnt habe, müssen Sie wahrscheinlich Tausende von Eingabeaufforderungen erstellen oder sammeln, um Ihr LLM -Modell, Ihre Kette oder Ihr Agent zu bewerten. Es ist also keine beste Praxis, diese einzeln zu laufen, wie oben,

.

Aus diesem Grund bietet Langsmith Datensätze in drei Typen an:
  • Schlüsselwert (KV)-Standard: Definiert Eingaben als beliebige Schlüsselwertpaare. Sie sind nützlich, wenn Sie Ketten und Wirkstoffe bewerten, die mehrere Eingaben benötigen oder mehrere Ausgänge zurückgeben.
  • LLM -Datensätze (LLM): Eingänge und Ausgänge werden in "Abschlussstil" von LLMS - String in, String Out.
  • definiert.
CHAT -Datensätze (CHAT): Dies sind Datensätze, die aus LLM -Chats konvertiert und mit strukturierten Eingängen und serialisierten Nachrichten definiert wurden.

import os

load_dotenv(find_dotenv())
os.environ["LANGCHAIN_API_KEY"] = str(os.getenv("LANGCHAIN_API_KEY"))
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_ENDPOINT"] = "https://api.smith.langchain.com"
Erstellen wir zuerst, wie Sie einen Schlüsselwertdatensatz ohne Ausgänge erstellen. Wir werden die Funktion create_dataset des Clients verwenden:

from langsmith import Client

# Initialize a client
client = Client()
Fügen wir nun drei Eingänge hinzu, die jeweils das LLM auffordern, eine einzelne FlashCard zu erstellen:

Wenn Sie die Registerkarte "Dataset der Benutzeroberfläche" überschreiten, sehen Sie jede Eingabeaufforderung, die mit Nullausgabe aufgeführt ist: Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

import uuid

# Create id
uid = uuid.uuid4()
# Create a unique name
PROJECT_NAME = "flashcards-generator-" + str(uid)
# Create the project
session = client.create_project(
   project_name=PROJECT_NAME,
   description="A project that generates flashcards from user input",
)
Führen Sie nun alle Eingabeaufforderungen in einer einzelnen Codezeile mit Run_on_dataset -Funktion:

aus:

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith Sobald der Lauf fertig ist, wird er auf der Datensatzseite aufgeführt. So sieht es aus:

Wir haben gerade einen Test ausgeführt, der auf einem nicht morschenden Datensatz ausgeführt wurde - einen Datensatz mit Beispielaufforderungen, aber keine Beispielausgaben. Unser Test hat einfach eine Antwort auf jede Eingabeaufforderung hervorgerufen, aber nichts bewertet. Aber wir möchten grundlegende Überprüfungen wie "Ist die Ausgabe hilfreich?" oder "Ist die Antwort kurz oder lang"?

Langsmith ermöglicht es uns, solche Kontrollen mit integrierten Bewertern durchzuführen.

Bewertung von LLMs in Langsmith Um mit den drei Eingabeaufforderungen, die wir in unserem Datensatz haben, ausführen, können wir die Runevalconfig -Klasse verwenden:
LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"

oben definieren wir zwei Kriterien in einer Liste namens Evaluatoren. Wir übergeben diese Evaluatoren an den Evaluierungsparameter der Funktion run_on_dataset:

python-dotenv to read environment variables:
pip install -U langsmith
pip install python-dotenv

run_on_dataset ist eine hilfreiche Funktion, um alle Eingabeaufforderungen in einem Datensatz mit dem bereitgestellten LLM auszuführen und jede Art von Bewertung im laufenden Fliegen durchzuführen. Die Ergebnisse sind auf der dedizierten Seite jedes Datensatzes sichtbar:

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Diesmal hat der Lauf für jede Eingabeaufforderung Kohärenz- und Zuverlässigkeitsmetriken. Unten sehen Sie auch eine durchschnittliche Punktzahl für jede Metrik.

Um die Liste aller integrierten Kriterien anzuzeigen, führen Sie den folgenden Snippet aus:

import warnings

from dotenv import find_dotenv, load_dotenv

warnings.filterwarnings("ignore")

Verfassen benutzerdefinierte Evaluatoren in Langsmith für nicht markierte Datensätze

Natürlich können nicht alle LLM -Anwendungsfälle mit grundlegenden Evaluatoren überprüft werden. Beispielsweise gibt es keinen Bewerter, der überprüft, ob eine FlashCard eine Codierungsfrage enthält oder nicht. Also definieren wir es besser:

import os

load_dotenv(find_dotenv())
os.environ["LANGCHAIN_API_KEY"] = str(os.getenv("LANGCHAIN_API_KEY"))
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_ENDPOINT"] = "https://api.smith.langchain.com"

Um eine benutzerdefinierte Kriterien mit natürlicher Sprache zu übergeben, übergeben wir einfach {"criteria_name": "Bedingung zu überprüfen"} an die Kriterienklasse. Oben erstellen wir zwei zusätzliche Evaluatoren, sodass Langsmith zwei zusätzliche Eingabeaufforderungen auf der Ausgabe ausführt, die von den Eingabeaufforderungen in unserem Datensatz erstellt wurden:

from langsmith import Client

# Initialize a client
client = Client()

Wenn Sie sich den Lauf ansehen, sehen Sie die benutzerdefinierten Kriterien, die wir unter jeder Eingabeaufforderung definiert haben. Wenn Sie umgehen, erhalten Sie nach:

die Argumentation des LLM

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Durch Überprüfen der Bewertungsergebnisse für alle Eingabeaufforderungen werden Sie feststellen, dass unsere Kriterien nicht wie erwartet bewertet werden. Hier ist also etwas zu berücksichtigen-Sie müssen auch Ihre Kriterien einschalten, um sicherzustellen, dass sie die richtigen Dinge überprüfen.

Erstellen beschrifteter Datensätze

Manchmal beschließen Sie möglicherweise, einen Datensatz mit Eingabeaufforderungen mit erwarteten Ausgängen zu erstellen, z. B. beschriftete Datensätze. Sie können gekennzeichnete Datensätze in verschiedenen Formaten erstellen, aber die häufigste ist eine CSV -Datei. Zum Beispiel ist hier eine Datei, die ich mit ChatGPT generiert habe, die fünf Fragen zur Pytorch -Syntax enthält:

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Um einen Datensatz daraus zu erstellen, können wir die Funktion upload_csv verwenden:

import uuid

# Create id
uid = uuid.uuid4()
# Create a unique name
PROJECT_NAME = "flashcards-generator-" + str(uid)
# Create the project
session = client.create_project(
   project_name=PROJECT_NAME,
   description="A project that generates flashcards from user input",
)

Die Funktion enthält drei erforderliche Parameter: CSV -Pfad und die Namen der Eingangs-/Ausgangsspalten. Sobald das Upload beendet ist, wird der Datensatz in der Benutzeroberfläche angezeigt:

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Führen Sie unser benutzerdefiniertes Kriterium auch aus dem vorherigen Abschnitt in diesem Datensatz aus:

os.environ["LANGCHAIN_PROJECT"] = PROJECT_NAME

Wenn Sie zur Datensatzseite gehen und den Lauf überprüfen, können wir die durchschnittlichen Punkte für jedes benutzerdefinierte Kriterium sehen:

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Bewertung gekennzeichneter Datensätze

integrierte und benutzerdefinierte Evaluatoren, die in der natürlichen Sprache geschrieben wurden, sind hauptsächlich für unbezeichnete Datensätze bestimmt. Für gekennzeichnete Datensätze wie den von uns hochgeladenen CSV -Datensatz bietet Langsmith umfassendere Evaluatoren für die Messung der Richtigkeit der Antwort auf eine Eingabeaufforderung:

  • context_qa (Kontext -Q & A): Verwendet die Beispielausgabe als Kontext, während die Korrektheit
  • bewertet wird
  • QA (Q & A): Weisen Sie LLM an, eine Antwort direkt als "korrekt" oder "falsch" mit der Referenzausgabe
  • zu bewerten.
  • coT_QA (Q & A): ähnlich wie context_qa, aber dieser Bewerter zwingt die LLM, die Kette des Gedankens zu verwenden, bevor ein Urteil erreicht ist.

Versuchen wir den letzten in unseren Beispielen:
LANGCHAIN_API_KEY="LangSmith-API-key"
OPENAI_API_KEY="Your-OPENAI-key"

COTQA -Kriterium gibt eine Punktzahl namens Kontextgenauigkeit zurück, wie im GIF unten dargestellt (auch in der Benutzeroberfläche):

Eine Einführung in das Debugging und das Testen von LLMs in Langsmith

Bitte besuchen Sie den Abschnitt Langchain Evaluatoren von Langsmith Docs, um viel mehr über Bewerter zu erfahren.

Schlussfolgerung

Wenn Sie nach dem Lesen dieses Tutorials den Eindruck haben, dass Langsmith wirklich nur ein komplexes Werkzeug für die schnelle Technik ist, haben Sie richtig! Derzeit ist Langsmith das beste Framework, um sicherzustellen, dass die Anweisungen und Ausgänge von LLMs tatsächlich das sind, was Sie wollen.

Sie müssen auch die Anstrengungen erkannt haben, die zum Aufbau von LLM-Anwendungen für Produktionsgröße erforderlich sind. Verwenden Sie also Langsmith für eine glattere Erfahrung, während Sie an LLM -Projekten arbeiten.

Wenn einige der Konzepte in Langsmith keinen Sinn hatten, haben Sie möglicherweise einige Grundlagen in Langchain. Hier sind einige Ressourcen dazu:
  • Intro nach Langchain für Data Engineering
  • bauen kontextbezogene Chatbots in Langchain
  • bauen
  • Einlaufende Engineering in Langchain
  • So erstellen Sie LLM -Anwendungen mit Langchain
  • Langchain docs
langsmith docs

Das obige ist der detaillierte Inhalt vonEine Einführung in das Debugging und das Testen von LLMs in Langsmith. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Die KI -Spielentwicklung tritt mit dem Dreamer -Portal von Upheaval in seine agentenische Ära einDie KI -Spielentwicklung tritt mit dem Dreamer -Portal von Upheaval in seine agentenische Ära einMay 02, 2025 am 11:17 AM

Umwälzungsspiele: Revolutionierung der Spielentwicklung mit KI -Agenten Upprudaval, ein Studio für Spieleentwicklung, das aus Veteranen von Branchengiganten wie Blizzard und Obsidian besteht

Uber will dein Robotaxi -Shop sein. Werden Anbieter sie lassen?Uber will dein Robotaxi -Shop sein. Werden Anbieter sie lassen?May 02, 2025 am 11:16 AM

Die Robotaxi-Strategie von Uber: Ein Fahrwerk Ökosystem für autonome Fahrzeuge Auf der jüngsten Curbivore-Konferenz stellte Richard Willder von Uber ihre Strategie vor, die Robotaxi-Anbieter zu werden. Nutzung ihrer dominanten Position in

KI -Agenten, die Videospiele spielen, werden zukünftige Roboter verändernKI -Agenten, die Videospiele spielen, werden zukünftige Roboter verändernMay 02, 2025 am 11:15 AM

Videospiele erweisen sich als unschätzbare Testgründe für die modernste KI-Forschung, insbesondere bei der Entwicklung autonomer Agenten und realer Roboter, die möglicherweise sogar zum Streben nach künstlicher allgemeiner Intelligenz (AGI) beitragen. A

Der Startup Industrial Complex, VC 3.0 und James Curriers ManifestoDer Startup Industrial Complex, VC 3.0 und James Curriers ManifestoMay 02, 2025 am 11:14 AM

Die Auswirkungen der sich entwickelnden Risikokapitallandschaft sind in Medien, Finanzberichten und alltäglichen Gesprächen offensichtlich. Die spezifischen Konsequenzen für Anleger, Startups und Mittel werden jedoch häufig übersehen. Risikokapital 3.0: ein Paradigma

Adobe Updates Creative Cloud und Firefly bei Adobe Max London 2025Adobe Updates Creative Cloud und Firefly bei Adobe Max London 2025May 02, 2025 am 11:13 AM

Adobe Max London 2025 lieferte erhebliche Aktualisierungen für Creative Cloud und Firefly, was eine strategische Verlagerung in Richtung Zugänglichkeit und generativer KI widerspiegelt. Diese Analyse enthält Erkenntnisse aus Briefings vor der Ereignis mit Adobe Leadership. (Hinweis: Adob

Alles, was Meta in Lamacon angekündigt hatAlles, was Meta in Lamacon angekündigt hatMay 02, 2025 am 11:12 AM

Die Lamacon-Ankündigungen von Meta zeigen eine umfassende KI-Strategie, die direkt mit geschlossenen KI-Systemen wie OpenAIs konkurrieren und gleichzeitig neue Einnahmequellen für seine Open-Source-Modelle erstellt. Dieser vielfältige Ansatz zielt auf BO ab

Die Brau -Kontroverse über den Vorschlag, dass KI nichts anderes ist als nur normale TechnologieDie Brau -Kontroverse über den Vorschlag, dass KI nichts anderes ist als nur normale TechnologieMay 02, 2025 am 11:10 AM

Es gibt schwerwiegende Unterschiede im Bereich der künstlichen Intelligenz zu dieser Schlussfolgerung. Einige bestehen darauf, dass es Zeit ist, die "neuen Kleidung des Kaisers" aufzudecken, während andere der Idee, dass künstliche Intelligenz nur gewöhnliche Technologie ist, stark aussieht. Lassen Sie uns darüber diskutieren. Eine Analyse dieses innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -Spalte, die die neuesten Fortschritte im Bereich der KI abdeckt, einschließlich der Identifizierung und Erklärung einer Vielzahl einflussreicher KI -Komplexitäten (klicken Sie hier, um den Link anzuzeigen). Künstliche Intelligenz als gemeinsame Technologie Erstens sind einige Grundkenntnisse erforderlich, um die Grundlage für diese wichtige Diskussion zu schaffen. Derzeit gibt es eine große Menge an Forschungen, die sich zur Weiterentwicklung künstlicher Intelligenz widmen. Das Gesamtziel ist es, künstliche allgemeine Intelligenz (AGI) und sogar mögliche künstliche Super Intelligence (AS) zu erreichen

Model -Bürger, warum KI -Wert der nächste Business -Maßstab istModel -Bürger, warum KI -Wert der nächste Business -Maßstab istMay 02, 2025 am 11:09 AM

Die Effektivität des KI -Modells eines Unternehmens ist jetzt ein wichtiger Leistungsindikator. Seit dem KI -Boom wurde generative KI für alles verwendet, vom Komponieren von Geburtstagseinladungen bis zum Schreiben von Softwarecode. Dies hat zu einer Verbreitung von Sprachmod geführt

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Dreamweaver Mac

Dreamweaver Mac

Visuelle Webentwicklungstools

WebStorm-Mac-Version

WebStorm-Mac-Version

Nützliche JavaScript-Entwicklungstools

MinGW – Minimalistisches GNU für Windows

MinGW – Minimalistisches GNU für Windows

Dieses Projekt wird derzeit auf osdn.net/projects/mingw migriert. Sie können uns dort weiterhin folgen. MinGW: Eine native Windows-Portierung der GNU Compiler Collection (GCC), frei verteilbare Importbibliotheken und Header-Dateien zum Erstellen nativer Windows-Anwendungen, einschließlich Erweiterungen der MSVC-Laufzeit zur Unterstützung der C99-Funktionalität. Die gesamte MinGW-Software kann auf 64-Bit-Windows-Plattformen ausgeführt werden.

EditPlus chinesische Crack-Version

EditPlus chinesische Crack-Version

Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

SAP NetWeaver Server-Adapter für Eclipse

SAP NetWeaver Server-Adapter für Eclipse

Integrieren Sie Eclipse mit dem SAP NetWeaver-Anwendungsserver.