suchen
HeimBackend-EntwicklungGolangZählen der Anzahl der an ein LLM in Go gesendeten Token (Teil 1)

Counting the number of Tokens sent to a LLM in Go (part 1)

Einführung

Vor ein paar Wochen hatte ich eine Diskussion mit einem CFO eines Geschäftspartnerunternehmens über die Implementierung von watsonx.ai-Kapazitäten in deren eigener Lösung. Während der Diskussion über die Kosten habe ich das Wort „Token“ ausgesprochen und plötzlich herrschte Panik ?

Nachdem ich erklärt hatte, was Token sind, kam die Frage: „Wie zähle ich die Token, die wir senden und empfangen? Wie viel kostet es uns?“

Die Antwort war ganz einfach. Wir gingen zum watsonx.ai Studio Prompt Lab, gingen mit einigen einfachen Prompts hin und her und sahen dort die Anzahl der Token. Ich habe der Person auch einige sehr schöne Websites gezeigt, auf denen wir mithilfe einfacher Eingaben herausfinden können, wie viele Token wir an ein LLM senden.

Später habe ich mir gesagt, warum erstelle ich nicht meine eigene Token-Counter-Anwendung (und meine Absicht ist es, sie in Go-Sprache zu schreiben, da ich Golang schon lange nicht mehr verwendet habe!). Nun, ich dachte, es ist etwas komplizierter?

Erster Versuch – Verwendung von Regex

Mein erster Gedanke war, dass ich mit Regex mehr oder weniger akzeptable Ergebnisse erzielen könnte.

Ich habe die folgende Go-App eingerichtet.

package main

import (
    "bufio"
    "fmt"
    "log"
    "os"
    "regexp"
    "strings"

    "github.com/sqweek/dialog"
)

// countTokens approximates the number of tokens in a text based on whitespace and punctuation.
func countTokens(text string) int {
    // A simple regex to split text into words and punctuation
    tokenizer := regexp.MustCompile(`\w+|[^\w\s]`)
    tokens := tokenizer.FindAllString(text, -1)
    return len(tokens)
}

func main() {

    // Open a file dialog box and let the user select a text file
    filePath, err := dialog.File().Filter("Text Files", "txt").Load()
    if err != nil {
        if err.Error() == "Cancelled" {
            fmt.Println("File selection was cancelled.")
            return
        }
        log.Fatalf("Error selecting file: %v", err)
    }

    // Output the selected file name
    fmt.Printf("Selected file: %s\n", filePath)

    // Specify the file to read
    //filePath := "input.txt"

    // Open the file
    file, err := os.Open(filePath)
    if err != nil {
        fmt.Printf("Error opening file: %v\n", err)
        return
    }
    defer file.Close()

    // Read the file line by line
    var content strings.Builder
    scanner := bufio.NewScanner(file)
    for scanner.Scan() {
        content.WriteString(scanner.Text())
        content.WriteString("\n")
    }

    if err := scanner.Err(); err != nil {
        fmt.Printf("Error reading file: %v\n", err)
        return
    }

    // Get the text content
    text := content.String()

    // Count the tokens
    tokenCount := countTokens(text)

    // Output the result
    fmt.Printf("The file contains approximately %d tokens.\n", tokenCount)
}

Sie werden feststellen, dass ich ein Fan von GUI und Dialogfeldern bin, deshalb habe ich ein Dialogfeld implementiert, um die Eingabetextdatei auszuwählen.

Und hier ist die Textdatei (ein zufälliger Text, den ich gefunden habe?).

The popularity of the Rust language continues to explode; yet, many critical codebases remain authored in C, and cannot be realistically rewritten by hand. Automatically translating C to Rust is thus an appealing course of action. Several works have gone down this path, handling an ever-increasing subset of C through a variety of Rust features, such as unsafe. While the prospect of automation is appealing, producing code that relies on unsafe negates the memory safety guarantees offered by Rust, and therefore the main advantages of porting existing codebases to memory-safe languages.
We instead explore a different path, and explore what it would take to translate C to safe Rust; that is, to produce code that is trivially memory safe, because it abides by Rust's type system without caveats. Our work sports several original contributions: a type-directed translation from (a subset of) C to safe Rust; a novel static analysis based on "split trees" that allows expressing C's pointer arithmetic using Rust's slices and splitting operations; an analysis that infers exactly which borrows need to be mutable; and a compilation strategy for C's struct types that is compatible with Rust's distinction between non-owned and owned allocations.
We apply our methodology to existing formally verified C codebases: the HACL* cryptographic library, and binary parsers and serializers from EverParse, and show that the subset of C we support is sufficient to translate both applications to safe Rust. Our evaluation shows that for the few places that do violate Rust's aliasing discipline, automated, surgical rewrites suffice; and that the few strategic copies we insert have a negligible performance impact. Of particular note, the application of our approach to HACL* results in a 80,000 line verified cryptographic library, written in pure Rust, that implements all modern algorithms - the first of its kind.

Nachdem ich meinen Code ausgeführt habe, erhalte ich die folgende Ausgabe:

The file contains approximately 359 tokens.

Es scheint in Ordnung zu sein, aber, na ja... okay, aber... gegen welches Modell?? Und es gibt auch verschiedene Möglichkeiten, Regex zu implementieren, also zählt diese überhaupt nicht?!

Zweiter Versuch – gegen ein bestimmtes Modell antreten

Was ich herausgefunden habe, war, dass die erstere Methode nicht korrekt ist, es sei denn, wir verwenden nicht den spezifischen „Tokenizer“ für ein bestimmtes LLM. Also begann ich zu überlegen, wie ich mit einem Modell wie GPT 3.5, das schon seit einiger Zeit auf dem Markt ist, genaue Ergebnisse erzielen kann. Nach einigen Recherchen im Internet kam hier die App heraus, die ich mir ausgedacht habe.

package main

import (
 "bufio"
 "bytes"
 "fmt"
 "log"
 "os"
 "os/exec"

 "github.com/joho/godotenv"
 "github.com/sqweek/dialog"
)

func main() {


 // Open a file dialog box and let the user select a text file
 filePath, err := dialog.File().Filter("Text Files", "txt").Load()
 if err != nil {
  if err.Error() == "Cancelled" {
   fmt.Println("File selection was cancelled.")
   return
  }
  log.Fatalf("Error selecting file: %v", err)
 }

 // Output the selected file name
 fmt.Printf("Selected file: %s\n", filePath)

 // Open the file
 file, err := os.Open(filePath)
 if err != nil {
  fmt.Printf("Error opening file: %v\n", err)
  return
 }
 defer file.Close()

 // Read the file content
 var content bytes.Buffer
 scanner := bufio.NewScanner(file)
 for scanner.Scan() {
  content.WriteString(scanner.Text())
  content.WriteString("\n")
 }

 if err := scanner.Err(); err != nil {
  fmt.Printf("Error reading file: %v\n", err)
  return
 }

 // Specify the model
 model := "gpt-3.5-turbo"

 // Execute the Python script
 cmd := exec.Command("python3", "tokenizer.py", model)
 cmd.Stdin = bytes.NewReader(content.Bytes())
 output, err := cmd.Output()
 if err != nil {
  fmt.Printf("Error running tokenizer script: %v\n", err)
  return
 }

 // Print the token count
 fmt.Printf("Token count: %s", output)
}

Wie wir im obigen Code sehen können, gibt es einen Aufruf einer Python-App, die ich auf einer Microsoft-Website gefunden habe und die (weil sie implementiert wurde) ein „tiktoken“-Bibliothek, um die Anzahl der Token für gpt zu ermitteln! Auch der Modellname ist fest codiert.

import sys
from tiktoken import encoding_for_model

def count_tokens(model, text):
    enc = encoding_for_model(model)
    tokens = enc.encode(text)
    return len(tokens)

if __name__ == "__main__":
    # Read model name and text from stdin
    model = sys.argv[1]  # E.g., "gpt-3.5-turbo"
    text = sys.stdin.read()
    print(count_tokens(model, text))
Das funktioniert gut. Für denselben zuvor angegebenen Text erhalte ich nun die Anzahl von 366 Token, die korrekt ist, und zwar in Bezug auf alle Websites, die ich gefunden habe und auf denen ich das Modell auf

GPT 3.5 eingestellt habe.

Ich möchte einen Code schreiben, der vollständig in „Golang“ ist … und ich möchte ihn für alle Modelle (oder fast alle) ausführen können, die ich auf Huggingface finden kann (z. B als ibm-granite/granite-3.1–8b-instruct) ?

Dies wäre Teil 2 dieses Artikels (WIP).

Bisher erkunde ich die folgenden (großartig?) Github Repos;

  • Tokenizer: https://github.com/sugarme/tokenizer
  • Tokenizer: https://github.com/daulet/tokenizers
  • Und zu guter Letzt -> go-huggingface: https://github.com/gomlx/go-huggingface?tab=readme-ov-file

Abschluss

Danke fürs Lesen und offen für Kommentare.

Und bis die 2. App draußen ist, bleiben Sie dran... ?

Das obige ist der detaillierte Inhalt vonZählen der Anzahl der an ein LLM in Go gesendeten Token (Teil 1). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Implementierung von Mutexes und Sperren in GO für Thread -SicherheitImplementierung von Mutexes und Sperren in GO für Thread -SicherheitMay 05, 2025 am 12:18 AM

In Go ist die Verwendung von Mutexes und Schlössern der Schlüssel zur Gewährleistung der Gewindesicherheit. 1) Verwenden Sie Sync.Mutex zum gegenseitig ausschließenden Zugriff, 2) Verwenden Sie Sync.rwmutex für Lese- und Schreibvorgänge, 3) Atomoperationen zur Leistungsoptimierung verwenden. Das Beherrschen dieser Tools und deren Verwendungsfähigkeiten ist für das Schreiben effizienter und zuverlässiger gleichzeitiger Programme von wesentlicher Bedeutung.

Benchmarking und Profilerstellung gleichzeitiger Go -CodeBenchmarking und Profilerstellung gleichzeitiger Go -CodeMay 05, 2025 am 12:18 AM

Wie optimieren Sie die Leistung des gleichzeitigen Go -Code? Verwenden Sie die integrierten Tools von Go Getest, Gernch und PPROF für Benchmarking und Leistungsanalyse. 1) Verwenden Sie das Testpaket, um Benchmarks zu schreiben, um die Ausführungsgeschwindigkeit gleichzeitiger Funktionen zu bewerten. 2) Verwenden Sie das PPROF -Tool, um die Leistungsanalyse durchzuführen und Engpässe im Programm zu identifizieren. 3) Passen Sie die Einstellungen für die Müllsammlung an, um die Auswirkungen auf die Leistung zu verringern. 4) Optimieren Sie den Kanalbetrieb und begrenzen Sie die Anzahl der Goroutinen, um die Effizienz zu verbessern. Durch kontinuierliches Benchmarking und Leistungsanalyse kann die Leistung des gleichzeitigen GO -Codes effektiv verbessert werden.

Fehlerbehandlung in gleichzeitigen GO -Programmen: Vermeiden Sie gemeinsame FallstrickeFehlerbehandlung in gleichzeitigen GO -Programmen: Vermeiden Sie gemeinsame FallstrickeMay 05, 2025 am 12:17 AM

Methoden zur Vermeidung häufiger Fallstricke der Fehlerbehandlung in gleichzeitigen GO -Programmen umfassen: 1. Fehlervermehrung, 2. Timeout, 3. Aggregationsfehler, 4. Kontextverwaltung verwenden, 5. Fehlerverpackung, 6. Protokollierung, 7. Testen. Diese Strategien tragen dazu bei, Fehler in gleichzeitigen Umgebungen effektiv zu behandeln.

Implementierung der implizite Schnittstelle in GO: Die Kraft der Enten -TypisierungImplementierung der implizite Schnittstelle in GO: Die Kraft der Enten -TypisierungMay 05, 2025 am 12:14 AM

ImplicitInterfaceImplementationingoMbodiesDucktyPingByAlleWingTypestosAnterfacesWitHoutePicitDeclaration.1) ITpromotesFlexibilitätsmodularitätsByfocusingonBehavior.2) ChallengeSIncludeupdatingMethodSignaturesandtrackingImplementierungen.3) Tools

GO -Fehlerbehandlung: Best Practices und MusterGO -Fehlerbehandlung: Best Practices und MusterMay 04, 2025 am 12:19 AM

In der Go-Programmierung sind Möglichkeiten zur effektiven Verwaltung von Fehlern zu gehören: 1) Verwendung von Fehlerwerten anstelle von Ausnahmen, 2) Verwendung von Fehlerverpackungstechniken, 3) Definieren von benutzerdefinierten Fehlertypen, 4) Wiederverwendung von Fehlerwerten für die Leistung, 5) unter Verwendung von Panik und Erholung mit Vorsicht, 6), dass Fehlermeldungen klar und konsistent sind, 7) Fehlerbehandlungsstrategien, 8). Diese Praktiken und Muster helfen dabei, robusteren, wartbaren und effizienteren Code zu schreiben.

Wie implementieren Sie Parallelität in Go?Wie implementieren Sie Parallelität in Go?May 04, 2025 am 12:13 AM

Die Implementierung der Parallelität in GO kann durch die Verwendung von Goroutinen und Kanälen erreicht werden. 1) Verwenden Sie Goroutines, um parallel auf Aufgaben wie Musik zu genießen und Freunde gleichzeitig im Beispiel zu beobachten. 2) Übertragen Sie Daten zwischen Goroutinen über Kanäle wie Hersteller- und Verbrauchermodelle sicher. 3) Vermeiden Sie den übermäßigen Gebrauch von Goroutinen und Deadlocks und entwerfen Sie das System vernünftigerweise, um gleichzeitige Programme zu optimieren.

Aufbau gleichzeitiger Datenstrukturen in GoAufbau gleichzeitiger Datenstrukturen in GoMay 04, 2025 am 12:09 AM

GooffersmultipleApproachesforbuildingConcurrentdatastruten, einschließlich Mutexes, Kanäle, Andatomikoperationen.1) mutexesSimpletheadsafetyButcancauSePerformanceBottlenecks.2) Kanäle und AchtelitätButMaybulformapty.3) AtomicoperationsArlabilitybutMayBlormapty.3) AtomicoperationsAreeFloreffullormape.3) AtomicoperationssArefulierungen

Vergleich des Fehlers von Go mit anderen ProgrammiersprachenVergleich des Fehlers von Go mit anderen ProgrammiersprachenMay 04, 2025 am 12:09 AM

Go'SErrorHandlingisexplicit, behandelndeRorsasRekturnedValuesRatherthanexceptions, im Gegensatz zu Pythonandjava.1) Go'sApproACHENSERRORAWARNINESSINESSBUTCANSEADTOVERBOSECODE.2) PythonandjavausexceptionsforclowcodeButMercodeButMaymaysButMaymaymakemisrors.3) go'smetrownrownowsbutMaymaysButMaymaymaysErrors.3) go'smetrownrownowsbutMaymaysButMaymaysButMaymaymaysErors.3) GO'SmodpscodeButMoStesButMaymaysButMaymaysButMaymaysButMaymaymaymakernrors

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

WebStorm-Mac-Version

WebStorm-Mac-Version

Nützliche JavaScript-Entwicklungstools

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

mPDF

mPDF

mPDF ist eine PHP-Bibliothek, die PDF-Dateien aus UTF-8-codiertem HTML generieren kann. Der ursprüngliche Autor, Ian Back, hat mPDF geschrieben, um PDF-Dateien „on the fly“ von seiner Website auszugeben und verschiedene Sprachen zu verarbeiten. Es ist langsamer und erzeugt bei der Verwendung von Unicode-Schriftarten größere Dateien als Originalskripte wie HTML2FPDF, unterstützt aber CSS-Stile usw. und verfügt über viele Verbesserungen. Unterstützt fast alle Sprachen, einschließlich RTL (Arabisch und Hebräisch) und CJK (Chinesisch, Japanisch und Koreanisch). Unterstützt verschachtelte Elemente auf Blockebene (wie P, DIV),

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen