Einführung
Dies ist der zweite Teil der Arbeit zum Schreiben einer Go-Anwendung, um die Anzahl der Token zu bestimmen, die ein Benutzer basierend auf einem ausgewählten Text an ein LLM sendet.
Im vorherigen Artikel habe ich erwähnt, dass ich etwas erstellen möchte, das nur in Golang geschrieben ist, und unter den Github-Repositories, die ich mir angesehen habe, scheint dieses wirklich gut zu sein: go-hggingface. Der Code scheint sehr neu zu sein, funktioniert aber bei mir „irgendwie“.
Durchführung
Zuerst greift der Code auf Hugginface zu, um die Liste aller „Tokenizer“ zu erhalten, die zu einem LLM gehören, sodass der Benutzer über einen HF-Token verfügen sollte. Also habe ich mein Token wie gezeigt in eine .env-Datei eingefügt.
HF_TOKEN="your-huggingface-token"
Dann habe ich anhand des Beispiels auf der folgenden Seite (https://github.com/gomlx/go-huggingface?tab=readme-ov-file) meinen eigenen Code darum herum erstellt.
package main import ( "bytes" "fmt" "log" "os" "os/exec" "runtime" "github.com/gomlx/go-huggingface/hub" "github.com/gomlx/go-huggingface/tokenizers" "github.com/joho/godotenv" "github.com/sqweek/dialog" "fyne.io/fyne/v2" "fyne.io/fyne/v2/app" "fyne.io/fyne/v2/container" "fyne.io/fyne/v2/widget" //"github.com/inancgumus/scree" ) var ( // Model IDs we use for testing. hfModelIDs = []string{ "ibm-granite/granite-3.1-8b-instruct", "meta-llama/Llama-3.3-70B-Instruct", "mistralai/Mistral-7B-Instruct-v0.3", "google/gemma-2-2b-it", "sentence-transformers/all-MiniLM-L6-v2", "protectai/deberta-v3-base-zeroshot-v1-onnx", "KnightsAnalytics/distilbert-base-uncased-finetuned-sst-2-english", "KnightsAnalytics/distilbert-NER", "SamLowe/roberta-base-go_emotions-onnx", } ) func runCmd(name string, arg ...string) { cmd := exec.Command(name, arg...) cmd.Stdout = os.Stdout cmd.Run() } func ClearTerminal() { switch runtime.GOOS { case "darwin": runCmd("clear") case "linux": runCmd("clear") case "windows": runCmd("cmd", "/c", "cls") default: runCmd("clear") } } func FileSelectionDialog() string { // Open a file dialog box and let the user select a text file filePath, err := dialog.File().Filter("Text Files", "txt").Load() if err != nil { if err.Error() == "Cancelled" { fmt.Println("File selection was cancelled.") } log.Fatalf("Error selecting file: %v", err) } // Output the selected file name fmt.Printf("Selected file: %s\n", filePath) return filePath } func main() { var filePath string // read the '.env' file err := godotenv.Load() if err != nil { log.Fatal("Error loading .env file") } // get the value of the 'HF_TOKEN' environment variable hfAuthToken := os.Getenv("HF_TOKEN") if hfAuthToken == "" { log.Fatal("HF_TOKEN environment variable is not set") } // to display a list of LLMs to determine the # of tokens later on regarding the given text var llm string = "" var modelID string = "" myApp := app.New() myWindow := myApp.NewWindow("Select a LLM in the list") items := hfModelIDs // Label to display the selected item selectedItem := widget.NewLabel("Selected LLM: None") // Create a list widget list := widget.NewList( func() int { // Return the number of items in the list return len(items) }, func() fyne.CanvasObject { // Template for each list item return widget.NewLabel("Template") }, func(id widget.ListItemID, obj fyne.CanvasObject) { // Update the template with the actual data obj.(*widget.Label).SetText(items[id]) }, ) // Handle list item selection list.OnSelected = func(id widget.ListItemID) { selectedItem.SetText("Selected LLM:" + items[id]) llm = items[id] } // Layout with the list and selected item label content := container.NewVBox( list, selectedItem, ) // Set the content of the window myWindow.SetContent(content) myWindow.Resize(fyne.NewSize(300, 400)) myWindow.ShowAndRun() ClearTerminal() fmt.Printf("Selected LLM: %s\n", llm) ////// //List files for the selected model for _, modelID := range hfModelIDs { if modelID == llm { fmt.Printf("\n%s:\n", modelID) repo := hub.New(modelID).WithAuth(hfAuthToken) for fileName, err := range repo.IterFileNames() { if err != nil { panic(err) } fmt.Printf("fileName\t%s\n", fileName) fmt.Printf("repo\t%s\n", repo) fmt.Printf("modelID\t%s\n", modelID) } } } //List tokenizer classes for the selected model for _, modelID := range hfModelIDs { if modelID == llm { fmt.Printf("\n%s:\n", modelID) repo := hub.New(modelID).WithAuth(hfAuthToken) fmt.Printf("\trepo=%s\n", repo) config, err := tokenizers.GetConfig(repo) if err != nil { panic(err) } fmt.Printf("\ttokenizer_class=%s\n", config.TokenizerClass) } } // Models URL -> "https://huggingface.co/api/models" repo := hub.New(modelID).WithAuth(hfAuthToken) tokenizer, err := tokenizers.New(repo) if err != nil { panic(err) } // call file selection dialogbox filePath = FileSelectionDialog() // Open the file filerc, err := os.Open(filePath) if err != nil { fmt.Printf("Error opening file: %v\n", err) return } defer filerc.Close() // Put the text file content into a buffer and convert it to a string. buf := new(bytes.Buffer) buf.ReadFrom(filerc) sentence := buf.String() tokens := tokenizer.Encode(sentence) fmt.Println("Sentence:\n", sentence) fmt.Printf("Tokens: \t%v\n", tokens) }
Im Abschnitt „var“ für „hfModelIDs“ habe ich einige neue Referenzen hinzugefügt, wie IBMs Granite, Metas LLama und auch ein Mistral-Modell.
Der Huggingface-Token wird direkt im Go-Code beschafft und gelesen.
Ich habe ein Dialogfeld hinzugefügt, um die Liste der LLMs anzuzeigen (was ich irgendwann ändern werde), ein Dialogfeld, um den Text aus einer Datei hinzuzufügen (ich liebe solche Dinge?) und einige Codezeilen zum Löschen und Reinigen Sie den Bildschirm ?!
Der Eingabetext ist der folgende;
The popularity of the Rust language continues to explode; yet, many critical codebases remain authored in C, and cannot be realistically rewritten by hand. Automatically translating C to Rust is thus an appealing course of action. Several works have gone down this path, handling an ever-increasing subset of C through a variety of Rust features, such as unsafe. While the prospect of automation is appealing, producing code that relies on unsafe negates the memory safety guarantees offered by Rust, and therefore the main advantages of porting existing codebases to memory-safe languages. We instead explore a different path, and explore what it would take to translate C to safe Rust; that is, to produce code that is trivially memory safe, because it abides by Rust's type system without caveats. Our work sports several original contributions: a type-directed translation from (a subset of) C to safe Rust; a novel static analysis based on "split trees" that allows expressing C's pointer arithmetic using Rust's slices and splitting operations; an analysis that infers exactly which borrows need to be mutable; and a compilation strategy for C's struct types that is compatible with Rust's distinction between non-owned and owned allocations. We apply our methodology to existing formally verified C codebases: the HACL* cryptographic library, and binary parsers and serializers from EverParse, and show that the subset of C we support is sufficient to translate both applications to safe Rust. Our evaluation shows that for the few places that do violate Rust's aliasing discipline, automated, surgical rewrites suffice; and that the few strategic copies we insert have a negligible performance impact. Of particular note, the application of our approach to HACL* results in a 80,000 line verified cryptographic library, written in pure Rust, that implements all modern algorithms - the first of its kind.
Testen
Sobald der Code ausgeführt wird, wird ein Dialogfeld angezeigt, in dem Sie ein gewünschtes LLM auswählen können.
Wenn alles gut geht, wird im nächsten Schritt die „Tokenizer“-Datei lokal heruntergeladen (siehe Erläuterungen zum Github-Repo) und dann wird ein Dialogfenster angezeigt, in dem Sie die Textdatei mit dem Inhalt auswählen können, der hinsichtlich der Begriffe ausgewertet werden soll der Anzahl der Token.
Bisher habe ich um Zugriff auf die Modelle Meta LLama und Google „google/gemma-2–2b-it“ gebeten und warte auf die Gewährung des Zugriffs.
google/gemma-2-2b-it: repo=google/gemma-2-2b-it panic: request for metadata from "https://huggingface.co/google/gemma-2-2b-it/resolve/299a8560bedf22ed1c72a8a11e7dce4a7f9f51f8/tokenizer_config.json" failed with the following message: "403 Forbidden"
Abschluss
Ich denke, ich bin auf dem richtigen Weg, um das zu erreichen, was ich mir vorgenommen habe: ein Golang-Programm, das in der Lage ist, die Anzahl der Token zu bestimmen, indem eine Benutzeranfrage an ein LLM gesendet wird.
Das einzige Ziel dieses Projekts besteht darin, das interne System hinter der Bestimmung der Anzahl von Tokens in Abfragen für eine Vielzahl von LLMs kennenzulernen und herauszufinden, wie diese berechnet werden.
Danke fürs Lesen und offen für Kommentare.
Und bis zum endgültigen Abschluss bleiben Sie dran… ?
Das obige ist der detaillierte Inhalt vonZählen der Anzahl der an ein LLM in Go gesendeten Token (Teil 2). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Dieser Artikel erläutert die Paketimportmechanismen von Go: benannte Importe (z. B. importieren & quot; fmt & quot;) und leere Importe (z. B. Import _ & quot; fmt & quot;). Benannte Importe machen Paketinhalte zugänglich, während leere Importe nur T ausführen

In diesem Artikel werden die Newflash () -Funktion von BeEGO für die Übertragung zwischen PAGE in Webanwendungen erläutert. Es konzentriert sich auf die Verwendung von Newflash (), um temporäre Nachrichten (Erfolg, Fehler, Warnung) zwischen den Controllern anzuzeigen und den Sitzungsmechanismus zu nutzen. Limita

Dieser Artikel beschreibt die effiziente Konvertierung von MySQL -Abfrageergebnissen in GO -Strukturscheiben. Es wird unter Verwendung der SCAN -Methode von Datenbank/SQL zur optimalen Leistung hervorgehoben, wobei die manuelle Parsen vermieden wird. Best Practices für die Struktur -Feldzuordnung mithilfe von DB -Tags und Robus

In diesem Artikel werden die benutzerdefinierten Typ -Einschränkungen von GO für Generika untersucht. Es wird beschrieben, wie Schnittstellen die minimalen Typanforderungen für generische Funktionen definieren und die Sicherheitstypsicherheit und die Wiederverwendbarkeit von Code verbessern. Der Artikel erörtert auch Einschränkungen und Best Practices

Dieser Artikel zeigt, dass Mocks und Stubs in GO für Unit -Tests erstellen. Es betont die Verwendung von Schnittstellen, liefert Beispiele für Mock -Implementierungen und diskutiert Best Practices wie die Fokussierung von Mocks und die Verwendung von Assertion -Bibliotheken. Die Articl

Dieser Artikel beschreibt effizientes Dateischreiben in Go und vergleicht OS.WriteFile (geeignet für kleine Dateien) mit OS.openfile und gepufferter Schreibvorgänge (optimal für große Dateien). Es betont eine robuste Fehlerbehandlung, die Verwendung von Aufschub und Überprüfung auf bestimmte Fehler.

In dem Artikel werden Schreiben von Unit -Tests in GO erörtert, die Best Practices, Spottechniken und Tools für ein effizientes Testmanagement abdecken.

In diesem Artikel wird die Verwendung von Tracing -Tools zur Analyse von GO -Anwendungsausführungsfluss untersucht. Es werden manuelle und automatische Instrumentierungstechniken, den Vergleich von Tools wie Jaeger, Zipkin und Opentelemetrie erörtert und die effektive Datenvisualisierung hervorheben


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

SublimeText3 Linux neue Version
SublimeText3 Linux neueste Version

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

Dreamweaver CS6
Visuelle Webentwicklungstools
