Heim  >  Artikel  >  Backend-Entwicklung  >  Der Einsatz von Open-Source-KI-Modellen in der Entwicklung

Der Einsatz von Open-Source-KI-Modellen in der Entwicklung

Susan Sarandon
Susan SarandonOriginal
2024-11-07 06:35:03757Durchsuche

El uso de los modelos de IA open source en el desarrollo

Im letzten Jahr sind zahlreiche Tools mit künstlicher Intelligenz aufgetaucht, die das Leben der Benutzer einfacher machen sollen, von der Bildgenerierung über Chatbots bis hin zu Tools, die gigantisch und professionell arbeiten Prozesse.

Ich habe viele dieser Tools erforscht, gelernt und getestet, von ChatGPT über Gemini bis hin zu Dall-E oder Midjourney. Sie funktionieren alle sehr gut, aber wenn ich meine Anwendungen mit diesen Tools skalieren möchte, stelle ich fest, dass sie keins haben kostenlose oder offene alternative Quelle.

Das hat mich dazu gebracht, meine Forschung einen Schritt weiter voranzutreiben, und ich bin auf stabile Diffusions-UI (Bildgenerierung, https://github.com/AUTOMATIC1111/stable-diffusion-webui) gestoßen und mit * ollama *(Chatbot, https://ollama.com/), beides sind Open-Source-Tools, mit denen Sie einen Dienst als API ausführen können, um ihn von jeder unserer Anwendungen aus zu nutzen. Damit bin ich angekommen Manchmal gehe ich mit Open-Source-Alternativen weiter, aber damit dies funktioniert, muss ich diese Tools laufen lassen, damit sie von unseren Anwendungen genutzt werden können.

Um zu verstehen, wie wir dies in unsere Anwendungen integrieren können, ist es wichtig zu verstehen, wie diese Tools funktionieren. Im Wesentlichen verwenden sie Dateien mit der Erweiterung „Safetensors“, bei denen es sich um LLM- oder große Sprachmodelle handelt, wobei diese Modelle auf ihre Leistung trainiert werden verschiedene Funktionen entsprechend den Bedürfnissen der Person, die es trainiert (Beispiel: Bildgenerierung, Übersetzung, Codeentwicklung, Chatbot usw.).

Wenn wir ein wenig über die LLM-Modelle und die „Safetensors“-Dateien wissen, stellen wir uns die folgende Frage: Wie verwende ich diese Dateien in meinen Anwendungen? Und hier kommt HugginFace ins Spiel, eine Website/Datenbank für Open-Source-künstliche Intelligenz Modelle, und sie haben ihre eigene Bibliothek für Python mit zwei äußerst nützlichen Komponenten für das erstellt, was wir wollen: „Transformer“ und „Diffusoren“.

*Transformers *(https://huggingface.co/docs/transformers/index) ist die Komponente, die es uns ermöglicht, jedes spezielle Textmodell zu nutzen, zum Beispiel die Konvertierung von Audio in Text oder umgekehrt, Chatbox als Meta-Flamme, unter anderem.

Transformatoren importieren

import torch

model_id = "meta-llama/Llama-3.1-8B"

pipeline = transformers.pipeline(
    "text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto"
)

pipeline("Hey how are you doing today?")

Diffusoren (https://huggingface.co/docs/diffusers/index) ist die Komponente, die es uns ermöglicht, jedes auf die Bilderzeugung spezialisierte Modell zu nutzen, wie z. B. stabile Diffusion.

from diffusers import AutoPipelineForText2Image
import torch

pipe = AutoPipelineForText2Image.from_pretrained("stabilityai/sdxl-turbo", torch_dtype=torch.float16, variant="fp16")
pipe.to("cuda")

prompt = "A cinematic shot of a baby racoon wearing an intricate italian priest robe."

image = pipe(prompt=prompt, num_inference_steps=1, guidance_scale=0.0).images[0]

Dieser Prozess ist als LLM-Modellinferenz bekannt, und von hier aus können Sie auf der Grundlage dieser Informationen beginnen, künstliche Intelligenz in Ihren verschiedenen Anwendungen mit Python anzuwenden.

Es sollte beachtet werden, dass ich auch versucht habe, Modellinferenz mit einer anderen Sprache wie NodeJS zu verwenden, und die Wahrheit ist, dass es nicht so gut funktioniert wie mit Python, aber es ist wichtig zu erwähnen, dass für LLM leistungsstarke Hardware erforderlich ist Modellinferenz, sodass Sie das, was Sie durch die Verwendung der ChatGPT- oder Gemini-APIs sparen können, für den Kauf geeigneter Hardware ausgeben können.

Dies ist mein erster Artikel. Ich hoffe, dass mein Weg zur Verwendung von LLM-Modellen in der Softwareentwicklung Ihnen hilft, Schritte auf diesem Weg zu überspringen.

Das obige ist der detaillierte Inhalt vonDer Einsatz von Open-Source-KI-Modellen in der Entwicklung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn