


Wir stellen acht kostenlose und quelloffene Großmodelllösungen vor, da ChatGPT und Bard zu teuer sind.
Das LLaMA-Projekt enthält eine Reihe grundlegender Sprachmodelle im Bereich von 7 bis 65 Milliarden. Die Parameter sind nicht gleich. Diese Modelle werden auf Millionen von Token trainiert, und zwar vollständig auf öffentlich verfügbaren Datensätzen. Damit übertraf LLaMA-13B GPT-3 (175B), während LLaMA-65B eine ähnliche Leistung erbrachte wie die besten Modelle wie Chinchilla-70B und PaLM-540B.
Bild von LLaMA: Open and Efficient Foundation Language Models (arxiv.org)“ [https://arxiv.org/abs/2302.13971]# 🎜🎜#
GitHub: facebookresearch/llama [https://github.com/facebookresearch/ llama]Demo: Baize Lora 7B [https://huggingface.co/spaces/project -baize/Baize-7B]2.Alpaca
- Alpaka-Ansprüche der Stanford University Es kann mit ChatGPT konkurrieren und jeder kann es für weniger als 600 US-Dollar replizieren. Alpaca 7B ist eine Weiterentwicklung des LLaMA 7B-Modells anhand einer 52K-Anleitung und einer anschließenden Demonstration.
- Trainingsinhalte|Bilder vom Stanford University CRFM
- Ressourcen:
Blog: Stanford University CRFM. [https://crfm.stanford.edu/2023/03/13/alpaca.html]GitHub: tatsu-lab/stanford_alpaca [https://github.com/tatsu-lab/stanford_alpaca ]Demo: Alpaca-LoRA (die offizielle Demo ist verloren gegangen, dies ist eine Wiedergabe des Alpaca-Modells) [https://huggingface.co/spaces/tloen/alpaca-lora]#🎜 🎜##🎜 🎜#
3.Vicuna Vicuna basiert auf dem LLaMA-Modell auf von Benutzern geteilten Gesprächen ShareGPT Nehmen Sie Feineinstellungen vor. Das Vicuna-13B-Modell hat mehr als 90 % der Qualität von OpenAI ChatGPT und Google Bard erreicht. Außerdem übertraf es die Modelle LLaMA und Stanford Alpaca in 90 % der Fälle. Die Kosten für die Ausbildung eines Vicuna betragen etwa 300 US-Dollar.- Bild aus Vicuna
- Quelle:
Blogbeitrag: „Vicuna : Ein Open-Source-Chatbot, der GPT-4 mit 90 %* ChatGPT-Qualität beeindruckt“ [https://vicuna.lmsys.org/]GitHub:lm-sys/FastChat [https://github .com/lm-sys/FastChat#fine-tuning]
Demo: FastChat (lmsys.org) [https://chat.lmsys.org/]# 🎜🎜#4.OpenChatKit
OpenChatKit: Die Open-Source-ChatGPT-Alternative ist ein komplettes Toolkit zum Erstellen von Chatbots. Es bietet große Sprachmodelle zum Trainieren eigener Anweisungsanpassungen der Benutzer, fein abgestimmte Modelle, ein skalierbares Abrufsystem zum Aktualisieren von Bot-Antworten und Anweisungen zum Filtern der Bot-Überprüfung von Fragen.
- Bild von TOGETHER
- Wie Sie sehen können, schneidet das GPT-NeoXT-Chat-Base-20B-Modell gut ab Frage und Antwort, Extraktion und Die Leistung bei Klassifizierungsaufgaben ist besser als im Basismodus GPT-NoeX.
Blogbeitrag: „Ankündigung von OpenChatKit“ – TOGETHER [https://www.together.xyz/blog/openchatkit] GitHub: togethercomputer/OpenChatKit [https://github.com/togethercomputer/OpenChatKit]
Demo: OpenChatKit [https://huggingface.co/spaces/togethercomputer/OpenChatKit]#🎜 🎜#
Modellkarte: togethercomputer/GPT-NeoXT-Chat-Base-20B [https://huggingface.co/togethercomputer/GPT-NeoXT-Chat-Base-20B]# 🎜🎜#
5.GPT4ALL
GPT4ALL ist ein Community-Projekt und wird auf einem umfangreichen Hilfsinteraktionskorpus trainiert, einschließlich Code, Geschichten, Beschreibungen und Dialogrunden. Das Team stellte den Datensatz, die Modellgewichte, den Datenverwaltungsprozess und den Trainingscode zur Verfügung, um Open Source zu ermöglichen. Darüber hinaus haben sie eine quantisierte 4-Bit-Version des Modells veröffentlicht, die auf einem Laptop ausgeführt werden kann. Sie können sogar einen Python-Client verwenden, um Modellinferenzen auszuführen.
- Bilder von GPT4ALL
- Quelle:
- Technischer Bericht: GPT4All [https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf]
- GitHub: nomic-ai/gpt4al [https://github.com/nomic-ai /gpt4all]
- Demo: GPT4All (inoffiziell). [https://huggingface.co/spaces/rishiraj/GPT4All]
- Modellkarte: nomic-ai/gpt4all-lora · Hugging Face [https://huggingface.co/nomic-ai/gpt4all-lora]
- GitHub: BlinkDL/ChatRWKV [https://github.com/BlinkDL/ChatRWKV]
- Demo: Raven RWKV 7B [https://huggingface.co /spaces/BlinkDL/Raven-RWKV-7B]
- Modellkarte: BlinkDL/rwkv-4-raven [https://huggingface.co/BlinkDL/rwkv-4-raven]
- Forschungspapier: „OPT: Open Pre-trained Transformer Language Models (arxiv.org)“ [https://arxiv.org/abs/2205.01068 ]
- GitHub: facebookresearch/metaseq [https://github.com/facebookresearch/metaseq]
- Demo: Ein Wasserzeichen für LLMs [https://huggingface.co/spaces/tomg-group-umd/lm-watermarking]
- Modellkarte: facebook/opt-1.3b [https://huggingface.co/facebook/opt-1.3b]
- Forschungspapier: „Scaling Instruction-Fine Tuned Language Models“ [https://arxiv.org/pdf/2210.11416.pdf]
- GitHub: google-research/t5x [https://github.com/google-research/t5x]
- Demo: Chat Llm Streaming [https://huggingface.co/spaces/olivierdehaene/chat-llm-streaming]
- Modellkarte :google/flan-t5-xxl [https://huggingface.co/google/flan-t5-xxl?text=Q%3A+%28+False+or+not+False+or+False+%29+is%3F +A%3A+Lassen Sie%27s+Schritt+für+Schritt+denken]
6.Raven RWKV
Raven RWKV 7B ist ein Open-Source-Chatbot, der auf dem RWKV-Sprachmodell basiert und ähnliche Ergebnisse wie ChatGPT generiert. Dieses Modell verwendet RNN, das hinsichtlich Qualität und Skalierbarkeit mit dem Transformator mithalten kann, gleichzeitig schneller ist und VRAM spart. Raven ist auf Stanford Alpaca, Code-Alpaca und weitere Datensätze abgestimmt.
Bild von Raven RWKV 7B
Quelle:
7.OPT
OPT: Das Open Pre-Trained Transformer-Sprachmodell ist nicht so leistungsstark wie ChatGPT, zeigt aber hervorragende Fähigkeiten beim Zero-Shot- und Few-Shot-Lernen und bei der Stereotyp-Bias-Analyse. Für bessere Ergebnisse kann es auch in Alpa, Colossal-AI, CTranslate2 und FasterTransformer integriert werden. HINWEIS: Der Grund, warum es in die Liste aufgenommen wird, ist seine Beliebtheit, da es in der Kategorie Textgenerierung 624.710 Downloads pro Monat gibt.
Bild von (arxiv.org)
Ressource:
8.Flan-T5-XXL
Flan-T5-XXL Der T5 Das Modell wird anhand des in Form von Anweisungen ausgedrückten Datensatzes feinabgestimmt. Durch die Feinabstimmung der Anweisungen wurde die Leistung verschiedener Modellklassen wie PaLM, T5 und U-PaLM erheblich verbessert. Das Flan-T5-XXL-Modell ist auf mehr als 1000 zusätzliche Aufgaben abgestimmt und deckt mehr Sprachen ab.
Bild von Flan-T5-XXL
Quelle:
Zusammenfassung
Es stehen viele große Open-Source-Modelle zur Auswahl. In diesem Artikel geht es um 8 der beliebtesten großen Modelle.
Das obige ist der detaillierte Inhalt vonWir stellen acht kostenlose und quelloffene Großmodelllösungen vor, da ChatGPT und Bard zu teuer sind.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Nutzung der Leistung der Datenvisualisierung mit Microsoft Power BI -Diagrammen In der heutigen datengesteuerten Welt ist es entscheidend, komplexe Informationen effektiv mit nicht-technischem Publikum zu kommunizieren. Die Datenvisualisierung schließt diese Lücke und transformiert Rohdaten i

Expertensysteme: Ein tiefes Eintauchen in die Entscheidungsfunktion der KI Stellen Sie sich vor, Zugang zu Expertenberatung zu irgendetwas, von medizinischen Diagnosen bis hin zur Finanzplanung. Das ist die Kraft von Expertensystemen in der künstlichen Intelligenz. Diese Systeme imitieren den Profi

Zunächst ist es offensichtlich, dass dies schnell passiert. Verschiedene Unternehmen sprechen über die Proportionen ihres Code, die derzeit von KI verfasst wurden, und diese nehmen mit einem schnellen Clip zu. Es gibt bereits viel Arbeitsplatzverschiebung

Die Filmindustrie befindet sich neben allen kreativen Sektoren vom digitalen Marketing bis hin zu sozialen Medien an einer technologischen Kreuzung. Als künstliche Intelligenz beginnt, jeden Aspekt des visuellen Geschichtenerzählens umzugestiegen und die Landschaft der Unterhaltung zu verändern

Der kostenlose KI/ML -Online -Kurs von ISRO: Ein Tor zu Geospatial Technology Innovation Die Indian Space Research Organization (ISRO) bietet durch ihr indisches Institut für Fernerkundung (IIRS) eine fantastische Gelegenheit für Studenten und Fachkräfte

Lokale Suchalgorithmen: Ein umfassender Leitfaden Die Planung eines groß angelegten Ereignisses erfordert eine effiziente Verteilung der Arbeitsbelastung. Wenn herkömmliche Ansätze scheitern, bieten lokale Suchalgorithmen eine leistungsstarke Lösung. In diesem Artikel wird Hill Climbing und Simul untersucht

Die Veröffentlichung umfasst drei verschiedene Modelle, GPT-4.1, GPT-4.1 Mini und GPT-4.1-Nano, die einen Zug zu aufgabenspezifischen Optimierungen innerhalb der Landschaft des Großsprachenmodells signalisieren. Diese Modelle ersetzen nicht sofort benutzergerichtete Schnittstellen wie

Der Chip Giant Nvidia sagte am Montag, es werde zum ersten Mal in den USA die Herstellung von KI -Supercomputern - Maschinen mit der Verarbeitung reichlicher Daten herstellen und komplexe Algorithmen ausführen. Die Ankündigung erfolgt nach Präsident Trump SI


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Dreamweaver Mac
Visuelle Webentwicklungstools

EditPlus chinesische Crack-Version
Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor

VSCode Windows 64-Bit-Download
Ein kostenloser und leistungsstarker IDE-Editor von Microsoft

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)