


Wir stellen acht kostenlose und quelloffene Großmodelllösungen vor, da ChatGPT und Bard zu teuer sind.
Das LLaMA-Projekt enthält eine Reihe grundlegender Sprachmodelle im Bereich von 7 bis 65 Milliarden. Die Parameter sind nicht gleich. Diese Modelle werden auf Millionen von Token trainiert, und zwar vollständig auf öffentlich verfügbaren Datensätzen. Damit übertraf LLaMA-13B GPT-3 (175B), während LLaMA-65B eine ähnliche Leistung erbrachte wie die besten Modelle wie Chinchilla-70B und PaLM-540B.
Bild von LLaMA: Open and Efficient Foundation Language Models (arxiv.org)“ [https://arxiv.org/abs/2302.13971]# 🎜🎜#
GitHub: facebookresearch/llama [https://github.com/facebookresearch/ llama]Demo: Baize Lora 7B [https://huggingface.co/spaces/project -baize/Baize-7B]2.Alpaca
- Alpaka-Ansprüche der Stanford University Es kann mit ChatGPT konkurrieren und jeder kann es für weniger als 600 US-Dollar replizieren. Alpaca 7B ist eine Weiterentwicklung des LLaMA 7B-Modells anhand einer 52K-Anleitung und einer anschließenden Demonstration.
- Trainingsinhalte|Bilder vom Stanford University CRFM
- Ressourcen:
Blog: Stanford University CRFM. [https://crfm.stanford.edu/2023/03/13/alpaca.html]GitHub: tatsu-lab/stanford_alpaca [https://github.com/tatsu-lab/stanford_alpaca ]Demo: Alpaca-LoRA (die offizielle Demo ist verloren gegangen, dies ist eine Wiedergabe des Alpaca-Modells) [https://huggingface.co/spaces/tloen/alpaca-lora]#🎜 🎜##🎜 🎜#
3.Vicuna Vicuna basiert auf dem LLaMA-Modell auf von Benutzern geteilten Gesprächen ShareGPT Nehmen Sie Feineinstellungen vor. Das Vicuna-13B-Modell hat mehr als 90 % der Qualität von OpenAI ChatGPT und Google Bard erreicht. Außerdem übertraf es die Modelle LLaMA und Stanford Alpaca in 90 % der Fälle. Die Kosten für die Ausbildung eines Vicuna betragen etwa 300 US-Dollar.- Bild aus Vicuna
- Quelle:
Blogbeitrag: „Vicuna : Ein Open-Source-Chatbot, der GPT-4 mit 90 %* ChatGPT-Qualität beeindruckt“ [https://vicuna.lmsys.org/]GitHub:lm-sys/FastChat [https://github .com/lm-sys/FastChat#fine-tuning]
Demo: FastChat (lmsys.org) [https://chat.lmsys.org/]# 🎜🎜#4.OpenChatKit
OpenChatKit: Die Open-Source-ChatGPT-Alternative ist ein komplettes Toolkit zum Erstellen von Chatbots. Es bietet große Sprachmodelle zum Trainieren eigener Anweisungsanpassungen der Benutzer, fein abgestimmte Modelle, ein skalierbares Abrufsystem zum Aktualisieren von Bot-Antworten und Anweisungen zum Filtern der Bot-Überprüfung von Fragen.
- Bild von TOGETHER
- Wie Sie sehen können, schneidet das GPT-NeoXT-Chat-Base-20B-Modell gut ab Frage und Antwort, Extraktion und Die Leistung bei Klassifizierungsaufgaben ist besser als im Basismodus GPT-NoeX.
Blogbeitrag: „Ankündigung von OpenChatKit“ – TOGETHER [https://www.together.xyz/blog/openchatkit] GitHub: togethercomputer/OpenChatKit [https://github.com/togethercomputer/OpenChatKit]
Demo: OpenChatKit [https://huggingface.co/spaces/togethercomputer/OpenChatKit]#🎜 🎜#
Modellkarte: togethercomputer/GPT-NeoXT-Chat-Base-20B [https://huggingface.co/togethercomputer/GPT-NeoXT-Chat-Base-20B]# 🎜🎜#
5.GPT4ALL
GPT4ALL ist ein Community-Projekt und wird auf einem umfangreichen Hilfsinteraktionskorpus trainiert, einschließlich Code, Geschichten, Beschreibungen und Dialogrunden. Das Team stellte den Datensatz, die Modellgewichte, den Datenverwaltungsprozess und den Trainingscode zur Verfügung, um Open Source zu ermöglichen. Darüber hinaus haben sie eine quantisierte 4-Bit-Version des Modells veröffentlicht, die auf einem Laptop ausgeführt werden kann. Sie können sogar einen Python-Client verwenden, um Modellinferenzen auszuführen.
- Bilder von GPT4ALL
- Quelle:
- Technischer Bericht: GPT4All [https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf]
- GitHub: nomic-ai/gpt4al [https://github.com/nomic-ai /gpt4all]
- Demo: GPT4All (inoffiziell). [https://huggingface.co/spaces/rishiraj/GPT4All]
- Modellkarte: nomic-ai/gpt4all-lora · Hugging Face [https://huggingface.co/nomic-ai/gpt4all-lora]
- GitHub: BlinkDL/ChatRWKV [https://github.com/BlinkDL/ChatRWKV]
- Demo: Raven RWKV 7B [https://huggingface.co /spaces/BlinkDL/Raven-RWKV-7B]
- Modellkarte: BlinkDL/rwkv-4-raven [https://huggingface.co/BlinkDL/rwkv-4-raven]
- Forschungspapier: „OPT: Open Pre-trained Transformer Language Models (arxiv.org)“ [https://arxiv.org/abs/2205.01068 ]
- GitHub: facebookresearch/metaseq [https://github.com/facebookresearch/metaseq]
- Demo: Ein Wasserzeichen für LLMs [https://huggingface.co/spaces/tomg-group-umd/lm-watermarking]
- Modellkarte: facebook/opt-1.3b [https://huggingface.co/facebook/opt-1.3b]
- Forschungspapier: „Scaling Instruction-Fine Tuned Language Models“ [https://arxiv.org/pdf/2210.11416.pdf]
- GitHub: google-research/t5x [https://github.com/google-research/t5x]
- Demo: Chat Llm Streaming [https://huggingface.co/spaces/olivierdehaene/chat-llm-streaming]
- Modellkarte :google/flan-t5-xxl [https://huggingface.co/google/flan-t5-xxl?text=Q%3A+%28+False+or+not+False+or+False+%29+is%3F +A%3A+Lassen Sie%27s+Schritt+für+Schritt+denken]
6.Raven RWKV
Raven RWKV 7B ist ein Open-Source-Chatbot, der auf dem RWKV-Sprachmodell basiert und ähnliche Ergebnisse wie ChatGPT generiert. Dieses Modell verwendet RNN, das hinsichtlich Qualität und Skalierbarkeit mit dem Transformator mithalten kann, gleichzeitig schneller ist und VRAM spart. Raven ist auf Stanford Alpaca, Code-Alpaca und weitere Datensätze abgestimmt.
Bild von Raven RWKV 7B
Quelle:
7.OPT
OPT: Das Open Pre-Trained Transformer-Sprachmodell ist nicht so leistungsstark wie ChatGPT, zeigt aber hervorragende Fähigkeiten beim Zero-Shot- und Few-Shot-Lernen und bei der Stereotyp-Bias-Analyse. Für bessere Ergebnisse kann es auch in Alpa, Colossal-AI, CTranslate2 und FasterTransformer integriert werden. HINWEIS: Der Grund, warum es in die Liste aufgenommen wird, ist seine Beliebtheit, da es in der Kategorie Textgenerierung 624.710 Downloads pro Monat gibt.
Bild von (arxiv.org)
Ressource:
8.Flan-T5-XXL
Flan-T5-XXL Der T5 Das Modell wird anhand des in Form von Anweisungen ausgedrückten Datensatzes feinabgestimmt. Durch die Feinabstimmung der Anweisungen wurde die Leistung verschiedener Modellklassen wie PaLM, T5 und U-PaLM erheblich verbessert. Das Flan-T5-XXL-Modell ist auf mehr als 1000 zusätzliche Aufgaben abgestimmt und deckt mehr Sprachen ab.
Bild von Flan-T5-XXL
Quelle:
Zusammenfassung
Es stehen viele große Open-Source-Modelle zur Auswahl. In diesem Artikel geht es um 8 der beliebtesten großen Modelle.
Das obige ist der detaillierte Inhalt vonWir stellen acht kostenlose und quelloffene Großmodelllösungen vor, da ChatGPT und Bard zu teuer sind.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Einführung Stellen Sie sich ein Szenario vor: Ihr Team ist von einem massiven Datensatz aus verschiedenen Quellen überwältigt. Das Integrieren, Sortieren und Analysieren dieser Informationen für eine aussagekräftige Präsentation ist eine Herausforderung. Hier ist Power BI -semantische Modelle (PBISM) ex

AI -Agenten: Die Zukunft der KI, angetrieben von Lamaindex und Monsterapi KI -Agenten sind bereit, zu revolutionieren, wie wir mit Technologie interagieren. Diese autonomen Systeme imitieren das menschliche Verhalten und führen Aufgaben aus, die Argumentation, Entscheidungsfindung und REA erfordern

Entsperren autonomer KI: 7 Methoden zur Selbsttraining-LLMs Stellen Sie sich eine Zukunft vor, in der KI -Systeme ohne menschliche Intervention lernen und weiterentwickeln, ähnlich wie Kinder, die komplexe Konzepte unabhängig voneinander beherrschen. Dies ist keine Science -Fiction; Es ist das Versprechen des Selbst

KI-betriebene Finanzberichterstattung: Erkenntnisse durch natürliche Sprachgenerierung revolutionieren In der heutigen dynamischen Geschäftsumgebung ist eine genaue und zeitnahe Finanzanalyse für strategische Entscheidungen von größter Bedeutung. Traditionelle Finanzberichterstattung

Google DeepMinds Tischtennisroboter: Eine neue Ära in Sport und Robotik Die Olympischen Spiele in Paris 2024 mögen vorbei sein, aber dank Google DeepMind ist eine neue Ära in Sport und Robotik geweckt. Ihre bahnbrechende Forschung ("Kompetenz auf Menschenebene erreichen

Entsperren von Effizienz und Skalierbarkeit mit Gemini Flash 1.5: A Flask Food Vision WebApp In der sich schnell entwickelnden KI -Landschaft sind Effizienz und Skalierbarkeit von größter Bedeutung. Entwickler suchen zunehmend Hochleistungsmodelle, die Kosten und Latenc minimieren

Nutzen Sie die Macht der AI-Agenten mit Llamaindex: eine Schritt-für-Schritt-Anleitung Stellen Sie sich einen persönlichen Assistenten vor, der Ihre Anfragen versteht und sie fehlerfrei ausführt, unabhängig davon, ob es sich um eine schnelle Berechnung handelt oder die neuesten Marktnachrichten abrufen. Dieser Artikel erforscht

Jupyter Notebook (.IPYNB) -Dateien werden häufig in der Datenanalyse, wissenschaftlichen Computing und interaktiven Codierung verwendet. Während diese Notizbücher hervorragend für die Entwicklung und Freigabe von Code mit anderen Datenwissenschaftlern sind, müssen Sie ihn manchmal in ein allgemein lesbares Format wie PDF umwandeln. Dieser Leitfaden führt Sie durch die verschiedenen Möglichkeiten, .IPYNB -Dateien in PDFs sowie Tipps, Best Practices und Fehlerbehebungsvorschläge umzuwandeln. Inhaltsverzeichnis Warum .Ipynb in PDF konvertieren? So konvertieren Sie .Ipynb -Dateien in PDF Verwenden der Jupyter Notebook -Benutzerbuch UI Verwenden von NBCONVE


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

VSCode Windows 64-Bit-Download
Ein kostenloser und leistungsstarker IDE-Editor von Microsoft

EditPlus chinesische Crack-Version
Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

SublimeText3 Linux neue Version
SublimeText3 Linux neueste Version

Dreamweaver CS6
Visuelle Webentwicklungstools

DVWA
Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software