Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Herausforderung für das große Sprachmodell von NeurIPS2024 Edge Device

Herausforderung für das große Sprachmodell von NeurIPS2024 Edge Device

PHPz
PHPzOriginal
2024-08-07 16:03:22519Durchsuche

Mit der rasanten Entwicklung der künstlichen Intelligenz, insbesondere im Bereich der Verarbeitung natürlicher Sprache (NLP), haben große Sprachmodelle (LLM) großes Transformationspotenzial gezeigt. Diese Modelle verändern die Art und Weise, wie wir arbeiten und kommunizieren, und zeigen ein breites Anwendungsspektrum auf einer Vielzahl von Computergeräten. Allerdings bringt das riesige LLM-Modell erhebliche Herausforderungen für seine Anwendung auf Edge-Geräten wie Smartphones, IoT-Geräten und fahrzeugmontierten Systemen mit sich. Unser Wettbewerb zielt darauf ab, die Grenzen der Leistung, Effizienz und Multitasking-Fähigkeiten von LLM auf ressourcenbeschränkten Edge-Geräten zu erweitern. Wettbewerbshintergrund: Obwohl LLM über ein enormes Anwendungspotenzial verfügt, stellen seine enormen Parameter hohe Anforderungen an die Ressourcen von Edge-Geräten. Beispielsweise erfordert ein LLM-Modell mit 10 B-Parametern selbst nach der Quantisierungsverarbeitung bis zu 20 GB Speicher, und die Speicherkapazität der meisten Smartphones reicht bei weitem nicht aus, um diese Anforderung zu erfüllen. Darüber hinaus ist auch der hohe Energieverbrauch von LLM ein großes Problem. Normalerweise hält ein voll aufgeladenes Smartphone bei der Nutzung von LLM für Gespräche nur weniger als zwei Stunden durch. Hauptherausforderung: Speicherbedarf: LLM-Inferenz erfordert eine große Speichermenge, die selbst High-End-Smartphones nicht bewältigen können. Problem des Energieverbrauchs: Ein hoher Energieverbrauch während der LLM-Inferenz stellt eine Herausforderung für die Akkulaufzeit von Smartphones dar. Leistungsverlust: Die Aufrechterhaltung der Modellleistung bei gleichzeitiger Erzielung eines hohen Komprimierungsverhältnisses ist bei der vorhandenen Technologie ein großes Problem. Fehlende Offline-Funktionalität: Die meisten LLMs erfordern eine Internetverbindung, was ihre Anwendung in Umgebungen mit instabilen Netzwerken einschränkt. Wettbewerbsziele: Ziel dieses Wettbewerbs ist es, die oben genannten Herausforderungen zu lösen und die praktische Anwendung von LLM auf Edge-Geräten zu fördern. Wir laden Forscher, Ingenieure und Branchenexperten aus verschiedenen Bereichen zur Teilnahme ein, um gemeinsam Systeme, Hardware und Algorithmen zu entwerfen, um den Einsatz von Hochleistungs-LLM auf Edge-Geräten zu ermöglichen. Nehmen Sie an unserer NeurIPS Edge Device LLM Challenge teil! Wir laden Experten aus verschiedenen Bereichen herzlich ein, an der NeurIPS Challenge teilzunehmen, um die Fähigkeiten von LLM auf Edge-Geräten zu präsentieren. Die ersten drei im Wettbewerb teilen sich einen Gesamtpreispool von 300.000. Wettbewerbsstrecke: Komprimierungsherausforderung: Demonstrieren Sie, wie Sie ein vorab trainiertes LLM ohne nennenswerten Leistungsverlust komprimieren können. Trainingsherausforderung von Grund auf: Trainieren Sie ein LLM, das für Edge-Geräte entwickelt wurde, von Grund auf und optimieren Sie den Trainingsprozess, um effiziente Modelle zu erstellen. Gründe für die Teilnahme: Gewinnen Sie den Hauptpreis: einen Gesamtpreispool von 300.000. Innovation vorantreiben: Tragen Sie zur Spitzenforschung am LLM bei. Erweitern Sie Ihr Netzwerk: Vernetzen Sie sich mit führenden Experten und Kollegen auf Ihrem Gebiet. Zeigen Sie Ihr Talent: Erhalten Sie Anerkennung auf Top-KI-Konferenzen. Wichtige Termine: Anmeldebeginn: 25. Juni 2024. Anmeldeschluss: 25. Juli 2024. Einsendeschluss: 25. Oktober 2024. Ergebnisbekanntgabe: 20. November 2024. Offline-Workshop: Wie wäre es mit dem 11. Dezember 2024. Zur Teilnahme: Anmeldung: Registrieren Sie sich über Google Forms auf die offizielle Wettbewerbswebsite, offizielle Wettbewerbswebsite. Wählen Sie einen Track: Wählen Sie zwischen einer Kompressionsherausforderung, einer Trainingsherausforderung von Grund auf oder beidem. Reichen Sie Ihre Lösung ein: Reichen Sie Ihr Modell vor Ablauf der Frist ein. Sind Sie bereit, die Herausforderung anzunehmen? Melden Sie sich jetzt an und bereiten Sie sich auf Ihren Wettbewerb vor! Weitere Informationen und Registrierung finden Sie unter: Discord: Link Registrierungslink: Link Lassen Sie uns gemeinsam daran arbeiten, die Entwicklung von LLM auf Edge-Geräten voranzutreiben. Ich wünsche Ihnen viel Glück und freue mich darauf, Sie auf der NeurIPS 2024 zu sehen! ?NeurIPS Edge Device LLM Challenge Organizer:

Herausforderung für das große Sprachmodell von NeurIPS2024 Edge Device

Das obige ist der detaillierte Inhalt vonHerausforderung für das große Sprachmodell von NeurIPS2024 Edge Device. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn