Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Bei der Ankündigung eines neuen benutzerdefinierten Chips setzt Meta stark auf KI und gibt Rekordbeträge für die Aktualisierung der Infrastruktur aus

Bei der Ankündigung eines neuen benutzerdefinierten Chips setzt Meta stark auf KI und gibt Rekordbeträge für die Aktualisierung der Infrastruktur aus

WBOY
WBOYnach vorne
2023-05-23 19:38:44938Durchsuche

Bei der Ankündigung eines neuen benutzerdefinierten Chips setzt Meta stark auf KI und gibt Rekordbeträge für die Aktualisierung der Infrastruktur aus

Nachrichten vom 19. Mai: Im vergangenen Jahr hat sich der Social-Media-Riese Meta dazu verpflichtet, Kosten zu senken und Mitarbeiter zu entlassen, aber die Kosten für die Aktualisierung der Infrastruktur haben einen Rekord erreicht . Dies dient dazu, im KI-Rennen vorne zu bleiben.

Am Donnerstag Ortszeit veröffentlichte Meta eine Reihe neuer Technologien, darunter einen neuen benutzerdefinierten Chip, der dabei helfen kann, KI schneller zu trainieren, und ein Programmiertool, das Programmierern Produktempfehlungen liefern kann. Darüber hinaus transformiert das Unternehmen sein Rechenzentrum, um einen bequemeren Einsatz von KI-Technologie zu ermöglichen.

Meta-CEO Mark Zuckerberg sagte in einer per E-Mail gesendeten Erklärung: „Diese Arbeit spiegelt unsere langfristigen Bemühungen wider und wird es uns ermöglichen, diese Technologie besser zu nutzen und weitere Fortschritte zu erzielen.“ 🎜#Meta entwickelt einen benutzerdefinierten Beschleunigerchip, um die Empfehlungsalgorithmen von Facebook und Instagram zu beschleunigen. Darüber hinaus hat das Unternehmen ein neues Rechenzentrum eröffnet, das speziell für KI-Hardware konzipiert ist. Meta gab bekannt, dass es den Bau der zweiten Phase seines KI-Supercomputers abgeschlossen hat, der zum Trainieren großer Sprachmodelle wie ChatGPT verwendet wird.

Im Jahr 2018 beliefen sich die Investitionsausgaben von Meta auf 31,4 Milliarden US-Dollar, ein Anstieg um mehr als das 4,5-fache gegenüber 2017 und ein Rekordhoch. Zuckerberg nannte dieses Jahr Metas „Jahr der Effizienz“. Analysten schätzen, dass das Investitionsniveau von Meta in diesem Jahr dem im Jahr 2022 ähneln wird und ein Großteil der Mittel in die Verbesserung und Erweiterung der KI-Infrastruktur fließen wird.

Kim Hazelwood, Forschungsleiterin bei Meta AI, sagte: „Obwohl wir einige Schwierigkeiten hatten, die Effizienz zu verbessern, bedeutet das nicht, dass es einen Kompromiss zwischen Investitionen in KI und der Verbesserung der Effizienz gibt direkte Konkurrenz.“

Einige KI-Updates haben offenbar die interne Effizienz von Meta verbessert, was dazu geführt hat, dass das Unternehmen in den letzten Monaten Tausende von Mitarbeitern entlassen hat.

CodeCompose ist ein neues Entwicklungstool auf Basis generativer KI, das Programmierarbeiten automatisch abschließen oder Entwicklern Vorschläge zur Änderung von Code liefern kann. Laut Meta verwenden derzeit 5.200 interne Programmierer CodeCompose und 22 % der von AI gemachten Codierungsvorschläge werden übernommen.

Meta nutzt auch zunehmend KI, um die größten Geschäftsprobleme zu lösen. Da die Anpassungen der Datenschutzrichtlinien von Apple es vielen Werbetreibenden erschwert haben, Nutzer mit ihren digitalen Anzeigen gezielt anzusprechen, plant Meta, mithilfe von KI die Interessen der Nutzer zu erraten. Um mit der Kurzvideoplattform TikTok zu konkurrieren, haben Facebook und Instagram auch damit begonnen, Inhalte von Konten anzuzeigen, denen Nutzer nicht folgen, was einen Algorithmus erfordert, der errät, woran Nutzer interessiert sein könnten.

Angelo Zino, Analyst beim Marktforschungsunternehmen CFRA Research, sagte in einem Interview, dass Investoren nach direkten Beweisen für diese Verbesserungen suchen werden, um die hohen Ausgaben zu rechtfertigen.

Zino sagte, dass diese Dinge offensichtlich eine gewisse Zeit in Anspruch nehmen werden und nicht in einem Schritt erledigt werden können. Dies zielt auf die allgemeine Erhöhung der Investitionsausgaben ab. „Es wird auf jeden Fall viele Überprüfungen geben, um sicherzustellen, dass wir einige der Erträge in Bezug auf den Umsatz beschleunigen können.“ KI-Modelle geben Antworten. Meta beschloss, einen neuen Chip MTIA (Meta Training and Inference Accelerator, d. h. Meta-Trainings- und Inferenzbeschleuniger) zu entwickeln, um die Erledigung spezifischer interner Aufgaben zu unterstützen und die unzureichende Anzahl von Nvidia-GPUs zu ergänzen (auch wenn diese in großen Mengen gekauft wurden).

Meta hofft, dass der MTIA-Chip seine Fähigkeit verbessern wird, genauere und interessantere Arten von Original- und Werbeinhalten für Benutzer vorherzusagen, sodass Menschen mehr Zeit mit der Nutzung von Apps verbringen und auf mehr Anzeigen klicken.

Das Unternehmen hat außerdem einen hauseigenen spezialisierten integrierten Schaltkreis (ASIC) auf den Markt gebracht, der speziell für die Verarbeitung von Video- und Live-Inhalten entwickelt wurde. Täglich werden mehr als 2 Milliarden Kurzvideos auf Facebook und Instagram geteilt. Mit diesem neuen Prozessor werden Videos schneller geladen und verbrauchen weniger Daten, unabhängig davon, auf welchem ​​Gerät sie angesehen werden. „Wir haben die ersten Chips erfolgreich optimiert, ausbalanciert und verfeinert, damit sie zu unserem Empfehlungsmodell passen. Wir verfügen über umfassende Informationen zu generativen KI-Workloads oder anderen damit verbundenen Anforderungen.“ basiert auf aktueller KI-Technologie, künftiger generativer KI. Der Betrieb wird auf Metas KI-Supercomputer Research SuperCluster basieren. Das Unternehmen wird diesen Supercomputer nutzen, um eine große Anzahl von KI-Modellen zu trainieren.

Meta gab am Donnerstag bekannt, dass es die zweite Bauphase abgeschlossen und ein großes Sprachmodell namens LLaMA trainiert hat. Dies wird ein wichtiger Teil des Aufbaus des Metaversums der Virtual-Reality-Plattformen des Unternehmens sein.

Meta hat sich zum Ziel gesetzt, einige seiner fortschrittlichen Technologien der Außenwelt zugänglich zu machen. Während ein Großteil der Hardware im Stack auf den internen Gebrauch beschränkt ist, ist ein Teil der Arbeit Open Source. Wie das LLaMA-Modell wurde auch das vom Meta-Supercomputer trainierte KI-Modell, das zehn Wettbewerbsprobleme der Internationalen Mathematikolympiade lösen kann, mit Forschern geteilt. CodeCompose ist ein Code-Entwicklungstool, das auf den technischen Ergebnissen des Meta AI-Forschungsteams basiert. Darüber hinaus wird der neue Inferenzchip Meta dabei helfen, weiterhin PyTorch zu unterstützen, das Open-Source-KI-Framework, das Meta entwickelt hat und das zur Erhöhung seiner Unabhängigkeit zur Linux Foundation übergegangen ist.

Obwohl Meta seit Jahren an der Entwicklung von KI-Tools arbeitet, hat sich Zuckerberg dafür entschieden, die Zukunft des Unternehmens auf einer vagen Vision der virtuellen Realität zu gründen. Scott Kessler, Analyst bei Third Bridge, einem Investment-Research-Institut, sagte, dass dieser Wandel von den Anlegern eingehend geprüft wurde, sodass diese umfassende Investition in die KI-Infrastruktur dazu beitragen kann, dass Anleger ihr Vertrauen in die Gesamtstrategie wieder aufbauen.

Kessler sagte, dass die Branche, während sie darum kämpft, KI in ihre Unternehmen zu integrieren, „nicht an der Startlinie verlieren will“, sagte er: „Heute glauben mehr Menschen daran als vor sechs Jahren.“ bis vor neun Monaten. So kann man es sagen.“ (Chenchen)

Das obige ist der detaillierte Inhalt vonBei der Ankündigung eines neuen benutzerdefinierten Chips setzt Meta stark auf KI und gibt Rekordbeträge für die Aktualisierung der Infrastruktur aus. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen