Heim > Artikel > Technologie-Peripheriegeräte > Microsoft gibt bekannt, dass es Milliarden in die Stärkung der Azure-Infrastruktur investiert hat, um ChatGPT zu ermöglichen
Microsoft hat kürzlich enthüllt, wie Microsoft Milliarden von Dollar ausgegeben hat, um OpenAI zu ermöglichen, ChatGPT Wirklichkeit werden zu lassen.
Die Zusammenarbeit zwischen Microsoft und OpenAI hat in letzter Zeit viel Aufmerksamkeit erregt. Im Januar dieses Jahres kündigte Microsoft an, 10 Milliarden US-Dollar in OpenAI zu investieren, das KI-Startup, das ChatGPT entwickelt hat. ChatGPT ist ein KI-Chatbot, der aufgrund seiner beeindruckenden menschenähnlichen Konversationsfähigkeiten das Internet im Sturm erobert hat.
Allerdings begann die Zusammenarbeit zwischen Microsoft und OpenAI tatsächlich schon vor einigen Jahren. Laut Bloomberg hatte Microsoft vor diesem Jahr „Hunderte Millionen Dollar“ für die für die Entwicklung von ChatGPT erforderliche Computerinfrastruktur ausgegeben.
Bloomberg berichtete, dass das Geld für den Bau eines großen Supercomputers für das Training von ChatGPT verwendet wurde. In zwei kürzlich erschienenen Blogbeiträgen diskutierte Microsoft seine Arbeit beim Aufbau einer KI-Infrastruktur und wie es plant, das System leistungsfähiger zu machen, um fortschrittlichere Modelle zu unterstützen.
Um den Azure-Supercomputer zu bauen, der das OpenAI-Projekt antreibt, hat Microsoft Tausende von GPUs von Nvidia gekauft und sie miteinander verbunden. Durch die Verbindung all dieser GPUs kann Microsoft die enorme Rechenleistung bereitstellen, die OpenAI benötigt, um immer leistungsfähigere KI-Modelle zu trainieren.
Für einen großen Hersteller wie Microsoft, der Milliarden von Dollar in vielversprechende Start-ups investieren kann, mag eine Investition von „Hunderten Millionen Dollar“ nicht viel erscheinen, aber dieser Schritt zeigt, dass künstliche Intelligenz einer geworden ist einer der obersten Prioritäten von Microsoft.
Das ist offensichtlich, denn Microsoft hat kürzlich bekannt gegeben, dass Microsoft hart daran arbeitet, die KI-Funktionen von Azure zu verbessern und leistungsfähiger zu machen. Matt Vegas, Hauptproduktmanager für Azure HPC+AI, sagte, dass Azure kürzlich neue virtuelle Maschinen aktualisiert hat, die Nvidia H100- und A100-Tensor-Core-GPUs verwenden. Diese GPUs sind mit der im letzten Jahr eingeführten Quantum-2-InfiniBand-Beschleunigungsnetzwerkarchitektur verbunden , was es OpenAI und anderen KI-Unternehmen ermöglicht, mithilfe der Azure-Infrastruktur größere und komplexere Modelle zu trainieren.
Eric Boyd, Corporate Vice President von Microsoft Azure AI, sagte in einer Erklärung, dass Microsoft die Notwendigkeit bestimmter Spezialcluster voraussieht, die speziell für große Schulungs-Workloads verwendet werden, und OpenAI war einer davon früheste Beweispunkte. „Wir haben eng zusammengearbeitet, um zu verstehen, wonach sie am wichtigsten waren und was sie beim Aufbau einer Schulungsumgebung brauchten“, sagte er
Das obige ist der detaillierte Inhalt vonMicrosoft gibt bekannt, dass es Milliarden in die Stärkung der Azure-Infrastruktur investiert hat, um ChatGPT zu ermöglichen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!