Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Die Industrie sagt, dass die Suche im ChatGPT-Stil die Kosten von Google verzehnfachen wird und jedes Jahr mehr Milliarden ausgibt

Die Industrie sagt, dass die Suche im ChatGPT-Stil die Kosten von Google verzehnfachen wird und jedes Jahr mehr Milliarden ausgibt

WBOY
WBOYnach vorne
2023-04-16 11:07:021243Durchsuche

Die Industrie sagt, dass die Suche im ChatGPT-Stil die Kosten von Google verzehnfachen wird und jedes Jahr mehr Milliarden ausgibt

Nachrichten vom 23. Februar: Da das Chat-Tool für künstliche Intelligenz ChatGPT weiterhin beliebt ist, haben Unternehmen, die Suchdienste anbieten, wie Google und Microsoft, damit begonnen, Funktionen von Chat-Robotern mit künstlicher Intelligenz in die Suchoberfläche zu integrieren. Aber für diese Technologiegiganten wird diese Suchmaschine im Chatbot-Stil die Betriebskosten um das Zehnfache erhöhen, was zu Ausgaben von bis zu Milliarden Dollar führen wird.

Führungskräfte in der gesamten Technologiebranche diskutieren über die hohen Kosten für den Betrieb einer KI wie ChatGPT. Sam Altman, CEO von OpenAI, sagte einmal auf Twitter, dass die Rechenkosten von ChatGPT pro Konversation mit Benutzern ein paar Cent oder mehr betragen, was „unerträglich“ sei.

John Hennessy, Vorsitzender der Google-Muttergesellschaft Alphabet, sagte in einem Interview, dass eine Feinabstimmung zwar dazu beitragen kann, die Kosten schnell zu senken, „die Kosten für den Informationsaustausch mit künstlicher Intelligenz wie großen Sprachmodellen für die Vervollständigung von Standardschlüsselwörtern jedoch mehr als 10 betragen können.“ mal die Suchfunktion.“

Der Nettogewinn von Alphabet wird im Jahr 2022 bei fast 60 Milliarden US-Dollar liegen. Selbst wenn das Chatbot-basierte Suchgeschäft Werbeeinnahmen generiert, könnte sich die Technologie nachteilig auf das Geschäftsergebnis von Alphabet auswirken und zusätzliche Kosten in Milliardenhöhe verursachen, sagen Analysten.

Die Investmentbank Morgan Stanley schätzt, dass die Kosten für die 3,3 Billionen Suchanfragen von Google im vergangenen Jahr etwa 0,55 Cent pro Suchanfrage betrugen. Diese Zahl wird nur mehr oder weniger betragen, je nachdem, wie viel Text durch künstliche Intelligenz generiert wird. Analysten sagen voraus, dass Google bis 2024 6 Milliarden US-Dollar mehr pro Jahr kosten wird, wenn „ein KI-Chatbot wie ChatGPT die Hälfte der heutigen Suchanfragen mit 50-Wörter-Antworten bewältigen kann“.

Andere Analysten haben ähnliche Ansichten. SemiAnalysis, ein auf Chip-Technologie spezialisiertes Forschungs- und Beratungsunternehmen, sagte, dass das Hinzufügen künstlicher Intelligenz im ChatGPT-Stil zur Suche Alphabet angesichts der neuen Tensor-Verarbeitungseinheiten und anderer Optimierungen zusätzliche 3 Milliarden US-Dollar kosten könnte.

Der Grund, warum diese Art von künstlicher Intelligenz teurer ist als herkömmliche Suchmaschinen, liegt in der höheren Rechenleistung. Analysten sagen, dass diese Art von künstlicher Intelligenz auf Chips basiert, die Milliarden Dollar kosten und die entsprechenden Kosten über mehrere Jahre Nutzungsdauer verteilt werden müssen. Der verbrauchte Strom wird auch den Druck auf die Betriebskosten und CO2-Emissionsindikatoren der Unternehmen erhöhen.

Der Prozess der Verarbeitung von Suchanfragen mit künstlicher Intelligenz wird als „Inferenz“ bezeichnet. Bei jeder Suche wird ein riesiges neuronales Netzwerk gestartet, das das menschliche Gehirn nachahmt, eine Menge Text generiert und möglicherweise große Suchindizes nach sachlichen Informationen abfragt. Hannis von

Alphabet sagte: „Man muss die Kosten für Schlussfolgerungen reduzieren“, was seiner Meinung nach „im schlimmsten Fall Jahre dauern wird.“

Trotz seiner hohen Betriebskosten muss Alphabet noch darüber nachdenken, wie es auf die Herausforderungen anderer Technologieunternehmen reagieren kann. Anfang des Monats präsentierte der Konkurrent Microsoft Pläne, Chatbots mit künstlicher Intelligenz in seine Bing-Suchmaschine einzubetten. Similarweb schätzt, dass Microsoft-Führungskräfte den Suchmarktanteil von Google von 91 % anstreben.

Amy Hood, Chief Financial Officer von Microsoft, sagte den Analysten, dass mit der Einführung des verbesserten Bing die Vorteile erhöhter Benutzerzahlen und Werbeeinnahmen die Kosten überwogen hätten. Hood sagte: „Für uns ist die Bruttomarge selbst bei den Kosten der von uns diskutierten Dienstleistungen gestiegen.“ Erfahrung sowie Diagramm-, Video- und andere generative Technologieanwendungen werden die Betriebskosten um 30 bis 50 % erhöhen. Aber er sagte: „Mit der Zeit wird die Technologie immer billiger.“

Eine Quelle in der Nähe von Google warnte, dass es noch zu früh sei, um die konkreten Kosten des Chatbots zu bestimmen, da die betriebliche Effizienz und die Nutzung stark variieren würden von der Technologie abhängen und Suchprodukte basieren schon lange auf künstlicher Intelligenz.

Paul Daugherty, Chief Technology Officer von Accenture, sagte, dass die Kosten einer der beiden Hauptgründe seien, warum der Suchriese mit Milliarden von Nutzern nicht sofort einen Chatbot mit künstlicher Intelligenz auf den Markt gebracht habe.

„Eins ist Genauigkeit, und zweitens muss man richtig skalieren“, sagte er

Seit Jahren untersuchen Forscher bei Alphabet und anderen Unternehmen, wie man große Sprachmodelle kostengünstiger trainieren und betreiben kann.

Größere Modelle erfordern normalerweise mehr Chips für die Inferenz und sind daher teurer im Betrieb. Die Modelle hinter der künstlichen Intelligenz, die Verbraucher dazu bringen, darauf zuzugreifen, sind ziemlich umfangreich. Das Modell hinter ChatGPT verfügt beispielsweise über 175 Milliarden Parameter, und die Kosten jeder Operation ändern sich weiterhin mit der Länge der Benutzeranfrage.

Ein leitender Technologiemanager sagt, es sei immer noch zu teuer, Millionen von Verbrauchern dazu zu bringen, diese Art von künstlicher Intelligenz zu nutzen. „Diese Modelle sind sehr teuer, daher wird die nächste Weiterentwicklungsstufe die Kosten für das Training dieser Modelle und die Inferenz senken, sodass sie in jeder Anwendung verwendet werden können“, sagte der ungenannte Manager Wissenschaftler von OpenAI haben nun herausgefunden, wie man die Inferenzkosten durch komplexe Codes optimieren kann, um die Effizienz des Chipbetriebs zu verbessern.

Eine seit langem bestehende Frage ist, wie man die Anzahl der Parameter in einem Modell der künstlichen Intelligenz um das Zehnfache oder sogar Hundertfache reduzieren kann, ohne die Genauigkeit zu beeinträchtigen.

„Wie man (Parameter) am effektivsten eliminiert, ist immer noch eine offene Frage“, sagte Naveen Rao, der einst Intels Chip-Projekt für künstliche Intelligenz leitete.

Gleichzeitig erwägen einige Unternehmen, für die Nutzung künstlicher Intelligenz zu zahlen, beispielsweise den aktualisierten ChatGPT-Dienst von OpenAI, für den eine monatliche Abonnementgebühr von 20 US-Dollar erhoben wird. Technologieexperten sagen auch, dass eine Lösung darin besteht, kleinere KI-Modelle auf einfachere Aufgaben anzuwenden, ein Ansatz, den Alphabet erforscht.

Alphabet sagte diesen Monat, dass eine „kleinere Version“ seines LaMDA-Modells für künstliche Intelligenz den Chatbot Bard antreiben wird, „der deutlich weniger Rechenleistung erfordert, sodass wir auf mehr Benutzer skalieren können

In der letzten Woche auf die Frage nach Chatbots.“ Wie ChatGPT und Bader sagte Hannis auf einer Konferenz, dass zielgerichtetere Modelle statt allmächtiger Systeme dazu beitragen würden, „Kosten zu senken“.

Das obige ist der detaillierte Inhalt vonDie Industrie sagt, dass die Suche im ChatGPT-Stil die Kosten von Google verzehnfachen wird und jedes Jahr mehr Milliarden ausgibt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen