Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Die Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antwortete

Die Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antwortete

WBOY
WBOYnach vorne
2023-04-12 15:37:031002Durchsuche

Gestern früh hat OpenAI unerwartet GPT-4 veröffentlicht.

Diese Ankündigung kam für die Technologie-Community überraschend. Schließlich wurde allgemein erwartet, dass GPT-4 auf der Konferenz „The Future of Work with AI“ von Microsoft angekündigt wird ” Veranstaltung am Donnerstag.

Nur vier Monate nach dem Debüt von ChatGPT hat es einen Rekord als „am schnellsten wachsende Verbraucheranwendung in der Geschichte“ aufgestellt. Da GPT-4 nun online ist, haben die Reaktionsfähigkeiten des Produkts ein neues Niveau erreicht.

Nachdem viele Forscher schockiert waren, lasen sie den technischen Bericht von GPT-4 aufmerksam durch, waren aber enttäuscht: Warum gibt es keine technischen Details?

Eine Veröffentlichung, die dem Gründungsgeist widerspricht

In der Ankündigung teilte OpenAI eine große Anzahl von GPT-4-Benchmark- und Testergebnissen mit sowie einige interessante Demonstrationen, liefert jedoch nur wenige Informationen über die zum Trainieren des Systems verwendeten Daten, die Kosten der Rechenleistung oder die Hardware oder Methoden, die zur Erstellung von GPT-4 verwendet werden.

Die Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antwortete

Zum Beispiel der Abschluss einer Art Zeitersparnis beim Lesen von GPT- 4 Papier lautet: „Wir verwenden Python.“ „Ich habe gelesen, dass GPT-4 auf der Transformer-Architektur basiert.“ Mitglieder der KI-Community kritisierten die Entscheidung und stellten fest, dass sie den Gründungsethos von OpenAI als forschungsbasierte Organisation untergräbt und es anderen erschwert, ihre Arbeit zu reproduzieren.

Die meisten ersten Reaktionen auf das geschlossene Modell von GPT-4 waren negativ, aber es scheint, dass Wut seine Entscheidung, eine „geschlossene Quelle“ zu sein, nicht ändern kann: #🎜 🎜# Die Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antwortete

Tatsächlich gibt es schon seit einiger Zeit Kritik an OpenAI, weil es kein Open Source sei. Sogar Musk, ein Gründungsmitglied von OpenAI, hat seine „Abweichung von der ursprünglichen Absicht“ öffentlich in Frage gestellt:

Musk ist immer noch verwirrt über diesen Vorfall: „Ich verstehe nicht, wie aus einer gemeinnützigen Organisation, in die fast 100 Millionen US-Dollar investiert wurden, ein kommerzielles Unternehmen mit einem Marktwert von 30 Milliarden wurde?“

„Ich denke, es ist an der Zeit, damit aufzuhören“, sagte Ben Schmidt, Vizepräsident für Informationsdesign bei Nomic AI Open – das 98-seitige Papier, das GPT-4 vorstellt, erklärt stolz, dass sie keine Informationen darüber preisgegeben haben Der Inhalt des Trainingssatzes Einige Leute glauben, dass ein weiterer Grund, warum OpenAI GPT-4-Details verbirgt, die rechtliche Haftung ist. KI-Sprachmodelle werden auf riesigen Textdatensätzen trainiert, und viele Modelle (einschließlich des frühen GPT-Systems) sammeln Informationen aus dem Internet, von denen eine Quelle möglicherweise urheberrechtlich geschütztes Material enthält. Mehrere Unternehmen werden derzeit von der unabhängigen Künstler- und Fotoseite Getty Images verklagt. Noch wichtiger ist, dass einige sagen, dass es dadurch schwieriger wird, Schutzmaßnahmen gegen die Bedrohungen durch GPT-4 zu entwickeln. Ben Schmidt ist außerdem der Ansicht, dass es schwierig ist, zu wissen, wo das System sicher eingesetzt werden kann, und Korrekturen vorzuschlagen, ohne die Daten sehen zu können, auf denen GPT-4 trainiert wurde. Die Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antwortete

„Es ist bekannt, dass neuronale Netze wie GPT-4 Black Boxes sind. Die Tatsache, dass ihre Funktionsweise unvorhersehbar und schwer zu verstehen ist, ist eine der wichtigsten Fragen, ob und wo sie eingesetzt werden sollten. Jetzt entwickelt sich OpenAI schrittweise weiter.“ ein Standard, der dieses Mysterium noch weiter vertieft“, sagte Ben Schmidt.

Die Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antwortete

OpenAI-Chefwissenschaftler: Open-Source-GPT-4 ist unklug

Ilya Sutskever, Chefwissenschaftler und Mitbegründer von OpenAI, antwortete auf die obige Kontroverse und sagte, dass OpenAI nicht mehr GPT-4 teilt Details Der Grund für die Information ist „Angst vor Konkurrenz und Sorge um die Sicherheit“:

„In der Wettbewerbslandschaft ist die Konkurrenz von außen sehr groß. Die Entwicklung von GPT-4 ist nicht einfach. Sie hat sich fast zusammengefunden.“ Die ganze Kraft von OpenAI. Es hat viel Mühe gekostet, dieses Ding zu produzieren, und es gibt viele Unternehmen, die das Gleiche tun wollen. „

Seite, aber es wird sich auch ändern, und sie werden immer effizienter. Irgendwann wird es ziemlich einfach sein, mit diesen Modellen großen Schaden anzurichten Je leistungsfähiger es ist, desto sinnvoller ist es, sie nicht offenzulegen.“ Irgendwann werden KI oder AGI extrem leistungsfähig und unglaublich sein, dann macht Open Source keinen Sinn, und ich bin fest davon überzeugt, dass in ein paar Jahren jedem klar sein wird, dass Open Source KI unklug ist. „

CEO von Lightning AI. , William Falcon, der Schöpfer des Open-Source-Tools PyTorch Lightning, sagte gegenüber VentureBeat, dass er diese Entscheidung aus geschäftlicher Sicht verstehen kann: „Als Unternehmen haben Sie jedes Recht dazu.“ "

Aber er sagte auch, dass der Schritt von OpenAI mehr ist. Die breitere Community legt eine „schlechte Vorlage“ fest, die schädliche Auswirkungen haben kann.

Zum Grund, warum OpenAI seine Trainingsdaten nicht weitergibt, erklärt Sutskever: „Meiner Meinung nach handelt es sich bei den Trainingsdaten um Technologie. Der Grund, warum wir die Trainingsdaten nicht offenlegen, ist fast derselbe Warum wir die Anzahl der Parameter nicht offenlegen Auf die Frage, ob OpenAI eindeutig angeben könne, dass seine Trainingsdaten kein gefälschtes Material enthalten, antwortete Sutskever nicht.

Sutskever stimmt den Kritikern von OpenAI zu, dass Open-Source-Modelle die Entwicklung von Schutzmaßnahmen erleichtern. „Wenn mehr Menschen diese Modelle studieren, werden wir mehr lernen, und das wird noch besser“, sagte er. Aus diesen Gründen gewährt OpenAI bestimmten akademischen und Forschungseinrichtungen Zugriff auf seine Systeme.

Was können wir als nächstes erwarten?

Die durch GPT-4 ausgelöste hitzige Diskussion wird voraussichtlich noch eine Weile andauern, so dass einige andere Entwicklungen möglicherweise ignoriert werden.

Inmitten der überwältigenden Diskussion gestern schien die Ankündigung von Google ruhig zu sein. Derzeit ist die generative KI vollständig in Google Workspace integriert und Funktionen wie das Generieren von Bildern, Präsentationen, E-Mails, Dokumenten usw. wurden aktualisiert. Wie Sie sich vorstellen können, wird dies eine enorme Produktivitätssteigerung sein.

Als nächstes darf man sich auf einiges freuen: Bald wird Microsoft-CEO Satya Nadella persönlich eine Rede halten, um weitere Kooperationen zwischen Microsoft und OpenAI vorzustellen, etwa die Office-Suite auf Basis von GPT-4.

Die Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antworteteQuelle: https://www.theinformation.com/articles/microsoft-rations-access-to-ai-hardware-for-internal-teams

Warten wir ab .

Das obige ist der detaillierte Inhalt vonDie Vertraulichkeit der technischen Details von GPT-4 sorgte für Kontroversen, und der Chefwissenschaftler von OpenAI antwortete. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen