Heim >Technologie-Peripheriegeräte >KI >Das Unternehmen OpenAI veröffentlicht Sicherheitsmaßnahmen, die beim Aufbau von Modellen für künstliche Intelligenz wie GPT-4 verwendet werden

Das Unternehmen OpenAI veröffentlicht Sicherheitsmaßnahmen, die beim Aufbau von Modellen für künstliche Intelligenz wie GPT-4 verwendet werden

WBOY
WBOYnach vorne
2023-04-13 20:52:10806Durchsuche

Das Unternehmen OpenAI veröffentlicht Sicherheitsmaßnahmen, die beim Aufbau von Modellen für künstliche Intelligenz wie GPT-4 verwendet werden

OpenAI hat kürzlich angekündigt, Sicherheitsmaßnahmen in seine Tools für künstliche Intelligenz zu integrieren. Das Unternehmen ist Entwickler des leistungsstarken GPT-4-Modells für groß angelegte linguistische künstliche Intelligenz, das den Kern seines ChatGPT-Chatbots und anderer künstlicher Intelligenzsysteme bildet. Die Offenlegung des Unternehmens erfolgt vor dem Hintergrund wachsender Forderungen nach mehr Kontrolle über die Entwicklung generativer KI-Systeme.

In einem Blogbeitrag erläuterte das Unternehmen OpenAI die Schritte, die es unternimmt, um zu verhindern, dass seine künstlichen Intelligenzsysteme schädliche Inhalte generieren und gegen Datenschutzbestimmungen verstoßen. Während die vom Unternehmen entwickelten KI-Tools zu einem weltweiten Boom der generativen KI geführt haben, haben sich die Regulierungsbehörden in den letzten Wochen zunehmend für die Sicherheit solcher KI-Systeme interessiert, wobei Italien mögliche Verstöße gegen die DSGVO-Vorschriften anführte. Die Verwendung von ChatGPT ist verboten.

Experten für künstliche Intelligenz, darunter Musk und Apple-Mitbegründer Wozniak, forderten kürzlich in einem offenen Brief eine vorübergehende Aussetzung der Entwicklung großer Sprachmodelle (LLM), und auch US-Präsident Biden beteiligte sich an dieser Diskussion, sagte er gegenüber Medienreportern Für Unternehmen mit künstlicher Intelligenz muss die Sicherheit an erster Stelle stehen.

Wie OpenAI GPT-4 mit Blick auf die Sicherheit entwickelt hat

OpenAI sagte, dass es sechs Monate damit verbracht habe, das System zu perfektionieren, bevor es letzten Monat sein bisher fortschrittlichstes GPT-4 herausbrachte, um es so schwierig wie möglich zu machen, es für schändliche Zwecke zu verwenden.

Sicherheitsforscher haben zuvor gezeigt, dass es möglich ist, die Sicherheitskontrollen von ChatGPT zu umgehen, indem man Chatbots „austrickst“, damit sie Hassreden oder Malware-Code generieren, der schlechte Systeme der künstlichen Intelligenz nachahmt. OpenAI sagt, dass dies bei GPT-4 weniger wahrscheinlich ist als beim GPT-3.5-Modell.

Die Ingenieure des Unternehmens sagten: „Im Vergleich zu GPT-3.5 ist die Wahrscheinlichkeit, dass GPT-4 auf Anfragen nach unzulässigen Inhalten reagiert, und wir haben ein robustes System zur Überwachung der Leistung von Systemen mit künstlicher Intelligenz entwickelt.“ Außerdem werden Funktionen entwickelt, die es Entwicklern ermöglichen, strengere Standards für die Modellausgabe festzulegen, um Entwickler und Benutzer, die solche Funktionen benötigen, besser zu unterstützen auf Bedenken der Datenregulierungsbehörden hinsichtlich der Art und Weise, wie sein Modell Daten aus dem Internet für Schulungszwecke sammelt. Nachdem Italien ChatGPT verboten hatte, leitete Kanada eine Untersuchung zur Sicherheit des Chatbots ein und andere Länder in Europa überlegen, ob sie dem Beispiel Italiens folgen sollen.

Das Unternehmen OpenAI sagte: „Unsere großen Sprachmodelle werden auf einem umfangreichen Textkorpus trainiert, einschließlich öffentlich zugänglicher Inhalte, lizenzierter Inhalte und von menschlichen Prüfern generierter Inhalte. Wir verwenden die Daten nicht, um Dienste zu verkaufen, Anzeigen zu schalten oder Benutzer zu erstellen.“ Profile.“

Das Unternehmen gibt außerdem Einzelheiten dazu bekannt, wie sichergestellt werden kann, dass während des Trainings keine personenbezogenen Daten preisgegeben werden. Das Unternehmen sagte: „Während einige unserer Trainingsdaten persönliche Informationen enthalten, die im öffentlichen Internet verfügbar sind, möchten wir, dass unsere großen Sprachmodelle etwas über die Welt und nicht über einzelne Personen lernen Das Entfernen persönlicher Informationen aus dem Datensatz, die Feinabstimmung des Modells, um Anfragen nach persönlichen Informationen abzulehnen, und die Reaktion auf Anfragen von Einzelpersonen, persönliche Informationen aus dem KI-System zu entfernen, minimieren die Wahrscheinlichkeit, dass unsere Modelle Antworten generieren, die persönliche Informationen enthalten.

US-Präsident Biden reiht sich in die Reihe der Gegner künstlicher Intelligenz ein

Bevor OpenAI diese Erklärung herausgab, sagte US-Präsident Biden Reportern, dass Entwickler künstlicher Intelligenz dafür verantwortlich seien, sicherzustellen, dass ihre Produkte sicher sind, bevor sie sie öffentlich machen.

Biden sprach, nachdem er mit seinem Wissenschafts- und Technologiebeirat über die Entwicklung künstlicher Intelligenz gesprochen hatte. Er sagte, die US-Regierung sei entschlossen, die im Oktober letzten Jahres eingeführte Bill of Rights für künstliche Intelligenz voranzutreiben, um Einzelpersonen vor den negativen Auswirkungen fortschrittlicher automatisierter Systeme zu schützen.

Biden sagte: „Wir haben letzten Oktober eine Bill of Rights vorgeschlagen, um sicherzustellen, dass wichtige Schutzmaßnahmen von Anfang an in KI-Systeme integriert sind, damit wir sie nicht erneut durchführen müssen. Ich freue mich auf unsere Diskussionen, um verantwortungsvolle Innovationen sicherzustellen.“ geeignete Leitplanken zum Schutz der Rechte und der Sicherheit des amerikanischen Volkes, zum Schutz seiner Privatsphäre und zur Bekämpfung möglicher Voreingenommenheit und Desinformation.“

Das obige ist der detaillierte Inhalt vonDas Unternehmen OpenAI veröffentlicht Sicherheitsmaßnahmen, die beim Aufbau von Modellen für künstliche Intelligenz wie GPT-4 verwendet werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen