Heim >Technologie-Peripheriegeräte >KI >Die Sicherheit von ChatGPT hat Anlass zur Sorge gegeben. Die Muttergesellschaft hat ein Dokument herausgegeben, in dem es heißt, dass sie stets auf Sicherheit achtet.

Die Sicherheit von ChatGPT hat Anlass zur Sorge gegeben. Die Muttergesellschaft hat ein Dokument herausgegeben, in dem es heißt, dass sie stets auf Sicherheit achtet.

王林
王林nach vorne
2023-04-07 16:32:101277Durchsuche

Mit der Popularität groß angelegter Sprachmodelle, die von ChatGPT repräsentiert werden, wird die Sorge der Menschen um ihre Sicherheit immer offensichtlicher. Nachdem Italien am 31. März ein vorübergehendes Verbot von ChatGPT aufgrund von Datenschutz- und Sicherheitsproblemen angekündigt hatte, gab Kanada am 4. April ebenfalls bekannt, dass es gegen die ChatGPT-Muttergesellschaft OpenAI wegen Datensicherheitsproblemen ermittelt. Am 5. April aktualisierte der offizielle Blog von OpenAI einen Artikel, der sich darauf konzentrierte, wie es die Sicherheit von KI gewährleistet, was als Nebenreaktion auf die Bedenken der Menschen angesehen werden kann.

Die Sicherheit von ChatGPT hat Anlass zur Sorge gegeben. Die Muttergesellschaft hat ein Dokument herausgegeben, in dem es heißt, dass sie stets auf Sicherheit achtet.

Es hat 6 Monate gedauert, GPT-4 zu testen

In dem Artikel wurde erwähnt, dass das Team nach dem vollständigen Training des neuesten GPT-4-Modells mehr als 6 Monate für interne Tests aufgewendet hat, um sicherer zu sein Wenn sie der Öffentlichkeit zugänglich gemacht werden und glauben, dass leistungsstarke Systeme der künstlichen Intelligenz strengen Sicherheitsbewertungen unterzogen werden sollten, ist es notwendig, aktiv mit der Regierung zusammenzuarbeiten, um die beste Aufsichtsmethode auf der Grundlage der Gewährleistung der Aufsicht zu formulieren.

In dem Artikel wurde auch erwähnt, dass es zwar unmöglich ist, alle Risiken während des experimentellen Testprozesses vorherzusagen, die KI jedoch kontinuierlich Erfahrungen sammeln und sich im tatsächlichen Einsatz verbessern muss, um eine sicherere Version zu entwickeln, und glaubt, dass die Gesellschaft etwas Zeit braucht, um sich zunehmend anzupassen leistungsstarke KI.

Achten Sie auf den Schutz von Kindern

In dem Artikel heißt es, dass einer der wichtigsten Punkte der Sicherheitsarbeit darin besteht, Kinder zu schützen, die über 18 Jahre alt sind oder über 13 Jahre alt sind und unter Aufsicht der Eltern stehen müssen.

OpenAI betont, dass es nicht zulässt, dass seine Technologie zur Generierung hasserfüllter, belästigender, gewalttätiger oder nicht jugendfreier Inhalte verwendet wird. Im Vergleich zu GPT-3.5 weist GPT-4 eine um 82 % verbesserte Fähigkeit auf, auf verbotene Inhalte zu reagieren übergibt das Überwachungssystem, um möglichen Missbrauch zu überwachen, beispielsweise wenn Benutzer versuchen, Material über sexuellen Kindesmissbrauch in das Bildgebungstool hochzuladen, das blockiert und dem Nationalen Zentrum für vermisste und ausgebeutete Kinder gemeldet wird.

Respektieren Sie die Privatsphäre und verbessern Sie die sachliche Genauigkeit

In dem Artikel heißt es, dass das große Sprachmodell von OpenAI auf einem umfangreichen Textkorpus trainiert wird, einschließlich öffentlich zugänglicher Inhalte, lizenzierter Inhalte und von menschlichen Prüfern generierter Inhalte, und dass keine Daten verwendet werden Wird verwendet, um Dienste zu verkaufen, Werbung zu machen und Benutzer zu archivieren. OpenAI erkennt an, dass es während des Trainingsprozesses persönliche Informationen aus dem öffentlichen Internet erhält, wird sich jedoch bemühen, persönliche Informationen nach Möglichkeit aus dem Trainingsdatensatz zu entfernen, das Modell so zu optimieren, dass Anfragen nach persönlichen Informationen abgelehnt werden, und aktiv auf Anfragen zu reagieren Entfernen Sie am System beteiligte Personen.

In Bezug auf die Genauigkeit der bereitgestellten Inhalte heißt es in dem Artikel, dass die Genauigkeit der von GPT-4 generierten Inhalte aufgrund des Benutzerfeedbacks zur Markierung falscher Inhalte um 40 % höher ist als die von GPT-3.5.

Der Artikel geht davon aus, dass der eigentliche Weg zur Lösung von KI-Sicherheitsproblemen nicht nur darin besteht, mehr Zeit und Ressourcen in die Erforschung wirksamer Eindämmungstechnologien zu investieren und Missbrauch in tatsächlichen Nutzungsszenarien in experimentellen Umgebungen zu testen, sondern, was noch wichtiger ist, darin, die Sicherheit und die Fähigkeit dazu zu verbessern Die Verbesserung der KI geht Hand in Hand mit der Fähigkeit, die leistungsstärksten KI-Modelle mit den besten Sicherheitsmaßnahmen zu kombinieren, mit zunehmender Vorsicht leistungsstärkere Modelle zu erstellen und bereitzustellen, und wird sich mit der Weiterentwicklung des KI-Systems weiterentwickeln, um die Sicherheitsmaßnahmen weiter zu stärken .

Das obige ist der detaillierte Inhalt vonDie Sicherheit von ChatGPT hat Anlass zur Sorge gegeben. Die Muttergesellschaft hat ein Dokument herausgegeben, in dem es heißt, dass sie stets auf Sicherheit achtet.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen