suchen
HeimTechnologie-PeripheriegeräteKIWird GPT-5 gestoppt? OpenAI gab am frühen Morgen eine Antwort heraus: Um die Sicherheit der KI zu gewährleisten, machen wir keine „Abstriche'

Die letzten Tage kann man als „ereignisreiche Zeit“ für OpenAI bezeichnen.

Aufgrund der Sicherheitsprobleme, die ChatGPT und GPT-4 verursachen können, hat OpenAI einige Kritik und Hindernisse von außen erhalten:

  • Tausende Menschen, darunter auch Musk, forderten gemeinsam: „Alle Laboratorien für künstliche Intelligenz sollten das Training von GPT sofort einstellen.“ -4 Bei größeren und leistungsstärkeren Modellen beträgt dieser Zeitraum mindestens 6 Monate“;
  • Italien verbietet ChatGPT, OpenAl „muss sie innerhalb von 20 Tagen über seine Vertreter in Europa über die Maßnahmen informieren, die das Unternehmen zur Umsetzung dieser Anforderung ergriffen hat“ ;
  • ChatGPT hat eine große Anzahl von Konten gesperrt;
  • ......
  • Diese Ereignisse zeigen, dass KI der menschlichen Gesellschaft zwar viele Vorteile bringen kann, Technologie ist immer ein zweischneidiges Schwert und birgt auch echte Risiken für die menschliche Gesellschaft, und KI bildet da keine Ausnahme.

Am 6. April veröffentlichte OpenAI offiziell einen Blogartikel mit dem Titel „Unser Ansatz zur KI-Sicherheit“, in dem es darum geht, „Systeme mit künstlicher Intelligenz sicher zu bauen, bereitzustellen und zu nutzen“.

Wird GPT-5 gestoppt? OpenAI gab am frühen Morgen eine Antwort heraus: Um die Sicherheit der KI zu gewährleisten, machen wir keine „AbstricheOpenAI setzt sich dafür ein, dass starke künstliche Intelligenz sicher und allgemein (für die menschliche Gesellschaft) von Nutzen ist. Unsere KI-Tools bieten den Menschen heute viele Vorteile.

Benutzer aus der ganzen Welt berichten uns, dass ChatGPT dabei hilft, ihre Produktivität zu steigern, ihre Kreativität zu steigern und ein maßgeschneidertes Lernerlebnis zu bieten.

Wir sind uns auch darüber im Klaren, dass diese Tools wie jede Technologie mit echten Risiken verbunden sind – deshalb arbeiten wir hart daran, sicherzustellen, dass die Sicherheit auf allen Ebenen in unsere Systeme integriert ist.

1. Bauen Sie zunehmend sichere Systeme für künstliche Intelligenz auf.

Bevor wir ein neues System veröffentlichen, werden wir strenge Tests durchführen, externe Experten in das Feedback einbeziehen und uns bemühen, das Verhalten des Modells mithilfe von Techniken wie Verstärkungslernen mit menschlichem Feedback zu verbessern und zu etablieren umfangreiche Sicherheits- und Überwachungssysteme.

Nachdem beispielsweise unser neuestes Modell, GPT-4, die Schulung abgeschlossen hatte, verbrachten alle unsere Mitarbeiter mehr als sechs Monate damit, es vor der Veröffentlichung sicherer und konsistenter zu machen.

Wir glauben, dass leistungsstarke Systeme der künstlichen Intelligenz strengen Sicherheitsbewertungen unterzogen werden sollten. Um sicherzustellen, dass dieser Ansatz umgesetzt wird, ist eine Regulierung erforderlich, und wir arbeiten aktiv mit der Regierung zusammen, um herauszufinden, wie diese Regulierung am besten aussehen könnte.

2. Lernen Sie aus der Praxis, um die Sicherheitsmaßnahmen zu verbessern.

Wir sind bestrebt, vorhersehbare Risiken vor dem Einsatz zu verhindern. Im Labor können wir jedoch nur begrenzte Erkenntnisse gewinnen. Trotz umfassender Forschung und Tests können wir nicht vorhersagen, wie viele Menschen unsere Technologie nutzbringend nutzen oder wie sie missbraucht werden. Aus diesem Grund glauben wir, dass das Lernen aus der Praxis eine Schlüsselkomponente für die Entwicklung und Veröffentlichung immer sichererer KI-Systeme im Laufe der Zeit ist.

Wir veröffentlichen nach und nach neue KI-Systeme mit zahlreichen Sicherheitsvorkehrungen, um sie einer stetig wachsenden Bevölkerung zugänglich zu machen und basierend auf dem, was wir lernen, kontinuierlich zu verbessern.

Wir bieten unsere leistungsfähigsten Modelle über unsere eigenen Dienste und APIs an, sodass Entwickler diese Technologie direkt in ihren Anwendungen nutzen können. Dies ermöglicht es uns, Missbrauch zu überwachen und entsprechende Maßnahmen zu ergreifen sowie kontinuierlich Abhilfemaßnahmen für die tatsächliche Art und Weise zu entwickeln, wie Menschen unsere Systeme missbrauchen, und nicht nur Theorien darüber aufzustellen, wie Missbrauch aussehen könnte.

Der reale Einsatz hat uns auch dazu veranlasst, immer differenziertere Richtlinien zu entwickeln, um Verhaltensweisen zu verhindern, die echte Risiken für Menschen darstellen, und gleichzeitig viele nützliche Einsatzmöglichkeiten unserer Technologie zu ermöglichen.

Entscheidend ist für uns, dass der Gesellschaft Zeit gegeben werden muss, sich an die immer leistungsfähigere KI zu aktualisieren und anzupassen, und dass jeder, der von dieser Technologie betroffen ist, an der Weiterentwicklung der wichtigen Stimme der KI beteiligt sein sollte. Durch die iterative Bereitstellung können wir verschiedene Stakeholder effektiver in Gespräche über die Einführung von KI-Technologien einbeziehen, als wenn sie diese Tools nicht aus erster Hand kennengelernt hätten.

3. Kinder schützen

Ein zentraler Aspekt der Sicherheit ist der Schutz von Kindern. Wir verlangen, dass Personen, die unsere KI-Tools verwenden, mindestens 18 Jahre alt sind bzw. mit Zustimmung der Eltern mindestens 13 Jahre alt sind, und wir arbeiten an Verifizierungsoptionen.

Wir gestatten nicht, dass unsere Technologie zur Generierung hasserfüllter, belästigender, gewalttätiger oder nicht jugendfreier Inhalte sowie anderer (schädlicher) Kategorien verwendet wird. Unser neuestes Modell, GPT-4, weist im Vergleich zu GPT-3.5 eine um 82 % niedrigere Antwortrate bei Anfragen nach unzulässigen Inhalten auf, und wir haben ein robustes System zur Überwachung von Missbrauch aufgebaut. GPT-4 ist jetzt für ChatGPT Plus-Benutzer verfügbar und wir hoffen, es im Laufe der Zeit für mehr Menschen verfügbar zu machen.

Wir geben uns große Mühe, die Wahrscheinlichkeit zu minimieren, dass unsere Models Inhalte produzieren, die für Kinder schädlich sind. Wenn ein Benutzer beispielsweise versucht, kindersicheres Missbrauchsmaterial in unser Bildtool hochzuladen, blockieren wir die Aktion und melden sie dem National Center for Missing and Exploited Children.

Zusätzlich zu unseren standardmäßigen Sicherheitsleitplanken arbeiten wir mit Entwicklern wie der gemeinnützigen Khan Academy zusammen, die einen KI-gestützten Assistenten entwickelt hat, der sowohl als virtueller Tutor für Schüler als auch als Klassenassistent für Lehrer dient. Passen Sie Sicherheitsmaßnahmen für deren Verwendung an Fälle. Wir entwickeln außerdem Funktionen, die es Entwicklern ermöglichen, strengere Standards für die Modellausgabe festzulegen, um Entwickler und Benutzer, die diese Funktionalität wünschen, besser zu unterstützen.

4. Respektieren Sie die Privatsphäre

Unser großes Sprachmodell basiert auf einem umfangreichen Textkorpus, einschließlich öffentlicher, autorisierter Inhalte sowie von menschlichen Prüfern generierter Inhalte. Wir verwenden Daten nicht, um unsere Dienste und Anzeigen zu verkaufen oder Profile von Personen zu erstellen. Wir verwenden Daten, um unsere Modelle für Menschen hilfreicher zu machen. ChatGPT beispielsweise verbessert die Fähigkeiten, indem es die Leute weiter in Gesprächen damit schult.

Während einige unserer Trainingsdaten persönliche Informationen im öffentlichen Internet enthalten, möchten wir, dass unsere Modelle etwas über die Welt und nicht über die private Welt lernen. Daher arbeiten wir daran, personenbezogene Daten aus Trainingsdatensätzen zu entfernen, soweit möglich, unsere Modelle so zu optimieren, dass Anfragen nach privaten Informationen abgelehnt werden, und auf Anfragen von Einzelpersonen zu reagieren, deren personenbezogene Daten aus unseren Systemen entfernt werden sollen. Diese Schritte minimieren die Möglichkeit, dass unser Modell Inhalte produzieren könnte, die private Informationen enthalten.

5. Verbessern Sie die sachliche Genauigkeit

Große Sprachmodelle sagen die nächste Wortfolge basierend auf Mustern voraus, die sie zuvor gesehen haben, einschließlich der vom Benutzer bereitgestellten Texteingabe. In einigen Fällen ist das nächstwahrscheinlichste Wort möglicherweise nicht sachlich korrekt.

Die Verbesserung der sachlichen Genauigkeit ist eine wichtige Aufgabe für OpenAI und viele andere KI-Entwickler, und wir machen Fortschritte. Durch Nutzung des Benutzerfeedbacks zu ChatGPT-Ausgaben, die als falsch gekennzeichnet wurden, wie die primäre Datenquelle.

Wir sind uns bewusst, dass noch viel zu tun ist, um die Wahrscheinlichkeit von Halluzinationen weiter zu verringern und die Öffentlichkeit über die aktuellen Einschränkungen dieser KI-Tools aufzuklären.

6. Laufende Forschung und Engagement

Wir glauben, dass eine praktische Möglichkeit, KI-Sicherheitsbedenken auszuräumen, darin besteht, mehr Zeit und Ressourcen in die Erforschung wirksamer Abhilfemaßnahmen und Optimierungstechniken zu investieren und diese gegen realen Missbrauch zu testen.

Wichtig ist, dass wir davon überzeugt sind, dass die Verbesserung der Sicherheit und der Fähigkeiten der KI Hand in Hand gehen sollte. Bisher haben wir unsere beste Sicherheitsarbeit durch die Zusammenarbeit mit unseren leistungsfähigsten Modellen erzielt, weil sie Benutzeranweisungen besser befolgen können und sich leichter anleiten oder „coachen“ lassen.

Wir werden immer vorsichtiger sein, da leistungsfähigere Modelle erstellt und eingesetzt werden, und wir werden die Sicherheitsvorkehrungen im Zuge der Weiterentwicklung unserer KI-Systeme weiter verstärken.

Während wir mehr als sechs Monate mit der Bereitstellung von GPT-4 gewartet haben, um seine Fähigkeiten, Vorteile und Risiken besser zu verstehen, kann es manchmal länger dauern, die Sicherheit von KI-Systemen zu verbessern. Daher müssen politische Entscheidungsträger und KI-Anbieter sicherstellen, dass die Entwicklung und der Einsatz von KI weltweit effektiv verwaltet werden und dass niemand „Abstriche“ macht, um so schnell wie möglich Erfolg zu haben. Dies ist eine schwierige Herausforderung, die technologische und institutionelle Innovationen erfordert, aber es ist auch ein Beitrag, den wir gerne leisten möchten.

Die Lösung von Sicherheitsproblemen erfordert auch eine umfassende Debatte, Experimente und Engagement, auch im Hinblick auf die Grenzen des Verhaltens von KI-Systemen. Wir haben die Zusammenarbeit und den offenen Dialog zwischen den Interessengruppen gefördert und werden dies auch weiterhin tun, um ein sicheres KI-Ökosystem zu schaffen.

Das obige ist der detaillierte Inhalt vonWird GPT-5 gestoppt? OpenAI gab am frühen Morgen eine Antwort heraus: Um die Sicherheit der KI zu gewährleisten, machen wir keine „Abstriche'. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Dieser Artikel ist reproduziert unter:51CTO.COM. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen
Werkzeuganruf in LLMsWerkzeuganruf in LLMsApr 14, 2025 am 11:28 AM

Große Sprachmodelle (LLMs) sind immer beliebter, wobei die Tool-Calling-Funktion ihre Fähigkeiten über die einfache Textgenerierung hinaus erweitert hat. Jetzt können LLMs komplexe Automatisierungsaufgaben wie dynamische UI -Erstellung und autonomes A erledigen

Wie ADHS -Spiele, Gesundheitstools und KI -Chatbots die globale Gesundheit verändernWie ADHS -Spiele, Gesundheitstools und KI -Chatbots die globale Gesundheit verändernApr 14, 2025 am 11:27 AM

Kann ein Videospiel Angst erleichtern, Fokus aufbauen oder ein Kind mit ADHS unterstützen? Da die Herausforderungen im Gesundheitswesen weltweit steigen - insbesondere bei Jugendlichen - wenden sich Innovatoren einem unwahrscheinlichen Tool zu: Videospiele. Jetzt einer der größten Unterhaltungsindus der Welt

UN -Input zu KI: Gewinner, Verlierer und MöglichkeitenUN -Input zu KI: Gewinner, Verlierer und MöglichkeitenApr 14, 2025 am 11:25 AM

„Die Geschichte hat gezeigt, dass der technologische Fortschritt das Wirtschaftswachstum zwar nicht selbstverträglich macht, aber nicht eine gerechte Einkommensverteilung sicherstellt oder integrative menschliche Entwicklung fördert“, schreibt Rebeca Grynspan, Generalsekretärin von UNCTAD, in der Präambel.

Lernverhandlungsfähigkeiten über generative KILernverhandlungsfähigkeiten über generative KIApr 14, 2025 am 11:23 AM

Easy-Peasy, verwenden Sie generative KI als Ihren Verhandlungslehrer und Sparringspartner. Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruch

Ted enthüllt von Openai, Google, Meta geht vor Gericht, Selfie mit mir selbstTed enthüllt von Openai, Google, Meta geht vor Gericht, Selfie mit mir selbstApr 14, 2025 am 11:22 AM

Die TED2025 -Konferenz, die in Vancouver stattfand, beendete gestern, dem 11. April, ihre 36. Ausgabe. Es enthielt 80 Redner aus mehr als 60 Ländern, darunter Sam Altman, Eric Schmidt und Palmer Luckey. Teds Thema "Humanity Ranagined" wurde maßgeschneidert gemacht

Joseph Stiglitz warnt vor der drohenden Ungleichheit inmitten der Monopolmacht der AIJoseph Stiglitz warnt vor der drohenden Ungleichheit inmitten der Monopolmacht der AIApr 14, 2025 am 11:21 AM

Joseph Stiglitz ist der renommierte Ökonom und Empfänger des Nobelpreises in Wirtschaftswissenschaften im Jahr 2001. Stiglitz setzt, dass KI bestehende Ungleichheiten und konsolidierte Macht in den Händen einiger dominanter Unternehmen verschlimmern kann, was letztendlich die Wirtschaft untergräbt

Was ist eine Graphendatenbank?Was ist eine Graphendatenbank?Apr 14, 2025 am 11:19 AM

Grafikdatenbanken: Datenmanagement durch Beziehungen revolutionieren Wenn sich die Daten erweitern und sich ihre Eigenschaften über verschiedene Bereiche hinweg entwickeln, entstehen Diagrammdatenbanken als transformative Lösungen für die Verwaltung miteinander verbundener Daten. Im Gegensatz zu traditioneller

LLM Routing: Strategien, Techniken und Python -ImplementierungLLM Routing: Strategien, Techniken und Python -ImplementierungApr 14, 2025 am 11:14 AM

LLM -Routing von großer Sprachmodell (LLM): Optimierung der Leistung durch intelligente Aufgabenverteilung Die sich schnell entwickelnde Landschaft von LLMs zeigt eine Vielzahl von Modellen mit jeweils einzigartigen Stärken und Schwächen. Einige zeichnen sich über kreative Inhalte aus

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

SecLists

SecLists

SecLists ist der ultimative Begleiter für Sicherheitstester. Dabei handelt es sich um eine Sammlung verschiedener Arten von Listen, die häufig bei Sicherheitsbewertungen verwendet werden, an einem Ort. SecLists trägt dazu bei, Sicherheitstests effizienter und produktiver zu gestalten, indem es bequem alle Listen bereitstellt, die ein Sicherheitstester benötigen könnte. Zu den Listentypen gehören Benutzernamen, Passwörter, URLs, Fuzzing-Payloads, Muster für vertrauliche Daten, Web-Shells und mehr. Der Tester kann dieses Repository einfach auf einen neuen Testcomputer übertragen und hat dann Zugriff auf alle Arten von Listen, die er benötigt.

Dreamweaver Mac

Dreamweaver Mac

Visuelle Webentwicklungstools

PHPStorm Mac-Version

PHPStorm Mac-Version

Das neueste (2018.2.1) professionelle, integrierte PHP-Entwicklungstool