Das kalifornische Unternehmen hat schon lange angedeutet, dass es an einer Technologie forscht, die Inhalte mit künstlicher Intelligenz (KI) erkennen kann, aber es hat seine Kunden glauben gemacht, dass diese Technologie noch Jahre entfernt sei.
OpenAI hat angeblich ein Tool entwickelt, das erkennen kann, wenn jemand ChatGPT verwendet, um Inhalte mit einer Genauigkeit von 99,9 % zu generieren, aber das Unternehmen hat keine Pläne, es der Öffentlichkeit zugänglich zu machen.
Das kalifornische Unternehmen hat schon lange angedeutet, dass es an einer Technologie forscht, die Inhalte mit künstlicher Intelligenz (KI) erkennen kann, aber es hat seine Kunden glauben lassen, dass diese Technologie noch Jahre entfernt sei. Laut Insidern, die mit dem Wall Street Journal (WSJ) sprachen, ist dieses Tool jedoch schon seit Monaten verfügbar.
Das Erkennen von KI-generierten Inhalten ist mit zunehmender Akzeptanz zu einer großen Herausforderung geworden. Gesetzgeber haben Gesetze formuliert, die KI-Entwickler dazu verpflichten, Wasserzeichen und andere Unterscheidungsmerkmale in solche Inhalte aufzunehmen, aber keines hat sich durchgesetzt.
Diese Herausforderung ist in einigen Bereichen stärker ausgeprägt, beispielsweise im Bildungssystem, wo eine aktuelle Studie ergab, dass 60 % der Mittel- und Oberstufenschüler KI zur Unterstützung bei Schularbeiten nutzen.
OpenAI-Insidern zufolge wurde diese Herausforderung vor über einem Jahr von einem Team gelöst, das eine Genauigkeit von 99,9 % bei der Erkennung von ChatGPT-generierten Inhalten erreichen konnte. Das Unternehmen plant jedoch nicht, das Tool der Öffentlichkeit zugänglich zu machen.
„Es ist nur eine Frage des Knopfdrucks“, sagte eine der Quellen.
OpenAI sagt, die Verzögerung sei notwendig, um die Benutzer zu schützen, da das Tool „erhebliche Risiken“ birgt.
„Wir glauben, dass der bewusste Ansatz, den wir gewählt haben, angesichts der damit verbundenen Komplexität und seiner wahrscheinlichen Auswirkungen auf das breitere Ökosystem über OpenAI hinaus notwendig ist“, sagte ein Unternehmenssprecher gegenüber WSJ.
Das Unternehmen behauptete außerdem, dass schlechte Akteure die Technik entschlüsseln und Problemumgehungen entwickeln könnten, wenn die Technologie für jedermann verfügbar wäre.
Quellen sagen jedoch, dass das eigentliche Motiv die Nutzerbindung ist. Eine Unternehmensumfrage im letzten Jahr ergab, dass 70 % der ChatGPT-Benutzer das neue Tool nicht befürworteten, wobei jeder Dritte sagte, er würde den Chatbot aufgeben und sich an seine Konkurrenten wenden.
Seitdem haben leitende Angestellte das Tool unterdrückt und behauptet, es sei noch nicht für eine öffentliche Einführung bereit. Bei einem Treffen vor zwei Monaten erklärten die Top-Führungskräfte, dass dieses Tool, das auf Wasserzeichen-Ausgaben basiert, zu kontrovers sei und dass das Unternehmen andere Optionen prüfen müsse.
OpenAI-Konkurrenten, angeführt von Google (NASDAQ: GOOGL), haben sich nicht besser geschlagen. Der Suchmaschinenriese, dessen Gemini LLM zu den Branchenführern gehört, hat ein ähnliches Tool namens SynthID entwickelt, es jedoch noch nicht öffentlich eingeführt.
Damit künstliche Intelligenz (KI) gesetzeskonform funktioniert und angesichts wachsender Herausforderungen erfolgreich ist, muss sie ein Enterprise-Blockchain-System integrieren, das die Qualität und den Besitz der Dateneingabe gewährleistet – so dass die Daten sicher bleiben und gleichzeitig die Sicherheit gewährleistet ist Unveränderlichkeit der Daten.
CoinDesk-Abonnenten können hier auf die ganze Geschichte zugreifen.
Beobachten Sie: Transformative KI-Anwendungen kommen
Neu in der Blockchain? Schauen Sie sich den Abschnitt „Blockchain für Anfänger“ von CoinGeek an, den ultimativen Ressourcenleitfaden, um mehr über die Blockchain-Technologie zu erfahren.
Das obige ist der detaillierte Inhalt vonOpenAI hat ein Tool zur Erkennung von ChatGPT-generierten Inhalten mit einer Genauigkeit von 99,9 % entwickelt, hat jedoch keine Pläne, es zu veröffentlichen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!