Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Microsoft stellt der US-Regierung ein großes GPT-Modell zur Verfügung. Wie kann die Sicherheit gewährleistet werden?

Microsoft stellt der US-Regierung ein großes GPT-Modell zur Verfügung. Wie kann die Sicherheit gewährleistet werden?

PHPz
PHPznach vorne
2023-06-12 20:59:18740Durchsuche

Microsoft stellt der US-Regierung ein großes GPT-Modell zur Verfügung. Wie kann die Sicherheit gewährleistet werden?

Die Begeisterung für generative künstliche Intelligenz hat die US-Bundesregierung erfasst. Microsoft hat die Einführung des Azure OpenAI-Dienstes angekündigt, der Azure-Regierungskunden den Zugriff auf GPT-3, GPT-4 und Embeddings ermöglicht.

In einer Erklärung sagte Microsoft, dass Regierungsbehörden über den Dienst Zugriff auf ChatGPT-Anwendungsfälle haben werden, ohne „die strengen Sicherheits- und Compliance-Standards zu opfern, die sie benötigen, um behördliche Anforderungen für sensible Daten zu erfüllen.“ ermöglicht Regierungskunden den „sicheren Zugriff auf große Sprachmodelle in kommerziellen Umgebungen von Azure Government“. Microsoft gibt an, dass der Zugriff über die Python SDK REST APIs oder Azure AI Studio erfolgen wird, ohne dass Regierungsdaten dem öffentlichen Internet zugänglich gemacht werden.

Microsoft verspricht: „Nur Anfragen, die an den Azure OpenAI-Dienst gesendet werden, werden in der kommerziellen Umgebung an das Azure OpenAI-Modell übertragen.“ „Azure Government arbeitet direkt mit dem kommerziellen Microsoft Azure-Netzwerk zusammen, nicht direkt mit dem öffentlichen Internet oder dem Microsoft-Unternehmen.“ Netzwerk. Peer-to-Peer.“

Microsoft gibt an, dass der gesamte Azure-Verkehr mit dem Netzwerksicherheitsstandard IEEE 802.1AE – oder MACsec – verschlüsselt wird und dass sich der gesamte Verkehr auf einem globalen Backbone von mehr als 25 Kilometern befindet Glasfaser- und Seekabelsysteme.

Der Azure OpenAI-Dienst für Behörden wurde vollständig eingeführt und ist für zugelassene Unternehmens- oder Regierungskunden verfügbar.

Wie vertraulich kann das von der Regierung verwendete ChatGPT sein?

Microsoft wollte schon immer das Vertrauen der US-Regierung gewinnen – hat aber auch Fehler gemacht.

Es wurde bekannt, dass mehr als ein Terabyte sensibler Militärdokumente der Regierung im öffentlichen Internet veröffentlicht wurden – wobei sich das Verteidigungsministerium und Microsoft gegenseitig die Schuld für das Problem gaben.

OpenAI, eine Microsoft-Tochtergesellschaft und Erfinder von ChatGPT, ist auch in puncto Sicherheit unbefriedigend. Im März ermöglichte eine schlechte Open-Source-Bibliothek die Offenlegung der Chat-Aufzeichnungen einiger Benutzer. Seitdem haben eine Reihe namhafter Unternehmen – darunter Apple, Amazon und mehrere Banken – die interne Nutzung von ChatGPT verboten, weil sie befürchten, dass dadurch vertrauliche interne Informationen preisgegeben werden könnten.

Der britische Geheimdienst GCHQ hat sogar vor dieser Gefahr gewarnt. Tut die US-Regierung also das Richtige, indem sie ihre Geheimnisse an Microsoft weitergibt, auch wenn diese Geheimnisse offensichtlich nicht an ein nicht vertrauenswürdiges Netzwerk weitergegeben werden?

Microsoft sagt, dass es nicht ausschließlich Regierungsdaten zum Trainieren seines OpenAI-Modells verwenden wird, daher ist es wahrscheinlich, dass streng geheime Daten nicht in Antworten an andere weitergegeben werden. Das heißt aber nicht, dass es standardmäßig sicher sein kann. In seiner Ankündigung räumte Microsoft höflich ein, dass bei der Nutzung von OpenAI-Modellen durch Regierungsanwender dennoch einige Daten aufgezeichnet werden.

Microsoft sagte: „Microsoft ermöglicht Kunden mit zusätzlichen eingeschränkten Zugriffsqualifikationen und der Demonstration spezifischer Anwendungsfälle, Änderungen an den Content-Management-Funktionen von Azure OpenAI anzufordern.“

Es fügte hinzu: „Wenn Microsoft die Anfrage eines Kunden zur Änderung von Datensätzen genehmigt, wird dies der Fall sein.“ Die Datenprotokollierung in Azure Commerce für alle Fragen und Antworten, die im Zusammenhang mit einem genehmigten Azure-Abonnement gespeichert werden, wird ebenfalls deaktiviert. „Dies bedeutet, dass von der KI zurückgegebene Texte von der Behörde nicht erfüllt werden.“ ​Modell - bleibt erhalten.

Das obige ist der detaillierte Inhalt vonMicrosoft stellt der US-Regierung ein großes GPT-Modell zur Verfügung. Wie kann die Sicherheit gewährleistet werden?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen