Rumah > Artikel > Peranti teknologi > Microsoft menyediakan model besar GPT kepada kerajaan AS, bagaimana untuk memastikan keselamatan?
Kegilaan terhadap kecerdasan buatan generatif telah melanda kerajaan persekutuan AS Microsoft mengumumkan pelancaran perkhidmatan Azure OpenAI, membolehkan pelanggan kerajaan Azure mengakses GPT-3, GPT-4 dan Embeddings.
Agensi kerajaan akan mempunyai akses kepada kes penggunaan ChatGPT melalui perkhidmatan tanpa mengorbankan "standard keselamatan dan pematuhan ketat yang mereka perlukan untuk memenuhi keperluan kerajaan untuk data sensitif," kata Microsoft dalam satu kenyataan ."
Microsoft mendakwa bahawa ia telah membangunkan seni bina yang membolehkan pelanggan kerajaan untuk "menakses model bahasa besar dengan selamat dalam persekitaran komersial daripada Kerajaan Azure." Microsoft berkata ia akan diakses melalui Python SDK REST API atau Azure AI Studio, semuanya tanpa mendedahkan data kerajaan kepada internet awam.
Microsoft berjanji: "Hanya pertanyaan yang diserahkan kepada perkhidmatan Azure OpenAI akan dipindahkan ke model OpenAI Azure dalam persekitaran komersial "Kerajaan Azure secara langsung menyamai rangkaian komersial Microsoft Azure, bukan secara langsung dengan Internet awam Atau peering Microsoft Enterprise Network. ”
Microsoft melaporkan bahawa ia menyulitkan semua trafik Azure menggunakan piawaian keselamatan rangkaian IEEE 802.1AE – atau MACsec – dan semua trafik berada pada tulang belakang global, yang terdiri daripada rangkaian tulang belakang lebih daripada 250,000 kilometer gentian optik dan sistem kabel dasar laut.
Perkhidmatan Azure OpenAI untuk kerajaan telah dilancarkan sepenuhnya dan tersedia untuk pelanggan perusahaan atau kerajaan yang diluluskan.
Microsoft sentiasa mahu memenangi kepercayaan kerajaan AS - tetapi ia juga melakukan kesilapan.
Berita telah muncul bahawa lebih daripada satu terabait dokumen ketenteraan kerajaan yang sensitif telah didedahkan di internet awam - dengan Jabatan Pertahanan dan Microsoft saling menyalahkan antara satu sama lain berhubung isu itu.
OpenAI, anak syarikat Microsoft dan pencipta ChatGPT, juga tidak memuaskan dari segi keselamatan Pada bulan Mac, perpustakaan sumber terbuka yang lemah membenarkan beberapa rekod sembang pengguna didedahkan. Sejak itu, beberapa syarikat berprofil tinggi - termasuk Apple, Amazon dan beberapa bank - telah melarang penggunaan dalaman ChatGPT kerana bimbang ia boleh mendedahkan maklumat dalaman sulit.
Agensi pengintip Britain GCHQ malah memberi amaran tentang risiko itu. Jadi, adakah kerajaan A.S. melakukan perkara yang betul dengan menyerahkan rahsianya kepada Microsoft, walaupun rahsia itu jelas tidak akan dipindahkan ke rangkaian yang tidak dipercayai?
Microsoft berkata ia tidak akan menggunakan data kerajaan secara eksklusif untuk melatih model OpenAInya, jadi kemungkinan besar data rahsia tidak akan dibocorkan sebagai balasan kepada orang lain. Tetapi itu tidak bermakna ia boleh selamat secara lalai. Dalam pengumumannya, Microsoft dengan sopan mengakui bahawa apabila pengguna kerajaan menggunakan model OpenAI, beberapa data masih akan direkodkan.
Microsoft berkata: "Microsoft membenarkan pelanggan dengan kelayakan akses terhad tambahan dan menunjukkan kes penggunaan khusus untuk meminta pengubahsuaian pada keupayaan pengurusan kandungan Azure OpenAI
Ia menambah: "Jika Microsoft meluluskan data pengubahsuaian pelanggan permintaan pengelogan, sebarang soalan dan respons yang berkaitan dengan langganan Azure yang diluluskan tidak akan disimpan dan pengelogan data dalam Azure Commerce akan dimatikan "Ini bermakna melainkan jika agensi kerajaan memenuhi kriteria tertentu. , jika tidak, soalan dan jawapan—teks dikembalikan oleh model AI—akan dikekalkan.
Atas ialah kandungan terperinci Microsoft menyediakan model besar GPT kepada kerajaan AS, bagaimana untuk memastikan keselamatan?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!