cari
RumahPeranti teknologiAIAnalisis statistik teks menggunakan perpustakaan pynlpl

Pengenalan

Analisis statistik teks adalah salah satu langkah penting dalam pemprosesan teks. Ia membantu kita memahami data teks kita dengan cara yang mendalam dan matematik. Analisis jenis ini dapat membantu kita memahami corak tersembunyi, dan berat kata -kata tertentu dalam ayat, dan secara keseluruhan, membantu dalam membina model bahasa yang baik. Pynlpl atau seperti yang kita panggil ia Pineapple Library, adalah salah satu perpustakaan Python terbaik untuk analisis statistik teks. Perpustakaan ini juga berguna untuk tugas-tugas lain seperti pembersihan dan penganalisis teks, dan ia menyediakan fungsi pra-pemprosesan teks seperti tokenizers, pengekstrak n-gram, dan banyak lagi. Di samping itu, Pynlpl boleh digunakan untuk membina model bahasa yang mudah.

Dalam blog ini, anda akan memahami cara melakukan analisis teks menggunakan pynlpl. Kami akan mula memahami semua cara untuk memasang perpustakaan ini di sistem kami. Seterusnya, kita akan memahami istilah matriks bersama-sama dan pelaksanaannya menggunakan perpustakaan Pynlpl. Selepas itu, kami akan belajar bagaimana untuk membuat senarai kekerapan untuk mengenal pasti perkataan yang paling berulang. Seterusnya, kami akan melakukan analisis pengedaran teks untuk mengukur persamaan antara dua dokumen teks atau rentetan. Akhirnya, kita akan memahami dan mengira jarak leveshtein menggunakan perpustakaan ini. Anda boleh mengikuti dan kod sendiri, atau anda boleh mengklik butang 'Salin & Edit' dalam pautan ini untuk melaksanakan semua program.

Objektif pembelajaran

  • Memahami cara memasang perpustakaan ini secara terperinci melalui semua kaedah yang ada.
  • Ketahui cara membuat matriks bersama-sama untuk menganalisis hubungan perkataan.
  • Belajar untuk melaksanakan tugas -tugas biasa seperti menjana senarai frekuensi dan mengira jarak Levenshtein.
  • Belajar untuk melaksanakan tugas -tugas lanjutan seperti menjalankan analisis pengedaran teks dan mengukur persamaan dokumen.

Artikel ini diterbitkan sebagai sebahagian daripada Blogathon Sains Data.

Jadual Kandungan

  • Bagaimana cara memasang pynlpl?
  • Bagaimana cara menggunakan pynlpl untuk analisis teks?
    • Matriks Co-occurrence Terma
    • Senarai Kekerapan
    • Analisis pengedaran teks
    • Jarak Levenshtein
    • Mengukur kesamaan dokumen
  • Soalan yang sering ditanya

Bagaimana cara memasang pynlpl?

Kami boleh memasang perpustakaan ini dalam dua cara, pertama menggunakan PYPI, dan kedua menggunakan GitHub.

Melalui PYPI

Untuk memasangnya menggunakan Pypi Paste arahan di bawah di terminal anda.

 PIP Pasang Pynlpl

Jika anda menggunakan buku nota seperti Jupyter Notebook, Notebook Kaggle, atau Google Colab, kemudian tambahkan '!' sebelum arahan di atas.

Melalui GitHub

Untuk memasang perpustakaan ini menggunakan GitHub, klon repositori Pynlpl rasmi ke dalam sistem anda menggunakan arahan di bawah.

 Git Clone https://github.com/proycon/pynlpl.git

Kemudian tukar direktori terminal anda ke folder ini menggunakan 'CD' kemudian tampal arahan di bawah ini untuk memasang perpustakaan.

 pemasangan python3 setup.py

Bagaimana cara menggunakan pynlpl untuk analisis teks?

Marilah kita meneroka bagaimana kita boleh menggunakan Pynlpl untuk analisis teks.

Matriks Co-occurrence Terma

Matriks Co-occurrence Term (TCM) adalah kaedah statistik untuk mengenal pasti seberapa kerap perkataan bersama dengan perkataan tertentu dalam teks. Matriks ini membantu kita memahami hubungan antara kata -kata dan boleh mendedahkan corak tersembunyi yang berguna. Ia biasanya digunakan dalam membina ringkasan teks, kerana ia memberikan hubungan antara kata -kata yang dapat membantu menghasilkan ringkasan ringkas. Sekarang, mari kita lihat bagaimana untuk membina matriks ini menggunakan perpustakaan Pynlpl.

Kami akan terlebih dahulu mengimport fungsi senarai frekuensi dari pynlpl.statistics, yang digunakan untuk mengira berapa kali perkataan telah diulang dalam teks. Kami akan meneroka ini dengan lebih terperinci di bahagian kemudian. Di samping itu, kami akan mengimport kaedah lalai dari modul koleksi. Seterusnya, kami akan membuat fungsi bernama create_cooccurrence_matrix, yang mengambil input teks dan saiz tetingkap, dan mengembalikan matriks. Dalam fungsi ini, kita akan terlebih dahulu memecah teks ke dalam kata-kata individu dan membuat matriks kejadian bersama menggunakan lalai. Untuk setiap perkataan dalam teks, kami akan mengenal pasti kata-kata konteksnya dalam saiz tetingkap yang ditentukan dan mengemas kini matriks kejadian bersama. Akhirnya, kami akan mencetak matriks dan memaparkan kekerapan setiap istilah.

 dari pynlpl.Statistics Import Frekuensi
dari koleksi Import DefaultDict

def create_cooccurrence_matrix (teks, window_size = 2):
    perkataan = text.split ()
    cooccurrence_matrix = defaultDict (frekuensi senarai)
    
    Untuk saya, perkataan dalam menghitung (perkataan):
        mula = max (i - window_size, 0)
        akhir = min (i window_size 1, len (kata))
        konteks = perkataan [mula: i] perkataan [i 1: end]
        
        untuk context_word dalam konteks:
            cooccurrence_matrix [word.lower ()]. ​​Count (context_word.lower ())
    
    kembali cooccurrence_matrix

Teks = "Hello Ini adalah Analytics Vidhya dan anda melakukan yang hebat sejauh ini meneroka topik sains data. Analytics Vidhya adalah platform yang hebat untuk pembelajaran sains data dan pembelajaran mesin."

# Membuat Matriks Kejadian Bersama Istilah
cooccurrence_matrix = create_cooccurrence_matrix (teks)

# Mencetak istilah matriks occurrence
Cetak ("Matriks Co-occurrence Term:")
Untuk jangka masa, context_freq_list dalam cooccurrence_matrix.items ():
    cetak (f "{term}: {dict (context_freq_list)}")

Output:

Analisis statistik teks menggunakan perpustakaan pynlpl

Senarai Kekerapan

Senarai kekerapan akan mengandungi bilangan kali perkataan tertentu telah diulang dalam dokumen atau perenggan. Ini adalah fungsi yang berguna untuk memahami tema utama dan konteks keseluruhan dokumen. Kami biasanya menggunakan senarai kekerapan dalam medan seperti linguistik, pengambilan maklumat, dan perlombongan teks. Sebagai contoh, enjin carian menggunakan senarai kekerapan untuk menilai halaman web. Kami juga boleh menggunakan ini sebagai strategi pemasaran untuk menganalisis ulasan produk dan memahami sentimen awam utama produk.

Sekarang, mari kita lihat cara membuat senarai kekerapan ini menggunakan perpustakaan Pynlpl. Kami akan terlebih dahulu mengimport fungsi senarai frekuensi dari pynlpl.statistics. Kemudian, kita akan mengambil teks sampel ke dalam pembolehubah dan memecah keseluruhan teks ke dalam kata -kata individu. Kami kemudian akan lulus pembolehubah 'kata' ini ke dalam fungsi senarai frekuensi. Akhirnya, kami akan melangkah melalui item dalam senarai kekerapan dan mencetak setiap perkataan dan kekerapan yang sepadan.

 dari pynlpl.Statistics Import Frekuensi

Teks = "Hello Ini adalah Analytics Vidhya dan anda melakukan yang hebat sejauh ini meneroka topik sains data. Analytics Vidhya adalah platform yang hebat untuk pembelajaran sains data dan pembelajaran mesin."

perkataan = text.lower (). Split ()

freq_list = frekuensi (kata)

Untuk perkataan, freq dalam freq_list.items ():
    cetak (f "{word}: {freq}")

Output:

Analisis statistik teks menggunakan perpustakaan pynlpl

Analisis pengedaran teks

Dalam analisis pengedaran teks, kita mengira kekerapan dan kebarangkalian pengagihan kata -kata dalam satu ayat, untuk memahami kata -kata mana yang membentuk konteks ayat. Dengan mengira pengagihan frekuensi perkataan ini, kita dapat mengenal pasti kata -kata yang paling biasa dan sifat statistik mereka, seperti entropi, kebingungan, mod, dan entropi maks. Mari fahami sifat -sifat ini satu demi satu:

  • Entropi : Entropi adalah ukuran rawak dalam pengedaran. Dari segi data teks, entropi yang lebih tinggi bermakna teks mempunyai pelbagai perbendaharaan kata dan kata -kata kurang diulangi.
  • Kebingungan : Kebingungan adalah ukuran seberapa baik model bahasa meramalkan pada data sampel. Jika kebingungan lebih rendah maka teks mengikuti corak yang boleh diramal.
  • Mod : Seperti yang kita semua telah mempelajari istilah ini sejak zaman kanak -kanak, ia memberitahu kita perkataan yang paling berulang dalam teks.
  • Entropi Maksimum : Harta ini memberitahu kami entropi maksimum teks boleh dimiliki. Bermakna ia memberikan titik rujukan untuk membandingkan entropi sebenar pengedaran.

Kami juga boleh mengira kandungan maklumat perkataan tertentu, yang bermaksud kita dapat mengira jumlah maklumat yang disediakan oleh suatu perkataan.

Melaksanakan menggunakan pynlpl

Sekarang mari kita lihat bagaimana untuk melaksanakan semua ini menggunakan pynlpl.

Kami akan mengimport fungsi pengedaran dan frekuensi dari modul pynlpl.statistik dan modul matematik. Seterusnya, kami akan membuat teks sampel dan mengira kekerapan setiap perkataan dalam teks itu. Untuk melakukan ini, kami akan mengikuti langkah yang sama seperti di atas. Kemudian, kami akan membuat objek fungsi pengedaran dengan lulus senarai kekerapan. Kami kemudian akan memaparkan pengedaran setiap perkataan dengan melengkung melalui item pemboleh ubah pengedaran. Untuk mengira entropi, kami akan memanggil fungsi edaran.entropi ().

Untuk mengira kebingungan, kami akan memanggil pengedaran.Permplexity (). Untuk mod, kami akan memanggil edaran.mode (). Untuk mengira entropi maksimum, kami akan memanggil pengedaran.maxentropy (). Akhirnya, untuk mendapatkan kandungan maklumat perkataan tertentu, kami akan memanggil edaran.Formation (Word). Dalam contoh di bawah, kami akan lulus perkataan mod sebagai parameter ke fungsi ini.

 Import Matematik
Dari pynlpl.Statistik Pengagihan Import, Senarai Kekerapan

Teks = "Hello Ini adalah Analytics Vidhya dan anda melakukan yang hebat sejauh ini meneroka topik sains data. Analytics Vidhya adalah platform yang hebat untuk pembelajaran sains data dan pembelajaran mesin."

# Mengira frekuensi perkataan
perkataan = text.lower (). Split ()

freq_list = frekuensi (kata)
word_counts = dict (freq_list.items ())

# Membuat objek pengedaran dari frekuensi perkataan
pengedaran = pengedaran (word_counts)

# Memaparkan pengedaran
Cetak ("Pengedaran:")
Untuk perkataan, prob dalam edaran.items ():
    cetak (f "{word}: {prob: .4f}")

# Pelbagai statistik
Cetak ("\ nStatistics:")
cetak (f "entropi: {distribusi.entropy (): 4f}")
cetak (f "kebingungan: {distribusi.perplexity (): 4f}")
cetak (f "mod: {distribusi.mode ()}")
cetak (f "max entropy: {distribusi.maxentropy (): 4f}")

# Kandungan maklumat perkataan 'mod'
perkataan = distribusi.mode ()
maklumat_content = edaran.formation (perkataan)
cetak (f "Kandungan maklumat '{word}': {maklumat_content: .4f}")

Output:

Analisis statistik teks menggunakan perpustakaan pynlpl

Jarak Levenshtein

Jarak Levenshtein adalah ukuran perbezaan antara dua perkataan. Ia mengira berapa banyak perubahan watak tunggal yang diperlukan untuk dua perkataan untuk menjadi sama. Ia mengira berdasarkan penyisipan, penghapusan, atau penggantian watak dalam satu perkataan. Metrik jarak ini biasanya digunakan untuk memeriksa ejaan, analisis urutan DNA, dan tugas pemprosesan bahasa semulajadi seperti persamaan teks yang akan kami laksanakan di bahagian seterusnya, dan ia boleh digunakan untuk membina pengesan plagiarisme. Dengan mengira jarak Levenshtein, kita dapat memahami hubungan antara dua perkataan, kita dapat mengetahui jika dua perkataan sama atau tidak. Sekiranya jarak Levenshtein sangat kurang maka kata -kata tersebut boleh mempunyai makna atau konteks yang sama, dan jika ia sangat tinggi maka itu bermakna mereka adalah kata -kata yang sama sekali berbeza.

Untuk mengira jarak ini, kami akan terlebih dahulu mengimport fungsi levenshtein dari modul pynlpl.statistik. Kami kemudian akan menentukan dua perkataan, 'analisis' dan 'analisis'. Seterusnya, kami akan menyampaikan kata -kata ini ke dalam fungsi Levenshtein, yang akan mengembalikan nilai jarak. Seperti yang dapat anda lihat dalam output, jarak Levenshtein antara kedua-dua perkataan ini adalah 2, yang bermaksud hanya mengambil dua suntingan aksara tunggal untuk menukar 'analisis' kepada 'analisis'. Edit pertama menggantikan watak ' T ' dengan ' S ' dalam 'Analytics', dan edit kedua memadam watak ' C ' pada Indeks 8 dalam 'Analytics'.

 dari pynlpl.statistik import levenshtein

Word1 = "Analytics"
Word2 = "Analisis"
jarak = levenshtein (word1, word2)
    
cetak (f "levenshtein jarak antara '{word1}' dan '{word2}': {jarak}")

Output:

Analisis statistik teks menggunakan perpustakaan pynlpl

Mengukur kesamaan dokumen

Mengukur bagaimana dua dokumen atau ayat yang serupa boleh berguna dalam banyak aplikasi. Ia membolehkan kita memahami betapa rapatnya kedua -dua dokumen tersebut. Teknik ini digunakan dalam banyak aplikasi seperti pemeriksa plagiarisme, pemeriksa perbezaan kod, dan banyak lagi. Dengan menganalisis bagaimana kedua -dua dokumen itu dapat mengenal pasti pendua. Ini juga boleh digunakan dalam sistem cadangan, di mana hasil carian yang ditunjukkan kepada Pengguna A boleh ditunjukkan kepada Pengguna B yang menaip pertanyaan yang sama.

Sekarang untuk melaksanakannya, kami akan menggunakan metrik persamaan kosinus. Pertama, kami akan mengimport dua fungsi: senarai frekuensi dari perpustakaan Pynlpl dan SQRT dari modul matematik. Sekarang kita akan menambah dua rentetan kepada dua pembolehubah, sebagai ganti rentetan hanya kita boleh membuka dua dokumen teks juga. Seterusnya, kami akan membuat senarai kekerapan rentetan ini dengan menyampaikannya ke fungsi frekuensi yang kami import sebelumnya. Kami kemudian akan menulis fungsi yang dinamakan Cosine_Similarity, di mana kami akan lulus dua senarai kekerapan sebagai input. Dalam fungsi ini, kita akan mula membuat vektor dari senarai kekerapan, dan kemudian mengira kosinus sudut antara vektor ini, memberikan ukuran persamaan mereka. Akhirnya, kami akan memanggil fungsi dan mencetak hasilnya.

 dari pynlpl.Statistics Import Frekuensi
dari sqrt import matematik

Doc1 = "Analytics Vidhya memberikan pandangan dan tutorial yang berharga mengenai sains data dan pembelajaran mesin."
Doc2 = "Jika anda mahukan tutorial mengenai sains data dan pembelajaran mesin, lihat Analytics Vidhya."

# Membuat objek senarai frekuensi untuk kedua -dua dokumen
freq_list1 = frekuensi (doc1.lower (). Split ())
freq_list2 = frekuensi (doc2.lower (). Split ())

def cosine_similarity (freq_list1, freq_list2):
    vec1 = {word: freq_list1 [word] untuk perkataan, _ in freq_list1}
    vec2 = {word: freq_list2 [word] untuk perkataan, _ in freq_list2}

    persimpangan = set (vec1.keys ()) & set (vec2.keys ())
    pengangka = jumlah (vec1 [word] * vec2 [word] untuk perkataan di persimpangan)

    sum1 = jumlah (vec1 [word] ** 2 untuk perkataan dalam vec1.keys ())
    sum2 = sum (vec2 [word] ** 2 untuk perkataan dalam vec2.keys ())
    denominator = sqrt (sum1) * sqrt (sum2)

    Sekiranya bukan penyebut:
        kembali 0.0
    Kembali Float (pengangka) / penyebut

# Calculatinng Cosine Persamaan
persamaan = cosine_similarity (freq_list1, freq_list2)
cetak (f "persamaan kosin: {persamaan: .4f}")

Output:

Analisis statistik teks menggunakan perpustakaan pynlpl

Kesimpulan

Pynlpl adalah perpustakaan yang kuat dengan menggunakan analisis statistik teks. Bukan hanya analisis teks, kita juga boleh menggunakan perpustakaan ini untuk beberapa teknik pra-pemprosesan teks seperti tokenization, stemming, pengekstrakan n-gram, dan juga membina beberapa model bahasa yang mudah. Dalam blog ini, kita mula-mula memahami semua cara memasang perpustakaan ini, maka kami menggunakan perpustakaan ini untuk melaksanakan pelbagai tugas seperti melaksanakan matriks occurrence istilah, mewujudkan senarai kekerapan untuk mengenal pasti kata-kata biasa, melakukan analisis pengedaran teks, dan memahami cara mengira jarak levenshtein, dan dikira kesamaan dokumen. Setiap teknik ini boleh digunakan untuk mengekstrak pandangan berharga dari data teks kami, menjadikannya perpustakaan yang berharga. Kali seterusnya anda melakukan analisis teks, pertimbangkan untuk mencuba perpustakaan Pynlpl (Pineapple).

Takeaways utama

  • Perpustakaan Pynlpl (Pineapple) adalah salah satu perpustakaan terbaik untuk analisis statistik teks.
  • Istilah matriks bersama-sama membantu kita memahami hubungan antara kata-kata dan boleh berguna dalam membina ringkasan.
  • Senarai kekerapan berguna untuk memahami tema utama teks atau dokumen.
  • Analisis pengedaran teks dan jarak levenshtein dapat membantu kita memahami persamaan teks.
  • Kami juga boleh menggunakan perpustakaan Pynlpl untuk memproses teks dan bukan hanya untuk analisis statistik teks.

Soalan yang sering ditanya

Q1. Apa itu Pynlpl?

A. Pynlpl, juga dikenali sebagai nanas, adalah perpustakaan python yang digunakan untuk analisis statistik teks dan pra-pemprosesan teks.

S2. Apakah faedah mengukur kesamaan dokumen?

A. Teknik ini membolehkan kita mengukur bagaimana dua dokumen atau teks serupa dan boleh digunakan dalam pemeriksa plagiarisme, pemeriksa perbezaan kod, dan banyak lagi.

Q3. Apakah istilah matriks kejadian bersama?

A. Matriks bersama-sama boleh digunakan untuk mengenal pasti seberapa kerap dua perkataan bersama dalam dokumen.

Q4. Bagaimana jarak levenshtein berguna?

A. Kita boleh menggunakan jarak Levenshtein untuk mencari perbezaan antara dua perkataan, yang boleh berguna dalam bangunan ejaan bangunan.

Media yang ditunjukkan dalam artikel ini tidak dimiliki oleh Analytics Vidhya dan digunakan atas budi bicara penulis.

Atas ialah kandungan terperinci Analisis statistik teks menggunakan perpustakaan pynlpl. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Ahli terapi AI ada di sini: 14 alat kesihatan mental yang perlu anda ketahuiAhli terapi AI ada di sini: 14 alat kesihatan mental yang perlu anda ketahuiApr 30, 2025 am 11:17 AM

Walaupun ia tidak dapat memberikan sambungan manusia dan intuisi ahli terapi terlatih, penyelidikan telah menunjukkan bahawa ramai orang selesa berkongsi kebimbangan dan kebimbangan mereka dengan bot AI yang agak tidak berwajah dan tanpa nama. Sama ada ini selalu baik saya

Memanggil AI ke lorong runcitMemanggil AI ke lorong runcitApr 30, 2025 am 11:16 AM

Kecerdasan Buatan (AI), satu dekad teknologi dalam pembuatan, merevolusikan industri runcit makanan. Dari keuntungan kecekapan berskala besar dan pengurangan kos kepada proses yang diselaraskan di pelbagai fungsi perniagaan, kesan AI adalah undeniabl

Mendapatkan ceramah pep dari ai generatif untuk mengangkat semangat andaMendapatkan ceramah pep dari ai generatif untuk mengangkat semangat andaApr 30, 2025 am 11:15 AM

Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini termasuk mengenal pasti dan menjelaskan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini). Di samping itu, untuk comp saya

Mengapa Hyper-Personalization berkuasa AI adalah satu kemestian untuk semua perniagaanMengapa Hyper-Personalization berkuasa AI adalah satu kemestian untuk semua perniagaanApr 30, 2025 am 11:14 AM

Mengekalkan imej profesional memerlukan kemas kini almari pakaian sekali -sekala. Walaupun membeli-belah dalam talian adalah mudah, ia tidak mempunyai kepastian percubaan secara peribadi. Penyelesaian saya? Peribadi yang berkuasa AI. Saya membayangkan pembantu AI yang mengendalikan pakaian selecti

Lupakan Duolingo: Ciri AI Baru Google Translate Mengajar BahasaLupakan Duolingo: Ciri AI Baru Google Translate Mengajar BahasaApr 30, 2025 am 11:13 AM

Google Translate menambah fungsi pembelajaran bahasa Menurut Android Authority, App Expers AssembleDebug telah mendapati bahawa versi terbaru aplikasi Google Translate mengandungi mod ujian "amalan" baru yang direka untuk membantu pengguna meningkatkan kemahiran bahasa mereka melalui aktiviti yang diperibadikan. Ciri ini kini tidak dapat dilihat oleh pengguna, tetapi AssembleDebug dapat mengaktifkannya dan melihat beberapa elemen antara muka pengguna yang baru. Apabila diaktifkan, ciri ini menambah ikon topi tamat pengajian baru di bahagian bawah skrin yang ditandai dengan lencana "beta" yang menunjukkan bahawa ciri "amalan" akan dikeluarkan pada mulanya dalam bentuk eksperimen. Prompt pop timbul yang berkaitan menunjukkan "Amalan aktiviti yang disesuaikan untuk anda!", Yang bermaksud Google akan menjana disesuaikan

Mereka membuat TCP/IP untuk AI, dan ia dipanggil NandaMereka membuat TCP/IP untuk AI, dan ia dipanggil NandaApr 30, 2025 am 11:12 AM

Penyelidik MIT sedang membangunkan Nanda, protokol web yang direka untuk agen AI. Pendek untuk ejen rangkaian dan AI yang terdesentralisasi, Nanda membina Protokol Konteks Model Anthropic (MCP) dengan menambahkan keupayaan Internet, membolehkan AI AGEN

The Prompt: Deepfake Detection adalah perniagaan yang berkembang pesatThe Prompt: Deepfake Detection adalah perniagaan yang berkembang pesatApr 30, 2025 am 11:11 AM

Usaha terbaru Meta: Aplikasi AI untuk menyaingi chatgpt Meta, syarikat induk Facebook, Instagram, WhatsApp, dan Threads, melancarkan aplikasi berkuasa AI yang baru. Aplikasi mandiri ini, Meta AI, bertujuan untuk bersaing secara langsung dengan chatgpt Openai. Tuil

Dua tahun akan datang dalam keselamatan siber AI untuk pemimpin perniagaanDua tahun akan datang dalam keselamatan siber AI untuk pemimpin perniagaanApr 30, 2025 am 11:10 AM

Menavigasi serangan AI Cyber ​​yang semakin meningkat Baru-baru ini, Jason Clinton, Ciso untuk Anthropic, menggariskan risiko yang muncul yang terikat kepada identiti bukan manusia-sebagai komunikasi komunikasi ke mesin, melindungi "identiti" ini menjadi

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

Persekitaran pembangunan bersepadu PHP yang berkuasa

DVWA

DVWA

Damn Vulnerable Web App (DVWA) ialah aplikasi web PHP/MySQL yang sangat terdedah. Matlamat utamanya adalah untuk menjadi bantuan bagi profesional keselamatan untuk menguji kemahiran dan alatan mereka dalam persekitaran undang-undang, untuk membantu pembangun web lebih memahami proses mengamankan aplikasi web, dan untuk membantu guru/pelajar mengajar/belajar dalam persekitaran bilik darjah Aplikasi web keselamatan. Matlamat DVWA adalah untuk mempraktikkan beberapa kelemahan web yang paling biasa melalui antara muka yang mudah dan mudah, dengan pelbagai tahap kesukaran. Sila ambil perhatian bahawa perisian ini

mPDF

mPDF

mPDF ialah perpustakaan PHP yang boleh menjana fail PDF daripada HTML yang dikodkan UTF-8. Pengarang asal, Ian Back, menulis mPDF untuk mengeluarkan fail PDF "dengan cepat" dari tapak webnya dan mengendalikan bahasa yang berbeza. Ia lebih perlahan dan menghasilkan fail yang lebih besar apabila menggunakan fon Unicode daripada skrip asal seperti HTML2FPDF, tetapi menyokong gaya CSS dsb. dan mempunyai banyak peningkatan. Menyokong hampir semua bahasa, termasuk RTL (Arab dan Ibrani) dan CJK (Cina, Jepun dan Korea). Menyokong elemen peringkat blok bersarang (seperti P, DIV),

SublimeText3 versi Inggeris

SublimeText3 versi Inggeris

Disyorkan: Versi Win, menyokong gesaan kod!

MantisBT

MantisBT

Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.