


Tutorial ini menunjukkan kepada anda bagaimana untuk menentukan topik utama dokumen dengan cepat dengan menganalisis kekerapan perkataan menggunakan python. Kejadian perkataan secara manual adalah membosankan; Pendekatan automatik ini memudahkan proses.
Kami akan menggunakan fail teks sampel, test.txt
(muat turun, tetapi jangan mengintip!), Untuk menggambarkan. Matlamatnya adalah untuk meneka subjek tutorial berdasarkan kekerapan perkataan.
Memahami ungkapan biasa
Proses ini menggunakan Ekspresi Biasa (REGEX). Jika tidak dikenali, regex adalah urutan watak yang menentukan corak carian untuk padanan rentetan (seperti "Cari dan Ganti"). Untuk menyelam yang lebih mendalam, rujuk kepada tutorial Regex yang berdedikasi.
Membina program
-
Baca fail: Program ini bermula dengan membaca fail teks ke dalam rentetan:
document_text = open('test.txt', 'r') text_string = document_text.read().lower()
-
Ekspresi biasa: kata -kata penapis regex dengan 3 hingga 15 aksara:
match_pattern = re.findall(r'\b[a-z]{3,15}\b', text_string)
-
kekerapan perkataan: Kamus menjejaki frekuensi perkataan:
frequency = {} for word in match_pattern: count = frequency.get(word, 0) frequency[word] = count + 1
-
output: Program kemudian mencetak setiap perkataan dan kekerapannya:
frequency_list = frequency.keys() for word in frequency_list: print(word, frequency[word])
Program Lengkap
inilah kod python gabungan:
import re frequency = {} document_text = open('test.txt', 'r') text_string = document_text.read().lower() match_pattern = re.findall(r'\b[a-z]{3,15}\b', text_string) for word in match_pattern: count = frequency.get(word, 0) frequency[word] = count + 1 frequency_list = frequency.keys() for word in frequency_list: print(word, frequency[word])
Running Ini akan mengeluarkan senarai frekuensi perkataan. Petunjuk perkataan yang paling kerap di topik tutorial asal.
mengendalikan fail teks yang lebih besar
untuk fail yang lebih besar, menyusun kamus kekerapan memudahkan mencari kata -kata yang paling kerap:
import re frequency = {} document_text = open('dracula.txt', 'r') # Example: dracula.txt text_string = document_text.read().lower() match_pattern = re.findall(r'\b[a-z]{3,15}\b', text_string) for word in match_pattern: count = frequency.get(word, 0) frequency[word] = count + 1 most_frequent = dict(sorted(frequency.items(), key=lambda elem: elem[1], reverse=True)) most_frequent_count = most_frequent.keys() for word in most_frequent_count: print(word, most_frequent[word])ini mengeluarkan senarai yang disusun, dengan kata -kata yang paling kerap muncul dahulu.
untuk memperbaiki analisis, tidak termasuk kata -kata biasa seperti "," "dan," dan sebagainya, menggunakan senarai hitam:
Ini menyediakan analisis yang lebih fokus.
import re frequency = {} document_text = open('dracula.txt', 'r') text_string = document_text.read().lower() match_pattern = re.findall(r'\b[a-z]{3,15}\b', text_string) blacklisted = ['the', 'and', 'for', 'that', 'which'] for word in match_pattern: if word not in blacklisted: count = frequency.get(word, 0) frequency[word] = count + 1 most_frequent = dict(sorted(frequency.items(), key=lambda elem: elem[1], reverse=True)) most_frequent_count = most_frequent.keys() for word in most_frequent_count: print(word, most_frequent[word])
Skrip Python yang dipertingkatkan ini menawarkan kaedah yang mantap untuk menganalisis teks dan mengenal pasti topik utama berdasarkan kekerapan perkataan. Ingatlah untuk menyesuaikan kriteria panjang dan perkataan panjang untuk memenuhi keperluan khusus anda.
Atas ialah kandungan terperinci Mengira kekerapan perkataan dalam fail menggunakan python. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Penyelesaian kepada Isu Kebenaran Semasa Melihat Versi Python di Terminal Linux Apabila anda cuba melihat versi Python di Terminal Linux, masukkan Python ...

Artikel ini menerangkan cara menggunakan sup yang indah, perpustakaan python, untuk menghuraikan html. Ia memperincikan kaedah biasa seperti mencari (), find_all (), pilih (), dan get_text () untuk pengekstrakan data, pengendalian struktur dan kesilapan HTML yang pelbagai, dan alternatif (sel

Modul Statistik Python menyediakan keupayaan analisis statistik data yang kuat untuk membantu kami dengan cepat memahami ciri -ciri keseluruhan data, seperti biostatistik dan analisis perniagaan. Daripada melihat titik data satu demi satu, cuma melihat statistik seperti min atau varians untuk menemui trend dan ciri dalam data asal yang mungkin diabaikan, dan membandingkan dataset besar dengan lebih mudah dan berkesan. Tutorial ini akan menjelaskan cara mengira min dan mengukur tahap penyebaran dataset. Kecuali dinyatakan sebaliknya, semua fungsi dalam modul ini menyokong pengiraan fungsi min () dan bukan hanya menjumlahkan purata. Nombor titik terapung juga boleh digunakan. Import secara rawak Statistik import dari fracti

Artikel ini membandingkan tensorflow dan pytorch untuk pembelajaran mendalam. Ia memperincikan langkah -langkah yang terlibat: penyediaan data, bangunan model, latihan, penilaian, dan penempatan. Perbezaan utama antara rangka kerja, terutamanya mengenai grap pengiraan

Artikel ini membincangkan perpustakaan Python yang popular seperti Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask, dan Permintaan, memperincikan kegunaan mereka dalam pengkomputeran saintifik, analisis data, visualisasi, pembelajaran mesin, pembangunan web, dan h

Artikel ini membimbing pemaju Python mengenai bangunan baris baris komando (CLI). Butirannya menggunakan perpustakaan seperti Typer, Klik, dan ArgParse, menekankan pengendalian input/output, dan mempromosikan corak reka bentuk mesra pengguna untuk kebolehgunaan CLI yang lebih baik.

Apabila menggunakan Perpustakaan Pandas Python, bagaimana untuk menyalin seluruh lajur antara dua data data dengan struktur yang berbeza adalah masalah biasa. Katakan kita mempunyai dua DAT ...

Artikel ini membincangkan peranan persekitaran maya di Python, memberi tumpuan kepada menguruskan kebergantungan projek dan mengelakkan konflik. Ia memperincikan penciptaan, pengaktifan, dan faedah mereka dalam meningkatkan pengurusan projek dan mengurangkan isu pergantungan.


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

MantisBT
Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.

SecLists
SecLists ialah rakan penguji keselamatan muktamad. Ia ialah koleksi pelbagai jenis senarai yang kerap digunakan semasa penilaian keselamatan, semuanya di satu tempat. SecLists membantu menjadikan ujian keselamatan lebih cekap dan produktif dengan menyediakan semua senarai yang mungkin diperlukan oleh penguji keselamatan dengan mudah. Jenis senarai termasuk nama pengguna, kata laluan, URL, muatan kabur, corak data sensitif, cangkerang web dan banyak lagi. Penguji hanya boleh menarik repositori ini ke mesin ujian baharu dan dia akan mempunyai akses kepada setiap jenis senarai yang dia perlukan.

PhpStorm versi Mac
Alat pembangunan bersepadu PHP profesional terkini (2018.2.1).

Dreamweaver CS6
Alat pembangunan web visual

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa