Rumah > Artikel > Peranti teknologi > Strategi dan kaedah untuk mengelompokkan dokumen insurans menggunakan pemprosesan bahasa semula jadi
Penterjemah |. Li Rui
Penilai |. penaakulan.
Dokumen dan Polisi Insurans: Kes Penggunaan Kompleks
Kesukaran utama datang daripada:
Susun atur kompleks dokumen berkaitan insurans.Lihat contoh mudah di bawah: Jika anda cuba membina enjin untuk mengenal pasti sama ada liputan "keganasan" terdapat dalam polisi, anda perlu menetapkan nilai yang berbeza tanpa mengira di mana ia diletakkan:
(1) Hadkan bahagian kecil halaman pengisytiharan.
(2) Bahagian "Pengecualian" polisi.
(3) Tambahkan satu atau lebih pengesahan insurans.
(4) Tambahkan sokongan khusus pada liputan.
Kekurangan dokumen insurans beranotasi berkualiti tinggi dan bersaiz sesuai secara langsung berkaitan dengan kesukaran yang wujud untuk menganotasi dokumen kompleks tersebut dan jumlah usaha yang diperlukan untuk menganotasi puluhan ribu polisi.
Dan ini hanyalah puncak gunung ais. Di samping itu, keperluan untuk menormalkan konsep insurans juga mesti dipertimbangkan.
Penormalan bahasa: kuasa yang tidak kelihatan tetapi berkuasa dalam bahasa insurans
Konsep penormalan bermaksud mengumpulkan elemen di bawah bahasa tag yang sama, yang mungkin kelihatan sangat berbeza. Walaupun terdapat banyak contoh, yang paling penting datang daripada polisi insurans yang melindungi bencana alam.
Dalam kes ini, sub-had yang berbeza akan digunakan untuk zon banjir yang berbeza. Kawasan yang paling berisiko banjir sering dirujuk sebagai "zon banjir berisiko tinggi". Konsep ini boleh dinyatakan sebagai:
(1) Kawasan banjir Tahap 1
(2) Kawasan berisiko banjir (SFHA)
(3) Kawasan banjir A
Tunggu
Pada hakikatnya, mana-mana perlindungan insurans boleh mempunyai banyak istilah yang boleh dikumpulkan bersama, dan bergantung pada kawasan geografi tertentu dan risiko yang wujud, perlindungan bencana alam yang paling penting walaupun mempunyai dua Perbezaan antara peringkat atau peringkat (I, II dan III).
Darabkan itu dengan semua elemen yang mungkin boleh anda temui dan bilangan varian boleh menjadi sangat besar dengan cepat. Ini menyebabkan kedua-dua anotor pembelajaran mesin dan enjin pemprosesan bahasa semula jadi (NLP) tersekat apabila cuba mendapatkan, membuat kesimpulan atau melabelkan maklumat yang betul.
Jenis pengelompokan bahasa baharu: pendekatan hibrid
Walaupun pengelompokan teks tradisional digunakan dalam kaedah pembelajaran tanpa pengawasan untuk membuat kesimpulan pola semantik dan mengumpulkan dokumen dengan topik yang serupa, ayat dengan makna yang serupa, dsb., kaedah hibrid agak berbeza . Kelompok mikrolinguistik dicipta pada tahap berbutir menggunakan algoritma pembelajaran mesin yang dilatih pada data berlabel menggunakan nilai ternormal yang dipratentukan. Setelah gugusan mikrolinguistik disimpulkan, ia boleh digunakan dalam aktiviti pembelajaran mesin selanjutnya atau dalam talian paip hibrid didorong logik inferens berdasarkan lapisan simbolik.
Ini selaras dengan peraturan emas tradisional pengaturcaraan: "pecahkan masalah." Langkah pertama dalam menyelesaikan kes penggunaan yang kompleks (seperti kebanyakan kes penggunaan dalam ruang insurans) ialah memecahkannya kepada bahagian yang lebih kecil dan lebih sedap.
Apakah tugas yang boleh dicapai oleh pengelompokan bahasa campuran, dan sejauh manakah ia boleh berskala?
Walau bagaimanapun, pengelompokan bahasa jenis ini menyelesaikan masalah ini dengan memanfaatkan pembelajaran mesin untuk mengenal pasti konsep yang kemudiannya dihantar kepada logik yang kompleks dan tepat bagi enjin simbolik seterusnya dalam perancangan.
Kemungkinan tidak berkesudahan: sebagai contoh, langkah simbolik boleh mengubah nilai intrinsik pengecaman pembelajaran mesin berdasarkan segmen dokumen yang dimiliki oleh konsep tersebut.
Berikut ialah contoh penggunaan proses tatatanda "segmentasi" (memisahkan teks kepada kawasan yang berkaitan) untuk melihat cara menggunakan label yang diluluskan oleh modul pembelajaran mesin.
Bayangkan bahawa model perlu memahami sama ada perlindungan tertentu dikecualikan daripada polisi 100 halaman.
Enjin pembelajaran mesin mula-mula akan mengumpulkan semua kemungkinan variasi liputan "Seni":
Susulan ini, bahagian simbol saluran paip akan menyemak sama ada bahagian "Pengecualian" menyebut teg "Seni" untuk mengetahui sama ada insurans dikecualikan daripada polisi atau jika ia dilindungi ( seperti sebahagian daripada senarai sub-had).
Terima kasih kepada ini, anotor pembelajaran mesin tidak perlu risau tentang memberikan label berbeza kepada semua varian Seni berdasarkan kedudukan mereka dalam dasar: mereka hanya perlu menganotasi varian mereka Nilai ternormal untuk "Seni", yang akan bertindak sebagai gugusan bahasa mikro.
Satu lagi contoh berguna tugas kompleks ialah pengagregatan data. Jika enjin hibrid direka bentuk untuk mengekstrak sub-sekatan liputan tertentu, serta isu penormalan liputan, terdapat lapisan kerumitan tambahan untuk ditangani: susunan item bahasa untuk pengagregatan.
Pertimbangkan bahawa tugas di tangan adalah untuk mengeluarkan bukan sahaja sub-had liputan tertentu, tetapi juga kelayakannya (setiap acara, pengagregatan, dll.). Tiga item boleh disusun dalam beberapa pesanan berbeza:
Tajuk asal: Polisi Insurans: Pengelompokan Dokumen Melalui NLP Hibrid, pengarang: Stefano Reitano
Atas ialah kandungan terperinci Strategi dan kaedah untuk mengelompokkan dokumen insurans menggunakan pemprosesan bahasa semula jadi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!