


Membina Penjana Artikel dengan LangChain dan Llama3: Perjalanan Pembangun AI
Sebagai pembangun AI, saya sering mencari cara untuk menjadikan interaksi Model Bahasa Besar (LLM) yang kompleks lebih mudah diurus. LangChain menarik perhatian saya bukan sahaja kerana popularitinya yang semakin meningkat dalam komuniti pembangunan AI, tetapi juga kerana pendekatan praktikalnya untuk menyelesaikan cabaran penyepaduan LLM yang biasa. Reputasi rangka kerja untuk mengubah operasi LLM yang kompleks kepada aliran kerja yang diperkemas cukup menarik minat saya untuk mengujinya. Saya memutuskan untuk membina sistem penjanaan artikel yang akan menggabungkan keupayaan LangChain dengan model Llama3 untuk mencipta alat dengan aplikasi dunia sebenar.
Mengapa LangChain Masuk akal
LangChain mengubah cara kami berinteraksi dengan LLM dengan menyediakan pendekatan berstruktur dan intuitif untuk mengendalikan operasi yang kompleks. Anggap ia sebagai kit pembangunan yang direka dengan baik, dengan setiap komponen mempunyai tujuan tertentu. Daripada menyesuaikan panggilan API mentah dan mengurus gesaan secara manual, rangka kerja itu menyediakan antara muka bersih yang dirasakan semula jadi dari perspektif pembangun. Ia bukan sahaja tentang memudahkan proses, ia juga tentang menjadikan aplikasi LLM lebih dipercayai dan boleh diselenggara.
Komponen Utama LangChain
Pada terasnya, LangChain menggunakan rantaian, urutan operasi yang menghubungkan bersama untuk mencipta gelagat yang lebih kompleks. Rantaian ini melakukan segala-galanya daripada memformat gesaan kepada memproses respons model. Walaupun rangka kerja termasuk sistem canggih untuk mengurus gesaan dan mengekalkan konteks merentas interaksi, saya akan menumpukan terutamanya pada rantaian dan aspek gesaan untuk penjana artikel kami.
Penjana Artikel
Untuk projek ini, saya ingin membina sesuatu yang praktikal, sistem yang boleh menjana artikel tersuai berdasarkan parameter tertentu seperti topik, panjang, nada dan khalayak sasaran. Model Llama3, diakses melalui Ollama, memberikan keseimbangan prestasi dan fleksibiliti yang betul untuk tugasan ini.
Bermula
Persediaan adalah mudah:
- Mula-mula, saya memasang pakej yang diperlukan:
pip install langchain langchain-ollama requests
- Kemudian, saya menyediakan Ollama:
- Saya memuat turun dan memasang Ollama daripada https://ollama.com/blog/llama3
- Di terminal baharu, saya memulakan pelayan Ollama:
ollama serve
- Saya menarik model Llama3:
ollama pull llama3
Pelayan Ollama mesti berjalan di terminalnya semasa menggunakan penjana artikel. Jika ia ditutup, penjana tidak akan dapat menyambung kepada model.
Membina Komponen Teras
Mari kita pecahkan cara setiap bahagian sistem berfungsi:
Pengurusan Sambungan
Semakan ringkas ini membantu mengelakkan ralat masa jalan dengan mengetahui masalah sambungan lebih awal. Ia adalah cara yang boleh dipercayai untuk menyemak sambungan ke pelayan Ollama:
pip install langchain langchain-ollama requests
Konfigurasi Model
Persediaan model adalah penting untuk mendapatkan keseimbangan yang betul dalam kandungan terjana kami:
ollama serve
Parameter ini mewakili titik manis yang saya temui selepas menguji pelbagai kombinasi untuk penjanaan artikel.
Suhu (0.7): Mengawal rawak keluaran. Nilai yang lebih rendah (seperti 0.3) akan menjadikan teks lebih mudah diramal, manakala nilai yang lebih tinggi (seperti 0.9) akan menjadikannya lebih kreatif. 0.7 ialah keseimbangan yang baik.
Top_p (0.9): Parameter ini, juga dikenali sebagai pensampelan nukleus, memberitahu model berapa banyak pilihan perkataan yang perlu dipertimbangkan. Pada 0.9, ia melihat pilihan yang mencukupi untuk memastikan teks tetap menarik sambil kekal fokus pada topik.
num_ctx(4096): Saiz tetingkap konteks atau jumlah teks yang boleh digunakan oleh model sekali gus. Ini memberikan ruang yang cukup untuk kedua-dua input dan output artikel yang besar, kerana ia boleh mengendalikan kira-kira 3000-3500 perkataan.
Kejuruteraan Segera
Templat segera ialah tempat kami mentakrifkan perkara yang kami inginkan daripada model:
ollama pull llama3
Saluran Paip Generasi
Salah satu ciri LangChain yang paling elegan ialah komposisi rantainya yang ringkas:
def check_ollama_connection(): """ Check if Ollama server is running """ try: requests.get('http://localhost:11434/api/tags') return True except requests.exceptions.ConnectionError: return False
Barisan tunggal ini mencipta saluran paip generasi lengkap yang mengendalikan pemformatan segera, interaksi model dan pemprosesan tindak balas.
Antara Muka Baris Perintah
Untuk menjadikan alat ini mesra pengguna, saya melaksanakan antara muka baris arahan:
llm = OllamaLLM( model="llama3", temperature=0.7, # Balances creativity and consistency top_p=0.9, # Helps with text diversity num_ctx=4096 # Sets the context window )
Penggunaan Praktikal
Penggunaan penjana adalah sangat mudah: anda menjalankan kod dan lulus parameter.
Contoh #1
article_template = """ You are a professional content writer tasked with creating a comprehensive article. Topic: {topic} Writing Requirements: 1. Length: Approximately {word_count} words 2. Style: {tone} tone 3. Target Audience: {audience} 4. Format: Plain text without any markdown notation 5. Additional Details/Requirements: {extra_details} Content Structure Guidelines: - Start with an engaging introduction that hooks the reader - Organize content into clear sections with descriptive headings (not numbered) - Include relevant examples, statistics, or case studies when appropriate - Provide practical insights and actionable takeaways - End with a compelling conclusion that summarizes key points - Ensure smooth transitions between paragraphs and sections Writing Style Guidelines: - Use clear, concise language appropriate for the target audience - Avoid jargon unless necessary for the target audience - Incorporate relevant examples and real-world applications - Maintain an engaging and natural flow throughout the article - Use active voice predominantly - Include specific details and evidence to support main points - Ensure proper paragraph breaks for readability Additional Notes: - Do not use any markdown formatting - Keep paragraphs concise and focused - Use proper spacing between sections - If technical terms are used, provide brief explanations - Include a brief overview of what will be covered at the start Please write the article now: """
Artikel yang dihasilkan:
chain = prompt | llm
Contoh #2
def parse_arguments(): """ Parse command line arguments """ parser = argparse.ArgumentParser(description='Generate an article using AI') parser.add_argument('--topic', type=str, required=True, help='The topic of the article') parser.add_argument('--word-count', type=int, default=800, help='Target word count (default: 800)') parser.add_argument('--tone', type=str, default='professional', choices=['professional', 'casual', 'academic', 'informative', 'technical'], help='Writing tone (default: professional)') parser.add_argument('--audience', type=str, default='general', help='Target audience (default: general)') parser.add_argument('--extra-details', type=str, default='', help='Additional requirements or details for the article') return parser.parse_args()
Artikel yang dihasilkan:
python main.py \ --topic "Benefits of playing board games with friends" \ --word-count 200 \ --tone casual \ --audience "Board games lovers" \ --extra-details "Avoid markdown notation"
Pembelajaran Utama
Sepanjang projek ini, saya menemui beberapa pandangan penting tentang bekerja dengan LangChain:
- Corak Prestasi: Generasi pertama mengambil masa yang lebih lama disebabkan pemuatan model, tetapi larian berikutnya jauh lebih pantas.
- Pengurusan Konteks: Tetingkap konteks 4096 token menyediakan ruang yang cukup untuk kebanyakan artikel sambil mengekalkan prestasi yang baik.
- Parameter Penjanaan: Tetapan suhu (0.7) dan top_p (0.9) memberikan keseimbangan optimum antara kreativiti dan koheren.
Fikiran Akhir
Membina penjana artikel ini menunjukkan nilai praktikal LangChain dalam pembangunan AI. Ia mengendalikan kerumitan interaksi LLM sambil memberi kebebasan kepada pembangun untuk menumpukan pada membina ciri berguna. Rangka kerja mencapai keseimbangan antara pengabstrakan dan kawalan, menjadikannya lebih mudah untuk mencipta aplikasi berkuasa AI yang boleh dipercayai.
Untuk rakan sekerja yang dihormati di kawasan atau peminat tunggal, saya yakin LangChain memberikan semua makna yang diperlukan untuk pembangunan, dan bahagian yang terbaik ialah: ia bukan pertukaran dengan fleksibiliti. Memikirkan bahawa bidang alat AI berkembang pesat, rangka kerja seperti LangChain akan menjadi lebih berharga untuk membina aplikasi praktikal dan sedia pengeluaran.
Logo LangChain burung nuri dan rantai mempunyai maksud yang bijak di belakangnya. Burung nuri merujuk kepada cara LLM kadangkala dipanggil "burung nuri stokastik" kerana mereka mengulangi dan mengolah semula bahasa manusia. Bahagian rantai ialah rujukan yang menyeronokkan tentang cara rangka kerja membantu "merangkai" model bahasa "burung kakak tua" ke dalam aplikasi yang berguna.
Atas ialah kandungan terperinci Membina Penjana Artikel dengan LangChain dan LlamaAn AI Developers Journey. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

ArraysareGenerallymorememememory-efficientthanlistsforstoringnumericaldataduetotheirfixed-sizenatureanddirectmemoryaccess.1) arraysstoreelementsinacontiguousblock, reducingoverheadfrointersormetadata.2)

ToConvertapythonlisttoanarray, usetheArraymodule: 1) importThearraymodule, 2) createalist, 3) UseArray (typecode, list) toConvertit, spesifyingthetypecodelike'i'forintegers.ThisconversionOptimizesMogenhomogeneousdata, enHomerMogeneShomogeneousdata, enHomerMogeneousdata, enhomoMogenerDataShomaSdata, enhomoMogenhomogeneousdata,

Senarai Python boleh menyimpan pelbagai jenis data. Senarai contoh mengandungi integer, rentetan, nombor titik terapung, boolean, senarai bersarang, dan kamus. Senarai fleksibiliti adalah berharga dalam pemprosesan data dan prototaip, tetapi ia perlu digunakan dengan berhati -hati untuk memastikan kebolehbacaan dan pemeliharaan kod.

Pythondoesnothavebuilt-inarrays;usethearraymoduleformemory-efficienthomogeneousdatastorage,whilelistsareversatileformixeddatatypes.Arraysareefficientforlargedatasetsofthesametype,whereaslistsofferflexibilityandareeasiertouseformixedorsmallerdatasets.

Themostcomonlyedmoduleforcreatingarraysinpythonisnumpy.1) numpyprovidesefficienttoolsforarrayoperations, idealfornumericaldata.2) arrayscanbecreatedingingnp.array () for1dand2dstructures

ToAppendElementStoapyThonList, useTheAppend () methodforsingleelements, extend () formultipleelements, andInsert () forspecificposition.1) useAppend () foraddingOneElementAttheend.2)

TOCREATEAPYTHONLIST, USESQUAREBRACKETS [] danSeparatateItemSwithCommas.1) listsaredynamicandCanHoldMixedDatypes.2) UseAppend (), mengalih keluar (), danSlicingFormApulation.3)

Dalam bidang kewangan, penyelidikan saintifik, penjagaan perubatan dan AI, adalah penting untuk menyimpan dan memproses data berangka dengan cekap. 1) Dalam Kewangan, menggunakan memori yang dipetakan fail dan perpustakaan Numpy dapat meningkatkan kelajuan pemprosesan data dengan ketara. 2) Dalam bidang penyelidikan saintifik, fail HDF5 dioptimumkan untuk penyimpanan data dan pengambilan semula. 3) Dalam penjagaan perubatan, teknologi pengoptimuman pangkalan data seperti pengindeksan dan pembahagian meningkatkan prestasi pertanyaan data. 4) Dalam AI, data sharding dan diedarkan latihan mempercepatkan latihan model. Prestasi dan skalabiliti sistem dapat ditingkatkan dengan ketara dengan memilih alat dan teknologi yang tepat dan menimbang perdagangan antara kelajuan penyimpanan dan pemprosesan.


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Penyesuai Pelayan SAP NetWeaver untuk Eclipse
Integrasikan Eclipse dengan pelayan aplikasi SAP NetWeaver.

SublimeText3 versi Inggeris
Disyorkan: Versi Win, menyokong gesaan kod!

MantisBT
Mantis ialah alat pengesan kecacatan berasaskan web yang mudah digunakan yang direka untuk membantu dalam pengesanan kecacatan produk. Ia memerlukan PHP, MySQL dan pelayan web. Lihat perkhidmatan demo dan pengehosan kami.

PhpStorm versi Mac
Alat pembangunan bersepadu PHP profesional terkini (2018.2.1).

mPDF
mPDF ialah perpustakaan PHP yang boleh menjana fail PDF daripada HTML yang dikodkan UTF-8. Pengarang asal, Ian Back, menulis mPDF untuk mengeluarkan fail PDF "dengan cepat" dari tapak webnya dan mengendalikan bahasa yang berbeza. Ia lebih perlahan dan menghasilkan fail yang lebih besar apabila menggunakan fon Unicode daripada skrip asal seperti HTML2FPDF, tetapi menyokong gaya CSS dsb. dan mempunyai banyak peningkatan. Menyokong hampir semua bahasa, termasuk RTL (Arab dan Ibrani) dan CJK (Cina, Jepun dan Korea). Menyokong elemen peringkat blok bersarang (seperti P, DIV),
