


Membina Penjana Artikel dengan LangChain dan Llama3: Perjalanan Pembangun AI
Sebagai pembangun AI, saya sering mencari cara untuk menjadikan interaksi Model Bahasa Besar (LLM) yang kompleks lebih mudah diurus. LangChain menarik perhatian saya bukan sahaja kerana popularitinya yang semakin meningkat dalam komuniti pembangunan AI, tetapi juga kerana pendekatan praktikalnya untuk menyelesaikan cabaran penyepaduan LLM yang biasa. Reputasi rangka kerja untuk mengubah operasi LLM yang kompleks kepada aliran kerja yang diperkemas cukup menarik minat saya untuk mengujinya. Saya memutuskan untuk membina sistem penjanaan artikel yang akan menggabungkan keupayaan LangChain dengan model Llama3 untuk mencipta alat dengan aplikasi dunia sebenar.
Mengapa LangChain Masuk akal
LangChain mengubah cara kami berinteraksi dengan LLM dengan menyediakan pendekatan berstruktur dan intuitif untuk mengendalikan operasi yang kompleks. Anggap ia sebagai kit pembangunan yang direka dengan baik, dengan setiap komponen mempunyai tujuan tertentu. Daripada menyesuaikan panggilan API mentah dan mengurus gesaan secara manual, rangka kerja itu menyediakan antara muka bersih yang dirasakan semula jadi dari perspektif pembangun. Ia bukan sahaja tentang memudahkan proses, ia juga tentang menjadikan aplikasi LLM lebih dipercayai dan boleh diselenggara.
Komponen Utama LangChain
Pada terasnya, LangChain menggunakan rantaian, urutan operasi yang menghubungkan bersama untuk mencipta gelagat yang lebih kompleks. Rantaian ini melakukan segala-galanya daripada memformat gesaan kepada memproses respons model. Walaupun rangka kerja termasuk sistem canggih untuk mengurus gesaan dan mengekalkan konteks merentas interaksi, saya akan menumpukan terutamanya pada rantaian dan aspek gesaan untuk penjana artikel kami.
Penjana Artikel
Untuk projek ini, saya ingin membina sesuatu yang praktikal, sistem yang boleh menjana artikel tersuai berdasarkan parameter tertentu seperti topik, panjang, nada dan khalayak sasaran. Model Llama3, diakses melalui Ollama, memberikan keseimbangan prestasi dan fleksibiliti yang betul untuk tugasan ini.
Bermula
Persediaan adalah mudah:
- Mula-mula, saya memasang pakej yang diperlukan:
pip install langchain langchain-ollama requests
- Kemudian, saya menyediakan Ollama:
- Saya memuat turun dan memasang Ollama daripada https://ollama.com/blog/llama3
- Di terminal baharu, saya memulakan pelayan Ollama:
ollama serve
- Saya menarik model Llama3:
ollama pull llama3
Pelayan Ollama mesti berjalan di terminalnya semasa menggunakan penjana artikel. Jika ia ditutup, penjana tidak akan dapat menyambung kepada model.
Membina Komponen Teras
Mari kita pecahkan cara setiap bahagian sistem berfungsi:
Pengurusan Sambungan
Semakan ringkas ini membantu mengelakkan ralat masa jalan dengan mengetahui masalah sambungan lebih awal. Ia adalah cara yang boleh dipercayai untuk menyemak sambungan ke pelayan Ollama:
pip install langchain langchain-ollama requests
Konfigurasi Model
Persediaan model adalah penting untuk mendapatkan keseimbangan yang betul dalam kandungan terjana kami:
ollama serve
Parameter ini mewakili titik manis yang saya temui selepas menguji pelbagai kombinasi untuk penjanaan artikel.
Suhu (0.7): Mengawal rawak keluaran. Nilai yang lebih rendah (seperti 0.3) akan menjadikan teks lebih mudah diramal, manakala nilai yang lebih tinggi (seperti 0.9) akan menjadikannya lebih kreatif. 0.7 ialah keseimbangan yang baik.
Top_p (0.9): Parameter ini, juga dikenali sebagai pensampelan nukleus, memberitahu model berapa banyak pilihan perkataan yang perlu dipertimbangkan. Pada 0.9, ia melihat pilihan yang mencukupi untuk memastikan teks tetap menarik sambil kekal fokus pada topik.
num_ctx(4096): Saiz tetingkap konteks atau jumlah teks yang boleh digunakan oleh model sekali gus. Ini memberikan ruang yang cukup untuk kedua-dua input dan output artikel yang besar, kerana ia boleh mengendalikan kira-kira 3000-3500 perkataan.
Kejuruteraan Segera
Templat segera ialah tempat kami mentakrifkan perkara yang kami inginkan daripada model:
ollama pull llama3
Saluran Paip Generasi
Salah satu ciri LangChain yang paling elegan ialah komposisi rantainya yang ringkas:
def check_ollama_connection(): """ Check if Ollama server is running """ try: requests.get('http://localhost:11434/api/tags') return True except requests.exceptions.ConnectionError: return False
Barisan tunggal ini mencipta saluran paip generasi lengkap yang mengendalikan pemformatan segera, interaksi model dan pemprosesan tindak balas.
Antara Muka Baris Perintah
Untuk menjadikan alat ini mesra pengguna, saya melaksanakan antara muka baris arahan:
llm = OllamaLLM( model="llama3", temperature=0.7, # Balances creativity and consistency top_p=0.9, # Helps with text diversity num_ctx=4096 # Sets the context window )
Penggunaan Praktikal
Penggunaan penjana adalah sangat mudah: anda menjalankan kod dan lulus parameter.
Contoh #1
article_template = """ You are a professional content writer tasked with creating a comprehensive article. Topic: {topic} Writing Requirements: 1. Length: Approximately {word_count} words 2. Style: {tone} tone 3. Target Audience: {audience} 4. Format: Plain text without any markdown notation 5. Additional Details/Requirements: {extra_details} Content Structure Guidelines: - Start with an engaging introduction that hooks the reader - Organize content into clear sections with descriptive headings (not numbered) - Include relevant examples, statistics, or case studies when appropriate - Provide practical insights and actionable takeaways - End with a compelling conclusion that summarizes key points - Ensure smooth transitions between paragraphs and sections Writing Style Guidelines: - Use clear, concise language appropriate for the target audience - Avoid jargon unless necessary for the target audience - Incorporate relevant examples and real-world applications - Maintain an engaging and natural flow throughout the article - Use active voice predominantly - Include specific details and evidence to support main points - Ensure proper paragraph breaks for readability Additional Notes: - Do not use any markdown formatting - Keep paragraphs concise and focused - Use proper spacing between sections - If technical terms are used, provide brief explanations - Include a brief overview of what will be covered at the start Please write the article now: """
Artikel yang dihasilkan:
chain = prompt | llm
Contoh #2
def parse_arguments(): """ Parse command line arguments """ parser = argparse.ArgumentParser(description='Generate an article using AI') parser.add_argument('--topic', type=str, required=True, help='The topic of the article') parser.add_argument('--word-count', type=int, default=800, help='Target word count (default: 800)') parser.add_argument('--tone', type=str, default='professional', choices=['professional', 'casual', 'academic', 'informative', 'technical'], help='Writing tone (default: professional)') parser.add_argument('--audience', type=str, default='general', help='Target audience (default: general)') parser.add_argument('--extra-details', type=str, default='', help='Additional requirements or details for the article') return parser.parse_args()
Artikel yang dihasilkan:
python main.py \ --topic "Benefits of playing board games with friends" \ --word-count 200 \ --tone casual \ --audience "Board games lovers" \ --extra-details "Avoid markdown notation"
Pembelajaran Utama
Sepanjang projek ini, saya menemui beberapa pandangan penting tentang bekerja dengan LangChain:
- Corak Prestasi: Generasi pertama mengambil masa yang lebih lama disebabkan pemuatan model, tetapi larian berikutnya jauh lebih pantas.
- Pengurusan Konteks: Tetingkap konteks 4096 token menyediakan ruang yang cukup untuk kebanyakan artikel sambil mengekalkan prestasi yang baik.
- Parameter Penjanaan: Tetapan suhu (0.7) dan top_p (0.9) memberikan keseimbangan optimum antara kreativiti dan koheren.
Fikiran Akhir
Membina penjana artikel ini menunjukkan nilai praktikal LangChain dalam pembangunan AI. Ia mengendalikan kerumitan interaksi LLM sambil memberi kebebasan kepada pembangun untuk menumpukan pada membina ciri berguna. Rangka kerja mencapai keseimbangan antara pengabstrakan dan kawalan, menjadikannya lebih mudah untuk mencipta aplikasi berkuasa AI yang boleh dipercayai.
Untuk rakan sekerja yang dihormati di kawasan atau peminat tunggal, saya yakin LangChain memberikan semua makna yang diperlukan untuk pembangunan, dan bahagian yang terbaik ialah: ia bukan pertukaran dengan fleksibiliti. Memikirkan bahawa bidang alat AI berkembang pesat, rangka kerja seperti LangChain akan menjadi lebih berharga untuk membina aplikasi praktikal dan sedia pengeluaran.
Logo LangChain burung nuri dan rantai mempunyai maksud yang bijak di belakangnya. Burung nuri merujuk kepada cara LLM kadangkala dipanggil "burung nuri stokastik" kerana mereka mengulangi dan mengolah semula bahasa manusia. Bahagian rantai ialah rujukan yang menyeronokkan tentang cara rangka kerja membantu "merangkai" model bahasa "burung kakak tua" ke dalam aplikasi yang berguna.
Atas ialah kandungan terperinci Membina Penjana Artikel dengan LangChain dan LlamaAn AI Developers Journey. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Artikel ini menerangkan cara menggunakan sup yang indah, perpustakaan python, untuk menghuraikan html. Ia memperincikan kaedah biasa seperti mencari (), find_all (), pilih (), dan get_text () untuk pengekstrakan data, pengendalian struktur dan kesilapan HTML yang pelbagai, dan alternatif (sel

Modul Statistik Python menyediakan keupayaan analisis statistik data yang kuat untuk membantu kami dengan cepat memahami ciri -ciri keseluruhan data, seperti biostatistik dan analisis perniagaan. Daripada melihat titik data satu demi satu, cuma melihat statistik seperti min atau varians untuk menemui trend dan ciri dalam data asal yang mungkin diabaikan, dan membandingkan dataset besar dengan lebih mudah dan berkesan. Tutorial ini akan menjelaskan cara mengira min dan mengukur tahap penyebaran dataset. Kecuali dinyatakan sebaliknya, semua fungsi dalam modul ini menyokong pengiraan fungsi min () dan bukan hanya menjumlahkan purata. Nombor titik terapung juga boleh digunakan. Import secara rawak Statistik import dari fracti

Serialization dan deserialization objek Python adalah aspek utama dari mana-mana program bukan remeh. Jika anda menyimpan sesuatu ke fail python, anda melakukan siri objek dan deserialization jika anda membaca fail konfigurasi, atau jika anda menjawab permintaan HTTP. Dalam erti kata, siri dan deserialization adalah perkara yang paling membosankan di dunia. Siapa yang peduli dengan semua format dan protokol ini? Anda mahu berterusan atau mengalirkan beberapa objek python dan mengambilnya sepenuhnya pada masa yang akan datang. Ini adalah cara yang baik untuk melihat dunia pada tahap konseptual. Walau bagaimanapun, pada tahap praktikal, skim siri, format atau protokol yang anda pilih boleh menentukan kelajuan, keselamatan, kebebasan status penyelenggaraan, dan aspek lain dari program

Artikel ini membandingkan tensorflow dan pytorch untuk pembelajaran mendalam. Ia memperincikan langkah -langkah yang terlibat: penyediaan data, bangunan model, latihan, penilaian, dan penempatan. Perbezaan utama antara rangka kerja, terutamanya mengenai grap pengiraan

Artikel ini membincangkan perpustakaan Python yang popular seperti Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask, dan Permintaan, memperincikan kegunaan mereka dalam pengkomputeran saintifik, analisis data, visualisasi, pembelajaran mesin, pembangunan web, dan h

Tutorial ini dibina pada pengenalan sebelumnya kepada sup yang indah, memberi tumpuan kepada manipulasi DOM di luar navigasi pokok mudah. Kami akan meneroka kaedah dan teknik carian yang cekap untuk mengubahsuai struktur HTML. Satu kaedah carian dom biasa ialah Ex

Artikel ini membimbing pemaju Python mengenai bangunan baris baris komando (CLI). Butirannya menggunakan perpustakaan seperti Typer, Klik, dan ArgParse, menekankan pengendalian input/output, dan mempromosikan corak reka bentuk mesra pengguna untuk kebolehgunaan CLI yang lebih baik.

Penyelesaian kepada Isu Kebenaran Semasa Melihat Versi Python di Terminal Linux Apabila anda cuba melihat versi Python di Terminal Linux, masukkan Python ...


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

SecLists
SecLists ialah rakan penguji keselamatan muktamad. Ia ialah koleksi pelbagai jenis senarai yang kerap digunakan semasa penilaian keselamatan, semuanya di satu tempat. SecLists membantu menjadikan ujian keselamatan lebih cekap dan produktif dengan menyediakan semua senarai yang mungkin diperlukan oleh penguji keselamatan dengan mudah. Jenis senarai termasuk nama pengguna, kata laluan, URL, muatan kabur, corak data sensitif, cangkerang web dan banyak lagi. Penguji hanya boleh menarik repositori ini ke mesin ujian baharu dan dia akan mempunyai akses kepada setiap jenis senarai yang dia perlukan.

MinGW - GNU Minimalis untuk Windows
Projek ini dalam proses untuk dipindahkan ke osdn.net/projects/mingw, anda boleh terus mengikuti kami di sana. MinGW: Port Windows asli bagi GNU Compiler Collection (GCC), perpustakaan import yang boleh diedarkan secara bebas dan fail pengepala untuk membina aplikasi Windows asli termasuk sambungan kepada masa jalan MSVC untuk menyokong fungsi C99. Semua perisian MinGW boleh dijalankan pada platform Windows 64-bit.

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Penyesuai Pelayan SAP NetWeaver untuk Eclipse
Integrasikan Eclipse dengan pelayan aplikasi SAP NetWeaver.

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa
