介紹
大型語言模型正在迅速改變行業 - 迄今為止,它們為從銀行業的個性化客戶服務到全球溝通中的實時語言翻譯提供了動力。他們可以用自然語言回答問題,總結信息,撰寫論文,生成代碼等等,使其在當今世界中具有無價的工具。但是,儘管它們具有許多優勢,但他們還是遭受了一個被稱為“幻覺”的關鍵缺陷。這些是模型生成似乎正確且現實的信息的情況,但要么部分或完全錯誤,由模型組成,並且缺乏現實世界中數據中的任何基礎。因此,為了解決這個問題,Google開發了一個開放模型,一種稱為Datagemma的工具,可將LLM與現實世界數據連接起來,並使用Google的數據CONSONS使用可信賴的來源來檢查他們的響應。
學習成果
- 了解大語模型(LLM)及其應用的基礎知識。
- 探索LLMS中幻覺的原因和類型。
- 了解Google的數據如何使用現實世界數據來解決LLM幻覺。
- 獲得對先進技術的見解,例如檢索相互交流(鑽機)和檢索增強發電(RAG)。
- 發現Google的數據共享如何提高LLM的事實準確性。
本文作為數據科學博客馬拉鬆的一部分發表。
目錄
- 了解大語言模型
- 了解Gemma的結構
- 在LLM的背景下,幻覺是什麼?
- 什麼是數據基因?
- 鑽機:一種最小化LLM幻覺的混合方法
- 檢索增強生成,以最大程度地減少LLM幻覺
- 為什麼Datagemma很重要?
- 常見問題
了解大語言模型
大型語言模型是基礎模型,對大量文本數據進行培訓,參數範圍從數百萬到數十億,可以理解和生成自然語言。它們建立在允許處理和生成自然語言的變壓器體系結構上。可以使用自定義的數據集對特定域中的特定任務進行微調,以微調LLM模型。例如,像Bert這樣的LLM模型可以在網絡安全語料庫上進行微調,以使用LLMS。一種流行的LLM模型自動化威脅情報,由OpenAi,Bert和Google撰寫的GPT-4,由Google by Google,Meta by Meta,Claude,Claude by Anthropic等。
Gemma,Gemini和Bert的比較
芽 | 雙子座 | 伯特 |
開發人員的輕量級模型 | 更大,更強大的會話人工智能 | NLP任務的預訓練模型 |
適用於具有資源限制的應用程序,例如手機和邊緣計算 | 無需資源限制的複雜任務的理想選擇,例如大規模數據分析,複雜的AI應用程序。 | 諸如文本分類,問題回答,情感分析等任務的理想選擇。 |
易於在有限的資源環境中部署 | 通常部署在雲環境或具有豐富資源的數據中心中。 | 在本地或云環境中部署,但是較大的版本(例如Bert-Large)需要大量的計算資源 |
需要更少的計算資源 | 通常需要更多的計算資源。 | 諸如Bert-Base之類的較小型號可以部署在適度的硬件上,而諸如Bert-Large之類的較大型號可能需要更多的資源,但仍小於雙子座。 |
了解Gemma的結構
Gemma的體系結構旨在無縫整合高級檢索和發電技術,從而使系統能夠智能訪問外部數據源,同時產生準確,相干的響應,從而對各種AI驅動的應用程序非常有效。
Gemma基於變壓器解碼器體系結構:
Gemma和Gemma 2(2024年發布的最新版本)屬於Google LLM型號的Gemma家族。它們可以通過定制任務進行微調。例如:編碼模型是用於代碼完成的微調Gemma模型。
在LLM的背景下,幻覺是什麼?
LLMS中的幻覺是該模型自信地產生不准確,不一致或構成信息的輸出,但對我們來說似乎是可信的。該模型幻覺是內容,並且內容實際上並非如此。例如:在法庭案件中,兩名律師列舉了Chatgpt提供的消息來源,這些消息人士原來是錯誤的。
AI幻覺可以是三種類型的
- 輸入衝突幻覺:該模型生成了一個輸出,該輸出偏離了輸入中用戶提供的信息。
- 上下文相互矛盾的幻覺:在這裡,模型產生的輸出與先前生成的輸出相矛盾。
- 事實衝突幻覺:模型產生了與現實世界知識或事實相矛盾的錯誤/不准確輸出。
是什麼引起幻覺?
- 有限的培訓數據:當該模型尚未接受培訓或對有限數據進行培訓時,當它遇到與培訓數據不同的提示時,即使它不完全理解新提示,它可能會根據其現有的培訓數據產生數據,從而導致不准確性。
- 過於擬合:當提供了太多功能時,該模型將嘗試捕獲所有數據點而不了解基本模式,然後在培訓數據上獲得100%的準確性,但它不會在新數據上很好地概括。
如您所見,如果不進行事實檢查,則使用幻覺的LLM內容可能是有害的。在事實準確性很重要並且不可能有任何錯誤信息的應用中,例如醫療建議或法律指導,幻覺可能會導致錯誤的信息,並可能嚴重後果。幻覺是像正確答案一樣自信地傳遞的,因此用戶很難識別它。同樣,隨著對AI的準確信息的依賴正在上升,幻覺可以減少對AI系統的信任,從而使LLM在高風險域中更難接受。
因此,模型開發人員需要解決此問題,並確保在涉及準確性和事實的情況下,LLM應產生正確的事實輸出,以避免誤解的傳播。 Google已開發了一種解決AI幻覺的方法,以數據基因的形式開發出來。
什麼是數據基因?
Datagemma是由Google開發的開放模型,該模型旨在將LLM與來自Google DataCommons的值得信任的,事實,現實世界中的數據聯繫起來。
Google Data Commons是一個開放存儲庫,將大量公共數據集結合到統一格式中,使訪問和使用更容易。它結合了來自各種來源的數據,包括政府論文,研究組織和全球數據庫。數據共享的主要目的是為各種數據集提供一個共同的框架,使用戶可以在眾多域中查詢和分析結構化的現實世界數據,而無需昂貴的數據清潔或集成工作。
數據共享的關鍵特徵
- 它包括有關人口統計學局,世界銀行,NOAA等地方的人口,經濟學,環境和醫療保健等各種主題的數據。
- 將數據組織成標準化的模式,因此用戶可以輕鬆查詢數據集,而無需處理不同數據格式和結構的複雜性。
- 開發人員可以通過API訪問數據共享。
- 這是一項免費使用的公共服務,旨在使每個人都可以訪問高質量,可靠的數據。
數據共享的重要性
- 研究人員可以使用數據共享來快速收集和分析大型結構化數據集,而無需手動來源和清潔數據。
- 大型語言模型(LLM),例如Google的Gemma,可以使用數據共享來引用現實世界中的數據,減少幻覺並提高其輸出的事實準確性。
鏈接:建立自己的數據共享 - 數據共享
鑽機:一種最小化LLM幻覺的混合方法
它是一種自然語言處理(NLP)的高級技術,結合了基於檢索的基於檢索的方法,以提高響應的質量和相關性。
這是關於鑽機如何工作的簡要說明:
- 基於檢索的方法:這些方法涉及搜索大型既有響應或文檔的大型數據庫,以查找最相關的信息。這種方法可確保響應是準確的,並且基於實際數據。
- 基於生成的方法:這些方法使用模型根據輸入從頭開始生成響應。這樣可以做出更靈活和創造性的響應,但有時可能導致不准確或幻覺。
- 交織:通過交錯或結合檢索和發電技術,鑽機利用了兩種方法的優勢。系統檢索相關信息,然後使用生成模型來完善和擴展,以確保准確性和創造力。
這在高質量,上下文相關的響應至關重要的應用程序中很有用,例如在對話AI,客戶支持和內容創建中。
在Datagemma中,Gemma 2經過微調,以識別何時在生成輸出時提取準確的信息。在此,它取代了輸出中生成的數字,並從數據共享中獲得了更精確的信息。因此,基本上,模型通過更具信任的來源對其輸出進行了仔細檢查。
鑽機如何在數據基因中使用?
在Datagemma中,通過結合檢索和生成模型的優勢來確保生成的內容以可靠的數據基於來自數據共享的可靠數據,從而確保產生的內容基於數據共享,從而確保了檢索相互交流的生成(RIG)以提高產出的準確性和相關性。
- 首先,用戶向LLM模型提交查詢。在我們的情況下,LLM模型是Datagemma,它基於具有27b參數的Gemma 2模型,用於鑽機。
- Datagemma模型以自然語言查詢的形式生成響應。這樣做的目的是從數據Commons的自然語言接口中檢索相關數據。
- 查詢數據共享,並檢索所需的數據。
- 生成最終響應並顯示給用戶。響應包括數據,源信息及其鏈接以及一些元數據。這取代了原始響應中潛在的不准確數字。
Google Colab上的逐步過程
現在讓我們實施最小化幻覺的鑽機。
先決條件:
- A100 GPU
- 高射線運行時間
- 擁抱臉象徵
步驟1:登錄到您的擁抱臉部帳戶並創建一個新的令牌
單擊此處登錄擁抱面部帳戶。
創建新令牌:
Step2:DataCommons API密鑰
- 單擊此處創建您的帳戶。
- 創建一個新的應用程序以將數據共同集成。註冊一個API鍵。
步驟3:啟用數據共享NL API
轉到您的COLAB筆記本秘密部分。創建新的秘密並啟用筆記本訪問。
- hf_token有價值作為您的擁抱臉代幣
- dc_api_key,帶有價值作為數據共享令牌
步驟4:安裝所需庫
讓我們安裝所需的庫。
#安裝以下所需庫 ! ! #加載固定的GEMMA2 27B型號 導入火炬 導入data_gemma作為DG 從Google.Colab導入UserData 從變形金剛導入自動源,AutoModelforCausAllm,BitsandBytesConfig #初始化數據CONSONS API客戶端 dc_api_key = userdata.get('dc_api_key') dc = dg.datacommons(api_key = dc_api_key) #從HuggingFace獲取填充GEMMA2型號 hf_token = userdata.get('hf_token') nf4_config = bitsandbytesconfig( load_in_4bit = true, bnb_4bit_quant_type =“ nf4”, bnb_4bit_compute_dtype = torch.bfloat16 ) model_name ='Google/datagemma-rig-27b-it' tokenizer = autotokenizer.from_pretaining(model_name,token = hf_token) datagemma_model = automodelforcausallm.from_pretrated(model_name, device_map =“自動”, ventalization_config = nf4_config, TORCH_DTYPE = TORCH.BFLOAT16, token = hf_token) #構建LLM模型存根以用於鑽機流量 datagemma_model_wrapper = dg.hfbasic(datagemma_model,tokenizer)
步驟5:選擇或輸入查詢
在此步驟中,用戶可以選擇預定義的查詢或輸入自定義查詢,從而使系統能夠從數據源中檢索相關信息以進行進一步處理。
步驟6:運行鑽機技術並生成輸出
在此步驟中,執行了鑽機技術,結合了檢索和生成方法,以基於輸入查詢生成精確且上下文相關的輸出。
來自ipython.display導入降價 導入textWrap def display_chat(提示,文本): formatted_prompt =“ <font size="'1'顏色='brown'">?♂️ <blockquote>“提示” </blockquote> </font> “” text = text.replace('•',' *') text = textwrap.indent(text,'>',謂詞= lambda _:true) formatted_text =“ <font size="'1'color">?\ n \ n“ text” \ n </font>“ 返回markdown(formatted_prompt formatted_text) def to_markDown(文本): text = text.replace('•',' *') 返回markdown(textwrap.indent(text,'>',predicate = lambda _:true)) ans = dg.rigflow(llm = datagemma_model_wrapper,data_fetcher = dc,verbose = false).query(query = query = query) Markdown(textwrap.indent(ans.answer(),'>',predicate = lambda _:true)) display_chat(query,ans.answer())
輸出:(用於不同的查詢)
結論: GEMMA2僅生成一個數值,而Datagemma則生成數值及其源信息,源鏈接,一些元數據和查詢的結論。
資料來源:Google提供的Google COLAB筆記本
檢索增強生成,以最大程度地減少LLM幻覺
檢索增強生成是一種自然語言處理(NLP)和大語言模型(LLM)的方法,可以通過允許模型在生成過程中訪問外部知識源來提高生成內容的事實準確性和相關性。它在LLM生成文本之前從數據共享中檢索相關信息,為其響應提供了事實基礎。
這是抹佈如何工作的簡要說明:
- 檢索:當用戶輸入查詢時,該模型會收到它,然後從其知識庫或外部來源中提取相關數據。
- 增強:然後,該外部信息用於“增強”(或增強)語言模型的輸入上下文,從而幫助其產生更相關的響應。
- 一代: LLM根據原始查詢和檢索到的信息生成響應。
抹佈如何在數據基因中使用?
在Datagemma中,通過從外部來源檢索相關數據,然後生成將檢索到的知識與AI生成的見解相結合的內容,從而確保高質量和上下文相關的輸出,從而通過檢索相關數據來提高響應準確性。
這是抹布的工作方式:
- 首先,用戶向LLM模型提交查詢。在我們的情況下,LLM模型是Datagemma,該模型基於具有27b參數的Gemma 2模型,用於抹布任務。
- Datagemma模型以自然語言查詢的形式分析了輸入查詢後生成響應。這樣做的目的是從數據Commons的自然語言接口中檢索相關數據。
- 查詢數據共享並檢索所需的信息。
- 生成最終響應並顯示給用戶。這包括數據表,源信息及其鏈接以及一些元數據。這取代了原始響應中潛在的不准確數字。
- 此檢索到的信息將添加到原始用戶查詢中,創建增強或增強的提示。
- 較大的LLM(在我們的情況下,Gemini 1.5 Pro)使用此增強的提示,包括檢索到的數據,以產生更好,更準確和事實的響應。
Google Colab上的逐步過程
現在,我們將研究抹布的逐步步驟,以最大程度地減少幻覺。
先決條件:
- A100 GPU
- 高射線運行時間
- 擁抱臉象徵
- 數據共享API令牌
- Gemini 1.5 Pro API密鑰
步驟1:創建Gemini API密鑰
轉到Google AI Studioand創建Gemini API密鑰。
步驟2:啟用筆記本訪問
轉到您的Google Colab筆記本秘密部分,輸入擁抱面,數據共享和Gemini 1.5 Pro API密鑰。啟用筆記本訪問。
步驟3:安裝所需的庫
在此步驟中,您將安裝必要的庫,以實現鑽機技術,並確保數據機系統的平穩操作。
#install庫 ! ! #load微調gemma2 27b型號 導入火炬 導入data_gemma作為DG 從Google.Colab導入UserData 從變形金剛導入自動源,AutoModelforCausAllm,BitsandBytesConfig #初始化數據CONSONS API客戶端 dc_api_key = userdata.get('dc_api_key') dc = dg.datacommons(api_key = dc_api_key) #獲取雙子座1.5 Pro模型 gemini_api_key = userdata.get('gemini_api_key') gemini_model = dg.googleaistudio(model ='gemini-1.5-pro',api_keys = [gemini_api_key]) #從HuggingFace獲取填充GEMMA2型號 hf_token = userdata.get('hf_token') nf4_config = bitsandbytesconfig( load_in_4bit = true, bnb_4bit_quant_type =“ nf4”, bnb_4bit_compute_dtype = torch.bfloat16 ) model_name ='Google/datagemma-rag-27b-it' tokenizer = autotokenizer.from_pretaining(model_name,token = hf_token) datagemma_model = automodelforcausallm.from_pretrated(model_name, device_map =“自動”, ventalization_config = nf4_config, TORCH_DTYPE = TORCH.BFLOAT16, token = hf_token) #構建在抹布流中使用的LLM模型存根 datagemma_model_wrapper = dg.hfbasic(datagemma_model,tokenizer)
步驟4:選擇或創建自己的查詢
您將選擇或創建一個自定義查詢,該查詢將用作鑽機技術的輸入,以檢索並生成所需的輸出。
步驟5:運行抹布並生成輸出
現在,您將執行抹布系統以檢索相關數據並根據您提供的查詢生成最終輸出。
來自ipython.display導入降價 導入textWrap def display_chat(提示,文本): formatted_prompt =“ <font size="'1'顏色='brown'">?♂️ <blockquote>“提示” </blockquote> </font> “” text = text.replace('•',' *') text = textwrap.indent(text,'>',謂詞= lambda _:true) formatted_text =“ <font size="'1'color">?\ n \ n“ text” \ n </font>“ 返回markdown(formatted_prompt formatted_text) def to_markDown(文本): text = text.replace('•',' *') 返回markdown(textwrap.indent(text,'>',predicate = lambda _:true)) ans = dg.ragflow(llm_question = datagemma_model_wrapper,llm_answer = gemini_model,data_fetcher = dc).query(query = query = query) Markdown(textwrap.indent(ans.answer(),'>',predicate = lambda _:true)) display_chat(query,ans.answer())
輸出:
結論:當詢問查詢時,檢索了與查詢相關的相關數據表,然後將此數據用於構成最終響應,並使用有意義的信息和見解。查詢響應以及源鏈接,表和結論是作為輸出而生成的。
鏈接:數據Gemma抹布
為什麼Datagemma很重要?
Datagemma Grounds LLM在現實世界數據中輸出,確保模型生成基於事實的響應。通過通過Google數據共享的驗證數據來檢查模型的響應,數據基因有助於減少錯誤或捏造的答案的數量。使用鑽機和抹布方法,Google的研究人員觀察到該模型產生的產出的準確性顯著提高,尤其是在處理需要數值輸出的查詢時。
他們觀察到,用戶更喜歡由鑽機和抹布生成的輸出,而不是基線輸出。這種方法可以減少AI幻覺,可以減少錯誤信息的產生。同樣,由於Google已經製作了這種Gemma模型變體開放模型,因此開發人員和研究人員可以使用它來探索這種方法並進一步增強其,以實現使LLMS更加可靠和值得信賴的共同目標。
結論
LLM已成為整個行業的重要工具,但是它們“幻覺”的趨勢(令人信服但不正確的信息)提出了一個重大問題。當Google的數據與Google數據共享的龐大現實世界數據結合使用時,可以解決此問題的解決方案。數據基因中的技術通過基於驗證的統計數據來基於LLM輸出來提高精度,尤其是使用數值信息。它也減少了錯誤信息。早期結果表明,該策略大大提高了AI響應的信譽,消費者更喜歡系統給出的事實產出。由於Datagemma是一個開放的模型,因此研究人員和開發人員可以利用它並改進它,從而使LLM更接近成為現實世界應用程序的可靠工具。協作可以幫助減少幻覺並提高信任度。
參考
- Datagemma:AI開放模型將LLMS連接到Google的數據共享(Blog.google)
- 在數據共享(Research.google)的一些幫助下,將AI接地在現實中
常見問題
問1。什麼是基礎模型?答:基礎模型是一種大型機器學習模型,該模型對大量不同的數據進行了培訓,從而使其能夠跨越各種任務。 LLMS是一種基礎模型,該模型接受了大量文本數據的培訓。
問2。什麼是AI幻覺?答:AI幻覺是指AI模型產生的信息似乎準確但不正確或捏造的現象。該模型產生的響應在實際數據或事實中缺乏基礎。
Q3。為什麼LLMS幻覺?A. LLMS幻覺是因為它們根據已訓練的數據中的模式產生輸出。當他們沒有足夠的上下文或相關數據來回答查詢時,他們可能會根據現有知識庫中發現的類似數據來構建合理的信息而不是承認不確定性。
問4。什麼是Google Gemma?A. Google Gemma是基於Google Gemini的研究的Google的輕巧LLM模型。 Gemma的一種變體是Datagemma,它是開發的開放模型,可將LLM與Google數據共享中的現實世界統計數據連接起來。
問5。鑽機和抹布有什麼區別?A.鑽機通過檢查針對外部數據源(例如Google Data Commons)的響應,將現實世界統計數據直接集成到模型的輸出中。因此,基本上會產生響應,然後通過外部來源對其進行事實檢查。但是在抹布中,它從外部數據庫或知識源檢索相關信息,然後根據此信息產生響應。
本文所示的媒體不由Analytics Vidhya擁有,並由作者酌情使用。
以上是數據學:對幻覺的LLM接地-Analytics Vidhya的詳細內容。更多資訊請關注PHP中文網其他相關文章!
![無法使用chatgpt!解釋可以立即測試的原因和解決方案[最新2025]](https://img.php.cn/upload/article/001/242/473/174717025174979.jpg?x-oss-process=image/resize,p_40)
ChatGPT無法訪問?本文提供多種實用解決方案!許多用戶在日常使用ChatGPT時,可能會遇到無法訪問或響應緩慢等問題。本文將根據不同情況,逐步指導您解決這些問題。 ChatGPT無法訪問的原因及初步排查 首先,我們需要確定問題是出在OpenAI服務器端,還是用戶自身網絡或設備問題。 請按照以下步驟進行排查: 步驟1:檢查OpenAI官方狀態 訪問OpenAI Status頁面 (status.openai.com),查看ChatGPT服務是否正常運行。如果顯示紅色或黃色警報,則表示Open

2025年5月10日,麻省理工學院物理學家Max Tegmark告訴《衛報》,AI實驗室應在釋放人工超級智能之前模仿Oppenheimer的三位一體測試演算。 “我的評估是'康普頓常數',這是一場比賽的可能性

AI音樂創作技術日新月異,本文將以ChatGPT等AI模型為例,詳細講解如何利用AI輔助音樂創作,並輔以實際案例進行說明。我們將分別介紹如何通過SunoAI、Hugging Face上的AI jukebox以及Python的Music21庫進行音樂創作。 通過這些技術,每個人都能輕鬆創作原創音樂。但需注意,AI生成內容的版權問題不容忽視,使用時務必謹慎。 讓我們一起探索AI在音樂領域的無限可能! OpenAI最新AI代理“OpenAI Deep Research”介紹: [ChatGPT]Ope

ChatGPT-4的出现,极大地拓展了AI应用的可能性。相较于GPT-3.5,ChatGPT-4有了显著提升,它具备强大的语境理解能力,还能识别和生成图像,堪称万能的AI助手。在提高商业效率、辅助创作等诸多领域,它都展现出巨大的潜力。然而,与此同时,我们也必须注意其使用上的注意事项。 本文将详细解读ChatGPT-4的特性,并介绍针对不同场景的有效使用方法。文中包含充分利用最新AI技术的技巧,敬请参考。 OpenAI发布的最新AI代理,“OpenAI Deep Research”详情请点击下方链

CHATGPT應用程序:與AI助手釋放您的創造力!初學者指南 ChatGpt應用程序是一位創新的AI助手,可處理各種任務,包括寫作,翻譯和答案。它是一種具有無限可能性的工具,可用於創意活動和信息收集。 在本文中,我們將以一種易於理解的方式解釋初學者,從如何安裝chatgpt智能手機應用程序到語音輸入功能和插件等應用程序所獨有的功能,以及在使用該應用時要牢記的要點。我們還將仔細研究插件限制和設備對設備配置同步

ChatGPT中文版:解鎖中文AI對話新體驗 ChatGPT風靡全球,您知道它也提供中文版本嗎?這款強大的AI工具不僅支持日常對話,還能處理專業內容,並兼容簡體中文和繁體中文。無論是中國地區的使用者,還是正在學習中文的朋友,都能從中受益。 本文將詳細介紹ChatGPT中文版的使用方法,包括賬戶設置、中文提示詞輸入、過濾器的使用、以及不同套餐的選擇,並分析潛在風險及應對策略。此外,我們還將對比ChatGPT中文版和其他中文AI工具,幫助您更好地了解其優勢和應用場景。 OpenAI最新發布的AI智能

這些可以將其視為生成AI領域的下一個飛躍,這為我們提供了Chatgpt和其他大型語言模型聊天機器人。他們可以代表我們採取行動,而不是簡單地回答問題或產生信息

使用chatgpt有效的多個帳戶管理技術|關於如何使用商業和私人生活的詳盡解釋! Chatgpt在各種情況下都使用,但是有些人可能擔心管理多個帳戶。本文將詳細解釋如何為ChatGpt創建多個帳戶,使用時該怎麼做以及如何安全有效地操作它。我們還介紹了重要的一點,例如業務和私人使用差異,並遵守OpenAI的使用條款,並提供指南,以幫助您安全地利用多個帳戶。 Openai


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

Atom編輯器mac版下載
最受歡迎的的開源編輯器

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!

禪工作室 13.0.1
強大的PHP整合開發環境

mPDF
mPDF是一個PHP庫,可以從UTF-8編碼的HTML產生PDF檔案。原作者Ian Back編寫mPDF以從他的網站上「即時」輸出PDF文件,並處理不同的語言。與原始腳本如HTML2FPDF相比,它的速度較慢,並且在使用Unicode字體時產生的檔案較大,但支援CSS樣式等,並進行了大量增強。支援幾乎所有語言,包括RTL(阿拉伯語和希伯來語)和CJK(中日韓)。支援嵌套的區塊級元素(如P、DIV),

Dreamweaver Mac版
視覺化網頁開發工具