AI景觀正在迅速發展,其效率和可擴展性較小,輕巧的模型具有突出性。在Google DeepMind推出了27b模型Gemma 3之後,Mistral AI現在發布了Mistral 3.1輕量級型號的24B參數。這個新的,快速和可定制的模型正在重新定義輕量級模型可以做什麼。它可以在單個處理器上有效運行,從而增強了小型團隊和組織的速度和可訪問性。在此Mistral 3.1對Gemma 3的比較中,我們將探索他們的功能,評估他們在基準測試上的性能,並進行一些動手試驗以找出更好的模型。
目錄
- 什麼是Mistral 3.1?
- 如何訪問Mistral 3.1
- 什麼是Gemma 3?
- 如何訪問Gemma 3
- Mistral Small 3.1 vs Gemma 3:功能比較
- Mistral Small 3.1 vs Gemma 3:性能比較
- Mistral Small 3.1 vs Gemma 3:基準比較
- 結論
- 常見問題
什麼是Mistral 3.1?
Mistral 3.1是Mistral AI的最新大型語言模型(LLM),旨在提供具有較低計算要求的高性能。它代表著向緊湊型但功能強大的AI模型的轉變,使高級AI功能更易於訪問和成本效益。與需要大量資源的大型模型不同,Mistral 3.1平衡可擴展性,速度和負擔能力,使其非常適合現實世界應用。
Mistral 3.1的關鍵特徵
- 輕巧且高效:在單個RTX 4090或具有32GB RAM的Mac上平穩運行,非常適合在設備AI解決方案。
- 快速響應對話AI:針對需要快速,準確響應的虛擬助手和聊天機器人進行了優化。
- 低延遲功能調用:支持自動化工作流程和代理系統,以最小的延遲執行功能。
- 微調功能:可以專門用於法律AI,醫學診斷和技術支持,從而允許特定領域的專業知識。
- 多模式理解:在圖像處理,文檔驗證,診斷和對象檢測方面表現出色,使其在整個行業中具有多功能性。
- 開源和自定義:可提供基礎和指示檢查點,為高級應用程序提供進一步的下游自定義。
如何訪問Mistral 3.1
Mistral 3.1可通過多個平台獲得。您可以通過擁抱面部下載並在本地運行,也可以使用Mistral AI API訪問它。
1。通過擁抱臉訪問Mistral 3.1
您可以下載Mistral 3.1基礎和Mistral 3.1指令,以直接使用擁抱臉。這是這樣做的方法:
步驟1:每晚安裝VLLM
打開您的終端並運行此命令以安裝VLLM(這還安裝了所需的Mistral_Common軟件包):
PIP安裝vllm -pre -extra-index-url https://wheels.vllm.ai/ightly-upgrade-upgrade
您可以通過運行來驗證安裝:
python -c“導入mistral_common; print(mistral_common .__版本__)”
步驟2:準備您的Python腳本
創建一個新的python文件(例如,offline_inference.py)並添加以下代碼。確保將model_name變量設置為正確的模型ID(例如,“ mistralai/mistral-small-3.1-24b-instruct-2503”):
從vllm導入llm 來自vllm.sampling_params導入SamplingParams #定義系統提示(您可以根據需要對其進行修改) system_prompt =“您是一種始終直接回答點的對話代理,始終用貓的ASCII圖結束您的準確響應。” #定義用戶提示 USER_PROMPT =“給我5種非正式的方式來用法語說'後來見'。” #設置對話的消息 消息= [ {“角色”:“系統”,“ content”:system_prompt},, {“角色”:“用戶”,“ content”:user_prompt},, 這是給出的 #定義模型名稱(確保您有足夠的GPU內存或在需要時使用量化) model_name =“ mistralai/mistral-small-3.1-24b-instruct-2503” #使用指定模型和令牌模式初始化VLLM的LLM llm = llm(model = model_name,tokenizer_mode =“ mistral”) #設置採樣參數(根據需要調整Max_tokens和溫度) Sampling_Params = SamplingParams(MAX_TOKENS = 512,溫度= 0.15) #脫機模型並獲取響應 輸出= llm.Chat(消息,Sampling_Params = Sampling_Params) #從模型的響應中打印出生成的文本 打印(輸出[0] .outputs [0] .TEXT)
步驟3:離線運行腳本
- 保存腳本。
- 在保存腳本的目錄中打開一個終端。
- 用以下方式運行腳本
Python Offline_inference.py
該模型將在本地加載並根據您的提示生成響應。
重要的考慮因素
-
硬件需求:在GPU上完全精確地運行完整的24B型號,通常需要超過60 GB的GPU RAM。如果您的硬件不滿足,請考慮:
- 使用模型的較小或量化版本。
- 使用具有足夠內存的GPU。
- 離線與服務器模式:此代碼使用VLLM Python API來離線運行模型(即,完全在您的本地計算機上,而無需設置服務器)。
- 修改提示:您可以更改System_prompt和user_prompt以適合您的需求。對於生產或更高級的用法,您可能需要添加一個系統提示,以幫助指導模型的行為。
2。通過API訪問Mistral 3.1
您也可以通過API訪問Mistral 3.1。這是為此遵循的步驟。
- 訪問網站:訪問Mistral AI登錄或登錄所有必要的詳細信息。
- 訪問API部分:單擊“嘗試API”以探索可用選項。
- 導航到API:登錄後,單擊“ API”以管理或生成新密鑰。
- 選擇一個計劃:當要求生成API時,請單擊“選擇計劃”以進行API訪問。
- 選擇免費的實驗計劃:單擊“免費實驗”以無需花費即可嘗試API。
- 註冊免費訪問:完成註冊過程以創建帳戶並獲得對API的訪問。
- 創建一個新的API鍵:單擊“創建新密鑰” ,以生成用於項目的新API鍵。
- 配置API鍵:提供一個鍵名來輕鬆識別它。您甚至可以選擇設置有效的日期以增加安全性。
- 最終確定並檢索API鍵:單擊“創建新密鑰”以生成鍵。現在,您的API密鑰已創建並準備在項目中使用。
您可以將此API密鑰集成到應用程序中,以與Mistral 3.1進行交互。
什麼是Gemma 3?
Gemma 3是由Google DeepMind設計的最先進的輕便開放模型,可通過有效的資源使用來提供高性能。它基於為Gemini 2.0提供動力的相同研究和技術,它以緊湊的形式提供了高級的AI功能,使其非常適合各種硬件的設備應用程序。 Gemma 3可在1B,4B,12B和27B參數尺寸中提供,使開發人員能夠構建快速,可擴展且易於訪問的AI驅動解決方案。
Gemma 3的主要特徵
- 單個加速器上的高性能:它在LMARENA的評估中優於Llama 3-405b,DeepSeek-V3和O3-Mini,這使其成為每個大小最佳模型之一。
- 多語言功能:支持140多種語言,從而實現AI驅動的全球通信。
- 高級文本和視覺推理:處理圖像,文本和簡短視頻,擴展交互式AI應用程序。
- 擴展的上下文窗口:最多可處理128K代幣,可以更深入的見解和長期的內容生成。
- 需要AI工作流的功能:支持自動化和代理體驗的結構化輸出。
- 優化效率:官方量化版本降低了計算需求而不犧牲準確性。
- 帶有ShieldGemma 2的內置安全性:提供圖像安全檢查,檢測危險,明確和暴力內容。
如何訪問Gemma 3
Gemma 3在多個平台上很容易訪問,例如Google AI工作室,擁抱的臉,Kaggle等。
1。在Google AI Studio上訪問Gemma 3
此選項使您可以在預先配置的環境中與Gemma 3進行交互,而無需在自己的機器上安裝任何內容。
步驟1:打開您的網絡瀏覽器,然後前往Google AI Studio。
步驟2:使用您的Google帳戶登錄。如果您沒有一個,請創建一個Google帳戶。
步驟3:登錄後,使用AI Studio中的搜索欄尋找使用“ Gemma 3”的筆記本或演示項目。
提示:尋找標題為“ Gemma 3”的項目,或檢查“社區筆記本”部分,經常共享預配置的演示。
步驟4:通過遵循以下步驟啟動演示。
- 單擊筆記本以打開它。
- 單擊“運行”或“啟動”按鈕以啟動交互式會話。
- 筆記本電腦應自動加載Gemma 3模型並提供證明其功能的示例單元格。
步驟5:按照筆記本中的說明開始使用模型。您可以修改輸入文本,運行單元格,並實時查看模型的響應,而無需任何本地設置。
2。在擁抱的臉上訪問Gemma 3,Kaggle和Ollama
如果您希望在自己的機器上使用Gemma 3或將其集成到項目中,則可以從多個來源下載它。
A.擁抱臉
步驟1:訪問擁抱的臉。
步驟2:使用搜索欄鍵入“ Gemma 3”,然後單擊與Gemma 3相對應的模型卡。
步驟3:使用“下載”按鈕下載模型或通過Git克隆存儲庫。
如果您使用的是Python,請安裝變形金剛庫:
PIP安裝變壓器
步驟4:加載並使用代碼中的模型。為此,您可以創建一個新的Python腳本(例如Gemma3_demo.py),並添加類似於下面的代碼:
從變形金剛導入AutomodelForCausAllm,AutoTokenizer model_id =“ your-gemma3-model-id”#替換為擁抱臉部的實際模型ID 型號= automodelforcausallm.from_pretrate(model_id) tokenizer = autotokenizer.from_pretaining(model_id) 提示=“享用咖啡的最佳方法是什麼?” 輸入= tokenizer(提示,return_tensors =“ pt”) 輸出= model.generate(**輸入,max_new_tokens = 50) print(tokenizer.decode(輸出[0],skip_special_tokens = true))
在本地運行您的腳本以與Gemma 3交互。
B. Kaggle
步驟1:在瀏覽器中打開Kaggle。
步驟2:使用Kaggle上的搜索欄搜索“ Gemma 3”。查找使用模型的筆記本或數據集。
步驟3:單擊相關筆記本以查看Gemma 3的集成方式。您可以在Kaggle的環境中運行筆記本或下載筆記本以在本地計算機上進行研究和修改。
C. Ollama
步驟1:訪問Ollama並下載Ollama應用程序。
步驟2:在系統上啟動Ollama應用程序,並使用內置搜索功能在模型目錄中查找“ Gemma 3”。
步驟3:單擊Gemma 3型號,然後按照提示下載並安裝。安裝後,使用Ollama接口通過輸入提示和查看響應來測試模型。
通過遵循這些詳細的步驟,您可以在Google AI Studio上立即嘗試Gemma 3,也可以通過擁抱的臉,Kaggle或Ollama下載它進行開發。選擇最適合您的工作流程和硬件設置的方法。
Mistral Small 3.1 vs Gemma 3:功能比較
現在,讓我們開始比較,從它們的功能開始。這是基於可用數據的Gemma 3和Mismtral Small 3.1的特徵的詳細比較:
特徵 | Mistral Small 3.1 | Gemma 3 |
參數 | 24b | 可在1B,4B,12B和27B變體中使用 |
上下文窗口 | 多達128K令牌 | 多達128K令牌 |
多模式功能 | 支持文本和圖像輸入 | 支持文本和圖像輸入 |
推理速度 | 更快(每秒150個令牌) | 與Mistral相比慢 |
潛伏期 | 較低的延遲(0.33到第一個令牌) | 較高的延遲 |
語言支持 | 支持數十種語言 | 多語言具有140多種語言 |
對話風格 | 乾燥的對話風格,但可以通過系統提示來改進 | 更類似人類和chatgpt風格的回應 |
推理能力 | 在MMLU之類的推理任務中,Gemma 3優於Gemma 3 | 在推理方面表現良好,但效果不佳 |
開源 | 是(Apache 2.0許可證) | 是的 |
Mistral Small 3.1 vs Gemma 3:性能比較
在本節中,我們將在某些動手任務中比較Gemma 3和Mismtral 3.1,並查看它們的表現。為了進行公平的比較,我們將在兩個模型上嘗試相同的提示,以下是我們將要嘗試的任務列表:
- 對象檢測
- 視覺數據提取
- 視覺數據提取 - 印刷文本
讓我們開始。
任務1:對象檢測
在此任務中,我們將為模型提供具有動物符號的糖果的圖像,並要求他們在糖果上識別動物。
提示: “圖像中的動物身份”
輸入圖像:
輸出
Mistral 3.1 | Gemma 3 |
圖像中的糖果似乎是M&M的糖果,其中描繪的動物是烏龜。烏龜設計在藍色,橙色和綠色糖果上可見。 | 讓我們分析圖像中的糖果!糖果上的動物是烏龜。您可以看到一隻烏龜的殼,頭和腿在表面上清楚地印在地面上。 |
比較分析
兩種模型都正確地將圖像中的動物識別為烏龜。但是,Mistral 3.1通過將糖果識別為M&M,並提及糖果的顏色,提供了其他上下文。同時,Gemma 3以更一般的方式描述了烏龜的外觀。
判決:兩個模型都成功地識別了對象,但是Mistral 3.1提供了更詳細的上下文信息。因此,Mistral 3.1贏得了本輪比賽。
得分: Mistral 3.1:1 |傑瑪3:0
任務2:視覺數據提取
為了在其視覺數據提取功能上測試模型,我們將為它們提供飛機的圖像,並要求他們從中提取車輛代碼。
提示: “車輛上的代碼是什麼?”
輸入圖像:
輸出:
Mistral 3.1 | Gemma 3 |
車輛上的代碼是飛機,是“ D-Eoju”。 | 根據圖像,車輛是塞斯納172天鷹。尾部上的註冊代碼為d-eoju。 |
比較分析:
Mistral 3.1和Gemma 3成功地從飛機上確定了註冊代碼。但是,Gemma 3不僅確定了代碼,而且還添加了額外的詳細信息,例如飛機模型。
判決:兩種模型都準確提取了代碼,但是Gemma 3提供了有關車輛的更多背景詳細信息。因此,Gemma 3獲得了這一點的重點。
得分: Mistral 3.1:1 |傑瑪3:1
任務3:視覺數據提取
對於最後一項任務,我們將向他們提供WiFi收據的圖像,並要求他們從中提取WiFi密碼。
提示: “什麼是密碼?”
輸入圖像:
輸出:
Mistral 3.1 | Gemma 3 |
圖像中提供的密碼為** aaeu **。 這是圖像中的信息以清晰: - **用戶名:** fqpp - **密碼:** AAEU - **流量:** 1 GB - **價格:** 0.00 - **有效性:** 1週 - **開始:**現在 - **共享用戶:** 4 - **日期和時間:** 27/02/2019 11:03:15 |
根據圖像,密碼為AAEU |
比較分析:
兩種模型都從圖像中準確提取了密碼。此外,Mistral 3.1提供了有關用戶名,流量,價格,有效性和其他相關信息的額外詳細信息,從而使其產出更全面。
判決: Mistral 3.1在提取和呈現結構化數據方面表現更好,提供了更有用的上下文。因此,Mistral 3.1為此任務提供了另一點。
得分: Mistral 3.1:2 |傑瑪3:1
最終分數:Mistral 3.1:2 |傑瑪3:1
性能比較摘要
這是我們嘗試過的任務中兩個模型的性能的摘要。
任務 | Mistral 3.1性能 | Gemma 3性能 | 優勝者 |
對象檢測 | 正確地確定了動物(烏龜),並提供了其他背景,並提到糖果是M&M,並指定了它們的顏色。 | 正確地將動物識別為烏龜,並描述了其外觀,但沒有其他上下文細節。 | Mistral 3.1 |
視覺數據提取(車輛代碼) | 從飛機圖像中成功提取了註冊代碼(“ D-EOJU”)。 | 準確提取了註冊代碼,並確定了飛機模型(Cessna 172 Skyhawk)。 | Gemma 3 |
視覺數據提取(印刷文本) | 正確提取了WiFi密碼,並提供了其他結構化數據,例如用戶名,流量,價格,有效性和其他詳細信息。 | 正確提取WiFi密碼,但沒有提供其他結構化信息。 | Mistral 3.1 |
從這個比較中,我們已經看到Mistral 3.1在結構化數據提取中表現出色,並提供了簡潔但有益的響應。同時,Gemma 3在對象識別方面表現良好,在某些情況下提供了更豐富的上下文細節。
對於需要快速,結構化和精確數據提取的任務,Mistral 3.1是更好的選擇。對於上下文和其他描述性信息很重要的任務,Gemma 3具有優勢。因此,最佳模型取決於特定的用例。
Mistral Small 3.1 vs Gemma 3:基準比較
現在,讓我們看看這兩個模型在各種標準基準測試中的性能。為了進行此比較,我們將研究測試模型處理文本,多語言內容,多模式內容和長篇小寫功能的基準測試。我們還將研究驗證的性能基準測試結果。
Gemma 3和Mismtral Small 3.1都是在各種基準測試中進行了評估的著名AI模型。
文本指示基準測試
從圖中我們可以看到:
- Mistral 3.1在大多數基準中,尤其是在GPQA Main,GPQA Diamond和MMLU中,始終優於Gemma 3。
- 人類事件和數學在這兩種模型中均顯示出幾乎相同的性能。
- SimpleQA顯示出最小的差異,表明這兩個模型都在此類別中掙扎。
- Mistral 3.1領導於推理和一般知識任務(MMLU,GPQA),而Gemma 3則與代碼相關的基準(Humaneval,Math)緊密競爭。
多模式指示基準
該圖在視覺上說明了:
- Mistral 3.1在大多數基準測試中始終優於Gemma 3。
- 有利於Mistral的最大性能差距出現在ChartQA和DOCVQA中。
- Mathvista是最接近的競爭,這兩種模型幾乎同樣表現。
- Gemma 3落後於基於文檔的QA任務,但在一般的多模式任務中相對接近。
多語言和長篇小說基準
從圖中我們可以看到:
用於多語言性能:
- Mistral 3.1在歐洲和東亞語言中引導。
- 兩種模型在中東和平均多語言性能中都很接近。
對於長篇小說處理:
- Mistral在長篇小說任務中的表現高於Gemma 3,尤其是在Ruler 32K和Doler 128K中。
- Gemma 3在Longbench V2中落後更多,但在Ruler 32k中仍然具有競爭力。
預驗證的性能基準
從此圖中,我們可以看到:
- Mistral 3.1在一般知識,事實召回和推理任務方面始終如一地表現更好。
- Gemma 3在GPQA中大大出現,與Mistral 3.1相比,其性能要低得多。
- Triviaqa是最平衡的基準,兩種模型的性能幾乎相同。
結論
Mistral 3.1和Gemma 3都是強大的輕量級AI模型,每個模型在不同領域都表現出色。 Mistral 3.1針對速度,低潛伏期和強大的推理功能進行了優化,使其成為實時應用程序(例如聊天機器人,編碼和文本生成)的首選選擇。其效率和任務專業化進一步增強了對性能驅動的AI任務的吸引力。
另一方面,Gemma 3提供了廣泛的多語言支持,多模式功能和競爭性上下文窗口,使其非常適合全球AI應用程序,文檔摘要和各種語言的內容生成。但是,與Mistral 3.1相比,它具有一定的速度和效率。
最終,Mistral 3.1和Gemma 3之間的選擇取決於特定需求。 Mistral 3.1在性能驅動和實時應用中擅長,而Gemma 3是多語言和多模式AI解決方案的理想選擇。
常見問題
Q1。我可以微調Mistral 3.2和Gemma 3嗎?答:是的,您可以對兩個型號進行微調。 Mistral 3.1支持法律AI和醫療保健等特定領域的微調。 Gemma 3提供了量化的版本,以優化效率。
Q2。如何在Mistral 3.1和Gemma 3之間進行選擇?答:如果您需要快速的推理,編碼和有效的推斷,請選擇Mistral 3.1。如果您需要多語言支持和文本繁重的應用程序,請選擇Gemma 3。
Q3。 Mistral 3.1和Gemma 3之間的架構的主要區別是什麼?A. Mistral 3.1是一種密集的變壓器模型,該模型訓練了快速推理和強烈的推理,而Gemma 3則在1B,4B,12B和27B參數尺寸中可用,以優化靈活性。
Q4。這些模型是否支持多模式輸入?答:是的,這兩個模型都支持視覺和文本處理,使其可用於圖像字幕和視覺推理。
Q5。 Mistral 3.1是什麼類型的模型?A. Mistral 3.1是一種緻密的變壓器模型,旨在快速推理和強有力的推理,使其適用於復雜的NLP任務。
Q6。 Gemma 3的可用尺寸是多少?A. Gemma 3在1B,4B,12B和27B參數尺寸中可用,可在不同的硬件設置中提供靈活性。
Q7。 Mistral 3.1在基準測試中的優點和缺點是什麼?A. Mistral 3.1以快速推理,強大的NLP理解和資源消耗率低,使其高效。但是,它具有有限的多模式功能,並且在長篇小說任務上的性能比GPT-4稍弱。
以上是Mistral 3.1 vs Gemma 3:哪個更好的模型?的詳細內容。更多資訊請關注PHP中文網其他相關文章!
![無法使用chatgpt!解釋可以立即測試的原因和解決方案[最新2025]](https://img.php.cn/upload/article/001/242/473/174717025174979.jpg?x-oss-process=image/resize,p_40)
ChatGPT無法訪問?本文提供多種實用解決方案!許多用戶在日常使用ChatGPT時,可能會遇到無法訪問或響應緩慢等問題。本文將根據不同情況,逐步指導您解決這些問題。 ChatGPT無法訪問的原因及初步排查 首先,我們需要確定問題是出在OpenAI服務器端,還是用戶自身網絡或設備問題。 請按照以下步驟進行排查: 步驟1:檢查OpenAI官方狀態 訪問OpenAI Status頁面 (status.openai.com),查看ChatGPT服務是否正常運行。如果顯示紅色或黃色警報,則表示Open

2025年5月10日,麻省理工學院物理學家Max Tegmark告訴《衛報》,AI實驗室應在釋放人工超級智能之前模仿Oppenheimer的三位一體測試演算。 “我的評估是'康普頓常數',這是一場比賽的可能性

AI音樂創作技術日新月異,本文將以ChatGPT等AI模型為例,詳細講解如何利用AI輔助音樂創作,並輔以實際案例進行說明。我們將分別介紹如何通過SunoAI、Hugging Face上的AI jukebox以及Python的Music21庫進行音樂創作。 通過這些技術,每個人都能輕鬆創作原創音樂。但需注意,AI生成內容的版權問題不容忽視,使用時務必謹慎。 讓我們一起探索AI在音樂領域的無限可能! OpenAI最新AI代理“OpenAI Deep Research”介紹: [ChatGPT]Ope

ChatGPT-4的出现,极大地拓展了AI应用的可能性。相较于GPT-3.5,ChatGPT-4有了显著提升,它具备强大的语境理解能力,还能识别和生成图像,堪称万能的AI助手。在提高商业效率、辅助创作等诸多领域,它都展现出巨大的潜力。然而,与此同时,我们也必须注意其使用上的注意事项。 本文将详细解读ChatGPT-4的特性,并介绍针对不同场景的有效使用方法。文中包含充分利用最新AI技术的技巧,敬请参考。 OpenAI发布的最新AI代理,“OpenAI Deep Research”详情请点击下方链

CHATGPT應用程序:與AI助手釋放您的創造力!初學者指南 ChatGpt應用程序是一位創新的AI助手,可處理各種任務,包括寫作,翻譯和答案。它是一種具有無限可能性的工具,可用於創意活動和信息收集。 在本文中,我們將以一種易於理解的方式解釋初學者,從如何安裝chatgpt智能手機應用程序到語音輸入功能和插件等應用程序所獨有的功能,以及在使用該應用時要牢記的要點。我們還將仔細研究插件限制和設備對設備配置同步

ChatGPT中文版:解鎖中文AI對話新體驗 ChatGPT風靡全球,您知道它也提供中文版本嗎?這款強大的AI工具不僅支持日常對話,還能處理專業內容,並兼容簡體中文和繁體中文。無論是中國地區的使用者,還是正在學習中文的朋友,都能從中受益。 本文將詳細介紹ChatGPT中文版的使用方法,包括賬戶設置、中文提示詞輸入、過濾器的使用、以及不同套餐的選擇,並分析潛在風險及應對策略。此外,我們還將對比ChatGPT中文版和其他中文AI工具,幫助您更好地了解其優勢和應用場景。 OpenAI最新發布的AI智能

這些可以將其視為生成AI領域的下一個飛躍,這為我們提供了Chatgpt和其他大型語言模型聊天機器人。他們可以代表我們採取行動,而不是簡單地回答問題或產生信息

使用chatgpt有效的多個帳戶管理技術|關於如何使用商業和私人生活的詳盡解釋! Chatgpt在各種情況下都使用,但是有些人可能擔心管理多個帳戶。本文將詳細解釋如何為ChatGpt創建多個帳戶,使用時該怎麼做以及如何安全有效地操作它。我們還介紹了重要的一點,例如業務和私人使用差異,並遵守OpenAI的使用條款,並提供指南,以幫助您安全地利用多個帳戶。 Openai


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

禪工作室 13.0.1
強大的PHP整合開發環境

SublimeText3 Linux新版
SublimeText3 Linux最新版

SAP NetWeaver Server Adapter for Eclipse
將Eclipse與SAP NetWeaver應用伺服器整合。

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

DVWA
Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中