在大模型領域,一直穩站 C 位的 Transformer 最近似乎有被超越的趨勢。
這個挑戰者就是一項名為「Mamba」的研究,在語言、音訊和基因組學等多種模態中都達到了 SOTA 表現。在語言建模方面,無論是預訓練還是下游評估,Mamba-3B 模型都優於同等規模的 Transformer 模型,並能與兩倍於其規模的 Transformer 模型相媲美。
論文一經發表,引起了不小的轟動。驚嘆之餘,大家發現論文作者只有兩位,一位是卡內基美隆大學機器學習系助理教授Albert Gu,另一位是Together.AI 首席科學家、普林斯頓大學計算機科學助理教授(即將上任)Tri Dao。
這項研究的一個重要創新是引入了一個名為「選擇性SSM( selective state space model)」的架構,相比於Transformer 中的自註意力機制的計算量會隨著上下文長度的增加呈平方級增長,例如上下文增加32 倍時,計算量可能會增長1000 倍,Mamba 可以隨上下文長度的增加實現線性擴展,其性能在實際數據中可提高到百萬token 長度序列,並實現5 倍的推理吞吐量提升。而這些,都離不開選擇性 SSM。
在看到 Mamba 如此優異的表現後,許多研究者對 SSM(state space model) 相關研究產生了好奇。
在最近的一次訪談中,來自艾倫人工智慧研究所( AI2)的機器學習研究員 Nathan Lambert 與Mamba 論文作者之一 Tri Dao,以及同樣來自Together.AI的科學家 Michael Poli 進行了深入交流。
他們主要討論了 LLM 架構的未來,此外,這三位研究者也探討了狀態空間模型(SSM)在新興的 LLM 市場中的應用前景。對話中涉及的知識點也比較密集,例如為什麼 Transformer 中的注意力機制有效、其擴展限制是什麼、Mamba 介紹及其硬體優化以及對未來架構預測的討論等。
以下是對話內容。
為什麼注意力機制有效
#Nathan Lambert:我們先來討論一下,為什麼注意力機制有效,以及注意力機制的限制在哪裡。 Transformer 有多少部分是基於注意力機制建構的,還有沒有其他的機制在運作,在這方面可能會遇到哪些挑戰?
Tri Dao: 沒錯,所謂 Transformer,就是目前推動我們看到的大多數令人興奮的應用程式的架構。如你所說,注意力機制是其中的核心層。其實,注意力機制早在 2014 年到 2015 年就受到關注了,隨後 Transformer 的概念出現,融合了注意力機制,注重多層感知機(MLP)和注意力機制的交織使用。
我認為它的成功很大程度上在於,這些模型似乎能夠很好地擴展,你可以透過增加更多的參數和數據來擴大模型規模。這就是成功的秘訣。雖然現在看起來顯而易見,但我認為五年前這還不是一個明確的概念。
Transformer 成功的幾個原因包括:首先,它足夠通用,能夠從大量資料中學到很多東西。其次,它對硬體非常友善。與先前的循環神經網路(RNN)不同,它沒有順序依賴性。
因此,它可以在 GPU、TPU 上運作得很好,可以擴展,同時非常有效率地利用硬體。我個人也致力於讓它更有效率地利用硬體。所以,這就是成功的秘訣 —— 作一個既通用又能很好地進行擴展的架構。如果你是研究 NLP 的,也許你會考慮加入一些歸納偏移來增強模型。就我個人而言,我認為 Transformer 是一個非常通用的架構,可擴展性很好,而且對硬體很友善。
Nathan Lambert:是的,是的。現在回想起來,這一切似乎都顯得很明顯。現在,在研究它的替代方案時,一個有趣的維度是上下文長度。 Michael,你怎麼看?
Michael Poli:是的,我有幾點想說。首先,目前仍有許多優秀的研究試圖從第一原理出發解釋 Transformer,為什麼它能學習這些有趣的迴路?人們會拆解計算過程,例如不同的 transformer 中的 head 組合等。
#有一些工作會將 Transformer 作為一種編碼的程式語言來理解。但我認為,正如 Trey 所提到的,Transformer 中有一些非常有趣的設計選擇。注意力和 MLP 的交織使用是相當重要的。而且,Transformer 一開始之所以成功,是因為它採用了一些已經為RNN 和其他傳統NLP 模型所開發的技術,例如使用門控機制來調節模型吸收哪些訊息,以及決定某些內容在這種並行形式中被忘記的速度。這就像是一些可以在 GPU 上進行優化的寶石,雖然不是很容易,但確實可以優化。
注意力計算量呈平方級增長
#Nathan Lambert:是的,這些都很棒。我想說的比較具體的一點是,注意力機制最終呈現出一個隨輸入序列長度成二次方增長的計算成本。假設你有一個長度為 L 的輸入序列,並且你想要輸出一個長度也為 L 的序列。如果你深入數學細節去,觀察大多數庫在推理時發生的情況,你會發現有這樣一個上三角注意力矩陣,其中,你只能考慮文本的過去部分。隨著處理的進行,你會發現它形成了一個 L 平方的關係,其中第一個 token 只考慮一個元素,然後每個後續的 token 需要考慮的過去 token 逐漸增多。剛才我們已經討論了 RNN,以及一些非注意力的方法是如何做到不去查看序列中所有文字歷史的。當你給聊天機器人 GPT 寫一個長長的提示時,你真的希望所有那些訊息都被編碼進去嗎?除了這種密集的注意力矩陣,我們還有什麼其他的選擇?
Tri Dao:循環神經網路可以追溯到80 年代,也許其中一些更著名的是長短期記憶網路(LSTM)、門控循環單元( GRU)。大約在 2012 年到 2016 年左右,它們在翻譯、語音辨識等方面非常流行,當時它們是 NLP 領域的 SOTA 技術。
它們以一種序列方式處理文字:逐一觀察 token,然後改變隱藏狀態,每次看到一個新 token 時都會更新隱藏狀態。我認為從某種意義上來說,這模仿了人腦處理資訊的方式,就像你閱讀一句話或一段話,就像你在大腦中儲存一些資訊。當你讀完一個文件時,你可能能夠回答關於那個文件的問題,而無需再次參考該文件。所以,RNN 就是這樣運作的。它們處理文本,然後改變隱藏狀態,隱藏狀態是可以用來產生新 token 或對文件進行分類的表示。
大約在2016年左右,這些方法曾經非常受歡迎。然而,隨著實驗結果的出現,我們逐漸發現它們的表現並不像Transformer那麼出色。正如你所提到的,Transformer具有二次方擴展特性,使得每個標記與先前的所有標記進行比較,這為資訊傳播提供了一種非常簡單的方式。我相信這正是Transformer和注意力機製表現優異的原因之一。
最近發現一些新的RNN架構表現不錯,其中RWKV是其中較早的一個。我非常欽佩這個項目,它是由研究者Bo Peng主導研發的。它似乎以獨特的方式與Transformer競爭,證明了RNN的強大潛力。
Nathan Lambert:是的。我之前也讀過這篇論文。在技術層面上,他們嘗試透過兩個線性 RNN 來複製類似於注意力機制中的查詢鍵值查找的東西,本質上是為了消除像特定注意力擴展這樣的潛在問題。這兩個 RNN 有更好的長上下文行為和不同的實作規則。他們還訓練了參數量高達 140 億的模型。這也引出了我接下來想問的一些問題,包括 Mamba 和 Striped Hyena。我們可以一個一個來聊。
Striped Hyena 是什麼模型?
Nathan Lambert:我進入了 Together API,做了一次 Mistral 和 Striped Hyena 的比較測試。結果顯示,Striped Hyena 是一個不錯的語言模型。它能回答大多數問題,沒有明顯的失敗模式。 Michael,你怎麼看待這個模型?
Michael Poli:首先我想說,這些新方法之間有一個有趣的連結。存在一種凸集,它有一個中心點,線性注意力(即沒有 softmax 的注意力)、線性 RNN 以及基於狀態的模型(SSM)之間的關聯都在這個凸集裡。某種程度上,這種基礎模型的數學表述是相同的,我在這裡不是指基礎架構,而是指基礎模型。
#然後你可以朝不同的方向發展,每個方向都有自己的權衡,例如特徵映射方向、 kernel 方向。所以當你分解或移除 softmax 時,你可以在處理查詢(queries)和鍵(keys)時採取不同的方法。這些查詢和鍵是構成你的注意力矩陣的基本實體。在移除 softmax 之後,你可以建立其他類似 kernel 的函數,或是其他你希望能夠近似實現注意力機制功能的函數。
你可以做一些類似泰勒近似(Taylor approximation)或泰勒展開(Taylor expansion)這樣的事情。你會得到一個略顯不同的視角,但你得到的東西又非常相似。你可以轉向 Time variance。這意味著你修改 RNN,使其計算更依賴輸入序列。也就是說,在線性 RNN 中的計算是由輸入序列決定的。你可以使用類似門控(gates)的東西,我們已經看到了很多工作,例如,用額外的門控來更新內部 tension,讓你更好地利用你的固定狀態維度。第三個方向 —— 至少在我看來 —— 是使用卷積形式的,更多地使用其他類型的線性運算符,這些運算符仍然是可結合的,仍然允許你並行訓練。
所以這裡的內容包含時間不變系統。我可以詳細解釋這些點,但是存在一些可以在卷積和循環之間切換的模型,這些模型還配備了額外的門控機制。我參與的一個項目,它誕生於我剛才提到的這第三類架構。我們真正試圖做到的是,打造出每浮點運算效能最佳的架構。我們反覆驗證的一個原則是,似乎將不同層、不同類別的模組甚至是全注意力層結合起來,得到的東西比單獨的組件要好。
因此,我們正在試圖更深入地理解這些模型的組合面向。這種理解有助於我們創造每浮點運算表現更優的預訓練模型。使用這個模型,我們運行了一整套的規模擴展法則。混合化也給了我們一些優勢,因為我們想要的是一種可以即開即用的東西,它使得過程變得更簡單。
在為更長的上下文進行微調時,我們可以採用一些為Transformers開發的技術。令人驚訝的是,這些技術對於混合體同樣有效。例如,線性縮放用於旋轉嵌入等等。如果你對細節有興趣,可以進一步了解。因此,這個計畫主要是一個試驗性的嘗試,旨在弄清楚在當前環境下我們能達到什麼程度。
什麼是Mamba
#Nathan Lambert:Striped Hyena 使用了一組新的模型移植技術(model grafting )進行了優化,使我們能夠在訓練期間更改模型架構,對我來說,感覺好像有很多事情正在發生,例如一些你可能不能談論太多的內容如資料。
關於資料解釋,我認為還有一些內容沒有得到很好的解釋,特別是一些較長的上下文資料。不知道你能不能從模型的角度來跟我們解釋一下這些數據是什麼意思呢?即使只是簡單總結一下,對我們來說也會是一種很好的體驗。
該領域有很多很酷的工作,因此,AI 領域有很多新的專案在展開,例如,有些人試圖將 Lama 模型拆解並繼續訓練。事實上,這種做法有點狂野,人們嘗試採用強大的模型並試圖讓它們變得更小,同時還想獲得媲美大模型的性能優勢。
雖然這是題外話,但我沒有預料到的是當你關注社群媒體的時候,你會看到人們會說,哦,最終還是狀態非注意力模型贏了。在我看來,這種說法掩蓋了許多有趣的細節。
好吧,讓我們回到 Mamba。如果我沒記錯的話,我認為 Mamba 套件中最大的模型是 2. 8 億參數,在 NLP 基準測試中,包括 GPT J、Pythia 模型套件給出的基準分數都非常強。
Tri Dao:Mamba 是我與Albert Gu 合作完成的,當時他是史丹佛大學的博士生,我們就是在那裡認識的,他現在是CMU 的助理教授。所以這是一次美妙的合作,Mamba 的成功要歸功於他。 Albert 一直致力於狀態空間模型的研究,從某種意義上說,正如前面提到的,線性張量、線性 RNN、卷積、神經網路等領域他都有涉及。
在我過去參與的幾個專案中,我還致力於空間、狀態空間的研究,我研究的角度是如何使狀態空間更加硬體高效,並提高其性能。所以和 Albert Gu 一起工作真是太棒了。我認為參與 Mamba 的研究過程更多的是一個概念證明,狀態空間實際上可以像 NLP 領域的 transforme 一樣好嗎?因此,才有了 Mamba,這項研究表明狀態空間在音訊方面可能會更好。但是,對於狀態空間模型來說,語言一直是最難取得、最難做好的。
#而且,語言也是人們現在最關心的事情,所以我做的更多的是一個概念驗證,也就是說,我們想表明狀態空間模型也可以具有競爭力,甚至可以和Transformer 一較高下。我們實驗中驗證的 token 數從 3B 到 300 B 不等。
所以從絕對意義上講,這些都不是非常強大的模型,這些還不是我們真正想要的模型。我認為我們正在做的更多的是進行學術比較。例如訓練相同數量的 token,狀態空間模型可能比 transformer 稍微好一點。
這件事對我們來說尤其令人興奮,我認為 Albert 已經推動這件事有一段時間了。
結果是,我們的研究在推理上可能會更快,也許我們會有不同的方式來理解上下文學習是如何發生的。我很期待未來的工作。
Mamba 硬體最佳化
#Nathan Lambert:您能否談一談實作這些新CUDA 核心實際上需要做什麼?
Tri Dao:關於狀態空間的研究,它在某種意義上是循環神經網路。狀態大小是你在遍歷或處理序列時,用來儲存資訊的緩衝區。
從某種意義上講,Transformer 也可以這樣理解,它保存的整個歷史記錄通常稱為 KV 緩存,Transformer 保留歷史並不斷引用它。對於 RNN,它們具有固定大小的狀態;對於 transformer,你可以認為狀態大小正在增加。而且,我們的直覺是,狀態規模越大,模型就表現越好。
因此,為了儲存需要記住的訊息,你需要更多的空間。先前的模型(如S4等)具有相當大的隱藏狀態大小,它們使用卷積視圖來避免具體化狀態。
我們希望在循環中加入更多的輸入依賴性,然而,這樣做阻止了我們使用可以提高效率的捲積視圖。
因此,我們必須找到不同的方法來提高效率,所以我們專注於在 GPU 上提高效率。我們的想法是,我們要有一個大的狀態大小,但我們不需要用到實際的GPU 內存,比如HBM,我們可以把大的狀態保存在一個更快的內存中,稱之為SRAM,你可以把它想像成一個快取。如果你更熟悉 CPU,這通常是一個快取和 RAM。
所以,如果你有較大的狀態,你可以將它保存在快取中,這樣一來你不會遭受太大的損失。
2024 年架構預測
#Nathan Lambert:我現在對GPU 與TPU 最有力的洞察是,MoE在TPU 中效果不佳,因為你必須在基本圖層上加入一些MoE。
在分散式訓練中,前饋層可能最終分佈在不同的 TPU 節點上,而 TPU 之間是透過鄰近節點進行通訊的。因此,與 GPU 相比,TPU 在這方面會受到較大的影響。 2024 年這個領域會發生什麼事?
Tri Dao:我認為Transform 仍然是一個非常強大的架構,現在可以擴展到一兆等級的參數,人們往往想要表現最好的模型,這些模型在硬體上運行效率最高,並且在軟體方面擁有最多的支援。
我最近有些新想法,像是狀態空間。我們已經看到,正如 Michael 所提到的,混合這些組件似乎可以提高效能,我認為在 7B 大小的模型上得到了驗證,也許狀態空間模型可以在更大規模的模型上運作。
目前大多數人關注的是基於Lime 架構的資料和基礎設施建設,儘管現有的Transformer 架構在生產環境中仍然非常強大且得到廣泛支持,但也存在一些邊緣領域,例如長上下文、音訊、基因組學等,研究這些領域中的替代架構會非常有趣。這些領域提出了一些有意義的科學問題,例如模型是否像人類一樣理解指令和直覺、是否能與量化方法協同工作等。
此外,即使現在人們還在使用Transformer 架構,未來可能會融入更多的新想法和元件,例如增加更多的層和注意力機制等,儘管它們可能仍然被稱為Transformer。
簡而言之,儘管目前的人工智慧領域傾向於保守,專注於現代架構,但新的架構和思想正在逐漸湧現,這些新穎的觀點和方法可能會為人工智慧的發展帶來新的動力和方向。
Michael Poli:是的,我百分之百同意 Tri Dao 的看法,注意力機製作為計算原語依然很重要。注意力機製作為一種高效且方便的方式,可以有效增加序列處理器的狀態容量。
#狀態維度與序列長度之間存在權衡關係,當模型尺寸變大,也就是模型變得更寬時,將有效地引入更多的狀態和序列長度。這樣一來,一些邊際效應可能會消失,而某些權衡將會改變,尤其是對於那些非常大的模型,如 14B、30B 這類模型。
未來,架構設計將變得更加有趣和複雜,將會有更多的創新發生。無論是混合模型還是引入新的模組,我們都將看到更多令人興奮的創新。
對AI 更多的預測
Mixture of Experts (MoE) and State Space Models have recently emerged as a popular trend, according to Nathan Lambert.
然而,在開源和學術界,目前還沒有人真正嘗試在混合專家模型上做早期的嘗試和改進。模型嫁接(Model Grafting)現在正在變得更加實用。
跟進這些進展非常有趣,希望這些發展能為學術界和科學家提供更多影響產業對話的方法,特別是在目前業界更多關注擴大模型規模的情況下。我建議開源公司應該在他們的語言模型中進行特定的改進,以獲得商業優勢。
你們在機器學習方面還關注其他什麼嗎?它不一定是關於狀態空間模型的。明年最讓你們興奮的是什麼?
Tri Dao:我個人認為數據仍然是最重要的因素。我們正在深入研究數據如何影響模型性能,例如透過一些與模型性能高度相關的合成任務來進行研究。這種方法一直是我們論文和研究工作中的主要動力和範例。未來一段時間我們將專注於數據領域。
雖然所有的架構工作都很有趣,使其在硬體上高效運行也很有趣,但最終還是關於資料的。如果你了解擴展率(scaling law),你就會知道不同的模型架構通常會有相同的斜率,只是偏移量不同,似乎唯一能改變斜率的是資料品質。
Michael Poli:是的,我們新增了資料。數據確實很有趣,例如在架構設計上的微型化,找出並分解語言建模等任務所涉及的各個方面,我們試圖將它們打包成可以用來迭代的東西,這非常令人興奮。
我個人對新應用,尤其是基因組學工作感到非常興奮,但更多是從工程角度出發,我們正看到一個轉變。目前,語言仍是獲得最多點擊和最大興趣的領域,但我認為這將隨著時間的推移而改變。
Nathan Lambert:是的,每個人都在談論語言,但我覺得影像、影片將會是產生巨大價值的東西。我不知道語言的上限在哪裡。我很興奮,我已經開始嘗試這些了,比如我會拿博客的文本,讓模型轉換成圖片,然後轉換成帶有音頻的視頻,所有這些都是用一個Python 腳本完成的,這真的很容易做到。所以我同意你的觀點,超越語言的東西很有趣。
Tri Dao:在你的經驗中,當你將所有這些東西拼湊在一起時,它們確實能夠合理地工作嗎?
Nathan Lambert:它還不是那麼完美,DALL・E 產生的圖片比較相似,但我的做法非常簡單,就是直接把文字拿過來,然後用一個系統提示,讓模型產生各種各樣的圖片,我認為我可以做得更好。據我知道,大概在一年內,就會有一個文字到影片的 API,到時我會切換到 API,那種體驗會很棒。
Tri Dao:是的,我認為這些進步確實產生了大量的經濟價值,我們已經看到了這一點。現在很多公司都開始轉向使用這些技術。我認為這將改變我們的工作方式,正如你所提到的,改變我們的工作方式和娛樂方式。所以這是一個非常令人興奮的未來。
原文連結:https://www.interconnects.ai/p/interviewing-tri-dao-and-michael?cnotallow=5d10d34c97637bebcfeba6470c0f0d9b
以上是LLM未來架構:誰有可能動搖Transformer的統治地位?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

CHATGPT SECURICE增強:兩階段身份驗證(2FA)配置指南 需要兩因素身份驗證(2FA)作為在線平台的安全措施。本文將以易於理解的方式解釋2FA設置過程及其在CHATGPT中的重要性。這是為那些想要安全使用chatgpt的人提供的指南。 單擊此處獲取OpenAI最新的AI代理OpenAi Deep Research⬇️ [chatgpt]什麼是Openai深入研究?關於如何使用它和費用結構的詳盡解釋! 目錄 chatg
![[針對企業] Chatgpt培訓|對8種免費培訓選項,補貼和示例進行了詳盡的介紹!](https://img.php.cn/upload/article/001/242/473/174704251871181.jpg?x-oss-process=image/resize,p_40)
生成的AI的使用吸引了人們的關注,這是提高業務效率和創造新業務的關鍵。特別是,由於其多功能性和準確性,許多公司都採用了Openai的Chatgpt。但是,可以有效利用chatgpt的人員短缺是實施它的主要挑戰。 在本文中,我們將解釋“ ChatGpt培訓”的必要性和有效性,以確保在公司中成功使用Chatgpt。我們將介紹廣泛的主題,從ChatGpt的基礎到業務使用,特定的培訓計劃以及如何選擇它們。 CHATGPT培訓提高員工技能

社交媒體運營的提高效率和質量至關重要。特別是在實時重要的平台上,例如Twitter,需要連續交付及時和引人入勝的內容。 在本文中,我們將解釋如何使用具有先進自然語言處理能力的AI的Chatgpt操作Twitter。通過使用CHATGPT,您不僅可以提高實時響應功能並提高內容創建的效率,而且還可以製定符合趨勢的營銷策略。 此外,使用預防措施
![[對於Mac]說明如何開始以及如何使用ChatGpt桌面應用程序!](https://img.php.cn/upload/article/001/242/473/174704239752855.jpg?x-oss-process=image/resize,p_40)
CHATGPT MAC桌面應用程序詳細指南:從安裝到音頻功能 最後,Chatgpt的Mac桌面應用程序現已可用!在本文中,我們將徹底解釋從安裝方法到有用的功能和將來的更新信息的所有內容。使用桌面應用程序獨有的功能,例如快捷鍵,圖像識別和語音模式,以極大地提高您的業務效率! 安裝桌面應用的ChatGpt Mac版本 從瀏覽器訪問:首先,在瀏覽器中訪問chatgpt。

當使用chatgpt時,您是否曾經有過這樣的經驗,例如“輸出在中途停止”或“即使我指定了字符的數量,它也無法正確輸出”?該模型非常開創性,不僅允許自然對話,而且還允許創建電子郵件,摘要論文,甚至允許產生諸如小說之類的創意句子。但是,ChatGpt的弱點之一是,如果文本太長,輸入和輸出將無法正常工作。 Openai的最新AI代理“ Openai Deep Research”

Chatgpt是Openai開發的創新AI聊天機器人。它不僅具有文本輸入,而且還具有語音輸入和語音對話功能,從而可以進行更自然的交流。 在本文中,我們將解釋如何設置和使用Chatgpt的語音輸入和語音對話功能。即使您不能脫身,Chatp Plans也通過與您交談來做出回應並回應音頻,這在繁忙的商業情況和英語對話練習等各種情況下都帶來了很大的好處。 關於如何設置智能手機應用程序和PC的詳細說明以及如何使用。

成功的快捷方式!使用chatgpt有效的工作變更策略 在當今加劇的工作變更市場中,有效的信息收集和徹底的準備是成功的關鍵。 諸如Chatgpt之類的高級語言模型是求職者的強大武器。在本文中,我們將解釋如何有效利用Chatgpt來提高您的工作企業效率,從自我分析到申請文件和麵試準備。節省時間和學習技術,以充分展示您的優勢,並幫助您成功搜索工作。 目錄 使用chatgpt的狩獵工作示例 自我分析的效率:聊天

思維地圖是組織信息並提出想法的有用工具,但是創建它們可能需要時間。使用Chatgpt可以大大簡化此過程。 本文將詳細說明如何使用chatgpt輕鬆創建思維地圖。此外,通過創建的實際示例,我們將介紹如何在各種主題上使用思維圖。 了解如何使用Chatgpt有效地組織和可視化您的想法和信息。 Openai的最新AI代理OpenA


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!

禪工作室 13.0.1
強大的PHP整合開發環境

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

VSCode Windows 64位元 下載
微軟推出的免費、功能強大的一款IDE編輯器