自1999年成立至今,Apache 軟體基金會已成功建立起自己強大的生態圈。其社群湧現了非常多優秀的開源項目,同時也有越來越多國內外計畫走向這個國際開源社群進行孵化。
據悉,目前所有的Apache專案都需要經過孵化器孵化,滿足一系列品質要求之後才可畢業。從孵化器畢業的項目,要么獨立成為頂級項目,要么成為其他頂級項目的子項目。
方便大家了解 Apache 孵化的標準,本文盤點了 幾個Apache 從2016年1月1日至2017年1月19日孵化成功並獨立管理的頂級專案。
1、Apache Beam
Apache Beam 是Google 在2016年2月1日貢獻給Apache 基金會的孵化項目,於2017年1月10日正式宣布畢業,升級為Apache 頂級專案。
Apache Beam 的主要目標是統一批次和串流處理的程式設計範式,為無限,亂序,web-scale的資料集處理提供簡單靈活,功能豐富以及表達能力十分強大的SDK。專案重點在於資料處理的程式設計範式和介面定義,並不涉及具體執行引擎的實作。 Apache Beam 希望基於 Beam 開發的資料處理程序可以執行在任意的分散式運算引擎上。
2、Apache Eagle
Apache Eagle 起源於eBay,最早用於解決大規模Hadoop 叢集的監控問題,2015年10月26日提交給Apache 進行孵化,於2017年1月10日正式宣布畢業成為Apache 頂級計畫。
Apache Eagle 是一個開源監視和警報解決方案,用於智慧即時識別大數據平台上的安全性和效能問題,例如 Apache Hadoop、Apache Spark 等。 Apache Eagle 主要包括:高可擴展、高可伸縮、低延時、動態協同特性,支援資料行為即時監控,能立即監測對敏感資料的存取或惡意的操作,並立即採取應對的措施。
3、Apache Geode
Apache Geode 最初是由Gemstone Systems 公司作為商業產品開發,初期被廣泛應用在金融領域,作為事務性、 低延時的數據引擎用於華爾街交易平台。 2015年4月27日將程式碼提交給 Apache 孵化器,於2016年11月21日畢業成為 Apache 頂級專案。
Apache Geode 是一個資料管理平台,提供即時的、一致的、貫穿整個雲端架構地存取資料關鍵型應用。它使用了動態資料複製和分區技術來實現高可用、高效能、高可擴展性、和容錯。另外,對於一個分散式資料容器,Apache Geode 是一個基於記憶體的資料管理系統,提供了可靠的非同步事件通知和可靠的訊息投遞。
4、Apache Twill
Apache Twill 於2013年11月14日將程式碼提交給Apache 孵化器,2016年7月27日宣布畢業成為Apache 頂級專案。
Apache Twill 為常見的分散式應用程式提供了豐富的內建功能,用於開發、部署和管理,大大簡化了 Hadoop 叢集操作和管理。目前已成為 Cask 資料應用平台(CDAP)背後的關鍵元件,使用 YARN 容器和 Java 執行緒作為抽象化處理。 CDAP 是一個開源整合和應用平台,使開發人員和組織能夠輕鬆構建,在 Hadoop 和 Spark 上部署和管理資料應用。
5、Apache Kudu
Apache Kudu 是Cloudera 主導開發的資料儲存系統,2015年12月3日成為Apache 孵化項目,2016年7月25日正式宣布畢業,升級為Apache 頂級專案。
Apache Kudu 是為 Hadoop 生態系統所建置的開源列式儲存引擎,旨在實現靈活的高效能分析管道。它支援在傳統資料庫中提供許多操作,包括即時插入、更新和刪除等。目前在許多行業的不同公司和組織中使用,包括零售、線上服務交付、風險管理和數位廣告等等行業,還有大家較為熟悉的有小米公司。
6、Apache Bahir
Apache Bahir 的程式碼最初是從Apache Spark 專案中提取的,後來作為一個獨立的專案提供,並於2016年6月29日宣布成為Apache 頂級專案。
Apache Bahir 透過提供多樣化的串流連接器(streaming connectors)和SQL 資料來源擴充分析平台的覆蓋面,最初只是為Apache Spark 提供拓展,目前也為Apache Flink 提供,後續也可能為Apache Beam 和更多平台提供拓展服務。
更多Apache相關技術文章,請造訪Apache使用教學欄位學習!
以上是apache頂級專案有哪些的詳細內容。更多資訊請關注PHP中文網其他相關文章!