您現在的位置是:首頁 >互聯網 > 2020-12-31 14:01:06 來源:
ApacheKafka添加集群鏈接以使事件數據可全局訪問
Confluent Inc.今天表示將在其事件流平臺中引入新的“集群鏈接”功能。
這個想法是使事件數據在全球范圍內可供企業使用,無論它駐留在世界各地的多個云中還是本地數據中心中。
該公司的Confluent Platform和Confluent Cloud項目基于開放源代碼Apache Kafka平臺,數千家公司廣泛使用該平臺存儲事件數據,即事件在使用時由應用程序生成的信息。Kafka提供了一種存儲這些數據流并將其定向到下游存儲庫(例如數據湖和數據倉庫)的方法,可以在其中對其進行分析。
由Kafka的創建者創立的Confluent表示,其集群鏈接是其正在進行的“ Project Metamorphosis ”計劃的下一階段,該計劃旨在利用Kafka的事件流功能并將其轉換為支持大規模業務運營的服務。本地數據中心和云中的服務器。
該公司表示相信,隨著越來越多的企業希望采用涉及使用本地數據中心和多家云基礎架構提供商的混合云或多云策略,對這些功能的需求將會很大。Confluent引用了Gartner Inc.的研究結果,該研究表明,超過80%的云基礎架構用戶依賴于不止一個提供商,并且經常需要管理兩個不同云之間的數據。
大多數組織使用Apache Kafka在云平臺和本地數據中心之間共享數據,但是連接不同的信息集群是一項非常棘手的工作,因為它需要大多數公司沒有的大量專業知識。
Confluent聯合創始人兼首席執行官Jay Kreps在一份聲明中說:“如今的業務所基于的數據已經在地理上分布得越來越分散,并且分布在不同的云環境中,因此很難以有意義的方式進行整合。”
群集鏈接功能消除了這些工程上的麻煩,使公司可以輕松地在云之間以及跨混合體系結構連接數據。借助群集鏈接,用戶只需單擊幾下即可在兩個或多個Kafka群集之間復制數據,從而創建源數據的精確鏡像,而無需進行工程設計,管理和監視。
Constellation Research Inc.的分析師Holger Mueller告訴SiliconANGLE,當今的計算架構需要更高的速度,而流數據是關鍵的推動力。
Mueller說:“隨著流技術的成熟,它們正在從單一位置轉變為企業今天需要操作的多位置現實,這就是Confluent的Project Metamorphosis變得如此有趣的原因,因為它共享跨位置的流功能。”
除群集鏈接外,最新版本的Confluent Cloud還包含7月份宣布的新的無限數據保留功能。它有效地消除了在Confluent Cloud中可以存儲多少數據以及存儲多長時間的限制,從而使該平臺對更廣泛的用戶更加有用。
Confluent表示,群集鏈接已經可以在Confluent Cloud中作為私有預覽使用,并將在未來幾周內發布時在Confluent Platform 6.0中作為預覽使用。