Hazelcast hat einen wichtigen Meilenstein erreicht:  Im Rahmen einer Benchmarkanalyse hat die In-Memory Computing Plattform beim Stream-Processing ein Wert von einer Milliarde Ereignissen pro Sekunde mit einer Latenz von 26 Millisekunden auf 720 virtuellen CPUs (vCPUs) erreicht. Die Simulation lief in einer Public-Cloud Implementierung.

Die In-Memory Computing Plattform von Hazelcast bietet schnelle, Cloud-native, verteilte zustandsabhängige Datenstrom-Verarbeitungsfunktionen. Damit eignet sie sich ideal für Softwareanwendungen mit höchsten Anforderungen an die Datensatzrate bei gleichzeitig niedrigsten Latenzzeiten. Hazelcast Jet arbeitet dabei mit maximaler Effizienz, minimiert den Investitionsaufwand für Hardware und hält die Gesamtbetriebskosten (TCO) möglichst gering.

Dieses hohe Leistungsniveau kommt besonders dann zum Tragen, wenn es um verbessertes Machine Learning oder um eine bessere, KI basierte Entscheidungsfindung geht. Beispiele sind Betrugserkennung (Fraud Detection) und ähnliche Anwendungen, die automatisierte Entscheidungen in Echtzeit erfordern. Da solche Algorithmen auf der Suche nach noch mehr Genauigkeit immer komplexer und ressourcenintensiver werden, ist eine kosteneffiziente Rechenleistung entscheidend. Nur so ist eine kontinuierliche Weiterentwicklung möglich, während gleichzeitig die Ausgaben unter Kontrolle bleiben.

„Die aktuelle Benchmarkanalyse zeigt, dass Hazelcast Jet massive Datenströme mit Latenzen im Millisekundenbereich und mit einem sehr geringen Einsatz von Cloud-Netzknoten verarbeiten kann, wodurch viel Budget für andere Implementierungen verfügbar bleibt“, sagt Asterios Katsifodimos, Assistenzprofessor an der Delft University of Technology in Delft, Niederlande.

Für die Analyse kam NEXMark-Benchmark Suite zum Einsatz. Diese ist ein standardisiertes Anwendungsszenario zum Vergleich der Leistungsfähigkeit von Datenstrom-Prozessoren. Es simuliert dabei Anfragen und Datenflüsse einer Online-Auktionsplattform. Der Fokus der Analyse lag darauf, den maximalen Durchsatz zu finden, den die Hazelcast Plattform bei gleichbleibend niedriger Latenz bieten kann, während es von einem Knoten auf so viele skaliert, wie es braucht, um eine Milliarde Ereignisse pro Sekunde abzufragen.

Immer mehr Anwendungen wandern in die Cloud sogar an den Rand – die sogenannte Edge. Letzteres erfährt durch die Entwicklung 5G noch weitere Beschleunigung. Das Resultat sind rasant anwachsende Datenmengen. Die Benchmarkanalyse zeigt, dass die Hazelcast Plattform gut gerüstet ist für diese Herausforderung. Außerdem können die Anwender aufgrund der Kollaboration von Hazelcast mit seinen Partnern wie IBM und Intel große Datenmengen in Echtzeit verarbeiten und gleichzeitig die Hardwarekosten unter Kontrolle halten.

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.