#074 | Warum Apache Kafka und für welche IIoT Use Cases? - Confluent Cloud, Kafka und Eventstreaming einfach erklärt

#074 | Warum Apache Kafka und für welche IIoT Use Cases? - Confluent Cloud, Kafka und Eventstreaming einfach erklärt

41 Minuten

Beschreibung

vor 2 Jahren

OPEN SOURCE | CLOUD-NATIVE | REAL-TIME | SHOPFLOOR | MANAGED
SERVICES |  www.iotusecase.com

Daten zu verarbeiten kann richtig Geld kosten, wenn man das Thema
ohne die passenden Technologien angeht - vor allem bei der
Verarbeitung von Echtzeitdaten. Daher sprechen wir heute am
Beispiel von BMW über Apache Kafka, einen aufkommenden Standard
im Schnittstellen-Handling und Streaming großer
Datenpakete.  Themenschwerpunkte sind: Cloud-Native, Open
Source und der Praxiseinsatz von OSS bei IoT/IIoT
Anwendungsfällen.

Folge 74 auf einen Blick (und Klick): 


[09:18] Herausforderungen, Potenziale und Status quo – So
sieht der Use Case in der Praxis aus 

[19:36] Lösungen, Angebote und Services – Ein Blick auf die
eingesetzten Technologien 

[33:55] Ergebnisse, Geschäftsmodelle und Best Practices – So
wird der Erfolg gemessen 




Confluent ist der IoT-Techpartner der heutigen Folge und hat den
Standard Apache Kafka mitentwickelt. Der Standard wird bereits
von 100.000 Organisationen weltweit eingesetzt, um in Echtzeit
große Datenmengen zu betreiben. „Fluent“ heißt „flüssig“ und so
liegt das Ziel auf der Hand: Effizienter Datenfluss – die Daten
sollen fließen und nicht in Datalakes geschoben werden! Wir
sprechen über diese Datendrehscheibe, einen Werkzeugbaukasten,
mit dem ich offen in alle Systeme Datenströme flexibel
konsumieren und verarbeiten kann.

Data engineering kann auch einfach sein: In diesem Podcast
erklärt Field CTO bei Confluent, Kai Waehner, im Detail aus der
Praxis, wie Datenmengen gefiltert aufgenommen, verarbeitet und
weiterverwendet werden. Außerdem angesprochen werden unter
anderem folgende Themen: 

- Echtzeit-Daten-Handling 
- Der Business Impact hinter Data in Motion
- Data Streaming beim Kunden BMW
- Brownfields bei Kunden
- Funktionen der „Datendrehscheibe“
- Kopplung von Systemdaten mit IT-Daten (SAP)
- Datenanbindung an die Datendrehscheibe

Wusstet ihr schon? Ursprünglich wurde Apache Kafka von LinkedIn
entwickelt. Seit 2012 ist es Teil der Apache Software Foundation.
Im Jahr 2014 gründeten die Entwickler das Unternehmen Confluent
aus LinkedIn heraus, welches die Weiterentwicklung von Apache
Kafka fokussiert.

Gastgeberin Ing. Madeleine Mickeleit
(https://www.linkedin.com/in/madeleine-mickeleit/)
Kai Waehner (https://www.kai-waehner.de/)


Jetzt IoT Use Case auf LinkedIn folgen

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: