Infrastructure As Code

Skillbyte Podcast #43: Helm – Der Kubernetes Paketmanager

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Helm – Der Kubernetes Paketmanager

// Inhalt //
01:23 – Definition: Was ist Helm und wie wird es eingesetzt?
04:14 – Einsatzszenarien für Helm Charts
08:03 – Warum benötigt man Helm Charts ?
09:13 – Vorteile von Helm Charts und deren Einsatz
14:32 – Zusammenfassung Vorteile Helm Charts
16:12 – Von Terraform über Kubernetes zu Helm
22:18 – Beispiele: Betrieb hoch-skalierbarer Anwendungen
26:09 – Neue Anwendungen werden Cloud-native entwickelt; selten Migrationen von Bestandssystemen
29:18 – Bestandteile und Funktionen eines Helm Charts
34:25 – Handhabung von Helm auf der Kommandozeile
36:23 – Helm 2 vs Helm 3
37:35 – Flux – CI/CD in Perfektion
41:53 – Fortgeschrittene Deployments: Canary und Blue Green Deployments; Istio

Show notes:

Podcast #25: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen
https://soundcloud.com/skillbyte/podcast-25-kubernetes-flexibles-und-leistungsfahiges-rechenzentrum-fur-unternehmen

Podcast #36: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service Werkzeug
https://soundcloud.com/skillbyte/podcast-36-terraform-virtuelles-rechenzentrum-mit-dem-infrastructure-as-a-service-werkzeug

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Das Wichtigste zu verstehen ist, dass man mit Helm eigentlich nur kybernetisch Ressourcen verwaltet. D.h. Anstatt dass ich jetzt mit meiner Cubes Btl hingehe und sage create deployment create secret create config map, sag ich einfach nur Haman Stall und im Hintergrund läuft halt genau das. Aber das Schöne an der ganzen Sache ist, dass das alles kybernetisch Native ist. Also im Prinzip kann ich es nicht best practice, aber im Nachhinein kann ich beliebig auch die Ressourcen per Hand wieder editieren.

Ist natürlich nicht empfohlen, weil dazu gibt’s ja Helm. Herzlich Willkommen zum Skill bald Podcast Nr. dreiundvierzig Helm Der Kybernetisch Paket Manager abonniert unseren Podcast für mehr spannende Technologien aus dem Technologie Umfeld, wenn er IT Entscheider oder ity Fachkraft seid. Wenn ihr eine Frage habt im Verlauf der Episode sendet uns gerne eine E-Mail an Podcasts Skill BYD Punkt D Wir freuen uns auch immer über Bewertungen und ganz besonders wichtig für uns sind Weiterempfehlung an eure Freunde und Kollegen, die sich auch für Technologie Themen interessieren.

Wenn ihr aktuell ity Jobs sucht, schaut gerne auch auf das Gebiet Jopp Seite vorbei. Ich bin heute hier mit Julius, einem DevOps Ingenieur von Skill bald und ich freue mich super auf dich. Hallo Julius, hi Maurice. Ja und heute sprechen wir über Helm und das Thema kybernetisch bzw. was Helm genau ist. Und Helm ist eine Technologie. A kann man sagen, die in den letzten 2 3 Jahren doch deutlich an Verbreitung zugenommen hat und ja auch so ein bisschen gehypt es, oder?

Ja, auf jeden Fall. Also das Tool ist ja schon ein bisschen älter. Aber wie du gesagt hast, es ist jetzt in den letzten Jahren hat das enorm zugenommen. Auch. Vor allem wird das viel verwendet. Also eingebettet in andere Systeme, wie z.B. Rangiere oder so. Also das ist auf jeden Fall sehr populär zurzeit genauso.

Entwicklungsgeschichtlich kann man ja sagen, diese Kuba Metis Infrastruktur ist entstanden und die Leute haben begonnen eben ihre Anwendungen in kombiniertes Cluster zu Diplomen, die zu managen und haben dann aber festgestellt okay, so eine Anwendung aus mehreren Microservices im Kybernetisch Cluster, das ist relativ viel Handarbeit, diese zu warten und die einzelnen Komponenten zu aktualisieren. Es wäre doch schön, wenn man so eine Art Paket Manager hätte, wie man das aus z.B. Linux-Distributionen kennt wie APT, get oder Pacman und dieses Konzept auch für kybernetisch Anwendungen, die wie gesagt aus mehreren Microservices bestehen können, verwenden kann.

Das Ziel ist es eben kybernetisch Anwendungen möglichst einfach zu managen, also wie man bei abgeht install Paket Name sagt und Linux Pakete installieren kann. Genauso möchte man das auch in der Kybernetisch Welt haben und natürlich auch genau so einfach mit einem an install. Wofür hast du denn Helm bisher benutzt?

Ja, im Prinzip genau wie du jetzt gerade erwähnt hast. Also der Zustand, dass man eben irgendein fertiges Tool schnell installieren will, gerade auch zu Demo Zwecken oder um mal so ein kleines Proof of Concept zu machen. Wenn man zu einem Kunden fährt, den einfach zeigen will, was möglich ist und wie schnell das alles geht. Da benutzt man gern Helme, weil wie du schon gesagt hast im Linux Umfeld ist das ja auch sehr gängig, dass man da einfach schnell was installiert um es auszuprobieren, weil man sich eben nicht durch irgendeinen Install Wizard durchklicken muss und auch eben nicht viel konfigurieren muss, sondern das eigentlich out of the Box funktioniert.

Also Helm ist wie kybernetisch selbst auch OpenSource richtig. Genau. Ja, das ist ein Open-Source-Projekt, was von der Cloud Native Computing Foundation betreut wird. Und so kann auch jeder im Prinzip da dran mit basteln.

Contribution Ja, das machen ja die großen Cloud Provider. Alle oder die großen alten Namen bringen sich dann natürlich ein, weil sie auch gesehen haben der Trend geht ganz klar eben zum Paket Manager auf Kuba net des Container Anwendungen. Wenn unsere Zuhörer noch mehr zu kybernetisch wissen möchten, empfehlen wir auch gerne unsere Folge Nr. 25 Da geht es intensiv um das Thema Kybernetisch, um komplexe kombiniertes Anwendungen eben betreiben zu können oder installieren, deinstallieren, abzugrasen zu können. Wie genau macht man das denn mit Helm?

Stell dir einfach mal vor, wir haben entweder Ein und Promos Rechenzentrum oder ein Cloud kybernetisch Cluster hochgefahren. Ist ja egal, ob der jetzt bei einem der großen Cloud Provider läuft oder im eigenen Rechenzentrum. Und ich möchte die Helm Technologie einsetzen. Wie würde ich da denn jetzt dran gehen?

Ja. Also grundsätzlich gibt’s ja dann erstmal die Frage Möchte ich das jetzt für meine spezielle Anwendung, die ich zum vielleicht auch selbst entwickel machen oder für eine Anwendung, die eben noch nicht im Heim Repository mit drin ist? Oder eben so eine typische STANDARD Anwendung? Das weiß ich an Engine X Server oder typisch sind auch ein Monitoring primitives oder sonst was mit allen möglichen Abhängigkeiten. Im letzteren Fall würde man dann halt wirklich gucken, in welchem Repository das drin ist. Meistens sind die auch in den STANDARD Repositories drinnen.

Da gab’s jetzt plötzlich viel Umstrukturierung. Aber die großen Sachen, die sind eigentlich immer zu finden. Und dann würde man ähnlich wie beim Paket Manager tatsächlich einfach sagen Heim ins Daul den Release Namen. Also da kann ich selbst an einen Namen vergeben, der dann unique in meinem Cluster halt erscheint und dann eben der Name des Pakets. Im Prinzip also im Heim Umfeld nennt man das Helmut Shard. Und ja, man kann da beliebig dann auch Variablen in dem Shard verändern und anpassen.

Aber im. SIB reicht ein einfaches Heim in Stall, den Release Namen und das Shard, was ich installieren will und dann läuft das eigentlich schon von selbst alles an, mit allen Abhängigkeiten und einem möglichen.

Das heißt, ich konfigurierte Helm benutze ich von der Kommandozeile Karl gegen den kubanisches Cluster, gegen den ich es benutzen möchte. Ob on primus oder in der Cloud.

Richtig, genau genauso siehts aus. Und es gibt schon Repositories an die Helm Charts enthalten für STANDARD Komponenten wie z.B. Webserver, Engine X oder Datenbanken. Wobei Datenbanken in kubanisches Clustern ist immer so eine Sache, aber für fertige Komponenten und da kann ich meine eigene Software, die vielleicht ein Webserver braucht ne, wenn es Microservices ist, kann ich sozusagen darauf basieren lassen, oder?

Ja, das ist eben der Vorteil. Ähnlich wie beim Paket Manager wieder, dass sich eben Abhängigkeiten auch in meiner eigenen Anwendung einfach reinziehen kann. Und wie du schon gesagt hast, das ganze Management von Abhängigkeiten. Das passiert alles klein seitig und im Prinzip werden dann einfach ganz normal die Sachen nach und nach in kybernetisch Cluster installiert von Hän und ich muss mir da gar nicht viel Gedanken machen.

Also Helm geht dann hin, lädt die einzelnen @Helmut Charts die ich als Abhängigkeiten markierter. Bleiben wir mal beim Webserver runter, lädt die Docker Images runter Diplome die dem kybernetisch Cluster und sieh zu, dass alle Komponenten ordentlich starten. Und ja, die beschriebenen Wolli ums gemault teeth werden die Ports die angegeben werden freigeschaltet sind verschiedene krit. Dunkels gesetzt werden. Also als variablen Beispiel, sodass nach und nach die Anwendungen wirklich wie ausgepackt aus einem Paket in dem kybernetisch Cluster lauffähig gemacht wird.

Genau ungefähr so ist es natürlich schon noch so, dass Kuba Annettes sich um Sachen kümmert, wie jetzt die Container runterzuladen und so weiter. Das wichtigste zu verstehen ist, dass man mit Helm eigentlich nur kybernetisch Ressourcen verwaltet. D.h. Anstatt dass ich jetzt mit meiner Cubes Ctrl hingehe und sage create deployment create secret create config map, sag ich einfach nur ha’m. Im Stall und im Hintergrund läuft halt genau das. Aber das Schöne an der ganzen Sache ist, dass das alles kybernetisch Native ist.

Also im Prinzip kann ich es nicht best practice. Aber im Nachhinein kann ich beliebig auch die Ressourcen per Hand wieder editieren. Ist natürlich nicht empfohlen, weil dazu gibt’s ja Helm.

Das ist ja genau der Punkt, dass man eben nicht Anwendungen händisch installieren möchte. Das würde ja auch funktionieren. Und dass man dann hinterher sagt Okay, die Anwendung läuft. Ich habe drei Tage dafür gebraucht. Welche Befehle hab ich denn sozusagen abgesetzt, um die Anwendung zu installieren und daraus mir ein Script mache, sondern das genau soll ja Helm machen. Man beschreibt in diesem Helm schade, dass es eine Jamel Datei beschreibt man quasi die Abhängigkeiten und den Zustand der App und Helm sieht einfach zu, dass dieser Zustand hergestellt wird und führt die dazu notwendigen Kommandos aus.

Genau, ja.

Also das ist wie du schon gesagt hast, in DE klarer, tiefer Ansatz, typischer Orchestrierung. Use case also ich sag halt was ich haben will und Heyl guckt was hab ich und was muss ich tun, damit ich den Zustand erreiche? Also da haben wir noch gar nicht drüber gesprochen. Auch Sachen wie Updates und so weiter können von Heyme auch direkt behandelt werden. Und PAME vergleicht halt einfach nur Ist und soll und guckt dann, dass die Aktion ausgeführt werden, die nötig sind.

Ja, das ist ja auch wie bei einem Linux Paket Manager. Na da kann man ja auch die Updates direkt über dem Paket Manager machen und die werden dann eben eingespielt entsprechend.

Genau, ja. Also die Vorteile von HAMCHA sind ganz klar. Wir haben schon von der Jamel Datei gesprochen, dass man diesen Infrastructure Ascot Ansatz noch weiter treibt. Die Jamel Datei ist natürlich einfach eine flache Datei, die man in git Versionierung kann. Man sieht wer welche Änderungen gemacht hat, man hat reproduzierbare Installationen. Ich könnte ja jetzt auch sagen wir ich habe drei kybernetisch cluster test Akzeptanz Umgebung und Produktions Umgebung und könnte dann in schneller Folge ein komplexes Helmi Chat mit vielen Komponenten in allen drei Umgebungen installieren.

Das wäre überhaupt kein Problem. Richtig.

Genau das ist eben auch der Vorteil. Ich hab’s eben schon ein bisschen angerissen. Man kann diese Hemme Charts, die bestehen auch aus Templates. Also diese ganzen kubanisches Ressourcen werden getrampt rated und dazu wird go template im Englischen benutzt. Das heißt, dass ich dann auch abhängig von dem Environment, wo ich mein Deployment mache, auch Variablen setzen kann. Das heißt in Produktion kann ich z.B. sagen, die Praktikas von dem Container, also wie viele Container gleichzeitig für meine Anwendung laufen, ist höher als jetzt in einem Test in Valmont, wo ich halt eben nur kurz Funktionalität durch testen will.

Okay. Das heißt, die Ausfallsicherheit ist dann quasi noch die Umgebung anpassbar, sodass ich pro Umgebung das festlegen kann. Genau.

Also es kommt natürlich aufs hammerhart an. Wenn ich jetzt was vorge Bauteils nehme. Irgendein offiziös. Dann muss ich halt gucken, was ist da g Templates. Also was kann ich durch Variablen ändern? Aber wenn ich jetzt ein eigenes Chart Bauer z.B. für meine Anwendung, die ich jetzt selber entwickelt hab mit allen Abhängigkeiten kann ich beliebig in diesen kybernetisch Ressourcen wie jetzt bei eben schon erwähnt mittels den go templates kann ich dann einfach jeden beliebigen Punkt also ob es jetzt in der Environment variabel ist, obs Memory Limits oder sonst was sind, kann ich alles beliebig als variabel definieren.

Im Template und dann eben in einem separaten Pfeil kann ich dann sagen okay, das sind meine Values, die eben für Produktion sind. Das sind meine Waldis, die für die Testumgebung sind. Und so lässt sich das dann beliebig anpassen auf die Infrastruktur im Beispiel jetzt auch wenn man ein fertiges Chart hat. Das macht das Ganze auch so mächtig. Nicht jeder will sein Monitoring gleich aufsetzen. Der eine hat eben andere Ansprüche, auch an Verfügbarkeit oder auch die viele Daten überhaupt gespeichert werden.

Wenn es jetzt Richtung Valium Claims und so geht und das lässt sich dann halt eben beliebig konfigurieren und das macht das Ganze auch so mächtig. Ja, verstehe.

z.B. in meinem Alltag ist es total sinnvoll, dass man sagt in der Produktions Umgebung hab ich z.B. 50 Ports um die ganze Last abzuwickeln. Also dieser Produktions Anwendungen. Aber in meiner Testumgebung, der teste ja nur ich. Da brauche ich viel weniger Disk Space, kann die kleinen Cloud Instanzen nehmen, das kostet dann weniger Geld wenn man will ja nicht. Vielleicht zum ganzen Cluster nur für die Entwicklung dann Überstunden betreiben und kann das dann eben so konfigurieren, dass das passt.

Und das ist auf der einen Seite viel Last bewältigen kann, im Produktionsbetrieb aber im Development Betrieb dann sehr kostengünstig ist, dass man theoretisch ein paar Dollar am Tag jeder Entwickler seine eigene Umgebung hoch und runterfahren kann mit nur wenigen Maschinen aus dem gleichen Hemsworth heraus.

Genau das kann man auf jeden Fall machen. Wie gesagt, es kommt da immer auf das Template an, was genau jetzt konfigurierbar ist und was nicht. Aber das ist auch das Schöne an diesem ha’m Ansatz, wenn ich jetzt selber einen Chart entwickel. Wir hatten ja schon angesprochen, die Struktur ist so, ich hab da mal einen Chart dort Jamel mein Haupt Jamel Fall, was halt so einen Namen vergibt Version Abhängigkeiten und dann kommt halt ein Template Ordner, indem eben diese ganzen Ressourcen liegen.

Und im Prinzip kann ich erstmal von alleine kybernetisch Ressource ausgehen. Also wenn ich jetzt mir einen Cube Citi alte Skripte mache auf eine Ressource im Jamil Format, dann kriege ich im Prinzip schon die Datei, die kann ich in dem Template Ordner ablegen und dann ist das Ding erstmal gelaufen. Ich kann dann eben im Nachhinein sagen okay, hier steht jetzt Reply CAS 3 drin. Ich möchte das jetzt konfigurierbar machen und dann kann ich eben da ganz einfach das mit dem GO Template in Format teilt.

Ja, Template draus machen und da gibt’s natürlich ganz viel Advanced darf das man halt auch anfangen kann Funktionen zu bauen, die dann von bestimmten Sachen wie jetzt welchen Get Lab Branch ich das jetzt baue und so weiter die Variablen anpassen. Aber das ist alles advanced. Das Schöne ist, dass man halt wirklich so step by step das Ganze aufbauen kann.

Das heißt, man kann sehr schnell starten, weil man es einfach verstehen kann. Aber die Erweiterungen Möglichkeiten sind mannigfaltig, sodass man auch komplexe Enterprise Anwendungen im @Helmut Charts verpacken kann.

Genau hier also für jeden der kybernetisch benutzt, ist das eigentlich überhaupt kein Problem Helmuts zu bauen, weil man eben immer bei den Intels Ressourcen anfängt und dann eben bestimmte Sachen konfigurierbar macht.

Das heißt mit Helm Charts sind im Grunde diese Dateien gemeint, die eben diese Orchestrierung beschreiben.

Ja, also das ist ein bisschen verwirrend, weil das Startort Jamel ist ein Fail, was zu einem Heyme Chart gehört. Aber genau wie du sagst das ganze Paket. Also die Templates, das Valerius Free und das Chart dort Jamel, also die Beschreibung von dem ganzen Chart, das ganze Paket, das Wandel, das nennt man eben Chart.

Okay, verstehe. Das heißt, wenn wir nochmal die Vorteile von Helmi Charts zusammenfassen, was bringt mir deren Verwendung? Dann kann man schon sagen erstmal bündelt es die Anwendungs Informationen. Also welche Dienste brauche ich, welche Williams brauche ich, welche Ports brauche ich? Die sind da ja alle beschrieben und einfach erweiterbar. Also wenn man ein weiteres Molden brauch, kann ich das einfach da eintragen und es würde dann hinzugefügt. Änderungen durch die Git Versionierung keit können einfach nachverfolgt werden und es gibt bereits eine große Bibliothek von vorhandenen Pane Charts, die ich entweder inkludieren kann oder als Basis für eigene Entwicklung nutzen kann.

Ja genau. Was vielleicht noch ganz interessant zu wissen ist. Wir haben ja schon gesagt, Heyme macht eben diesen ist Säufer gleich und das gantzer Kommando. In diesem Fall wäre das dann Häme Upgrade. Das ist eidam potent, also idR impotent im Deutschen. Das bedeutet, ich kann das Kommando so oft ich will absetzen und es ändert eigentlich nichts, außer dass jetzt die Release Noma hoch gezählt wird im Cluster. Aber abgesehen davon läuft meine Applikation. Ohne angefasst weiter.

Wenn ich jetzt keine Änderungen gemacht habe und das ist natürlich eine super Grundlage für Scripting, dann also, wenn ich das jetzt in der Pipeline packe oder so, kann das halt dann super einfach immer abgesetzt werden, weil das sich eben selbst darum kümmert, die nötigen Schritte durchzuführen.

Naja, okay, verstehe. Das heißt, wenn zwei Maschinen fehlen und du setzt Upgrade ab, dann Start. Der hat die zwei Maschinen. Und wenn das gleiche Kommando eine Minute später nochmal abgesetzt würde, würde einfach gar nichts passieren, weil er erkennt Ah, der Zustand, wie ich ihn beschrieben habe im HAMCHA. Das ist der Zustand, der auch im Cluster vorliegt. Das heißt, ich muss nichts machen. Genau. Wir haben in Episode Nr. sechsunddreißig über Terraforming gesprochen.

Das nutzt ganz ähnliche Mechanismen, um die Basis Infrastruktur, also z.B. diesen Kybernetisch Cluster aus der Taufe zu heben. Auf einer Cloud Lösung oder einer vorhandenen Infrastruktur und das ist natürlich in Kombination mit Kobanê des und Helmut Scharz kann man sozusagen von den Maschinen über den Cluster bis hin zur Anwendung eine komplette Basis Infrastruktur aus der Taufe heben mit dem Infrastructure as a Service Ansatz.

Das ist vielleicht noch ganz interessant, wo du jetzt Terraforming erwähnst. Viele Leute bringen das ja durcheinander. Terraforming hän Antriebe. Wo ist jetzt hier die Abgrenzung eigentlich? Und wie du schon gesagt hast, Terraforming ist halt eher Infrastructure Xcode. Also da hole ich mir dann irgendwie einen Cluster aus dem stampfe ich mir aus dem Boden und im hellen Bereich. Da ist man dann halt eher so bei den Applikationen, Middleware und sowas wie du gesagt hast. Terraforming hält ja auch für Zustand.

Bei Terraforming ist es so, dass der Kleinen seitig gehalten wird in dem Pfeil. Dieses Fall kann ich auch angucken und bearbeiten. Bei Helm ist es so, dass sich das ist auch abhängig von der Version. Da hat sich auch viel getan von der Version 2 zu 3, aber im Prinzip werden die ganzen Informationen im Cluster gehalten. Bei der neuen Version Version 3, da werden die Informationen in dem Namespace gehalten, wo auch mein Release läuft, also die Applikation, die ich installiert hab.

Und das hat eben den Vorteil, dass dann auch so Sachen wie jetzt Rol based Access Control von kybernetisch aus direkt umgesetzt werden. Also dass der Benutzer, der dazu berechtigt ist, das Deployment zu ändern oder überhaupt was zu Diplomen die Möglichkeit kriegt, wobei jemand anders, der dann eben nicht die Rolle hat, diese Möglichkeit unterbunden ist.

Also so eine Art Zugriffs Beschränkung mit Hilfe der Aarburg Policy genau Vorjahr bei Hellem 2 war das nicht ganz so einfach.

Das hat super funktioniert, wo Kybernetisch Arbat noch nicht implementiert hat. Weida hatte noch einen Server im Kybernetisch Cluster der laufen musste. Der sogenannte Tilla Server oder Tilla wird er auch einfach nur genannt. Und dieser Tilla hat halt als Server funktioniert für das Ziel n Tool vom Client aus und der hat halt seine ganzen Ressourcen innerhalb seines Namens Spaces abgelegt. Also enorm viel war das in dem Cubes System namespace. Da lief halt der Tilla und der hat dann Config Maps erstellt oben eben seine Ressourcen und seinen Zustand zu halten.

Und jetzt? Neu ist eben bei Hemme 3, dass die Ressourcen in dem Target namens Bake, also da wo ich meine Deployment wirklich mache, abgelegt werden, was eben diesen Vorteil hat, dass man die Arak Funktion von Kybernetisch direkt mit einbindet. Na weil wenn ich jetzt mit meinem Kleintieren gehe und keine Rechte hab, dann kann ich natürlich auch diese config maps gar nicht lesen oder bearbeiten.

Ja, das ist auch Tilla. War ja auch so ein Sicherheitsproblem, weil halt alle Leute, die sozusagen mit dem Tiller sprechen können, auf alle verwalteten Ressourcen Zugriff haben. Und jetzt über die Arbaces kann man das etwas feien Granulat wa steuern? Also man sollte auch für unsere Zuhörer, wenn man heute anfängt, auf jeden Fall mit der Version 3 von Helm beginnen. Genau hier. Ja, das ist vielleicht nochmal, um diesen Zweck klarzumachen. Ich finde das ganz interessant.

Du musst dir einfach vorstellen, oder? Unsere Zuhörer können sich einfach vorstellen, man hat diese laufenden Server einfach im Rechenzentrum, also hunderte oder tausende davon. Mittels Terraforming bündelte ich einige dieser Server zusammen zu einem Kybernetisch Cluster. So und der Cubaner? Das Cluster ist sozusagen ein STANDARD, der ob er jetzt bei Escher läuft, bei Google in der Cloud läuft oder bei AWS Amazon in der Cloud läuft oder irgendwo anders auch im eigenen Rechenzentrum sich mehr oder weniger gleich verhält.

Und auf diesem kybernetisch Cluster oder in diesen kybernetisch Cluster kann ich jetzt mittels Helm meine kybernetisch Anwendungen diplomen. Und wenn man diese drei Werkzeuge zusammennimmt also Terraforming Kybernetisch Helm komme ich relativ weit weg von diesem Vendor Lock in genau.

Ja wie du schon sagst. Also ich meine Kuba Annettes generell ist schon ein richtiger Schritt in die Richtung, dass man halt einfach eine Basis schafft und dann eben man nimmt ja gerne den Begriff Cloud Agnostikern in den Mund, also dass man eigentlich sich nicht wirklich drum kümmern muss, was unterhalb von Kybernetisch läuft, weil man da eben diese fest definierten Standards von Kybernetisch hat, also die Ressourcen und so weiter. Und klar, wenn ich dann ein. Dann bin ich da flexibel.

Also wenn du Helm benutzt, bist du da flexibel und hast quasi den ganzen Steg aus dem Vendor Lock in herausgezogen. Genau hier. Das heißt also, das ist ja wirklich toll, diese drei Komponenten oder softer Komponenten, die auch frei verfügbar sind in Kombination binnen Minuten hab ich quasi aus STANDARD Servern hab ich ein komplettes System aufgesetzt. Ich hab meine Infrastruktur pro Visionär. Ich hab mein kybernetisch klasse laufen plus ich habe meine kubanisches Anwendungen laufen und kann zu Testzwecken ja ganz beliebig diese Infrastruktur binnen Minuten hoch und runter fahren.

Kann Updates einspielen, kann Roll backs durchführen. Das hast du eben schon angesprochen, dass Helmut Shard selber dient. Natürlich auch. Jetzt muss man sagen für Entwickler auch als eine Art Dokumentation der Anwendung, weil ja genau beschrieben ist, was hängt von welchen Komponenten ab, welche Ports kommunizieren miteinander. Alleine das hat ja schon ein Wert, dass man sozusagen eine Anwendungs Dependency Graw generieren kann. Aus dem Hemd Shard. Ich weiß nicht. Gibt es da ein Kommando, dass man es irgendwie visualisieren kann?

Deshalb gute Frage. Das weiß ich tatsächlich gar nicht. Aber wie du schon sagst, das ist ein enormer Vorteil, den ich auch immer wieder gerne kommuniziere. Dass man eben durch das Coden von Schritten, die man durchführen muss, im Prinzip die Dokumentation überflüssig macht und auch damit eigentlich Fehler beseitigt. Wenn jetzt Sachen manuell durchgeführt werden, dann können immer Fehler entstehen. Man muss jemanden da haben, der aktiv zur Seite steht, mit dem Kopf da ist und wenn man das eben einfach automatisiert hat, sowohl mit Tera Form an.

Simple aber auch eben helfen könne einen dieser Fehler nicht so schnell unterlaufen.

Um ein plastisches Beispiel zu geben Stell dir mal vor, du bist verantwortlich für den sagen wir mal für den Server oder für die Helm Anwendung, die hier die Server betreibt, wo jeden Tag 20 Millionen Leute die Liste der Coruña infizierten runterlädt. Also das Beckhams sozusagen verdienender Corona Server. Und du würdest jetzt feststellen oh, die Anwendung wird sehr oft aus den App-Stores geladen. Ich muss irgendwie hoch skalieren. Das wäre eine relativ einfache Änderung. Würdest du das dann im @Helmut Chat mittels Reply CAS ändern oder was genau würdest du da einstellen?

Lustigerweise ist das Coruña App oder Coruña Waren App Server Beispiel eigentlich ziemlich gut, weil man da mehrere Komponenten drin hat. Zum einen Documentation. Wenn ich jetzt meine Heimat Charts publiziere einem Ghetto Chopra Satori Open Source, dann kann jeder sehen was läuft da eigentlich? Wie ist die Infrastruktur aufgesetzt? Wo läuft das Ganze? Und das hilft halt wirklich dann auch bei der Dokumentation, dass der Punkt 1, wie du sagst. Dadurch, dass ich dann mit meinen Templates eben diesen Replika Faktor einfach schnell hochsetzen kann, kann ich dann auch super schnell reagieren auf irgendwelche Anfragen.

Der Anstieg von Anfragen gut kybernetisch macht das natürlich auch schon mittels Autos Gayle. Aber wenn man jetzt in die Richtung geht, dass man mehrere Standorte hat, also eine globale Applikation hat, dann kann ich halt auch wirklich sagen Hey, wir haben jetzt einen neuen Markt irgendwo in Asian Pacific Area, dann kann ich einfach sagen So, da fangen wir jetzt an und da brauche ich jetzt ein Rechenzentrum und da hilft mir halt sowohl Theaterformen für die Infrastruktur, aber auch ha’m, vor allem, weil ich eben meine Applikationen in Minuten ausrollen kann oder eher Sekunden.

Ja, ich glaube auch an ein anderes gutes Beispiel ist, wenn ein ganz verbreiteter Messenger für Mobilfunk, Geräte oder für Smartphones seine Policy, seine Daten Policy ändert und auf einmal die anderen Messenger einen immensen Nutzer Ansturm zu verzeichnen haben. Das wäre auch so eine Situation, die in klassischen Server Umgebungen oh Gott, jetzt muss ich Server bestellen und die Immi mieten. Okay, ich bin in der Cloud, das heißt, ich kann in ein paar Klicks hinzufügen, aber das möchte man eigentlich auch nicht.

Man möchte im Grunde eine Anwendung so resilient implementiert haben, dass sie von selber, wenn sie wächst mehr Server Kapazitäten WIP mit kybernetisch mit Autos galligen automatisch sich beschafft bis zu einem gewissen Schwellwert.

Naja, das ist definitiv ein Vorteil. Ja und das ist dann eben ne kybernetisch Funktion bzw. in Helm selber kann man ja auch darauf Einfluss nehmen. Ja also wenn man zwei Beispiele genannt der Coruña ERP Listen Server und die anmeldest Server für Smartphone Messenger. Das ist natürlich auch eine Unternehmenskunden, die uns zuhören. Interessant wenn sie Nutzer Ansturm haben bei gewissen ich sag mal Black Friday Verkäufen oder Medienberichterstattung zu einem Unternehmen oder wenn Marketingkampagne laufen, wo halt in kurzer Zeit viele Kunden die Angebote nutzen.

Oder ein jüngstes Beispiel aus der vergangenen Woche, wo teilweise Server von Brokern Probleme hatten, weil eben ganz viele Aktien gehandelt werden auf einen Schlag. Da kann man dann gegenhalten.

Auf jeden Fall. Das hilft halt einfach schnell zu reagieren, weil ich eben dann nicht manuell. Irgendwelche Schritte einleiten muss, meinen Experten, der dann vielleicht im Urlaub ist, irgendwie ans Telefon kriegen muss. Sondern ich habe eben einfach die Dokumentation mehr oder weniger da und eben kann ich auch einfach Änderungen vornehmen direkt im Code, muss nicht mal irgendwo groß rum klicken, sondern ich mach das halt wirklich genau an der Stelle, wo ich brauch. Und da es so einfach ist, kann das natürlich auch automatisiert passieren, also direkt vom Computer.

Bevor wir jetzt noch auf weitere Details von Helmut Charts eingehen, würde ich dich noch fragen. Gerne zu deinem Erfahrungsschatz. Und zwar ist es deiner Erfahrung nach so, dass Firmen eher anfangen, neue Anwendungen auf Kuba nettes zu entwickeln und dann auch direkt zu @Helmut Charts zu erstellen? Oder werden auch viele Bestands Anwendungen also vielleicht alte Monolithen, die jetzt noch nicht so dem Mikroskops Paradigma folgen auch in Kuba Annettes Pakete verpackt und dann auch mit Helm Charts ausgerollt? Wie ist da deine Praxiserfahrung?

Also meine Praxiserfahrung ist eigentlich fast immer das gleiche und zwar dieses ganze Klout Thema kommt ja auf die Firmen zu und die wissen auch, dass die da was tun müssen. Die meisten haben kurz vor 12, also da ist das wirklich ein heißes Thema. Und da dann meistens auch relativ viel Funding in der Region dann zur Verfügung gestellt wird, passiert das doch meistens, dass Anwendungen grundsätzlich nochmal neu überdacht werden und dann auch eben der Microservices Ansatz umgesetzt wird, weil man eben, wenn man sowieso alles umzieht.

In diesem alten monolithischen Umfeld hat man natürlich seine großen Anwendungen irgendwo auf dem Server, der von irgendwem mit Hand konfiguriert wurde und wahrscheinlich irgendwo ne ganz dicke Dokumentation auf dem Schreibtisch liegt. Und da jetzt zu sagen Okay, ich hole das jetzt alles in die Cloud, das ist sowieso Arbeit. Und dann überlegen sich die Unternehmen meistens, dass es dann sinnvoller ist, das Ganze sowieso direkt schon um zu design, weil diese großen monolithischen Anwendungen haben ja auch was Skalierung betrifft Probleme.

Die sind meistens auch überhaupt nicht dafür gebaut, Verteil zu laufen. Und diese ganzen Cloud Native Komponenten API, Gate, Boyce und allen möglichen Sachen wären da gar nicht wirklich gut eingebunden. Wobei, wenn man dann nochmal wirklich sich anguckt, was gibt’s heutzutage für Frameworks, was ist der Stand der Dinge, dann kann man da seine Applikationen schön direkt Cloud Native neu designen. Und das ist auch das, was ich zurzeit hauptsächlich beobachte dass der Schritt eben auch direkt gemacht wird und die Applikation neu Design wird.

Man hat ja auch aus seinen Fehlern gelernt. Man weiß, wo sind die Schwachpunkte und manchmal sind das ja wirklich grundlegende Sachen, wo halt die Struktur von dem alten System einfach nicht so richtig passt.

Ja, genau, also das ist auch meine Erfahrung. Die alten Systeme funktionieren ja irgendwie, sonst wären sie ja nicht mehr da. Die lässt man vielleicht noch einfach weiterlaufen und steckt da gar nicht so viel Liebe rein. Aber wenn zukünftige Anwendungen entwickelt werden, benutzt man natürlich die neuen Technologien oder erweitert die alten Technologien um eine Komponente, die dann eben schon in der Cloud läuft. So ist auch meine Erfahrung. Also ich habe auch noch nicht gesehen, dass man Monolithen eins zu eins einpackt und dann in Kybernetisch betreibt.

Das wäre sicher auch dann ungünstig.

Ja, da hat sich einfach sehr viel getan, jetzt auch in der letzten Zeit. Wie einfach Applikationen strukturiert werden und implementiert werden, also gerade Sachen Richtung Datenspeicher und so in der Cloud geht man halt nicht davon aus, dass man immer so lokal seinen Speicher direkt bei der Anwendungs Logik hat, sondern geht da dann eher hin und benutzt externe Komponenten. Es kann ja auch eine skalierbare Datenbank sein, die auch im Cluster läuft. Aber eben dadurch, dass alles fein Granularität strukturiert ist, kann ich eben auch beliebig hoch und runter skalieren, so eben wie die Funktion benutzt werden von der Anwendung.

Lass uns doch nochmal etwas ins Detail gehen und nochmal genau besprechen, wie ein Helm Shard genau zusammengebaut wird oder wie das funktioniert. Möchte uns da kurz mit an die Hand nehmen, um das einfach mal strukturiert nochmal von Anfang bis Ende kurz zusammenzufassen, weil wir haben ja jetzt schon hier und da das Thema mal angeschnitten.

Ja, also das Hemd Shard ist eigentlich ein Wandel aus verschiedenen Dateien. Und die Haupt Datei ist eben dieser Chat dort Jamel, die eben dann einfach nur grunt information über das Chat enthält wie jetzt den Namen Version Abhängigkeiten. Und weiter gehts dann eben mit dem Templates Folder. Das ist so standardisiert der Ordner, der eben diese ganzen kybernetisch Ressourcen beinhaltet. PM nimmt dann einfach alles in dem Ordner und Diplomat das ins Cluster. Das heißt, wenn ich ein Pfeil da drin habe was überhaupt nicht ein Template ist, was einfach nur eine kybernetisch Ressource ist, dann wird hier auch genauso im Cluster ausgerollt.

Dann kann ich natürlich keine Konfiguration Änderungen machen mittels variabel, aber manchmal ist das ja auch gewollt. Dann die des Template Ding selbst. Das funktioniert eben mit diesen Gol Templates und alle goh lang internen Funktionen Template Funktionen sind abgebildet. Also wenn man da in der Sprache schon ein bisschen Erfahrung hat, hilft das natürlich immens. Aber Heimat auch noch weitere. Funktion hinzugefügt, dies dann leicht machen eigentlich alles mögliche zu Templeton, was Person nur Beispiel Funktionen, die man nutzt.

Also ich hab jetzt noch nicht viel mit Go lang gemacht, aber gibt es vielleicht eine funktionierende häufiger nutzt und die dir hierzu direkt einfällt?

Ja, also es gibt verschiedene Möglichkeiten, aber es gibt ja auch bestimmte Anwendungen. Wollen ja auch irgendeinen random character String haben, z.B. um krypto grafische Strukturen zu initialisieren.

Und da könnte man dann jetzt einfach in dem hammerhart sagen Gib mir random alpha numerische Ziffern generieren er ID oder sowas und das ist mein zaehlt für irgendwie eine Verschlüsselung Funktion, oder?

Genau das wäre jetzt ein Beispiel. Ich meine, ähnlich würde es oft auch mit Passwörtern gemacht, die eben nur Admin Passwörter für irgendwelche Datenbanken, die nur innerhalb des Clusters einem Sekrete sein sollen. Und da will man das Passwort ja explizit auch randomisiert haben. Das heißt, dass man halt gar nicht erst irgendwie eine Schwachstelle hat, wo irgendwer das Passwort kennt zu irgendeiner Datenbank, sondern das wird einfach direkt alles innerhalb des Clusters abgespeichert und keiner braucht da Zugang zu genau bei den Templates.

Ist vielleicht noch interessant für die, die da jetzt noch nicht so mächtig sind. Mit der Jamel Syntax ist natürlich empfohlen, das in Jamel zu machen. Das wird ja in vielen anderen Bereichen auch verwendet, weil das eben so schön lesbar ist. Aber für die, die’s Probleme macht Jamil ist ja eine obere Menge von Jason, also jede valide Jason Struktur ist natürlich gleichzeitig eine valide Jamel Struktur. Das erlaubt mir dann auch Jamil zu schreiben und wenn ich mal nicht weiterkommen.

Kurz die Ressource oder die Struktur eben in Jason darzustellen. Das wird ganz normal dann verwendet von Ham wie jedes andere Jamil und ja, funktioniert auch so was dann vielleicht noch interessant ist, ist das Beliefs. Das hatten wir schon ein paarmal ein bisschen angerissen. Hier nochmal explizit das ist eben ein Fall, was einfach Variablen definiert. Alles, was ich in dem Chart konfigurieren kann, kann ich in diesem Various Fall anpassen. Das heißt, ich kann dann eben, wie wir schon vorher gesagt haben, die Replika aus einer Anwendung anpassen und ich kann eben auch verschiedene Valerius Fails für verschiedene in Wassermanns benutzen.

Das heißt, wenn ich jetzt z.B. einen Gegenpol Süd-Korea kann ich auf jedem Bronstein auch ein unterschiedliches Belgiers Fall ablegen. Wenn es jetzt Development ist, was dann in die Test in Valmont geprobt wird, will ich da vielleicht andere Werte, andere Hoch Verfügbarkeit Werte haben als jetzt bei Produktion in Wahrnehmens.

Ich könnte auch Suchtest Nutzernamen da unterbringen. Dann heißt der User auf Test heißt der User minus test und auf in der Produktion wird er ganz weggelassen.

Wo solche Geschichten dafür wäre das welches Faltern da genau das Beliefs Fall ist natürlich auch wenn ich mir jetzt irgendwie von extern eine Ressource rein hole. Wenn ich jetzt z.B. einen Promi fürs Monitoring aufsetze, dann ist das Fall eigentlich die einzige Komponente, die ich mir dann auch selber privat abspeichern muss in meinem Git Repository, wo ich meine Changes Tracker, weil ich im Prinzip mit dem Chat dann direkt gar nichts zu tun habe. Ich passe nur dann Sachen an wie jetzt wie viel Speicher klemme ich, damit eben bestimmte Metriken abgespeichert werden und so weiter.

Und das ist alles was, was ich einfach bei mir in dem Delius enda aber grundsätzlich die Templates des Shard, das fasse ich gar nicht an, weil wenn da dann Änderungen Fixes eingespielt werden, dann werden die halt auch eben mit jedem Upgrade dann automatisch ausgerollt.

Das heißt, ich hab jetzt das Hemd Shard zusammengebaut mit Radius Jamil Templates, TV-Gelder, Charts, Jamil hab das auf der Festplatte oder es ist ne sollte ich lieber sagen. Und wie installiere ich das jetzt? Also ich hab die Anwendung da orchestriert in dem Helm Chart. Und wie schafft die Anwendung es jetzt in den Kybernetisch Cluster?

Also ganz konkret passiert das eigentlich mit Helm in Stowe und dann kann ich dem eben mit Minus ein Wadephul geben und dann gebe ich dem ganzen noch einen Release Namen. Den kann ich mir eigentlich mehr oder weniger aussuchen und dann bestimme ich halt noch welches Chart das ist. Das kann natürlich ein externes sein. Da sage ich dann bei einem Engine X z.B. Vietnam Nami Schrägstrich Engine X, also aus dem Vietnam Repository, dass Engine X Chart und dann wird das direkt installiert.

Also dann werden die Schritte eingeleitet, dass im Prinzip alle Abhängigkeiten und alles installiert werden in dem Cluster. Wenn ich jetzt natürlich das Ganze schon am Laufen hab, dann würde ich nicht mehr ins Stäube nutzen, weil Naniten. Steul schlägt fehl. Ein Stall ist nicht wieder impotent, sondern das Install ist ein mehr oder weniger imperatives Kommando, was halt einfach die Installation vornimmt. Normalerweise benutzt man tatsächlich Helme Upgrade und ich benutze eigentlich am liebsten Helme Upgrade minus AI, was soviel heißt wie machen Upgrade und wenn nichts da ist installierst.

Also dieses Kommando ist sozusagen alles in allem. Das Shard wird installiert, wenn es nicht da ist. Und ja, das ist auch das, was man dann eigentlich in Çiçek Scripte oder. Wo bei Automation einbaut, weil das eben diese idem Potenz hat. Okay, verstehe. Das heißt, man braucht sich im Grunde nur ein Kommando zu merken Upgrade minus ai oder minus y und Trends nicht installiert. Es wird die Anwendung installiert in der Version und wenn sie bereits installiert ist in der gleichen Version wird nichts gemacht, außer das Toyo Release Nummer instrumentiert wird und wenn die Anwendung installiert ist in einer vorherigen Version wird auf die aktuelle Version gab geredet.

Genau. Also es gibt natürlich dann auch Advanced Sachen, also haben unterstützt auch Semantic Versionen. Aber also da kann man dann die Release Nummer entsprechend anpassen. Aber das sind dann Sachen, die relativ Fettwanst sind.

Für jeden der jetzt kurz nach einer Anwendung erstmal die Pointe reicht das auch erstmal so dann die Unterschiede zwischen der Helm Version 2 mit dem Tilla Server, der sozusagen im Kybernetisch Cluster läuft und alle Aktionen durchführt und der Version 3, die mittels Airbag auf die ihr zugewiesenen rechte Bereiche zugreifen kann, um die Aktionen durchzuführen. Da bist du ja schon drauf eingegangen. Wie verbreitet ist Helm denn und lohnt es sich das genauer unter die Lupe zu nehmen? Ich glaube da haben wir fast schon eine Antwort gegeben im Verlaufe des Podcast.

Aber vielleicht fassen das nochmal zusammen.

Ja klar. Also das ist auch wirklich haben wir die Sache ganz am Anfang ja angerissen, dass Helme einfach extrem an Popularität zugenommen hat. Also es ist einfach inzwischen auch Grundlage für viele andere Systeme. Also im Ranga Rangiere ist ein Overlay über ein kybernetisch Cluster und das vereinfacht einfach die Verwaltung von kybernetisch Clustern. Da gibt’s ne schicke Joi, wo man das alles verwalten kann und da gibt’s eben auch einen Katalog.

Also das ist im Prinzip wie so eine App Store voll Kybernetiker und der basiert natürlich auf Helme und andere Bonnard sozusagen unter der Motorhaube im Hintergrund.

Genau da läuft dann natürlich Helm ganz normal und da sind auch die offiziellen Helme Repositories. Dann weiter geht’s ja dann noch, das geht ob’s Tool Flachs, Version 2 und das benutzt auch Helm Charts für Deployment. Also das Richtige ist hier natürlich die Version 2, weil da hat sich ja viel geändert zur Version 1, aber das ist so ein Get up Stuhl, wo man eben seine ganze Infrastruktur und Deployment alles entgeht, Repositories hat und Flachs bildet. Die Brücke zwischen den Geth Repositories und der Infrastruktur also ist guckt einfach aktiv.

Hab ich Änderungen in den Geth Repositories? Wenn ja, dann führt das eben die nötigen Kommandos aus. Also sozusagen das Scripten von Ham Upgrade.

Das finde ich richtig cool, muss ich mal sagen. An der Stelle du hast Watcher auf dein Git Repository yum, der bei Änderungen losgeht und dein kybernetisch cluster Status aktualisiert oder updated. Also das ist schon SII ICD auf höchstem Niveau finde ich persönlich es auf jeden Fall.

Das ist für mich auch so der letzte Schritt, der eigentlich alles zusammen packt. Dann war man hat natürlich das Problem, dass die Akzeptanz von Infrastructure oder auch Konfiguration oder sonst was. Ascot halt immer ein bisschen unterschiedlich ist. Es gibt ja auch gewisse Kollegen, die dann auch doch Änderungen manuell vornehmen. Wenn dann wirklich die Hütte brennt, dann hat man manchmal auch das Gefühl, jetzt hier in den Code zu gehen, das zu ändern, das zu Kometen Commit Message zu schreiben, zu pushen, dann wieder nicht woanders einzuloggen, eine Pipeline zu triggern oder sonst was.

Da haben viele dann irgendwie das Gefühl, wenn dann wirklich mal was los ist, dass das zu lange dauert. Und dann kann es schnell passieren, dass der Zustand, in dem geht Repository und in der Infrastruktur divergieren. Und soweit ich da bin, wird’s wirklich kompliziert. Das Schöne ist beim flachst, dass ich den Benutzern gar nicht mehr die Möglichkeit geben muss, manuell Sachen zu ändern. Bei jeder oder jeder. Der muss hat Zugang zu den Repositories und kann da einfach seine Änderungen machen.

Und das wird dann einfach im Hintergrund automatisch auf die Infrastruktur ausgerollt.

Ich sehe da noch einen ganz anderen Vorteil und zwar bis flux. Ja, so eine Art erweiterter Commit Hook. Das heißt, ich weiß, wenn ich mein Kotaku Mitte und auf Master Merge oder auf einen Release Branch merge, der wird dann automatisch Diplomat. So und das auf Entwickler Seite erzeugt dann eine Art erhöhtes Qualitäts Gefühl. Lass mich das nochmal sagen. Ich glaube auch, dass Flags und die Konsequenz daraus, dass wenn ich etwas Kommittee und auf den Master Branch merge, dass das automatisch Diplomat wird.

Das führt dazu, dass man das Testing noch ernster nimmt und noch mehr Tests schreibt, um einfach zu sagen Okay, wenn ich das jetzt hier committee, kontrolliert das kein Mensch mehr, sondern es wird wirklich produktiv ausgerollt. Wenn man das möchte und so einstellt. Und ja, das ist eigentlich eine gute Sache, dass man im Prinzip dann noch mehr Tests schreibt oder die Tests nochmal gründlicher checkt. Manuel checkt, um zu sagen Das muss ja alles Test Bar sein, sonst kann es sein, dass sich vorne was kaputt mache.

Das hilft auf jeden Fall dabei. Und das hilft natürlich auch der. Die Akzeptanz, also, dass Änderungen dann auch wirklich zur Infrastruktur kommen. Die Zeit ist einfach geringer, weil ich weiß, sobald ich was da rein packe, ich muss niemand Bescheid sagen, ich muss keinem sagen Hey, ich hab hier wieder eine Änderung. Roll das doch mal bitte auf die Infrastruktur aus, sondern das passiert dann einfach. Und das ermöglicht natürlich auch wiederum ganz andere Reaktionen bei den Entwicklern, weil die natürlich ihre Changes instant auf der Infrastruktur haben und einfach die Anwender profitieren ja auch ganz deutlich.

Da ein fertig gestelltes Feature ja schneller ist, in die Produktion schafft und schneller dann auch aktiv genutzt werden kann, von den entweder ein Nutzer da draußen oder den Unternehmens Benutzern. Das möchte man ja auch, dass man die Time to Market würde man im BWL Kontext sagen ich sag mal code to user time möglichst gering hält. Auch als Entwickler ist es ja möglichst erstrebenswert, dass wenn doch noch Probleme oder Rückfragen kommen, dass man die möglichst zeitlich nahe zur Implementierung dann erhält und nicht Monate später, wenn man sich dann nochmal eindecken muss.

Unser Muss. Okay, was war denn jetzt nochmal genau Sachstand da?

Okay Julius, vielen, vielen Dank für die intensiven Einblicke in das Ökosystem von Helm Kybernetisch Terraforming. Es hat mich super gefreut.

Sehr gerne, ja. Mich hat es auch gefreut, dabei zu sein. Vielleicht nochmal einen kleinen TISA am Ende. Was natürlich möglich macht, es in Verbindung mit anderen Tools auch komplexe Deployment Strategien umzusetzen, also z.B. Canary Deployment oder Blue Green Deployment. Bei Canary Deployment würde ich halten Feature erstmal an eine kleine Gruppe von Leuten ausrollen und dann testen wie reagieren die da drauf? Ist die Responses Zeit von dem User? Also wie lange braucht der User durch die Seite zu browsen?

Ist die schneller? Ist die langsamer? Wird das UI plötzlich verwirrend oder wird das eindeutiger für den Benutzer? Und dann kann ich Stück für Stück das halt als Produktions STANDARD haben. Und bei Blue Green ist eben dieser Situation, dass ich im Prinzip meinen Production impliziere und meine neue Version in ein zweites Produktion in Valmont, die Pleuger und dann eben einfach den Traffic komplett von dem einen Production in das andere Router und so halt dann auch ohne irgendeine Art Downtime halt einfach um switchen kann auf eine andere Version und Tools wie jetzt zum Beispiel ist Théo, die helfen mit Helm zusammen ebenso Sachen automatisiert umzusetzen und sowas ist natürlich Next Level.

Also das ist wirklich advanced. Aber das ist auch das, was man wirklich braucht, wenn man Ansprüche an Verfügbarkeit hat und Automatisierungsgrad.

Wenn unsere Zohra eine Frage haben oder Feedback zur aktuellen Episode, freuen wir uns über eine E-Mail an Podcast Skill bei Gilbert. Wir freuen uns immer über Bewertungen des Podcasts und natürlich Weiterempfehlung an eure Freunde und Kollegen. Das ist ganz ganz wichtig, wenn ihr die Podcast Episoden und die Inhalte als wertvoll erachtet. Empfehlt den Podcast gerne an Freunde und Kollegen. Weiter schaut Rolfs Gilbert de Slash Blog vorbei für weitere spannende Technologie Themen. Vielen Dank Julius für die Einblicke in Helm.

Und bis bald.

Bis bald.

Maurice KnoppSkillbyte Podcast #43: Helm – Der Kubernetes Paketmanager
Mehr

Skillbyte Podcast #42: IT-Aufgaben richtig outsourcen (Design, Entwicklung, Support)

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: IT-Aufgaben richtig outsourcen (Design, Entwicklung, Support)

// Inhalt //
01:14 – Definition: IT-Outsourcing
03:06 – Typische IT-Outsourcing Aufgaben
03:54 – Vorteile von IT-Outsourcing
04:26 – Warum ist IT-Outsourcing relevant? – Erfahrungsberichte aus der Praxis
10:23 – Saubere Kommunikation ist der Schlüssel für erfolgreiches Outsourcing
14:30 – Vorgehen für erfolgreiches IT-Outsourcing
15:17 – IT-Outsourcing Schnittstelle schwierig zu besetzen
16:18 – Erfahrungsberichte & Vorgehen für erfolgreiches Outsourcing
22:30 – Systembetrieb erfolgreich outsourcen
28:11 – Welche Plattformen gibt es?
30:09 – IT-Outsourcing Fails
37:09 – IT-Outsourcing Success Stories
41:06 – IT-Outsourcing is here to stay

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #42: IT-Aufgaben richtig outsourcen (Design, Entwicklung, Support)
Mehr

Skillbyte Podcast #36: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug

// Inhalt //
01:10 – Definition: Was ist Terraform? Was leistet die Software?
06:23 – Software eats Hardware -> Infrastructure as a Service
07:42 – Welches Problem löst Terraform und wie erfolgt der Einsatz?
08:40 – So sieht ein typisches Terraform Projekt aus
11:53 – Der Terraform State – am besten remote in der Cloud
16:18 – Vorteile von Terraform
16:28 – Vorteil: Infrastructure as Code / Versionierbar in GIT
16:48 – Vorteil: Infrastrukturänderungen können sofort getestet werden
17:12 – Vorteil: Integration in CI/CD Pipeline
17:50 – Vorteil: Zentrale Infrastrukturpakete /-module
20:11 – Vorteil: Buildserver kann Terraform ausführen
20:44 – Vorteil: Portierbarkeit zwischen Cloudplattformen
23:22 – Nachteile von Terraform (Funktionsgrenzen, Cloud Limits)
23:30 – Nachteil: keine Einheitliche Benamung bei unterschiedlichen Providern; unvollständige Dokumentation
26:20 – Detaileinrichtung von VMs benötigt weitere Werkezuge (Ansible, Puppet, Chef)
27:48 – Vorteil: Kubernetes Umgebungen können mit Terraform provisioniert werden
28:35 – Nachteil: Proprietäre Cloud Features via Terraform nicht oder später verfügbar
31:48 – Nachteil: Abstraktionsschichten erhöhen immer die Komplexität
32:47 – Vorteile: Infrastruktur versionierbar, kurzfristige Wartezeit auf Ressourcen, Rückgabe nicht verwendeter Ressourcen, große Community
34:17 – Variablen in Terraform Templates für unterschiedliche Umgebungen
35:54 – Terraform Graph: stets aktuelle Dokumentation der Infrastruktur

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #36: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug
Mehr

Skillbyte Podcast #35: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz

// Inhalt //
01:30 – Definition: Microservice Architekturen (Masiar)
04:07 – Exkurs: Enterprise Service Bus
05:03 – Definition: Microservice Architekturen (Maurice)
10:39 – Die Historie hinter dem Microservice Trend
13:29 – Flexibilität vs Komplexität
16:57 – Betrachtungen der Paradigmen Monolith vs Microservice
20:47 – Vorteile von Microservices
20:51 – Modularität
21:33 – flexible Integration
23:33 – Skalierbarkeit (Cloud native Paradigma)
25:30 – Verteilte Entwicklung / Best of Breed Ansatz
25:49 – mehr (API Schnittstellen-) Dokumentation
26:46 – Robustere Systeme
29:55 – Nachteile von Microservices
29:57 – Netzwerkkommunikationsoverhead entfällt beim Monolithen
31:15 – Höhere Komplexität
32:25 – HTTP-Protokoll (overhead, stateless)
33:43 – Microservice Beispiele aus der skillbyte Praxis

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #35: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz
Mehr

Skillbyte Podcast #34: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions, Google Cloud Functions richtig verwenden

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions,
Google Cloud Functions richtig verwenden

// Inhalt //
01:04 – Was ist Serverless Computing?
03:15 – FaaS – Functions as a Service
06:43 – Cloud Anbieter für Serverless Computing
07:52 – Abrechnung von Serverless Computing Ressourcen
09:25 – AWS Lambda am Beispiel von Amazon Alexa
11:56 – Vorteil: Zeiteinsparung bei der Administration ist signifikant
14:25 – Vorteil: Abrechnung nur verbrauchter Ressourcen
15:16 – Vorteil: Kosten werden Transparent
17:09 – Vorteil: Kleine Teams können Anwendungen Millionen von Menschen zur Verfügung stellen
18:10 – Nachteil: Vendor Lock-in
20:04 – Nachteil: Keine Performance-Garantie
23:43 – Nachteil: Ressourcenbeschränkungen (CPU Zeit, RAM, Laufzeit, etc.)
25:34 – Nachteil: unflexible Laufzeitumgebungen mit fixen Softwareversionen
28:35 – Debugging bei der Entiwcklung von Functions
30:30 – In diese Szenarien ist Serverless Computing besonders sinnvoll…
35:34 – …und in diesen sind sie nicht besonders sinnvoll

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Herzlich Willkommen zum Skill bald Podcast Episode Nr. 34 Servile Computing Hype oder Chance Apps, Landa, Escher Functions, Google Cloud Functions und so weiter richtig verwenden abonniert unseren Kanal für mehr spannende Themen aus dem Technologie Umfeld. Wenn die Entscheider oder IT Fachkraft seid, lasse auch gerne eine 5-Sterne Bewertung da oder sendet uns eine E-Mail mit euren Fragen an Podcast Skill bei. Wir freuen uns auch immer, wenn ihr den Podcast an eure Freunde und Kollegen weiter empfehlt.

Ich bin heute hier mit Max von Skill bald Hallo Max, Hallo Moritz, es freut mich ganz besonders, da wir ja schon wirklich über ein Jahr zusammen arbeiten, dass wir heute diese Episode zusammen machen können.

Freue mich auch dabei sein zu können. Es hat mich immer gereizt, jetzt immer auch mein Thema gefunden und einen Zeitpunkt wo verpasst.

Ja und was für ein Themas ist auf der einen Seite ein hoch spannendes Thema Server es Computing. Auf der anderen Seite hab ich den Eindruck, dass es aktuell auch etwas gehypt wird. Wir können ja mal darauf eingehen, was servile Computing eigentlich ist. Was verstehst du denn darunter?

Ich verstehe zwei Sachen Wissen. Lattmann da sei einmal Server, alles im reinen Sinne oder so wie es jetzt im Moment und den Cloud Providern beworben wird. Bedeutet zwar aber, dass er erstmal, dass man sich selber nicht um die Hardware kümmern muss. Das heißt, dass man im Endeffekt den Cloud, wobei der dafür bezahlt, dass sie die Infrastruktur bereitstellen, wo man dann nur noch seine Anwendungen drauf ausrollen muss. Und das ist eben für mich erst mal der grundlegende Server des Computing an der Stelle.

Aber natürlich gibt es auch die engere Definition, die dann vor allen Dingen auch heute im Podcast eher die größere Rolle spielt. Bowls dann eher in Richtung Funktion Access Service geht, wo dann eben auch der ausführende Layer sozusagen nochmal abstrahiert ist, sodass man wirklich nur sehr wenig Aufwand selber hat, was man sozusagen bereitstellen muss. Genau, also die Wartung der Plattform.

Du hast eben gesagt Server lässt, man muss sich nicht mehr um die Hardware kümmern. Genau genommen muss man sich ja auch um einige Ebenen der Software nicht mehr kümmern. Also kümmern im Sinne von installieren, warten, Updates einspielen, den Server tauschen, wenn er mal alt ist. All diese Dinge also ganz klar sollten wir vielleicht sagen Server List Code läuft natürlich nach wie vor auf Servern, nur man hat keinen direkten Kontakt mehr dazu, weil eben diese Schicht weg abstrahiert ist.

Ich denke, das spannendste Thema für unsere Zuhörer ist die Abstraktionsebene Functions, also Service oder App. Faas.

Das ist auch die geschichtlich neueste Stufe der Server alles Ebene. Da geht es darum der Anbieter stellt eine Laufzeit Umgebung zur Verfügung. Also das kann eine Python Runtime sein. Das kann eine Java Run Time sein, eine dort net run time. Alle möglichen Plattformen sind hier denkbar. Und auf dieser Plattform werden dann eben einzelne Funktionen oder Programmteile ausgeführt und diese werden dynamisch gestartet anhand von bestimmten Triggern und auch skaliert. Also ob ich ein Bild konvertiere beispielsweise oder tausend Bilder konvertiere parallel.

Das ist damit dann möglich. Rampen für Cloud Provider eben dafür zuständig €000 Laufzeit Umgebung bereitzustellen, die dann parallel den Job abarbeiten können. Hast du in letzter Zeit selber schon Functions, also Service Funktionen entwickelt?

Hab ich in der Tat. Das war bei zwei verschiedenen Projekten jeweils verschiedene Anwendungsfälle. Einmal haben wir das genutzt, um Web Application also an der Stelle einer Westlake JAL bereitzustellen, die eben von außen aufgehoben wird. Dann Processing mach. Und je nach bestimmte Antwort zurückgibt. Der andere ist mehr asynchronen Fal, wo sozusagen durch Daten Anlieferung Funktion getriggert wird, die dann eben Daten einliest, transformiert und dann wieder raus schreibt. Und dann kann auch in einer Kaskade dahinter eben neue Fangzähne getriggert werden, sodass dann sozusagen dieser übliche Ettl Job durch mehrere verschiedene Functions abgebildet wird, wobei jede Funktion immer nur eine Transformation ausführt und dann Pappi Events wie Datei wurde geschrieben oder neue Datei existiert.

Angetriggert werden und dann entsprechend ihre eigene Verarbeitung an der Stelle fortsetzen. Das heißt, die Verkettung der Trigger ist quasi ein Stück weit der neue Programmcode. Wieso?

Bei einer Dominostein Reihe genommen würde ich sogar vielleicht noch einen Schritt weiter gehen und sagen, dass wenn man mit Pantheons arbeitet und da komplexere Logik umsetzen will, ist man eigentlich gezwungen Microservices mehr oder weniger in Reinform zu denken und umzusetzen, weil dazu, wenn er später noch kommen Franzens bestimmte Limitationen haben, was vor allen Dingen Performance angeht, also CPU Rechenzeit. Und dann ist so eine Funktion tatsächlich auch nur gedacht als einen logischen Schritt, sodass man, wenn man verschiedene Schritte in seiner Ausführung hat, hat man sozusagen immer wieder einen neuen Micros Service, der gekrault wird oder durch ein Event ausgeführt wird, einfach um ein plastisches Beispiel zu.

Geben Wir sind ja noch bei der Definition, was Server des Computing ist. Früher hätte man so eine klassische Webanwendung oder ein Webshop hätte eine Anwendung beinhaltet, wo dann die Bestellung ausgelöst wird, das Etikett ausgedruckt wird für den Karton, der später versendet wird. Plus die Zahlung von der Kreditkarte, mit der der Kunde bezahlt hat. Eingezogen wird und im letzten Schritt wird der Warenbestand um 1 Dex demontiert, um eben diese Bestellung dann darzustellen. Und im Server ist reich, während das einzelne Funktionen, die sich nacheinander aufrufen oder das kann er teilweise sogar auch parallel geschehen.

Aber Microservices in Reinform. Diese kleinen Funktions Blöcke, die sich dann eben nacheinander aufrufen, was man vielleicht noch sagen sollte, weil das Wort oder der Begriff Server des Computing oft marketingtechnisch ausgeschlachtet wird meinen kann, sind auch so Docker Container Round Times also die bezeichnen sich auch als Server. Alles das ist hier im Kontext dieser Podcast Episode nicht gemeint. Mir meinen wirklich nur einzelne Funktionen, die miteinander verzahnt werden können und nicht ganze Programme, Bausteine oder ganze Programm Plattformen die eben hochgefahren werden, wo man dann auf einer niedrigeren Abstraktionsebene einsteigen würde.

Im Grunde, wenn man die Geschichte der Applications Entwicklung sieht, sind Server lässt die neueste Stufe, denn es wird auch. Ich habe in einem Artikel gelesen DevOps als DevOps auf Steroiden bezeichnet. Man kümmert sich im Grunde nur noch um die Programm Logik, also die einzelnen Funktionen und die Verschaltung dieser Funktion von Deist als das Beispiel, was du gegeben hast. Max, dass die Funktion über eine API aufgerufen werden und dann eben weitere Schritte wieder über Abis anstoßen. Schon wahrscheinlich das Paradebeispiel im Server des Computing Bereich.

Mit welchen Anbietern hast du denn? Und Laufzeit Umgebung? Hast du denn jetzt schon Erfahrung gesammelt?

Persönlich hab ich schon so gut wie in den drei größten Cloud Anbietern gearbeitet. Also Amazon habe erst an der Stelle Track Software an Google Cloud Computing allerdings lediglich in Apps und den Ärger mit den befangene Pandoras gearbeitet. Das wäre an der Stelle daneben Landa Funktionen bei Apps und einmal ja Funkens, dann bei Microsoft.

Ich glaube bei Google heißt es Cloud Functions und bei IBM heißt es auch Cloud Functions. Aber das unter dem Begriff Lambada und dem jeweiligen Provider wird man ganz sicher den Produktnamen ausgraben können. Okay, ich glaube, da haben wir schon mal ein gutes Grundverständnis gegeben, was Server Computing ist. Also vielleicht noch ganz kurz Welche Laufzeit Umgebung hast du eingesetzt? Ich nehme an Python, oder?

Genau. Bei mir war es jedesmal Theißen. Allerdings wenn die relativ die Wert mittlerweile aufgestellt. JavaScript funktioniert und auch jede andere große Programmiersprache wird mittlerweile auch an der Stelle unterstützt. Vielleicht noch ein Wort zur Abrechnung.

Also klassische Server bezahlt man ja, indem man einfach die Server mietet oder? Beim Cloud Server wird ja auch pro Minute abgerechnet. Beim Server Computing ist das so ein Mix aus verbrauchten CPU Ressourcen. Remme Ressourcen und Durchsatz. Das unterscheidet sich glaube ich auch bei jedem Anbietern. Bisschen gab es unterscheidet sich auch dann nochmal zusätzlich, in welchem Kontext du sie verwendet. Also ich weiß, dass man bei Apps verschiedene Modi haben kann. Man kann die typische Lambda Funktion haben.

Man kann auch Lambda haben. Man kann die Landa Funktionen mehr oder weniger direkt dem Internet preisgeben oder ein API Gateway benutzen und je nachdem welches Modul man dann je nach Funktionsweise benutzt. Damit wird es auch nochmal ein bisschen anders abgerechnet. Beim Großen und ganzen kann man eben sagen, man bezahlt für die Ressourcen, die man auch tatsächlich einsetzt. Lambada bedeutet, dass die Funktions Ausführung möglichst nahe an den Endkunden herangeführt wird, oder?

Genau das hat. Ich glaube in dem Kontext zwei Bedeutungen. Einmal wird eben z.B. das API Gateway nicht benutzt, was dann eben auch nochmal zusätzlich ein Netzwerk Delay verursachen würde. Und wie du richtig gesagt hast, werden dafür auch Server benutzt, die eben sehr nahe beim Kunden stehen. Das wirkt dann, wenn man das so möchte und bucht quasi und auch bezahlt weltweit auf die verschiedenen Server verteilt, sodass dann je nachdem von wo der Kunde das aufruft, das dann an den nächst gelegenen Server geht.

An der Stelle noch ein Beispiel Bevor wir zu den Vor und Nachteilen von Server des Computing kommen, ist Amazon Alexa also der Sprachassistenten von Amazon selber. Jedesmal wenn man mit Alexa spricht, ruft man im Hintergrund quasi eine Lambda Funktion auf, die dann antwortet. Das fand ich ganz interessant, dass Amazon die eigene Technologie für ja doch dieses Blockbuster Produkt verwendet, was natürlich dann auch Signalwirkung haben soll. Seht her, das ist stabil genug, darauf kann man sich verlassen.

Okay, jetzt haben wir schon einige Vorteile. Implizit angesprochen. Lass uns doch nochmal durchgehen, ob wir nicht was vergessen haben. Skalierbarkeit hatten wir eben schon angesprochen. Amazon Alexa kann man sich z.B. vorstellen, dass am Anfang gab es vielleicht einige tausend Nutzer, die regelmäßig mit ihrer Alexa gesprochen haben. Mittlerweile dürfen das einige Millionen sein. Und diese ganzen Anfragen können eben parallel durchgeführt werden, ohne dass man sich darum kümmern müsste, die Infrastruktur entsprechend zu skalieren.

Das macht der Cloud Provider und auch das Konzept für die Fans sind, denen ausgelegt sind, wo man quasi nur eine Funktion vom Code her bereitstellt, mit vordefinierten Inputs und definierten Outputs. Diese Art der Programmierung dadurch ist trivial möglich, dass auch tatsächlich die Anwendung eben skaliert. Weil n klassischen Anwendungen muss man potentiell eben auch nochmal Gedancken reinstecken, ob die Anwendung überhaupt staatlich ist, ob sie skalieren kann und so weiter. Und diese Sachen sind implizit automatisch gegeben, wenn man entsprechend diese Umgebung nutzen will, weil dann muss man sich diese Gedanken alle vorher machen.

Angekommen vom Cloud Provider sozusagen ein vordefinierte Event eingereicht, mit dem man arbeiten kann. Mehr hat man nicht. Man kann natürlich auch externe Systeme noch anfragen, aber erstmal hat man nur dieses Event und tut dann eben mit diesem Event was. Und dass es in sich allein von den logischen Gedanken beliebig skalierbar, sodass allein die Herangehensweise an die Programmierung so einer Funktion eben an der Stelle das Skalieren quasi gratis mitliefern.

Ich hab bei der Recherche so einen schönen Satz gefunden. Ich glaube es von Google. Das heißt from prototype to production to planet scale, also dass im Prinzip der parallelisiert Kargheit dieser Service Funktion keine Grenzen gesetzt sind. Physikalische Grenzen sind natürlich schon durch den Cloud Provider gesetzt, aber die liegen so hoch, dass man dort erst einmal keine Probleme haben sollte.

Okay, dass man sich nicht mehr um die Beschaffung von Hardware, die Installation des Betriebssystems, die Wartung und das Update des Betriebssystems und etwaiger anderer Software Komponenten kümmern muss. Das hatten wir eingangs schon erwähnt. Ist aber ein wichtiger Punkt, denn ich wette in vielen vielen Admin Teams wird signifikant viel Zeit für diese Tätigkeiten aufgewendet. Soviel zu meiner Erfahrung. Ich weiß nicht, welche du da gesammelt hast, doch das ist ja identisch.

Muss man sich ja nur einmal in der Fachliteratur ein bisschen umschauen. Es tauchen gefühlt jede Woche mindestens eine Sicherheitslücke auf, wo man dann das Team eigentlich überprüfen muss. Okay, der Server, auf denen unsere Anwendung läuft, ist da die Open Access Bibliothek jetzt drauf, die betroffen ist oder nicht? Wenn ja, wie? Installieren wir das? Können wir das im laufenden Betrieb machen und so weiter. Und all das entfällt eben, wenn man in diesem Server lebt, Kontext unterwegs ist.

Dafür bezahlt man am Ende dann den Cloud Provider, dass die sich dann eben um Wartung, Update und so weiter kümmern. Und man selber bekommt von der Situation überhaupt nichts mehr mit. Und dann muss sich auch keine Gedanken machen, was an der Stelle eben irgendein Produktionsausfall oder sowas ist. Oder dass die Funktion erstmal nicht mehr erreichbar. 2 Grad der Hauptsatz aber ja, updatet oder sonst was.

Das hat man eben an der Stelle überhaupt nicht, da auch das Thema, was oft unter den Tisch fällt Hardware Ausfall. Vielleicht erinnerst du dich an ein Projekt, wo wir beide waren, was noch nicht so lange her ist, dass eine fehlerhafte Netzwerkkarte also wirklich wochenlang Haare raufen gesorgt hat, bis sie im gefunden und deaktiviert wurde und ab dann konnte normal weitergearbeitet werden. Das sind auch Sachen. Also nicht, dass es die defekte Netzwerkkarte in einer Cloud Umgebung nicht geben kann.

Aber ich denke die STANDARD Hardware dort ist so gut Monitor, dass das relativ schnell auffällt. Genau. Und soweit ich das weiß, haben sie ja auch nochmal spezielle Software laufen, die Unstimmigkeiten im Netzwerk aufspürt oder insgesamt Unstimmigkeiten in der Hardware. Und dann wird mal einfach ein kompletter Server Schrank aus der aktiven Hardware rausgenommen, falls nur die Ahnung ist, dass da mit dem Server schon was nicht in Ordnung ist, weil Cloud Provider haben natürlich so viel Ressourcen oder so viele Backups auch, dass das einfach mal möglich ist.

Was natürlich für ein normales durchschnittlichen Unternehmen nicht einfach mal möglich ist. So viel über pro. resümierte Hardware dazu haben, dass man meinen gesamten Server Schank aus dem Rechner Cluster rausnehmen kann.

Und wer eine Woche mit Debugging von Hardware Problemen verbracht hat, der wünscht sich, dass er damit nichts zu tun haben möge.

Preis ist auch ein Vorteil. Wir haben es unter Vorteil gelistet, aber ich würde sagen, da muss man etwas aufpassen, denn es gibt durchaus auch Szenarien, wo es günstiger ist, wenn man einen eigenen Server mietet, der z.B. kontinuierlich unter Hoch Last steht oder der sehr spezielle Anforderungen erfüllen muss, also sei es Spezial Hardware oder sehr viel Arbeitsspeicher aufweisen muss, dann sind Server alles Funktionen leider keine Option.

Genau, also das muss man je nach Anwendungsfall immer evaluieren. Es gibt eben meistens bei der Cloud nicht die STANDARD Aussage. Ja, das ist günstiger als alles andere, weil dann gäbe es das andere auch nicht. Mehr dementsprechend. Wie du richtig gesagt hast, mein Server ständig ausgelastet wäre, dann ist der häufig günstiger, als wenn man die gleichen Neuyork laut über Funktionen an der Stelle Fahndungen.

Ein weiterer positiver Punkt, der in vielerlei Hinsicht positiv ist, ist die Abrechnung für verbrauchte Ressourcen, also CPU Zeit, RAM Io. Und nicht nur, weil man tendenziell, wenn man ein System, das man nur für die Last starken Zeiten im Prinzip bezahlt, sondern es wird auch sehr deutlich im Projekt oder bei mehreren Projekten, welche Projekte wie viele Kosten verursachen und wo genau bei welchem Arbeitsschritt und welchem CPU Dienst oder bei welchem Programmteil die höchsten Kosten anfallen und die meiste Berechnung anfällt und man kann dort gezielt optimieren.

Das finde ich auch sehr schön eigentlich. Früher hat man gesagt, die Datenbank läuft 24 Stunden am Tag. Dann können wir auch hier alles rein und rausrechnen und Backup machen. Jeden Abend 100 Gigabyte übers Netzwerk schieben, das ist ja eh da und jetzt muss man sich das schon genauer überlegen. Also kann natürlich auch negativer Punkt sein, weil man sich jetzt damit beschäftigen muss. Aber generell halte ich das für eine gute Sache, dass man weiß, wo welche Aufwände erzeugt werden und man einfach so nochmal einen Überblick bekommt.

Genau.

Also vielleicht auch das Beispiel, das sein Wickler ein bisschen anders entwickelt kann. Ich habe selber gemerkt, dass wenn man sich jetzt eben genau an diese neue Serviceleistung Banken mit arbeitet, dann denkt man auch mal zwei oder drei mal mehr nach, um zu überlegen Okay, brauche ich jetzt diese Datenbank Anfrage oder nicht? Wie du eben so schön gesagt hast wenns im normalen System läuft und die Datenbank Ishtar, dann macht man im Saft. Hab eine Anfrage Mehrheit dahin, obwohl es natürlich auch Bermann Snack optimieren würde.

An der Stelle bringt das natürlich auch Vorteile in jeder anderen Umgebung. Aber gerade in diesem Klout Umgebung hat man sowieso nochmal einen monetären Vorteil dadurch, sodass man dann auch als Entwickler gleich Kaymer überlegt, ob man das nicht wieder schöner oder performant an der Stelle schreiben kann.

Also es wird einfach transparent und man kann sich gezielt darum kümmern oder sich gezielt dafür entscheiden, sich nicht darum zu kümmern. Was ich noch als gigantischen Vorteil seh ist, dass dieses Wissen für die Administration, was ja in jedem Unternehmen aktuell vorhanden ist und auch früher für die Produktentwicklung unabdingbar war, nicht mehr unbedingt notwendig ist. Und auch kleine Entwicklerteams, die vielleicht nur aus Entwicklern und einem 2 DevOps Menschen bestehen, dass sie Anwendungen entwickeln und betreiben können, die von Millionen von Nutzern genutzt werden können da draußen und das ohne eigenes Infrastruktur Team.

Wenn man sich auf Zerfalle Computing konzentriert, also das entbindet einen nicht von allen administrativen Aufgaben. Man muss sich natürlich auskennen und dieses DevOps wissen sich auf schlauen was ist eine IP Adresse? Wie funktionieren Netze, wie sicher ich das ab und so weiter. Und wie Provision niedrig die Infrastruktur auf meinem gewählten Cloud Provider. Also diese klassische Rolle zwischen Entwickler und Betrieb dann aufnehmen. Aber ist es wirklich kein Admin im engeren Sinne mehr notwendig für eine Anwendung, die Millionen von Leute nutzen?

Das ist ja auch schon mal was. Also Apps zum Beispiel. Aber wie das so ist, auch wenn es wunderbar klingt und wer jetzt die Vorteile aufgezählt haben, da gibt es natürlich auch ein paar Nachteile, die wir schon gestrichen haben.

Ich glaube, der größte Nachteil, wo man sich immer bewusst sein muss, sobald man in der Cloud unterwegs ist und vor allen Dingen bei den sogenannten Managed Service. Was Fangnetze Service an der Stelle ist, ist, dass wir ein Vendor Login haben. Das heißt, wenn wir uns jetzt entscheiden, bei Apps in der Landa Funktion was zu tun, dann können wir das nicht eins zu eins so auch danach bei Google z.B. laufen lassen, falls das wichtig ist. Allerdings, das muss man natürlich auch zugeben ist, dass dadurch das Konzept hinter den Fangzähne bei den meisten festgeschrieben ist, muss man natürlich nicht die komplette Funktion neu schreiben, sondern an der Stelle eher den Input und Output so neu formatieren, dass er auch die neue Cloud passt.

Allerdings kannst du dann auch nochmal sein, dass er nach anderen Cloud ein bestimmtes Paket nicht verfügbar als Voda. Man kann es nicht nach installieren oder lohnt was. Also man legt sich erst mal auf eine Cloud fest, wenn man eben eine bestimmte Funktion Umgebung auswählt. Am Ende dessen muss man sich bewusst sein, was natürlich auch am Ende der Tweet of ist. Zwischen dem Komfort, den wir eben erwähnt haben, bezahlt man einer gewissen Stelle dann natürlich damit, dass man den Cloud-Anbieter treu sein muss.

Es hat sich noch keine Open Source Server alles Computing Platform herauskristallisiert, so z.B. kybernetisch. Es ist ja das DevOps Rechenzentrum oder der STANDARD für Container Computing kann man sagen, der von allen Cloud Anbietern angeboten werden muss, weil er einfach so omnipräsent ist. Und für Server des Computing gibt es so einen verbreiteten offenen STANDARD eben noch nicht, der ja vielleicht noch kommen kann. Es wäre zu wünschen, dass man dann zwischen den Anbietern eben auch wechseln kann.

Ich glaube, da besteht ein hohes Bedürfnis, gerade von großen Unternehmen. Aber wer weiß, was die Zukunft bringt. Einen weiteren Nachteil sehe ich im ansprecht Verhalten einer Sour, weil es Funktion. Es gibt keine Garantie, dass diese sofort eine Antwort liefert. Manchmal ist so eine gewisse Ramp up Periode notwendig von wenigen Sekunden, bis dann die Funktion eben ausgeführt werden kann. Das ist insbesondere dann kritisch, wenn ich eine interaktive Anwendung habe, also wo der Nutzer Eingaben tätigt und er dann auf die Rückantwort wartet.

Muss aber gestehen, ich habe hier noch keine Hands on Erfahrung. Ob das wirklich so ein großes Problem ist? Wir haben tatsächlich an der Stelle einmal die Erfahrung gemacht also diese Vampir Periode ist tatsächlich nur am Anfang oder wenn die Funktion eben noch länger nicht ausgeführt wurde oder immer nur sehr sporadisch ausgeübt. Dann hat man eben dieses von dir erwähnte Problem und wir hatten tatsächlich den Fall, als wir eben die erwähnte Vest API bloed haben bzw. Konsequenz von unseren Websiten aus gekrault haben.

Da ist der Traffic schlagartig angestiegen und an der Stelle das Skalieren fand nicht schnell genug statt. Auch wegen dieser WMP Zeit. Und da hat es dann eben die ersten 5 bis 10 Minuten sehr viele Bettwil Requests Server, Time Outs und so weiter gegeben. Was an der Stelle jetzt nicht so kritisch war, weil das keine Daten waren, die das Nutzerverhalten zu sehr beeinflusst hätten. Aber je nachdem in welcher Situation man ist, kann man sich das eben nicht erlauben an der Stelle.

Wir sind danach auch etwas schlauer geworden, dass wir dann eben entsprechend, bevor wir ein anderes neues Deployment oder ein neue Landa Funktion woanders eingebaut haben. Kann man das eben auch einmal händisch selber vorheizen in Anführungsstrichen, wo man dann eben entsprechenden Traffic simuliert, dass eben vorhanden ist. Und ich glaube, mittlerweile gibt es auch seit längerem eine Checkbox, die man in den entsprechenden Oberfläche setzen kann, wo dann eben die Funktionen auf Standby gehalten wird, sodass dann eben diese Scale out oder das Skalieren sehr viel schneller geht.

Allerdings muss man den eben einmal setzen und ich glaube, es kostet auch was eine gewisse Betrag, sodass man da nämlich ständig setzen sollte. Aber es ist gut zu wissen, wenn der Cloud Provider das nicht hat, dann sollte man eben einmal quasi händisch vorheizen, sodass dann bei dem produktiv ausrollen. Wenn man nicht die Möglichkeit hat, prozentual über mehr Traffic abzugeben, dann muss man eben einmal händisch das sicherstellen, dass der Traffic erarbeitet werden kann. Händisch vorheizen.

Das hört sich ja an wie bei einer alten Dampflokomotive her.

Ich war auch amüsiert, als ich das erste Mal den Vorhalt Begriff in diesem Kontext gehört habe. Aber am Ende ist es genau das.

Das ist einfach eine technische Notwendigkeit. Die Cloud Provider haben natürlich tausende oder Millionen Funktionen registriert von all ihren Kunden auf diesen Laufzeit Umgebungen und da wird wahrscheinlich nur ein Bruchteil konstant genutzt und alle anderen werden schlafen gelegt, damit es bei diesen geringen Kosten bleiben kann. Und wenn eine Funktion angefordert wird, dann muss erst einmal eine Laufzeit Umgebung Provision tiert werden oder diese Funktion dort zur Ausführung gebracht werden. Und das kann dann eben diese berühmt berüchtigten ein, zwei, drei, vier Sekunden dauern.

In der Zeit hat man keine Antwort oder die Anwendung kann ich weitermachen? Ja genau.

Und nach dieser Vampir Periode ist das eigentlich kein Problem mehr, weil die meisten glaubt wieder an der Stelle im hingehen und diese entweihen, wo die Funktion ausgeführt wird eben sozusagen Kelchen. Das erst mal nachdem die hochgefahren wurde. Diesen sauberen State sozusagen wird dann mehr oder weniger als Abbild für alle anderen Funktionen der Nacht genommen, sodass dann eben nicht mehr die gesamte Umgebung hochgefahren werden muss, sondern nur noch dupliziert werden muss, was an der Stelle sehr viel schneller geht.

Ein weiterer Nachteil und da sind wir selber, das weiß ich aus erster Hand schon häufiger dran gestoßen und haben da Lösungen für entwickelt. Ist die Ressourcen Beschränkung innerhalb einer Server Ulis Funktion? Das ist wahrscheinlich auch oder es macht einen Unterschied. Je nach Anbieter gibt es da unterschiedliche Ressourcen Beschränkungen. Aber generell kann man glaube ich festhalten, dass man in einem sehr, sehr engen Korsett steht, also beispielsweise, dass eine Funktion maximal 40 Sekunden Laufzeit aufweisen darf. Danach wird sie zwangs beendet oder dass sie nur ein Speicherbedarf von ein Gigabyte RAM konsumieren darf und kann dann nicht weiter wachsen.

Und diese Beschränkungen sorgen zum einen dafür, dass man sich natürlich sehr kurz fasst und die Funktion wirklich nur einen sehr kleinen Teil des Programms dann eben übernimmt. Auf der anderen Seite kann es ja vielleicht doch nötig sein, eine große Anzahl an Bildern zu konvertieren und dann müsste man das irgendwie anders lösen. Genau.

Also das ist so ein bisschen dem Anwendungsfall geschuldet. Ich glaube, das liegt in der Konzeption begründet, dass eben Bankwesens kleine logische Einheiten sind, die häufig wenig Ressourcen Anspruch haben und schnell antworten. Aber das dann in millionenfach sozusagen. Wie du richtig erwähnt, das haben wir auch schon häufiger Probleme gehabt mit diesem Kontext, einfach weil sich dann am Ende das Anwendung. Szenario doch anders entpuppt hat, als es ursprünglich erdacht war, sodass man dann am Ende dann doch auf eine andere Technologie ausweichen musste.

Und man muss sich wirklich vor Augen halten. Also nach diesen 40 Sekunden als Beispiel Wert wird die Funktion Ehard beendet, also mit einem Kill abgeschossen. Wenn man da noch offene Datenbank Transaktionen hat, werden die nicht abgeschlossen oder verbleiben dann in diesem Schwebezustand. Also das muss man wirklich bedenken, wenn man da eine Anwendung, die Zeit, einen weiteren Nachteil.

Wobei ich sagen muss, ich seh das gar nicht als so großen Nachteil, weil die Cloud Provider sich ja doch sehr viel Mühe geben, sind die unflexible Provisionszahlungen der Laufzeit Umgebung. Also ja, wir haben eben schon gesagt Java wird angeboten, Pfeifen wird angeboten, sie Charb wird angeboten. Alles was Rang und Namen hat, JavaScript wird angeboten, aber dennoch muss man sich Vereine dieser FOR konfektioniert Laufzeit Umgebungen entscheiden und kann nicht frei seinen eigenen Sophistik dort aufbauen.

Genau das ist auch je nach Cloud Provider ein bisschen anders gelöst und das von dir angesprochene Korsett einmal enger geschnürt als bei anderen, sodass man da eben Dependency es zum Teil können eben relativ leicht nache installiert werden. Gemeint sind Pulsen Umfeld ist ein Python Paket kann man eigentlich in allen Umgebungen nochmal nach installieren, weil das eben einfach der normale Weg ist. An der Stelle aber zum Beispiel System Bibliotheken, auf die zum Teil bestimmte Pakete angewiesen sind, weil das eben nicht nochmal neu implementiert wird in der entsprechenden Programmiersprache, sondern eben auf normalerweise vorhandenen System Bibliotheken zurückgegriffen wird.

Die können zum Teil Probleme bereiten, wenn eben entsprechend in der Laufzeit Umgebung das einfach nicht vorinstalliert ist.

Hast du da ein Beispiel? Also Verschlüsselung oder Open CSL? Würde mir direkt einfallen, dass man vielleicht nicht jedes Cypher Sued hat.

Genau an der Stelle ist es ein relativ spezielles Beispiel, also das Knuff PGP quasi. Die asymmetrische Verschlüsselung ist an der Stelle nicht installiert in den Äther Pantheons. Zumindestens hab ich das an der Stelle nicht rausgefunden, wie ich es laden könnte. Und so gut wie alle landesüblichen heißen Pakete, die eine einfache Interaktion mit nur P&G verschlüsselten Dateien ermöglichen, setzen eben darauf, dass entsprechend die Bibliothek dafür vorinstalliert ist, was an der Stelle daneben dann nicht der Fall war und was daneben zu sehr viel Rechercheaufwand geführt hat.

Am Ende mussten wir uns auch an der Stelle aus anderen Gründen auch für eine andere Umgebung entscheiden, einfach weil sich herausgestellt hat, dass die Daten am Ende zu groß waren für die Funktion.

Da kann man mehrere beschränkende Faktoren zusammen, also Software Estag und diese Ressourcen Beschränkungen, sodass man sich dann dort von der andere nicht zur weiles Computing Lösung entscheiden musste.

Ein anderes Beispiel, was ich auch noch nennen kann es QT benutzt, was Leuten, die mit einer Maschine noch nicht vertraut sind, wahrscheinlich was sagen wird. Es ist nicht mit dem STANDARD C Compiler kompiliert, zumindest standardmäßig nicht meine ich, dass das zumindest das zugrundeliegende Problem war. Auf jeden Fall ist es nur sehr schwierig möglich, das in z.B. PKW’s zum Laufen zu bekommen. Es funktioniert, aber man muss dann doch wieder mehr Aufwand da reinstecken, dass man das eben selber kompiliert, weil die Laufzeit Umgebung sich eben leicht unterscheidet zu dem, was man normalerweise vorfindet, wo das Paket normalerweise ausgeführt wird.

Naja, und das sind dann genau diese Details Probleme, die dann doch wieder Zeit kosten. Was ich noch als Nachteil sehe.

Wobei da muss ich auch sagen, dass es bei manchen Cloud Providern doch relativ gut gelöst ist, das Debugging, während man diese Funktion entwickelt als man brauche so eine Art Remote Debugger, der dann in diese Server alles Computing Environment den dieBürger dort andockt und dass man die Funktion dann eben Schritt für Schritt durchlaufen kann. Da gibt es auch ganz gute Lösung, aber man hat halt all die Probleme, die man mit Remote Backing hat. Die Ports müssen offen sein, man muss die Funktion registrieren, es klappt nicht immer und man sieht nur die Funktion oder kann halt dadurch steppen.

Dadurch, dass man den Ausführung Stack nicht kennt, weiß man nicht. Okay, hab ich vielleicht einen Speicher Problem oder man sieht einfach nicht so viel wie wenn man das auf einer nativen Maschine macht. Genau.

Es gibt an der Schalotten unseren Ansatz. Zumindestens kenne ich den bei Apps so, dass sie tatsächlich einen lokalen Emulator für die Landa Funktionen bereitstellen. Der läuft dann meistens in Docker. Ich glaube es gibt auch alternative Installations Möglichkeiten, aber da hab ich mich dann für Docker entschieden. Und da wird dann quasi ein Docker Image Gisborne, wo dann deine Funktion Godwein kopiert wird und darum herum wird eben dann diese Funktion Logic simuliert. Funktioniert auch ganz gut, wenn man eben sozusagen die Events gucken will, ob die übereinstimmen, ob der Programmcode überhaupt ausführbar ist.

Was allerdings nicht ein Porst wird, zumindest zu dem Zeitpunkt wo ich es genutzt sind genau die angesprochenen CPU Limits MMW Limit. Execute belämmert in der Größe und so weiter, das wird an der Stelle dann eben nicht geprüft, sodass selbst wenn es dann eben lokal ausgeführt werden kann, man trotzdem in der Cloud noch auf Probleme stoßen.

In der Podcast Episode mit Olli haben wir ja über diese zwei Faktoren gesprochen, dass die Ausführung Umgebung möglichst der Entwicklungsumgebung entsprechen sollte. Und durch diesen Bruch hier kann man sich dann eben neue Probleme einfangen. Hier ist das dann nicht gegeben. Jetzt haben wir die Vor und Nachteile besprochen und ich glaube, jetzt kann man ganz gut ein Bild zeichnen, in welchen Szenarien servil es Computing denn besonders sinnvoll oder eben nicht sinnvoll eingesetzt werden kann. Alexas Gilt’s hatten wir schon als Beispiel.

Du hast gesagt, Dienste, die Überrest APIs miteinander sprechen, eignen sich auch sehr gut, weil das einfach die natürliche Sprache der servile Funktionen ist. Wir haben gesagt, es gibt verschiedene Trigger, mit denen die Funktion gestartet werden kann. Also neue Datei in einem Cloud Folder hochgeladen. In einer Message Cue steht ein neues Objekt an. Ein Rest API Call ist auch ein Trigger Import. Daten sind vorhanden, klopfen irgendwo an, in einer Datenbank entsteht ein Eintrag. Wenn die Anwendung sich darauf stützt, kann man das auch sehr einfach abbilden und bei hoch parallelisiert Baan Anwendungen also zum Beispiel könnte man sich vorstellen einen Web Dienst wo Leute ihre Audiodateien hochladen können im Wave Format und bekommen einen komprimiertes MP3 zurück.

Das wäre ja perfekt. Parallelisiert war eben pro User oder sogar pro User Datei. Das wäre so ein Anwendungsfall wo man sehr gut dann eben sovieles Computing Funktionen einsetzen könnte.

Genau. Wobei man natürlich auch an der Stelle nochmal anmerken muss, dass man sich im Vorhinein überlegen muss, ob man entsprechend Größen Beschränkungen z.B. im Mäzenen, den Kommentierungen Beispiel zu bleiben größten Beschränkungen für die Josa auferlegt, damit das eben garantiert ist, dass in der benötigten Zeit abgearbeitet werden kann. Apropos benötigte Zeit ich bin auch über einen Artikel gestolpert, wo eine Architektur vorgeschlagen wurde, dass eben die sovieles Funktionen möglichst über Message KÜS miteinander verbunden werden sollen. Das Problem liegt darin, wenn man die Server Funktionen miteinander verknüpft und eine Funktion auf die Antwort einer zweiten Funktion wartet, dann wird das berechnet, weil die erste Funktion aktiv auf den Rückgabewert der zweiten Funktion wartet.

Und der Vorteil bei Message Cues ist, dass die erste Funktion ihren Job abschließt, in die Message Kyu ein Objekt anhängt. Die zweite Funktion läuft los, führt ihren Arbeitsschritt durch. Das Ergebnis wird wieder in die Message Kyu eingehängt und jetzt startet die erste Funktion wieder mit dem Ergebnis der zweiten Funktion und kann damit weiterarbeiten. Und das das kann man sich leicht vorstellen. Bei vielen, vielen 000. Funktionen, die vielleicht parallel ablaufen, doch sehr viel Zeit sparen kann und unterm Strich natürlich auch Kostenvorteile bringt.

Wobei an der Stelle würde sehr wahrscheinlich eher so laufen, dass du insgesamt drei Funktionen und zwei Medikus hast. Hast du sozusagen die erste Funktion in die erste mildtätigen schreibt, dann die zweite Funktion aus der ersten liest und in die zweite mit Süd-Korea einschreibt und dann die dritte Funktion darauf wieder reagiert. Dann hast du eben die Trennung der Microservices noch klarer, weil sonst hast du in der ersten Funktion zwei Logiken drin einmal den externen Trigger sozusagen und dann nochmal Handfeger.

Wenn, wie deine Antwort in die Meterdicken geschrieben wird an der Stelle genau serverseitig macht es natürlich Sinn, das auch noch aufzuteilen. Mir war jetzt eigentlich nur wichtig zu zeigen, dieses aktive Warten einer sovieles Funktion. Das sollte man vermeiden, eben aus Kosten, Gesichtspunkten.

Und ein anderer Vorteil natürlich bei diesem asynchronen ist, dass dann, wenn eine davon Ressourcen intensiver als einfach durch die Hörer Verarbeitungs Zeit, dann ist das eben auch an der Stelle abstrahiert. Ich glaube es ist insgesamt ein guter esein Hinweis für die Microservices Architektur, dass du die Kommunikation möglichst asynchron machst an der Stelle, wo du es kannst, dass man die Message Cues das machen lässt, wofür sie gedacht sind, eben per Sistieren von Objekten und die Koppelung der Funktionen.

Dann eben im Grunde wie bei einer Fabrik mit ganz vielen Fließbändern. An die Fließbänder sind da die Message QoS, dass man das dann so aufbaut. Mach doch das Recovery einfacher. Wenn einzelne Dienste streiken oder es zu Problemen kommt, dann sind die Nutzdaten weiterhin in den Message cuius vorhanden, in der Mehrzahl der Fälle aber sinnig verloren. Die Prozessors führen kann ein resoniert werden. Ich denke generell, dass sovieles Computing bei der Neukonzeption von Anwendungen, insbesondere Webanwendungen die Stärken ausspielen kann, wenn klar ist, dass die Anwendung in der Cloud betrieben werden soll, wenn klar ist, welche Funktionen dort umgesetzt werden können, auch mit Nutzer Interaction oder Import-Export Jobs.

Im Grunde so eine klassische Webanwendung kann schon oder weitestgehend Services umgebaut werden. Glaube ich schon. Im Grunde hat man mit der Services Computing Technologie oder Funktion, also Service. Ziel wie mit den Container Technologien nur auf der Abstraktionsebene höher. Man möchte Ressourcen schonen, wenn eine Funktion nicht laufen muss. Möchte man sich nicht darum kümmern und keine Hardware vorhalten oder die Hardware, kann man für andere Funktionen benutzt werden. Und nur die Funktionen, die jetzt gerade laufen müssen, sollen dann eben auch Hardware in Beschlag nehmen.

Genau wie bei Container Technologien auch plus Skalierung plus Ausfallsicherheit. Diese ganzen Benefiz, die man dazu bekommt bei der Container isierung, bekommt man natürlich auch beim Server des Computing dazu. Dennoch gibt es auch einige Szenarien, wo Functions A Service nicht sinnvoll sind.

Genau, also zwei prominente Beispiele. An der Stelle einmal das von uns bereits angesprochene Sache, dass wenn ein Server zum Beispiel 24 Stunden am Tag sieben Tage die Woche komplett ausgelastet ist, dann kann das potenziell günstiger sein, sich tatsächlich dann den virtuellen Server dahin zu stellen oder auch zwei oder drei je nach Last Verteilung an der Stelle. Was aber für mich der wichtigere Punkt ist, ist, dass man eben auch Limitationen hat. Man hat Lais Herz die Ressourcen, die man benutzen darf CPU, RAM und vor allen Dingen Dauer der Funktion, aber auch die Limitationen im deiner Umgebung.

Das heißt, wenn du Ebene Software Komponente hast, die bestimmte Bibliotheken benötigt, die man nicht ohne weiteres nach installieren kann, dann ist das eben definitiv ein Fall, den man nicht in den Fanzines umsetzen kann. Zumindestens aktuell nicht. Es kann natürlich sein, dass sich das in Zukunft ändert, aber nackte entstand hat man da einfach zu wenig Freiheiten, als dass man jede Anwendungs Situation da komplett abbilden kann?

Ich denke auch, es gibt ja durchaus Szenarien, wo man die volle Kontrolle über die Software Komponenten die man einsetzt haben möchte. Einfach weil man eine Anwendung betreibt, die zertifiziert ist mit einer bestimmten Version einer Datenbank. Und dann ist zwar weiles Computing auch nicht geeignet, einfach weil man alle Variablen kontrollieren muss, um die Anwendung konform zu betreiben, eben mit diesen zertifizierten Komponenten und der Cloud Provider, sogar wenn er die Anwendung anbietet. Es kann immer sein, dass es nächste Woche ein Update gibt und dann die nächste Version benutzt wird ungefragt und man dann quasi nicht mehr zertifizierte Software einsetzt.

Genau. Und noch ein anderer Punkt, der je nach Unternehmen weniger wichtig oder wichtiger ist, ist die Portabilität. Weil wir haben an der Stelle ja schon hervorgehoben, dass je nach Cloud Anbieter sich eben die Pantheons leicht unterscheiden und man dann eben die Anforderungen hat, das sehr leicht sehr schnell zwischen verschiedenen Clouds hin und her gewechselt werden kann. Dann empfangt uns an der Stelle nicht das Richtige, sondern dann muss man sich zum Beispiel mit Containern und der Cuba net selbst Bentheim angucken, die so standardisiert eigentlich in jeder Cloud auch als Managed Service angeboten werden.

Die Limits einer Server Umgebung als Nachteil. Also wenn man die nicht halten kann. Das haben wir schon angesprochen, dass das problematisch ist. Also wenn man sehr viel Memory braucht oder kontinuierlich CPU braucht einen Punkt, den man noch gar nicht angesprochen haben und der auf jeden Fall ein Nachteil ist. Denn der Server des Computing Welt ist das Thema Security, denn man muss sich eben vor Augen führen. Der eigene Code wird parallel mit Code von ganz vielen anderen Unternehmen ausgeführt.

Generell ist das schon gegeneinander abgeschirmt, aber wenn man jetzt an die Prozessor Fehler der großen 86 Hersteller denkt, ist das natürlich ein Thema. Also man läuft mit Code von anderen Unternehmen, mit Daten von anderen Unternehmen Memory parallel und es gibt einfach Anwendungsfälle, wo man das rechtlich nicht darf oder wo man das einfach nicht möchte. Und in diesen Fällen ist Server des Computing oder generell Cloud Computing ist auch schon schwierig. Dann vielleicht nichts für ein naja. Also in den Fällen muss man wie du schon sagst, generell bieten Cloud Provider Möglichkeiten, dass man eben exklusiv auf Service läuft, also auf tatsächlich Hardware Maschinen.

Ich bin mir nicht sicher, ob das in den Pantheons vorgesehen ist. Wenn ja, bezahlt man da deutlich mehr, weil dann natürlich die gesamte Hardware bezahlt werden muss, auch wenn man sie nicht nutzt. Das heißt, da sind dann potenziell andere Services durchaus besser geeignet, wenn man eben diese Bedenken berechtigterweise dann hat.

Das muss man dann abwägen, je nach Anwendung, die da ausgeführt wird und natürlich auch, welche Arten man am Ende verarbeitet.

Herr Server, weil Computing eignet sich insbesondere dann, wenn man dieses Microservices Service Masch eben hochfahren kann oder die Anwendung sich darauf abbilden lässt. Und man kann glaub ich sagen in anderen Szenarien opfert man den einen oder anderen Vorteil. Dieser SVR Wallis Umgebung dann schon eben zugunsten von mehr Kontrolle. Kann auch Szenarien geben, wo man z.B. Abhängigkeiten zu externen Diensten hat. Also bei meinem aktuellen Projekt gibt es z.B. viele Stammdaten liegen einem SAP System, was mehrere Sekunden benötigt, um komplexe Anfragen zu beantworten und hier Ergebnisse zu liefern.

Und da würde ich mich auch schwertun direkt Server Funktionen anzudocken, ohne. Ein Caching ler dazwischen. Weil ich sonst nicht sicherstellen kann, dass ich diese 40 Sekunden Marke oder diese Zeit SchrÃnke der Server alles Funktionen nicht irgendwann mal reiße und dann abgebrochen wird und in undefinierten Zustand habe. Genau. Häufig ist es eben, solange man sich in der Cloud selber bewegt. Vor allen Dingen beim gleichen Anbieter ist man relativ sicher, was diese Timelords angeht. Hat natürlich niemals davor gewappnet.

Es gibt auch da Systeme, die einfach nicht auf zeitige Antworten ausgelegt sind. Aber wie du richtig sagst, sobald man externe Systeme noch dazukommen, hast du einfach da nicht zwangsweise die Kontrolle drüber. Zumal man, wenn man jetzt nochmal sagt externe Systeme, die man selber gar nicht kontrolliert, weil es nochmal von einem anderen Anbieter kommt, dann muss man eben schon auch gucken, ob da die Anforderungen eingehalten werden können.

Ja, wenn das GAP zwischen alter Technologie und servile Computing oder funktionelles as a Service, die ja wirklich ganz neu und an vorderster Front der Entwicklung stehen, wenn Scepter dazwischen zu groß ist, dann muss man schauen, wie man das minimiert, damit man nicht zu viele Abstriche machen muss in beiden Welten. Ja, vielen, vielen Dank, Max, dass du heute da warst. Wenn unsere Zuhörer Fragen haben oder Feedback senden möchten, können sie das gerne tun unter der E-Mail-Adresse, Podcast etc.

. Gilbert E. Lasst uns gerne eine Bewertung dar und abonniert unseren Podcast. Und wir freuen uns immer, wenn ihr diesen auch an Freunde und Kollegen weiterleitet. Für mehr spannende Technologie. Tim schaut auch gerne auf Skill bei TE Slash Blog vorbei. Max, ich bedanke mich ganz herzlich bei dir für dieses wahnsinnig interessante Gespräche rund um Server des Computing und das Thema Functions Service. Es hat einen Riesenspaß gemacht. Danke Meads, auch Spaß gemacht, dabei zu sein.

Wunderbar! Ich wünsche dir noch einen schönen Abend.

Danke. Gleichfalls.

Maurice KnoppSkillbyte Podcast #34: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions, Google Cloud Functions richtig verwenden
Mehr

Skillbyte Podcast #30: Die Zwölf Faktoren des Cloud Native Development (Teil 2)

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Die Zwölf Faktoren des Cloud Native Development (Teil 2)

// Inhalt //
01:16 – Faktor 7: Bindung an Ports / Port binding
06:36 – Faktor 8: Nebenläufigkeit / Concurrency
14:31 – Faktor 9: Einweggebrauch / Disposability
19:34 – Faktor 10: Dev&Prod Vergleichbarkeit / Dev&prod parity
25:05 – Faktor 11: Logs
29:37 – Faktor 12: Administrationsprozesse / Admin processes

Twelve Factor App: https://12factor.net/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #30: Die Zwölf Faktoren des Cloud Native Development (Teil 2)
Mehr

Skillbyte Podcast #29: Die Zwölf Faktoren des Cloud Native Development (Teil 1)

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Die Zwölf Faktoren des Cloud Native Development (Teil 1)

// Inhalt //
06:34 – 5 Leistungsversprechen von 12 Factor Apps
06:44 – Generelles Ziel: Verwednung deklarativer Formate
08:12 – Generelles Ziel: saubere Abgrenzung
08:43 – Generelles Ziel: Gleichartige Umgebungen (Dev, Stage, Prod)
08:55 – Generelles Ziel: Cloud-Deployments
09:00 – Generelles Ziel: Skalierbarkeit
10:56 – Faktor 1: Codebasis / Codebase
15:32 – Faktor 2: Abhängigkeiten / Dependencies
21:03 – Faktor 3: Konfiguration / Configuration
25:47 – Faktor 4: Unterstützende Dienste / Backing Services
29:59 – Faktor 5: Build, release, run
35:47 – Faktor 6: Prozesse / Processes

Twelve Factor App: https://12factor.net/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #29: Die Zwölf Faktoren des Cloud Native Development (Teil 1)
Mehr

Skillbyte Podcast #28: Cloud als Strategie, nicht als Technologie!

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Cloud als Strategie, nicht als Technologie!

// Inhalt //
01:20 – Intro Maurice Kemmann von Cloud-Mates.de
02:22 – Kosten von Cloudlösungen
03:09 – Möglichkeiten der Cloud-Migration
14:18 – Herausforderungen für Kunden bei der Cloud Migration
18:11 – Positive und negative Beispiele für Cloud Strategien aus echten Projekten
23:46 – Keine Angst vor Releases!
25:28 – Die Applikation als Basis für die Strategie / Cloud hat eine Lernkurve
27:29 – Retain und Retire inkl. Beispielen zum Datenschutz
34:26 – Prozesse, Betrieb und Monitoring
41:23 – Ausblick für zukünftige Cloud Strategien

Cloud Mates: https://www.cloud-mates.de/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Wir haben bei einem Kunden, der auch noch aktuell in der Betreuung ist. Da kamen wir an, und die waren überzeugt Ja. Cloud Das ist das Meine, das wollen wir machen, da wollen wir hin. Aber es ist noch keine Strategie entwickelt worden. Wir sagen ja ganz klar Strategie, da hinzugehen. Ich glaube, da war eher mehr die Technik, das Interessante. Und von daher ist wenig Fokus darauf. Und wie bei allen Projekten, und da kann man jetzt in die allgemeine Projektsteuerung gehen, wenn ich keinen Fokus hab.

Wenn ich mir keine Ziele setze, wenn das eher so schwammig ist. Das geht schief. Herzlich willkommen zu unserer Podcast Episode Nr. 28 Cloud als Strategie, nicht als Technologie abonniert unseren Podcast. Wenn Ihr mehr spannende Themen aus dem Technologie Umfeld hören, möchtet ihr eine höhere Frage habt. Wir freuen uns immer sehr über eure Fragen, schreibt uns eine E-Mail an Podcasts D. Lasst uns eine positive Bewertung da und empfehlen weiter, wenn er euch gefällt. Das ist ganz, ganz wichtig für uns.

Ich freue mich ganz besonders auf meinen Studiogast, der ebenfalls Maurice heißt. Maurice Kemmann von Cloud Mates. Hallo Maurice, hallo schönen Abend.

Ich freue mich sehr auf dieses Gespräch, weil mit ihr habe ich ja wirklich ein Veteran in der Rechenzentrums. Planung, Durchführung im Betrieb heute hier mit ganz, ganz viel Erfahrung.

Ja, das kommt daher in 2000, angefangen mit Rechenzentren und ähnlichem. Uns darüber ja 16 Jahre, 17 Jahre bewegt. Dann halt später auch nochmal. Allerdings dann noch mehr. Also 13 Rechenzentren betreut und dabei so meinen Ausstieg gefunden. Und neuerdings sage ich Rechenzentrum adé zumindest im physischen Sinne und widme mich in den Clouds dieser Welt und vor allen Dingen aber dabei, das ja auch in einem Rechenzentrum betrieben wird.

Das ist ja ganz klar, das Cloud auch Rechenzentrum ist. Nur eben nicht das eigene dennauch.

Es ist kein Henson mehr, und ich muss keine Server mehr bestellen. Ich schreib ein bisschen Kohle und hab dann plötzlich eine VM oder sowas ist schon schon interessante Entwicklung. Ich sage mal generell auch von der ganzen Automatisierung her, ich hätte das gerne früher in meinen eigenen Rechenzentren gehabt. Aber naja, wir waren halt immer etwas kleiner als jetzt eine aways oder eine Microsoft oder Google.

Ich glaube, das gilt für die meisten Rechenzentrums Betreiber. Du hast ja dann direkten Einblick. Wie ist das denn von den Kosten für dich als Betreiber oder auch für die Endkunden, für die ihr ja Anwendungen oder Server gehostet habt, wird zu sagen Das ist überhaupt keine Frage, die Cloud ist immer günstiger, oder muss man da abwägen?

Also wenn man auf die Kosten schaut, da muss man schon sehr differenziert reinschauen. Okay, ich sag mal, wenn ich jetzt sehr weit bin, auf dem Weg in die Cloud zu gehen, so sehr alle Technologien alles, was es nutze, habe ich ein sehr großes Einsparungspotenzial. Aber letzten Endes ist das ja nicht die Welt, in der wir uns bewegen. Außerdem sind es Dadaab. Wir machen alles direkt für die Cloud. Wenn ich ein eigenes Rechenzentrum habe oder irgendwo was in Kolonisation hat, dann sieht die Welt natürlich ein bisschen anders aus.

Da ist nicht alles direkt klar.

Das heißt, eure Kunden sind sowieso so unterwegs, dass sie ein Rechenzentrum haben und neue Services neue Cloud Services nach und nach dazunehmen? Genau.

Also eigentlich sind es tatsächlich Migrations Kunden, die schon Vorteile sehen, für sich Benefiz herausgearbeitet haben, aber eigentlich nicht so genau wissen Wo fangen wir jetzt an, weil einfach das Thema auch sehr vielschichtig ist. Ich sage mal Ich persönlich bin jetzt mehr in der Arbeitswelt. Aber A-WM bietet 170, 180 Services an noch nicht aufsetzen kann. Da den überblick zu behalten, ist nicht so ganz einfach. Und den idealen Weg zu finden, ist auch nicht einfach ein Prozess.

Und das ist so der Bereich, in dem wir uns dann tummeln, wo wir dann reinkommen, wo wir unterstützen, unterstützen und diese Migration letztendlich mit den Kunden angehen. Was uns auch so ein bisschen zu dem Thema des heutigen Gesprächs führt. Weil wir ja gesagt haben, es ist eine Strategie weniger Technologie. Es ist natürlich auch eine Technologie.

Aber für den Kunden, den Endkunden in die Cloud gehen will, ist es eher eine strategische Entscheidung, weil es eben nicht nur um Outsourcing von Server Hardware geht, sondern viel mehr durch dieses Service Netzwerk, was ja um die einzelnen Cloud Komponenten entsteht.

Genau den größten Fehler, den man eigentlich machen kann, ist, dass man versucht ein klassisches Rechenzentrum eins zu eins abzubilden. Das ist die klassische Lyft. Entschlüpft, sagt man da neudeutsch zu. Und ja, das heißt, ich habe da eine VM, und ich habe Server. Bildet das genau so mit dem gleichen Aspekts auch wieder in der Cloud ab, und da muss man sagen Oder komme ich wieder zurück auf die Kosten? Das ist in aller Regel teurer, weil ich ja in der Cloud so Vorteile habe wie Pay as you go.

Also ich zahl das, was ich nutze. Aber im Rechenzentrum hab ich ja immer so eine 24 Stunden Nutzung auf die ganzen Specks nicht reserviert. Habe möchte das eins zu eins in der Cloud mache. Dann wird es einfach teurer, weil dafür, das ist nicht der Sinn hinter den klassischen klar.

Ja, das hab ich bei der Anwendungsentwicklung auch schon bemerkt, dass man im Grunde, das sie dieses Paradigma etwas verschiebt. Früher hat man gesagt Okay, die Datenbank ist eh da. Da kann man Abfragen machen ohne Ende. Und jetzt ist es schon so, dass man überlegt Wie mache ich deine Such Query? Oder schwanke ich sozusagen fünf Sekunden an Daten, macht dann einen Badge und schiebt das einmal durch? Statt 5000 Query mache ich dann eine. Anwendungen, die viel Datendurchsatz haben, kann es schon ein Unterschied machen für den Betrieb?

Genau. Es ist halt ein leichtes Umdenken. Es ist ja nicht so, dass ein technisch versierter Entwickler oder Administrator das alles komplett neue Geschichten sind. Aber wenn ich mich halt auch auf klauer stürze, dann hab ich einfach gewisse Möglichkeiten und Optimierungsmöglichkeiten. Und die nutzt man aber nicht nur bei Datenbanken. Das geht ja wirklich in alle Bereiche.

Also nochmal als Cloud maatz hilft Kunden und begleitet Kunden auch Henson bei dem Weg aus dem eigenen Rechenzentrum in die Cloud. Plus der Erstellung der Strategie. Was für Cloud Services machen denn in deinem Rechenzentrums so anwendungs zu Sinn? Und wie kannst du die optimal einsetzen? Genau.

Wir haben so eine Framework. Man kann es doch einfach ein Beratungs Ansatz nennen, wie wir halt vorgehen. Wir schauen uns natürlich erst mal an Was haben wir da für den Kunden? Was hat er an T. Das brechen wir halt runter. In aller Regel durchaus auf Applikationen, um zu schauen Okay. Was setzt dir ein? Wir versuchen, den Applications Runa ausfindig zu machen. Also hat die Hoheit über die Applikation Wer kann uns am meisten erzählen, um erst einmal zu sehen Okay, wie wird sie genutzt?

Welche Lernprozesse werden unterstützt? überhAUPT Welche Prozesse im Unternehmen werden durch die Software unterstützt? Welche Risiken existieren auch, wenn ich eine Applikation überfuhr? Als Beispiel, wenn ich ein Bin ich sehr Vertriebsleute ich bin, dann habe ich häufig ein crm-system, das sehr wichtig ist für meinen ganzen Vertrieb. Da sind alle Informationen drin, und hier hätte man sicherlich ein hohes Risiko bei einer Migration, wenn es denn schief gehen würde. Und das wird halt entsprechend beurteilt, wird festgehalten und auf Grund des Consulting im Vorfeld haben, wird dann letztendlich ein Plan entwickelt, wie man da vorgehen kann.

Das heißt, die Herausforderungen für eure Kunden sind an dieser Stelle ganz klar. Kritische Anwendungen dürfen während der Migration nicht ausfallen.

Genau, oder es muss ein sehr geringer Ausfall sein, also ein Gering. Man hat immer einen Ausfall, also spätestens dann, wenn ich halt umschalten von der bestehenden Applikation auf die neue Halts in der Cloud Umgebung. Aber sowas kann man natürlich gering halten. Man macht es entweder nachts oder am Wochenende, sodass man auch noch immer ein bisschen Zeit habe. Das Schöne ist aber dadurch, dass eine Migration ist, können wir den Hogg, eigentlich den Plouffe of Konzept, parallel zur bestehenden Umgebung aufbauen, und somit lässt sich das eigentlich ausgiebig testen.

Und wenn die Kunden dann einmal die Anwendungen in die Cloud verlagert haben, dann kann man ja mehrere Umgebungen hochfahren. Und ab dann sind die Deployment relativ einfach nachvollziehbar oder durchführbar. Ohne Ausfall?

Genau. Wir versuchen natürlich immer So sehen, ja können wir Sie hier wirklich automatisch wieder wie Staaten? Welche Abhängigkeiten sind dahinter? Das ist immer Teil der Planung und der Analyse. Wir haben letztendlich vom Ansatz her es wurde immer Six Artz genannt, also die 6, wonach so ein bisschen wie die Applikationen und Hosts eingeteilt werden. Das eine ist ein Request, dass es diesen Lyft in Shift Ich mache erst mal eine Eins zu eins übertragung. Das machen wir nicht besonders gerne, weil der Quick Win eigentlich nicht sehr hoch ist.

Also im Zweifelsfall habe ich vielleicht sogar noch höhere Kosten. Macht dann Sinn, wenn man einer eine Applikation oder eine Architektur erst mal kennenlernen muss und viele andere Systeme aber durchaus schon umziehen können, um dann alles umzuziehen. Da macht man halt ein Haus, aber es ist nicht der optimale Fall. Dann gibt es das, die Plattform an der Stelle, das sehr häufig bei Datenbanken stattfindet. Wir hatten eben schon mal das Thema Datenbank. Ich habe zum Beispiel ich sage jetzt mal meine Microsoft Scuol Datenbank, ich Aufsätze.

Ich musste mir da weiß nicht Enterprise Lizenz holen, aus welchen Gründen auch immer. Sie ist aber wenig belastet. Das ist ein Paradebeispiel dafür, dass ich dann zum Beispiel erst auf Aerts Datenbank Service umstellte, wo ich halt nicht mehr eine VM Map oder physischen Server, auf der die Datenbank mit der kompletten Lizenz, sondern ich hatte eine Datenbank Service und zahle per Transaktion. Und leider ist es häufig so, dass unsere Kunden nicht wissen, wieviel Transaktionen pro Sekunde oder so machen.

Da finden wir im Zweifelsfall für sie raus. Das ist dann in der Datenbank. Scuol wird über Scuol gemanagt, also steht auch da drin. Hat man eine Datenbank admin vor Ort, dann weiß er das. Und dann kann man schon mal entscheiden Ist das zum Beispiel eine Möglichkeit der Umstellung? Dafür gibts dann auch Migrations Tools. Sowas lässt sich sehr sehr gut machen und das ist etwas, was ich so als Cloud verstehe. Pay as you go. Ich zahl so viele Transaktionen wie ich habe.

Aber muss man natürlich schauen als Softwareentwickler. Wenn man dorthin geht, dann achtet man natürlich drauf, dass eine eine Suche oder das Abrufen von Daten einfach nicht so kostenintensiv ist.

Sprich Ich hab jetzt nicht so viele verschiedene Abfragen dahinter, um zu einem Ergebnis zu kommen oder das man crasht, das man wiederkehrende Abfragen crasht für einen gewissen Zeitraum das Genner mit zum Kiewel just z.B.. Und nicht jedes Mal die Datenbank abfragt. Genau das war schon bei hochbelasteten Datenbanken, vor allen Dingen bei größeren Firmen ist das auf jeden Fall zu empfehlen.

Ganz klar Per Datenbank ist ein eigener Themenkomplex Wahl. Es gibt ja, du hast es angesprochen Dorsts in einem Rechenzentrum hast du den Server mit der installierten Datenbank plus Lizenz vor oder hältst du vor meinetwegen auch mehrere Datenbanken. Und in der Cloud hast du jetzt unterschiedliche Möglichkeiten. Entweder du fährst da auf einer VM diese Software hoch. Lift ein Schiff, das ist sozusagen die einfachste Form. Aber da profitiert man am wenigsten von. Oder man nimmt so ein Scuol Service, der ja von den Cloud Providern schon angeboten wird.

Also wo man im Grunde eine global, also weltweit verteilte Datenbank erhält, die dann Scuol API davor hat, die man einfach ansprechen kann. Und man bezahlt pro Transaktion sehr, sehr wenig und die Volumina sind auch sehr groß. Das muss man dann gucken, wie sich das lohnt oder wie die Kosten sind. Und dann hast du nichts mehr zu tun mit Software Maintenance, also Updates installieren, das Betriebssystem aktuell zu halten, die Datenbank Software aktuell zu halten, mehr Speicherplatz irgendwann hinzuzufügen, weil die Datenbank wächst.

Einfach Es kostet zwar mehr Geld, aber man muss. Es muss keiner mehr rausfahren, um die Festplatte zu vergrößern, die die Datenbank zu stoppen, die Festplatte vergrößern, die Datenbank wieder zu starten und auf der vergrößerten Festplatte die Anwendung fortführen zu lassen, sondern das geht alles dynamisch. Man bezahlt einfach nur für den genutzten Speicherplatz für die Transaktionen und muss sich im Grunde nicht um die Wartung der Datenbank kümmern.

Genau das fällt tatsächlich fast komplett weg. Wir bieten hier über das reine Umstellen natürlich auch noch so Managed Services an, auch Datenbank Services reinfallen. Das ist immer dann die Frage, ob der Kunde einen eigenen DBA hat. Brauchen Sie das nicht zu machen? Der kann diese Aufgaben locker übernehmen. Aber die Erfahrung zeigt, dass selbst in relativ großen Firmen ist das Datenbanken Know how relativ gering, weil es vorher auch getanzt war. Oder man hat halt einfach gesagt Naja, gut, was sollen wir da schon großartig machen, sodass Parameter wie hydrazin oder sowas nicht beobachtet werden.

Wenn man das haben möchte, dann können wir das auch für Kunden übernehmen, das man einfach sagen kann. Bada. So stelle ich fest, ob die Software auch optimal arbeitet. Das ist zwar schön, dass ich eine Datenbank habe, die fast beliebig skaliert. Aber es entbindet natürlich nicht davon, vernünftige Software darauf zu entwickeln. Und absolut, da können wir natürlich noch unterstützen, was von den 6er gesprochen.

Ich glaube, drei hattest du schon genannt, aber es war das letzte Mal. Die Plattform hat diese Transformation in eine neue Plattform. Es gibt jetzt das Repertoire. Das ist letztendlich auch ein anderes lizenzmodell, also dass man einfach sagt, das passt auch zur Plattform. Bei einer Datenbank, welche Datenbank Lizenz vorhatte und jetzt offen, da hat man Service wie vielleicht auch das lizenzmodell. Letztendlich ja. Ich hab nämlich mit Lizenzen gar nichts mehr am Hut und muss nun nicht mehr alle paar Jahre erneuern und Support und sonstiges dazu holen.

Hat natürlich auch mal leichte Architektur änderungen, aber das betrachtet man halt auch nochmal. Das kann durchaus auch sein, dass es einfach das typische Beispiel auch immer mal wieder die originale Datenbank Oracle um ein anderes Produkt zu nennen. Meine lizensierung fällt auf, weil die auf Jahres basieren und jetzt die ich vor der Entscheidung Soll ich etwas Neues kaufen oder ändert? Irgendwie hat man diese Möglichkeiten natürlich auch in der Cloud. Das gleiche Geld mit fast allen Elitz oder wichtigen Dezenz Anbietern muss man aber gegebenenfalls einfach überprüfen.

Also es funktioniert nicht mit allem. Das ist nicht so die Lösung für alles. Aber da helfen wir natürlich.

Jetzt haben wir viel über Datenbanken gesprochen. Wer sind denn eure Kunden und was haben die für Herausforderungen? Gibt es da so? Muss da, wo du sagen kannst Ja, das ist ein schwerer Brocken für die meisten Kunden? Oder ist es hochgradig individuell?

Sowohl als auch individuell. Natürlich, weil alle Kunden haben unterschiedliche Schwerpunkte. Auch was risiko-management und so weiter angeht. Aber letztendlich Datenbank ist immer cih für die Anwendung. Aber die größte Herausforderung sind natürlich tatsächlich Anwendungen, die so gar nicht in die Cloud passen. Die, sagen wir mal, eher altbacken sind erp-systeme, die teilweise. Ich übertreibe mal gern ein bisschen noch mit dos Lückenfüller rüberkommen. Du hast es natürlich teilweise schwierig.

An der Stelle gibt es das Image ist auf aways gar nicht. Ich muss ehrlich sagen Prinzipiell würden wir das wahrscheinlich hinkriegen. Ich weiß es aber tatsächlich.

Auch für die an diese Kunden ist gedacht, wie das mit Security aussieht. Das mag ich mir gar nicht auszumalen.

Es wird auch weniger an der Stelle. Aber das sind so diese klassischen Kunden für ein Refektorium, das heißt neue Architektur. Ich such mir eine neue Plattform des software-plattform, denn, würde man sagen Pass auf, entweder man sucht. Ein Produkt am Markt, das existent ist, was unseren und seinen Belangen da hinreichendes, ist auch für die Cloud. Ich sag mal, aktuellere Produkte werden fast alle in Richtung Cloud entwickelt. Muss man ja nicht sagen, oder? Aber das ist natürlich dann der Idealfall.

Ich habe eine selbst entwickelte Software und suche mir halt eine Softwareschmiede meines Vertrauens, die mir das direkt laut Radi umsetzen. Das ist natürlich dann der höchste Benefit. Es gibt sehr, sehr gute Programmierer, schmieden dazu. Aber das hängt natürlich immer Kosten-Nutzen-Verhältnis in West. Also ich investiere natürlich dann wieder für die nächsten Jahre. Das muss dann gerade passen. Aber Factoring Ansatz ist der natürlich, der den höchsten Nutzwert eigentlich bringt, weil ich eine veraltete Architektur in aller Regel habe und die in eine komplett neue überführen und dort natürlich aus allen Vorteilen dann letztendlich profitieren kann.

Teichert Jetzt gedacht, das ist fast bei, wenn man hoffnungslos veraltete Software hat. Wie? Man muss eine Service Lösung nehmen, also eine Software as a Service Lösung, und dann irgendwie schauen, dass man die Daten da rein importiert bekommt, weil diesen Rückstand sehr schwer, dann aufzuholen.

Da geht es dann los mit der individuellen Betrachtung. Das kann sehr unterschiedlich sein. Auch ich sage mal eben Banken Umfeld trifft man häufig noch auf Termühlen Emulation im Frontend, komischerweise aber dann in einem Fensterchen mittlerweile drin sind und und, und, und und. Im Backend ist zwar auch häufig auf mainframe basieren, aber dennoch schon neuere Architektur zu finden. Das hat dann aber ich weiß nicht irgendwelche Cross Kompatibilität, die gehalten werden müssen. Da bin ich da manchmal auch überfragt.

Bankkunden Wer noch nicht überführt, muss ich auch der Ehrlichkeit sagen. Ich kenne halt nur, weil wir früher viel mit Banken Kunden zu tun hatten. Da gilt es dann zu überlegen Wie geht man vor? Aber hier mehr schriftlich vorgehen, denn so eine Entwicklung ist ja auch ein Prozess. Die sind dann eher ein, zwei Jahre, je nach Größe und Inhalt der Software. Das muss man sich halt wirklich genau angucken. Aber der Nutzwert ist tatsächlich der aus meiner Sicht höchste und ist natürlich ein optimaler Weg, den zu gehen, weil man es dann state of the art anfangen.

Das halte ich so raus. Eure Kunden sind Mittelständler, aber auch Großunternehmen in allen Lagen der Technik. So kann sein, dass sie 20 Jahre alte Technik haben. Es kann sein, dass sie relativ modern unterwegs sind.

Genau das ist wirklich ganz breitgefächert. Macht eigentlich auch den Spaß aus, weil man natürlich alles nur Nullen und Einsen, aber immer neu zusammengesetzt und dadurch natürlich interessanter, immer neue Herausforderungen. Die Kunst ist es natürlich, aus Kundensicht den besten Weg zu finden, was natürlich auch immer Kostenfaktor und so weiter.

Hast du ein Beispiel für ein Projekt, was du einfach mal ohne den kundennamen zu nennen, was besonders gut funktioniert hat? Oder vielleicht doch etwas, was nicht besonders gut funktioniert hat? Das ist ja auch immer ganz interessant für unsere Zuhörer, das man zeigt ok. Das hat überhaupt nicht geklappt. Wenn ihr in so einer Situation seid, überlegt nochmal, ob das richtige Weg ist und holt euch vorher Hilfe. Und ja, natürlich auch positive Beispiele, dass man sagt Okay, in deren Constellation lohnt sich das auf jeden Fall.

Und man hat sehr, sehr wenig Widerstände zu überwinden, vielleicht etwas Positives und ein negatives Beispiel.

Ich fange mal mit einem negativen an, weil sich daraus durchaus positive Ansätze zumindest definieren lassen. Wir haben bei einem Kunden, der auch noch aktuell in der Betreuung ist. Da kamen wir an und waren überzeugt Ja, Cloud, das ist das Meine, das wollen wir machen, das wollen wir hin. Aber es ist noch keine Strategie entwickelt worden. Wir sagen ja ganz klar Strategie, da hinzugehen. Ich glaube, da war eher mehr die Technik, das Interessante.

Und von daher ist wenig Fokus darauf. Und wie bei allen Projekten, und da kann man jetzt in die allgemeine Projektsteuerung gehen, wenn ich keinen Fokus hab, wenn ich mir keine Ziele setze. Wenn das eher so schwammig ist. Das geht schief, und hier sind wir aber auch uns an, weil wir am Anfang dachten Gut, ja, weil man vorgehen. Man will jetzt erst mal was kennenlernen, und dann gehts weiter. Aber vielleicht auch Coruna bedingt.

Ist das jetzt so ein bisschen aus dem Fokus geraten und ist jetzt so eine never ending story? Hier wird man nochmal neuen Anlauf brauchen, einen Plan aufstellen und einfach mal so sagen Okay, wie ist das? Fangen wir doch mal mit Applikationen an. Gerade wenn ich es kennenlernen will. Wie funktioniert? Klar? Welche Möglichkeiten sind da Applikationen mit wenig Risiko dabei, die ich parallel gut aufziehen kann? Und dann kann die IT-Abteilung des Kunden so wie wir. Man kann sich annähern, findet den Weg und findet halt auch die Rezepte, wie wir die Umsetzung machen wollen, die Migrationen machen wollen, sondern das ist so der negative Aspekt, der aber eigentlich wieder ganz klar vor Augen führt.

Bitte bleib bei diesen Frameworks, wie wir sie auch vorgeben.

Also Fokus und Fokus auf ein Projekt haben. Und auch ich sag mal ehrgeizige Ziele sich vornehmen und dann noch bei der Stange bleiben. Das ist ein ganz wichtiges Voraussetzung für ein erfolgreiches Projekt.

Definitiv. Da entgegen haben wir einen anderen Kunden. Die beiden kann man ganz gut vergleichen, weil erste Berührungspunkte mit der Cloud. Mittelständische Unternehmen, in Deutschland ansässig und hier? Um? Ja, anfangs um die Lösung für Back up Szenarien notfalls Szenarien unternehmen. Und die hatte man erstmal ein klares Ziel definiert, hat gesagt Okay, die anderen Dinge, die finden wir sexy. Aber mit dem wollen wir uns jetzt noch nicht beschäftigen. Wir haben jetzt ein Primärziel, und das haben wir dann umgesetzt.

Auch sehr, sehr schnell. Tatsächlich konnten wir denn den Plouffe auf Konzert machen. Da haben wir ihn dann innerhalb weniger Tage direkt in eine produktive Umgebung überführt und konnten eigentlich so den Kunden sofort zufriedenstellen. Und er sagt Ja, und so wollen wir weiter vorgehen. Wir möchten jetzt gerne, dass das Ablösen, wir neue Dinge identifiziert. Und das wandert jetzt auch in die Cloud. Und da hat einer meines Erachtens schon sehr viel Projekt Erfahrung einfach gehabt, sodass er eigentlich unsere Dinge direkt mit aufgenommen hat und auch so vorgeht.

Und für uns ist das Interessante Ja, wir wachsen mit dem Kunden. Und wir verstehen ihn immer mehr und können auch die Applikationen, die dahinter sind, besser verstehen und somit auch vielleicht Risiken aus unserer Sicht einschätzen. Es gibt auch immer Applikationen. Wo ich den Kunden empfehle, würde ich nicht machen. Also, wenn ich zum Beispiel nicht bereit, denn eine alte Software abzulösen, und wenn ich schlechte Bandbreiten habe, sind zig Faktoren erreichbar. Und noch weiß nicht eine funktionierende Abteilung.

Alles ist gut. Dann würde ich auch sagen Passt auf, dass es. Dieses partielle Bausteinen würde ich jetzt nicht überführen, zumindest jetzt noch nicht.

Never change running system.

Mehr ja. Erst wenn die Zeit gekommen ist, wenn man sagt Ja, ich will die Software jetzt ablösen, dann würde man natürlich wieder auf die neuen Technologien. Aber solange das System Apple Running ist und es keine weiteren Quicken oder Winds gibt, also Kosteneinsparung, Effizienzsteigerungen, was auch immer, dann muss man natürlich auch davon abraten. Und hier war es ganz einfach ein Kunde Mittelschiff, sehr bodenständig. Ich nenne sie immer Schnittchen, Kunden, weil da gibt’s mal Mittagessen, gibt’s immer Schnittchen drauf, und das meine ich auch gar nicht negativ.

Ich finde das. Die wissen genau, was sie wollen und sehen wollen und dass das sehr positiv verlaufen. Muss man sagen, da sagst du was.

Ich hab auch das Gefühl, dass beim mittelständischen Unternehmen der Fokus sehr hoch ist oder tendenziell höher ist, weil ich weiß nicht, weil die einfach mehr darauf angewiesen sind, dass ihre Kerne Prozesse funktionieren müssen, damit sie Geld verdienen und sie nicht so viel eher weiche Ziele haben, sondern meistens ist es ja ein Unternehmen, das genau um einen Zweck gebaut ist. Und alles, was nicht diesem Zweck dient, wird irgendwie rausgeschmissen. Und von daher ist immer sehr schnell klar, in welche Richtung es gehen muss.

Genau so kann ich so unterschreiben, wobei man immer noch eine Sache beobachten muss. Das ist die IT-Abteilung. Das ist immer schön, wenn der Chef oder so sagt Ja, das hört sich gut an, das wollen wir machen. Aber es ist ja eine ganze, ist eine Strategie. Und Strategie muss getragen werden von den Leuten, die sie hinterher auch umsetzen. Das ist dann in aller Regel ja die Abteilung, und die müssen natürlich auch mitziehen. Und wenn man hier neugierig ist, wenn man auch Spaß hat an Technik?

Adam begeistert auch klar und einfach die Automatisierung Unmöglichkeiten. Ich habe die Reporting Monitor. Ich habe so viele Daten nicht auswerten kann, wenn ich mir denn vernünftige kpis schaffe. Also, ich habe wirklich jede Menge Benefiz, aber das macht doch wirklich Spaß.

Das ist auch so eine, merke ich manchmal. Es gibt zum manche Hürden bei meinen Z. Gerade was Fury ließ es angeht, dass man sagt Ja, dann fährst du die Umgebung zweimal hoch und schalte ist um. Da brauchst du keine Angst mehr, families zu haben, und wenn das nicht klappt, nimmst du das alte Image. Das ist ne abschottet und fest, das hat wieder hoch. Und damit Kybernetische ist das ja noch dynamischer. Aber definitiv, dass man wirklich da.

Das freut mich immer ganz besonders, dass man dann diese Aha-Effekt sieht, wenn die Leute das es erst mal machen. Früher hatten wir ein Release alle drei Monate, weil dann mussten alle nachts in die Firma, oder die Leute mussten nachts in die Firma, und alle haben gebetet und sich bei ihren Familien abgemeldet für zwei Tage. Und dann wurde mit Biegen und Brechen das neue Relais ausgespielt. Und jetzt kann du einfach so machen und haßten viel geringeres Risiko, weil du zurückrollen kannst.

Wenn du merkst, das neue Feature braucht mehr CPU Power, kannst du dich einfach hinzu buchen, und man ist halt einfach flexibler.

Wo du es auch anspreche, sobald ich mich mit Thematiken die micro Service ist und so weiter beschäftige, was natürlich meistens bei diesem Refektorium Einsatz kommt. Ich mache etwas neu und ich gehe direkt in diese Welt. Taugt da wirklich ein A? Ich kann hier ganz modular abdecken. Ich muss nicht mehr dieses Jahres Mammut Update machen, wie du geschrieben hast. Alle gehen mit Essen und Trinken für zwei Tage ins Exil und in die Firmen. Quarantäne? Genau.

Ich war einfach Meine einzelne Micro Service tauscht die aus, die kommunizieren nur noch über Schnittstellen. Sie hatten einen hohen Grad von Testmarkt an einer Stelle, und alles wird doch deutlich entspannter oder planbarer und planbarer, was natürlich auch zur Entspannung beiträgt.

Was ich bei dir super finde, ist Du gehst von konkreten Nutzungs Szenarien aus oder von der Applikation. Und schaust Was kann die Cloud mir bieten im Bezug auf diese Applikation? Du schaust sie die Applikationen an, und du gehst nicht von diesem Cloud Hype aus. Also ganz oft in der Werbe, Literatur oder im Internet. Tanja Wie du gesagt hast. Cloud hat 170 Services, und Server lässt und man braucht sich um nichts mehr kümmern. Ja, ja, das ist schon wahr.

Aber man erkauft sich dadurch. Das sind sozusagen die positiven Sachen. Aber man erkauft sich dadurch andere Paradigmen, nach denen man entwickeln muss, die man erst mal lernen muss. Das Thema Stat ist bei Cloud net Anwendungen ganz anders. Da muss man das behandeln als mit Prammers Anwendungen und auch Parallelisierung von Entwicklung, was ja schon immer eine Herausforderung war. Also dass mehrere Freds parallel sich nicht in die Quere kommen und die Anwendung quasi horizontal skaliert. Da muss die Anwendung darauf vorbereitet sein.

Und das ist auch nicht trivial, so eine Architektur aufzusetzen. Und das ist sozusagen der Preis. Der Preis, den man bei einer Cloud Anwendung hat? Definitiv. Das ist nicht immer notwendig. Deswegen auch meine ganz klare Aussage Es ist eine Strategie. Die Services und die konkreten Dinge, das sind die Technologien, die man einsetzen kann, die man nutzen kann. Aber es ist eine Strategie, und wir sagen halt ja. Die Strategie kann durchaus auch beinhalten Ich gehe nicht zu 100 Prozent in die Cloud, sondern nur zu 70 Prozent, was auch immer.

Aber man legt sich da fest, zumindest für einen gewissen Zeitstrahl. Und ich sage man Darüber hinaus wird sowieso wieder was Neues entwickeln. Oder die ganzen Cloud-Anbieter sind so effektiv dabei neue Services erschaffen. In drei Jahren gibts vielleicht wieder doppelt so viel. Und vielleicht trifft dann etwas, was ich machen will, dann besser. Dann ist da ein Service. Ich jetzt zurzeit noch nicht oder unzureichend habe. Und deswegen ist das auch durchaus ein langwieriger Prozess, der immer immer wieder hinterfragt werden muss.

Ich bin nicht sicher, ob du schon alle 6 er gesprochen hast. Ich glaube ihr, wir haben noch zwei übrig. Wobei den einen haben wir ja schon so angeschnitten. Das sind Applikationen, die tatsächlich nicht im migriert werden können. Aus diversen Gründen sei es, dass man Applikationen auch so lang betreiben will, bis sie End of Life ist, und erst dann sich Gedanken macht, dass das Risiko der Migration ist zu hoch. Oder es gibt halt auch ganz einfach politische Compliance.

Wie auch immer Gründe, wo man sagt Nein, die sollen weiter hier und in unserem Rechenzentrum oder bei unserem Rechenzentrum stehen. Und ich sage Je größer eine Umgebung ist, eine IT-Landschaft, desto mehr hat man auch durchaus Applikationen, die darunter fallen. Mackensen Nützliches ist und was sehr häufig vergessen wird, das ist Retailer. Das heisst nicht oder kaum genutzte Applikationen, die einfach weggeschafft werden. Was ist das? Gibts sowas überhaupt? Natürlich, weil fast jeder hat in seinem Rechenzentrum plötzlich VMware oder einen anderen hypervisor laufen.

Schafft sich VMs ohne Ende? Und ja, dann wird halt noch ein Server hin zugestellt, wenn er nicht reicht. Und hier ein bisschen stolz, weil in Anführungszeichen. Kostja nichts. Es wird ja immer nur der Preis für eine Hardware oder für Festplatten gesehen. Wird ja weniger. Ich sag mal, das ganze Operations dahinter gesehen. Und wenn ich dann aber VMs habe, dieser ganze Park ist gewachsen, und ich nutze dann aber nichts davon. Und ich rede ja durchaus von 30 Prozent und manchmal mehr an Ressourcen, die nicht regelmäßig genutzt werden.

Dann Retailer zum Einsatz, und hier haben wir häufig auch ein Quick Win. Also einfach sagen, was? Man könnte ja einfach ausstellen. Wir finden keinen, der dafür verantwortlich ist, weil die läuft seit Jahren. Aber der eingerichtet ist nicht mehr da. Keiner kümmert sich drum. Es werden nur noch abdeckte gepflegt. Aber seit 18 Monaten hat sich niemand eingeloggt. Aber man hat tatsächlich diesen Fall, und da sagen wir ganz einfach abschalten. Das Risiko ist gering.

Und wenn, dann schreit einer. Aber dadurch ist das Risiko gering, dass es das nicht, und das ist durchaus ein Einsparungspotenzial. Und es ist auch einer der ersten ersten, die wir tatsächlich versuchen zu rauszufinden, weil alles, was ich retailer, muss ich nicht erst migrieren, weil das gehört natürlich auch dazu, jetzt nicht in unnötigen Olver zu schaffen.

Also erst mal den Papierkorb rausbringen, sozusagen, um dann zu sehen, was übrig bleibt.

Das ist aber ein klassisches Thema, was Virtualisierung angeht. Das sind meistens dann VMs und gerade auch in größeren Unternehmen, die ja Richtlinien haben. Die kennen dann nur drei Grössen von VM sag ich jetzt mal, die haben je die große, die mittlere und die kleine. Schaut man sich das mal statistisch an, irgendwie kaum kleiner dabei. Fast alles ist mittel und gross, weil irgendein Software-Hersteller mal gesagt hat Ja, wir brauchen aber mindestens so viel und so unser Programm.

Und Deutsch? Und ja, aber dann halt wirklich nicht mehr genutzt, sondern ist relativ viel IT Ressource da reingesteckt. Das ist wirklich einer der häufigsten Punkte in den Eitan, die nicht so gepflegt werden. Es gibt auch die anderen Beispiele. Wo eine Abteilung. Hinterher ist auch Ich sage mal Lebenszyklen für die VMs festlegt. Aber wenn ich es sehr positiv ausdrücken würde, hält sich das ungefähr die Waage. Aus dem Bauch heraus würde ich sagen, dass wir mehr irritieren, als dass da ordentlich gepflegt wird.

Das ist, glaube ich, nicht zu unterschätzen. Auch da fällt mir noch etwas ein. Denn ich habe bei einem aktuellen Kunden das Problem, dass er Daten in die Cloud migrieren möchte, aber er selber mit seinen Endkunden einen Vertrag hat. Steht das kein nicht EU Mitarbeiter diese Daten je anguckt? So, jetzt leite ich Daten in die Cloud und jetzt theoretisch der Cloud Provider oder plant dies zu tun. Der Cloud Provider könnte ja jetzt darauf zugreifen. Kann er nicht in jedem Fall.

Je nachdem, ob ich das verschlüsseln oder wie ich das verschlüsseln. Aber das ist natürlich auch ein Thema, das man sagt Ja, im Moment. Ich kann nicht einfach alles in die Cloud laden, weil der Cloud Provider mehr unter anderem nicht garantieren kann, dass nur EU-Bürger auf diese Daten Zugriff haben.

Genau das ist ein typisches Compliance Thema, was auch je nach Unternehmen relativ hoch aufgänge ist. Auch zu Recht. Da bin ich auch ein absoluter Befürworter, das zu durchleuchten. Man muss halt sehen, erst einmal. Generell kann man erst mal sagen So häufig ist gefordert Das muss auf europäischen oder auf deutschen Server liegen. Das kann ich einschränken. Also ich kann sagen meine, ich benutze nur Server in Frankfurt oder nutze Server in Europa. Das kann ich natürlich schon machen.

Ich kann die Festplatten verschlüsseln, ich kann alles Mögliche verschlüsseln. Ich kann mir Key Management Server buchen, aber das muss man klar sagen, je nach Schutz Bedarf, Feststellung. Auf meine Daten all diese Infrastrukturen kommen ja von dem Cloud Provider Provider sitzt in Amerika und ich sag mal, wenn man Böses denkt, kann man natürlich sagen Na gut, er hat immer eine Backdoor oder er hat die Festplatte verschlüsselt.

Aber der Schlüssel liegt ja auch irgendwo bei dem Provider. Genau, aber letztendlich das Einfachste für ihn wäre. Ich habe halt einfach sowieso den Super Master Ki, und das ist meine meine Backdoor an der Stelle. Da muss man sehr differenziert reingehen. Also, da komme ich so ein bisschen aus der Alten Welt, wo ich mich halt auch sehr viel mit alten grundschutz um IT-Sicherheit Compliance beschäftigt habe. Man macht ja tatsächlich schutzbedürftig Feststellung, wonach man guckt Was hab ich für Daten?

Wo liegen diese Daten? Also z.B. ich bleibe beim Beispiel. Abends hab ich zum Beispiel Account Daten, die liegen durchaus auch in den USA. Das lässt sich nicht verhindern. Das ist halt so eingestellt, wenn ich eine Datenbank in Deutschland suche. Da hat man Service oder eine Weinbuch. Da hat man die Daten liegen natürlich auf europäischen Server. Aber spätestens also Mitarbeiter hat nicht. Erst einmal hat kein Interesse daran, auf die Daten zuzugehen. Aber gerade in der Datenbank rufe ich mir eine Datenbank admin oder an Spezialisten von AVM.

Habe ich keinen Einfluss da drauf? Zumindest im ersten Schritt nicht. Woher der kommt? Die werden natürlich immer aus meiner Zeitzone holen. Es wird in aller Regel europäisch sein, aber hier sind sicherlich Dinge zu betrachten. Da muss man dann ja, das ist die differenzierte Betrachtung. Und wenn es da Zweifel gibt, dann würden wir auch eher sagen Pass auf, Meedia Das Risiko nicht. Man kann es natürlich auch umgehen, aber da muss Hellwege Software mitspielen. Nämlich nämlich eigene Verschlüsselung, Auslösung und Topliga.

Das ich sage jetzt mal das triviales Beispiel wäre jetzt eine Datei Server oder Server. Ich lebt halt nur genug Budget verschlüsselte Dateien ab. Die Schlüssel liegen hier bei mir in Deutschland. Dann ist es mit vertretbarem Aufwand selbst auch für Geheimdienste nach besten Wissen und Gewissen nicht möglich, darauf zuzugreifen. Und da hätte man Sicherheit. Aber man muss ja auch ehrlich sagen Welche Applikation schafft das durchgehend? Von daher ist hier ein kritischer Umgang damit. Ist auf jeden Fall auch von unserer Seite erwünscht, wird gefördert und sollte auf jeden Fall immer beibehalten werden.

Wie ist es denn, wenn die Anwendungen in die Cloud migriert sind und jetzt betrieben werden? Man hat ja sehr viele Möglichkeiten, eine Anwendung zu monitoren, entweder durch Shakes oder durch eingebaute ablösungen, einfach um die ganze Landschaft zu monitoren.

Unterstützt ja, dabei auch. Ja, das ist ein sehr wichtiger Aspekt, der häufig auch missverstanden. Zwar bieten die Provider jede Menge Services und so weiter an, und dann entsteht häufig der Eindruck Naja, das eigentliche Operations, der eigentliche Betrieb, läuft über den Cloud Weida oder wie auch immer, das ist tatsächlich nicht vollständig richtig. Also ich sage jetzt mal kleiner mittelständischer Betrieb fünf Arbeitsplätze, ruft bei KWS an und sagte Ich habe ein Problem, sagte er. Gut an, schmeiß mal hier ordentlich Geld ein, und dann schauen wir uns das ganze Thema mal an.

Bis das gelöst ist, haben hochrangige Spezialisten diesen supertoll. Aber der kennt den Kunden nicht, erkennt nichts von der Umgebung. Das heißt, die Wahrscheinlichkeit, dass er zielgerichtet schnell helfen kann, ist relativ gering. Da kommen wir natürlich ins Spiel. Wir richten zusammen mit den Kunden anhand seiner vorgegebenen kpis, oder? Wir vorschlagen Monitoring, ein Kontrolle und wir reagieren dann darauf. Das ist natürlich eine maschinenteilen aus Weggucken oder ein Service fällt aus. Wir gucken das dann wieder an, Staat kommt aber halt auch so Dinge aus der Datenbank sind schlechte Werte.

Wir gucken mal, woran es liegen könnte. Wir haben im Netz komisches Verhalten. Irgendwas ist hier langsam. Dann fällt das halt auf. Darum kümmern wir uns ihre Pforten natürlich auch. Wir sind also unsere Welt des Operations, des Betriebs. Hat sich schon etwas verändert? Wir müssen noch mehr Reportern, eigentlich, aber wir haben auch mehr Daten. Die Reporter können also deutlich mehr, als wir teilweise früher hatten, und können dem Kunden halt auf der Basis kennenlernen und können auf der Basis Vorschläge machen und optimieren.

Der Betrieb, die überführung in einen Betrieb, ist heute sehr, sehr wichtig für uns. Aber das kennen wir als Firma gar nicht anders. Das haben wir früher mit eigenen Rechenzentren genauso gemacht. Die Arbeit mit der IT-Abteilung des Kunden zusammen beschert Responsibility. Guck mal, wer ist für was zuständig? Und danach wird das aufgetrennt. Und das funktioniert eigentlich sehr, sehr gut und insbesondere, wenn sich das mal eingespielt hat. Das ist auch ein Prozess, der braucht von wenigen Tagen bis in einem Jahr von einer Größe ab, denn den ganzen Umgebung.

Da stimmt sich das ein, und ich glaube, am Ende des Tages hat man dann schon sehr, sehr guten an der Stelle. Genau.

Also in der Cloud. Ist es generell so, dass Hardware fehlt? Ja, sollten nicht mehr auftreten. Aber natürlich kann es immer noch in der Anwendung selber Probleme geben, auf die dann reagiert werden muss. Also Beispiel Irgendwas ist nicht richtig gesichert, und statt eines ein Megabit profil Bildes lädt irgendjemand 50 Megabit hoch oder so was dann zu einem Problem wird an anderen Stelle?

Ja, es gibt auch so klassische Szenarien. Ich habe im Auto Stellingen eingerichtet. Das heißt, ich. Meine Webseite braucht sonst nur zwei Webservices, um redundant zu sein. Und jetzt hab ich auf dem Heise Ticker gerade heute News gepostet, und schon werde ich mit.

Geht die Post, Gena? Und dann geht plötzlich mein mein Auto hoch. Aber ich war damals vorsichtig und hab gesagt Der mehr als 100 Webserver werde ich nie brauchen, um die Anfragen so zu erfüllen. Und dann? Plötzlich wird es auch langsam. Na, dann kann man halt sagen Okay, wir erhöhen jetzt mal gerade die Anzahl. Solange das andauert, können wir im Nachgang nochmal besprechen, wer diese Vata mag. Richtig. Oder andersherum Wir machen den Prozess daraus, dass wir benachrichtigt werden, wenn ihr solche Mitteilungen hat, die potenziell interessant sein können, dass wir im Zweifelsfall auch durchaus mal manuell eingreifen.

Also durchaus auch noch der Fall? Ja, man macht ja eine Begrenzung des Ganzen, malt auch nicht über gewisse Kosten Grenzen zu kommen, was immer Sinn macht. Und dann sagt man Okay, ich hab jetzt aber eine große Veranstaltung, große Pressemitteilung, wie immer. Jetzt muss ich sicher gehen, dass da nichts schief geht. Da macht man es manuell für eine Zeitspanne, und dann stellt man es wieder zurück.

Also dieses semi Automatische würde ich fast als Ideallösung sehen, weil wenn du einfach sagst, du setzt die Autos galligen Gruppe hoch. Statt 100 Maschinen stelle ich es einfach auf hundert. Und wenn mal der Heise Artikel kommt, dann bin ich safe. Kann es immer noch sein, dass man so eine Art DDoS Attacke bekommt? Einfach unfassbar viele Anfragen auf ein Webdienst abgegeben werden und dann würde man ja das Geld bezahlen für diese 1000 Server und wenn man das einfach blind einstellen würde.

Also ich bin sowieso immer ein Freund davon, dass Automatisierung ist toll. Es erleichtert Unmengen, insbesondere heute bei Google, und man entwirft eine Plattform, schiebt sie raus. Oder doch nicht? Man wirft sie wieder weg. Also alles ist sehr easy, sehr schnell. Aber ich bin immer ein Freund davon, dass halt auch noch ein Mensch drauf guckt, bei der im Endeffekt besser entscheiden kann bei gewissen Szenarien. Was ist das jetzt? Gerade wenn etwas häufig Vorfeld greifen, auch Maschinen, löning ki, Algorithmen an anderer Stelle, die haben dann gelernt irgendwelche Relationen, Information, Relation.

Und dann? Dann kann ich darauf auch reagieren. Aber bei so spontanen, erstmalig auftretenden Fällen, wie auch immer da ist ein Mensch, denke ich, noch eine ganz gute Alternative.

Mir fällt ein Projekt von mir selber ein. Da hatte ich in mehreren Wochen Anwendungen entschlackt und hat dann ungefähr eine 30 prozentige Steigerung in der Arbeitsgeschwindigkeit erzielt. Es war eine interaktive Anwendung, das heißt, die Nutzer waren so zwei, 300 Leute gleichzeitig immer auf der Anbindung aktiv, haben halt gespürt, dass die Anwendung besser reagiert und das zügig ihres Arbeiten möglich ist. Und dann hab ich mal vor ein Nachrichten unternehmen, dann hab ich die neue Version abends online gestellt oder liest, und ich komme am nächsten Morgen rein ins Büro und gucke ok.

Wie sieht es denn aus? Sondern hab ich genau die gleiche alte Last wieder, als hätte ich diese Optimierung nie gemacht. Ich hab mich gefragt Also wirklich Einzelstunden? Wie kann es sein, den Fehler gesucht? Was ist das Problem? Und dann habe ich herausgefunden, dass genau an diesem Morgen ein Flugzeugabsturz stattgefunden hat. Und das statt 200! Auf einmal 5500 Leute gleichzeitig die Anwendung benutzt haben Ich habe das gleiche lãst profil hatte wie Vortags, wo die alte Software noch lief.

Was dann wiederum sehr gut war. Aber ich hab zuerst nicht verstanden, warum. Warum die Zahlen nicht deutlich besser sind oder die Performance deutlich besser ist.

Aber du hast für eine Firma gearbeitet, du kãnntest du es mit Eckdaten, dann hinter der Entscheidung. Daran könnte es liegen. Man das jetzt bei nem Dienstleister, der so gar keinen Bezug zu einem hat, der käme ja nicht da drauf, weil er gar nicht weiß, was man macht. Ich glaube, da war, was du als Mensch dann in dem Moment fast unbezahlbar.

Ich möchte einfach sagen Manchmal ist menschliche Intelligenz halt wichtig, um zu verstehen Warum ist der Effekt so, wie er ist? Und das hätte jetzt ein automatisiertes System nicht unter Umständen so erkennen können. Was glaubst du denn in Zukunft? Wohin geht die Reise noch? Was sagt eine Glaskugel?

Kann ich ja sagen. Ich fang einfach mal in der Vergangenheit an, wo ich gesagt, habe ich viele sehr skeptisch gegenüber. Klar, die ersten klar, Anfänge. Was aber daran lag, dass vieles noch im Unklaren war. Es war ein gewisser Hype. Für viele war allerdings Cloud mehr Storage Anbieter. Da konnte ich meine Bilder hochladen und meine Dateien. Viel mehr war da nicht. Wenn ich mir anschaue, wie schnell sich hier eine neue IT-Landschaft entwickelt hat und wie gut ist, funktioniert bei durchaus Kritik würdigen Aspekten.

Aber, muss ich ganz ehrlich sagen, glaube ich schon, dass es jetzt ein halbmayr ist. Man sieht, es ist ein Geschäftsmodell. Es entstehen immer mehr Firmen, so wie wir auch in diesem Umfeld. Ich glaube, es ist noch ein längerer Prozess, bis hohe Prozentsätze der Wortlauts gewandert sind. Aber es wird passieren. Man wird sehr, sehr viele Birkenholz. Wird man in die Cloud wandern? Das klassische kleine Rechenzentrum wird aussterben. In meinen Augen aus.

Es hat eine Nische, in der Claudia mich jetzt nicht tätig sind. Es wird es immer noch etwas geben. Aber das sind dann wirklich reine Nischenanbieter.

Oder man braucht Kerth Spezial Anforderungen, besonders viele GPUs, die in der Cloud halt teuer sind, weil sie mich massenweise eingekauft werden. Und wenn ich sie 24 Stunden am Tag brauche, lohnt sich das einfach wieder die Sachen selber zu kaufen.

Genau das sind natürlich so Punkte, aber das meine ich auch so mit einer Nische. Aber was die beiden Wortlauts angeht im Markt ist. Ich denke, da geht der Trend absolut hin. Das wird immer mehr kommen. Die Software geht über die Applikation, wie wir ja auch schon heute viel gesprochen haben. Und die Applikation ist heute schon schwierig, individual Entwickler zu finden, die noch so Oldschool entwickeln. Sicherlich, aber ich habe mit großen Software-Hersteller gesprochen, alle mindestens 1000, 200, 300 Mitarbeiter, Softwareentwickler.

Und da wird kein Oldschool mehr entwickelt. Die machen alles nur noch Clouds und von daher ist es gar nicht so eine große Glaskugel. Das ist einfach auf der Zeitachse die Glaskugel. Wie schnell passiert ist. Also ich denke nicht, dass das von heute auf morgen geht, ist halt ein Prozess. Aber es wird passieren, was ich auch beobachte.

Bei unseren Kunden ist das. Man tastet sich manchmal ran an die neuen Anwendungen werden in so eine kubanisches Umgebung zum Beispiel. Und da ist es ja dann wiederum ein sehr kleiner Schritt zu sagen Okay. Diese Copernicus Umgebung läuft bei mir im Rechenzentrum oder läuft in der Cloud A oder B oder C. Gerade wenn man noch nicht weiß, welcher Anbieter macht das Rennen? Wobei ich glaube, das kann man schon ein bisschen antizipieren, dass da zwei ganz besonders hervor stechen werden die nächsten Jahre, oder ist jedenfalls mein Tipp.

Es wird so sein, und man muss sich einfach mal die gängigen Marktanalysen anschauen. Es ist schon sehr erstaunlich der Unterschied zwischen Platz 1 und Platz 2 noch erstaunlicher ist, wenn man reingeschaut. Unterschied zwischen 2 und 3, denn plötzlich ist mit Google am Platz drei. Und ich sage mal Ich weiß nicht, was für ein Bild du von Google hast, aber für mich so ein absoluter tech Riese. Aber die spielen da halt nur den dritten Platz und müssen aufpassen, dass Chinesen wie Alibaba oder Soda nicht aufholen, weil die drängen jetzt auch in den europäischen Markt, und die sind ja auch sehr teuer.

Aber die Big Player bieten schon hervorragende Services an, insbesondere für die Welt, die du gerade beschrieben hast. Und hier kann ich dann als Entwickler oder auch als Kunde sagen Pass auf, ich schaue mir einfach am Ende des Tages an, wenn alles servas ist. Soweit nicht leicht migrieren kann. Wo hab ich meine besten Kosten nutzen? Structure an der Stelle, und dann kommt da auch mehr Konkurrenzkampf noch in Markt. Im Moment ist noch nicht so viel Konkurrenzkampf im Markt, teilt sich gut auf.

Aber ich glaube, in Zukunft wird es da mehr Konkurrenzkampf geben. Und das wird im Zweifelsfall in niedrigeren Preisen oder durchsichtige und Preismodell gipfeln als mein absolut subjektiver Eindruck.

Der Cloud Provider ist Technologieführer dafür preislich etwas teurer. Wer aways? Ganz klar. Wobei man da ja auch deutliche Rabatte bekommt, wenn man gewisse Ressourcen fest für ein Jahr bucht oder gar für drei Jahre bucht. Ich glaube, dann gibts 60 Prozent Rabatt. hws waren die ersten, die profitieren. Das haben auch meiner Ansicht nach das. Angebot und die Profitierenden nach wie vor von auf dem zweiten Platz im absoluten Sauseschritt. In den letzten ein, zwei Jahren hat Microsoft aufgeholt.

Ich glaube, das kommt durch die. Microsoft ist in den Firmen groß, die mittleren und kleinen Firmen natürlich schon super präsent durch die Office Lösungen, durch die Windows Lösung. Und da ist dieses Cloud Ding ein cheek Punkt mehr im Vertrag. Haben Sie da schon guten Kontakt zu den Unternehmen und an dritter Stelle Google? Ich finde die Google Cloud ziemlich gut, muss ich sagen. Ich habe auch schon mit der gearbeitet. Aber ich glaube, Google ist ein Teck Konzern, der supergut Technologie macht.

Aber ich glaube Marketing mäßig zumindest im Cloud Bereich. Da ist nicht so viel Platz. Dort sind auf der einen Seite den Technologieführer, auf der anderen Seite den mit den Unternehmenskunden. So, wer bleibt da noch? Der Cloud macht?

Das ist meiner Ansicht nach die blöde dritte Position von Google, das sie nicht so richtig klar positioniert sind. Und diese Oracle, IBM Cloud eben. Mir ist noch niemand über den Weg gelaufen, der die wirklich produktiv einsetzt. Ich denke, das sind die haben ihre Daseinsberechtigung in irgendwelchen Nischen oder vielleicht in anderen Märkten. Könnte mir vorstellen, dass im Mittleren Osten Nahen Osten das Orakel noch ganz stark ist, aber auch nicht da sind, glaube ich, eher ueberall, wo ich diese klassischen hybride Ansätze habe.

Oder wenn ich mit IBM ein absoluter Technoide ist, mit Unmengen an Angeboten, und das ich in Bestandskunden dann noch ein bisschen Cloud lief. Also ungefähr so okey wird auch weiter wohl existieren, aber nicht Weltmarkt relevant sein. Oracle hat halt ein wesentliches Produkt, bietet ein bisschen was drumherum. Aber ich glaube, er hat auch ein bisschen ein Imageproblem. Aber das muss jeder für sich entscheiden. Und tatsächlich Um wieder an den Anfang zu springen, versuchen es mit weit über 40 Prozent absolut Marktführer, weil sie am längsten am Markt sind, die meisten Services haben und sich halt auch nichts verbauen.

Also ich kann von komplett Microsoft Umgebung bis hin zu komplett Unix oder was auch immer. Ich kann alles entsprechend umsetzen. Asea empfinde ich, ohne dass ich jetzt ein echter Experte bin, als sehr stark. Sind auch stark im Wachstum. Und genau wie du sagst es die Unternehmenskunden die reine Microsoft Umgebung haben, die keine Hybrid oder sonstigen Technologien verwenden, was ihr kleiner eine Firma ist, also kleiner mittlerer Mittelstand durchaus der Fall sein kann. Ich sage mal so schon aus dem Bauch heraus würde ich da wahrscheinlich eher in diese Richtung gehen.

Aber man muss sagen, viele Kunden haben dann doch noch hier bisschen, da etwas. Und wenn man dann einfach sieht Okay, ich will halt wirklich Cloud Ansatz wählen. Ich will diese Strategie ganz konsequent verfolgen. Und ich versuche dann eher, klassische Mittel abzulösen durch Service. Dann landet bei Aretz, weil die Menge an Service ist. Die Innovation, die dahintersteht. Das, muss man wirklich sagen, ist momentan noch out. Und da wird selbst Microsoft noch etwas brauchen, um da in diese Richtung zu kommen.

Aber wie gesagt, es gibt immer überraschungen. Das sind alles sehr große Konzerne, und ich fände es ja auch spannend, wenn da noch mal irgendwelche überraschungen eintreten.

Auf jeden Fall. Für den Endkunden kann es ja nur positiv sein, entweder durch den Preis oder durch die Innovation, die er dann nutzen kann.

Genau. Der Endkunde wird der Sieger sein. Definitiv. Wenn unsere Zuhörer Fragen haben oder Feedback zu der aktuellen Folge hat, können Sie uns gerne eine E-Mail an Podcast senden. Bitte bewertet diese Podcast Episode und lasst uns einen Kommentar dafür. Weitere spannende Technologie Themen schaut gerne auf Skill bei Slash Blog vorbei Bries. Ich bedanke mich ganz ganz herzlich bei dir.

Ich danke dir Maurice.

Maurice KnoppSkillbyte Podcast #28: Cloud als Strategie, nicht als Technologie!
Mehr

Skillbyte Podcast #25: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen

// Inhalt //
01:07 – Kubernetes: Aus welchen Komponenten besteht es? Was leistet es?
06:24 – On-Premise und in der Cloud
07:26 – Yaml Beschreibung für Applikation Zielzustand
09:07 – Services, Secrets, Ingress, Namespaces, Loadbalancer,… Wie hängt das zusammen?
13:43 – Namespaces
15:18 – Kubernetes Softwarepakete mit HELM
18:05 – Kubernetes steigert Geschwindigkeit und verkürzt Innovationszyklen
25:32 – Security Checks automatisieren
27:24 – Monitoring durch Health Checks
28:11 – Entwickler übernehmen Verantwortung für Infrastruktur
30:09 – Cloud Native Softwareentwicklung
35:11 – Werkzeuge entwickeln sich schnell

DevOps Folge: https://soundcloud.com/skillbyte/skillbyte-podcast-2-devops

Was ist die Twelve-Factor App?: https://www.dev-insider.de/was-ist-die-twelve-factor-app-a-894702/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Was man nicht mit Geschwindigkeit Du kannst vieles ausprobieren und anhand des Feedbacks dann weitermachen, das heißt, es macht auch ein Businessmodell, macht es plötzlich Dinge möglich, die vorher nicht möglich war?

Herzlich willkommen zum skillbyte Podcast Episode Nummer 25 Kybernetische, flexibles und leistungsfähiges Rechenzentrum für Unternehmen abonniert unseren Kanal für mehr spannende Themen aus dem Technologie Umfeld. Wenn er eine Frage habt, schickt uns gerne eine E-Mail an Podcast. Wir freuen uns auch immer über Bewertungen des Podcasts oder Anregungen an die gleiche E-Mail-Adresse senden.

Ich bin heute hier wieder mit Masiar hier. Es freut mich, dich mal wieder zurück zu haben nach einigen ausschweifenden Suchen. Und wir sprechen heute über das Thema Kubernetes und welche Herausforderungen sich für die unternehmensalltag ergeben in Kombination mit kybernetische und natürlich auch, welche Vor und gegebenenfalls Nachteile sich um das Hauptthema Kubernetes ranken. Ich denke, wir sollten erst mal ein paar Begrifflichkeiten im Kubernetes Kontext einführen und besprechen, kurz sagen, was das ist für die Zuhörer, die noch nicht so viel Kubernetes Erfahrung haben und sich erst mal aufschlagen möchten.

Was ist Kubernetes überhaupt?

Kybernetische ist eine Orchestrierung, Plattform für Docker, Container. Jeder, der sich vielleicht mal mit Arisierungen und Containern beschäftigt hat, weiß, dass man die Container im Prinzip als Service für eine bestimmte Applikation baut. Services spielen hier eine Rolle. Jede eigenständige Applikation oder Micro Service wird in einen Container gepackt, und diese Container kommunizieren miteinander. Bei ein, zwei Containern ist das noch relativ einfach. Hier kann man entweder direkt mit dem Docker Command Interface starten und verbinden, wenn es mehr und komplexer wird.

Dann kann man z.B. Docker Composer nutzen. Aber Docker Combos ist mehr gedacht für lokale Entwicklungsumgebung, um schnell mal eine Umgebung zu starten. Verschiedene Dienste wie zum Beispiel Majas gelten als Frontend und ein, zwei Backend Container. Sobald es in Produktion geht, dann wird es schwieriger, das mit Docker, Combos oder auch selbst mit Swarm zu managen. Da braucht man ein etwas robustes System, und das sind dann halt Plattformen wie Kobanê oder meeses, Marathon oder Opernchef.

Die Docker Container, die rohen Docker Container benutzt man eher lokal zur Entwicklung, wenn man sich nicht sein lokales Entwicklungs System mit Dependance zu Mülln möchte, sondern schnell verschiedene Dienste nebeneinander installieren möchte und kybernetische ist sozusagen der Puppenspieler, der die Docker Container dann orchestriert.

Das ist ein schönes Wort. Puppenspieler? Genau, genau. Ja, es ist vielleicht nochmals im Hintergrund. Historisch gesehen war es früher so, dass man ein Server installiert hat, darauf Dienste installiert hat, und die Dienste hatten ihrerseits wiederum Abhängigkeiten, bestimmte Software, Bibliotheken oder andere Dienste. Und das war sehr flexibel, weil man z.B., wenn man zwei verschiedene Versionen nebeneinander installieren wollte, von beispielsweise Majas Cruel. Dann gab es halt die Probleme, dass die Abhängigkeiten nicht richtig stimmen und dass man sehr viel manueller Aufwand betreiben musste, um mehrere Versionen nebeneinander betreiben zu können, so es denn überhaupt möglich war.

Und mit Docker hat man eben diese ganzen Applikationen zusammen gepackt und fährt jetzt nebeneinander eben diese einzeln Container hoch, die alles mitbringen. Und somit ist auch der Betrieb von unterschiedlichen software-version einer Komponente kein Problem mehr. Also eine Flexibilisierung in der softer Schicht Kybernetik ist sozusagen. Ja, ich glaube, dass Altgriechisch für Steuermann. Google hat es ursprünglich entwickelt und dann unter einer offenen Lizenz gestellt. Der Steuermann steuert die Docker Container aus, je nachdem, welche Gesamtklang schafft man denn haben möchte.

Also ich glaube, technisch ist es so Kobanê. Es besteht aus einem Master und mehreren Worker Notes. Ich weiß nicht, ob es auch mehrere Master Notch geben kann.

Ja, natürlich. Wenn du in einer hoch verfügbaren Umgebung bist, dann brauchst auf jeden Fall mehrere Master. Da spielt das genutzte Protokoll eine Rolle, wie sich diese Master quasi miteinander synchronisieren. Das ist im Wesentlichen ist das basierend auf CD, quasi den Status des Clusters. Das ist die kritische Komponente und das benutztes Protokoll. Das heißt, für eine hoch verfügbare Umgebung braucht man eine ungerade Zahl an einem Master. Das heißt drei, fünf, sieben und so weiter.

Damit man immer beschlussfähig ist, sozusagen, wenn eine Maschine ausfällt.

Richtig, deshalb man Majority und Votings und so weiter zu tun. Deswegen habe ich bis jetzt fünf. War das Maximum, was ich erlebt habe. Kommt doch drauf an, wie schwer die Master runterlassen sind, wie viel sie zu arbeiten haben. Aber grundsätzlich kommt man mit drei, maximal fünf Marston aus in einer hoch verfügbaren Umgebung, dem Master.

Oder der Master unterscheidet sich nur dadurch von den Wolken, dass dort eben der Master. Dienst läuft, der Master Kybernetische Dienst läuft, dem gibt man sozusagen vor, ich hätte gerne folgende Umgebung mit folgenden Docker Containern. Und der sorgt dann dafür, dass auf den Worker Schnauz die entsprechende Last verteilt wird und diese soll Umgebung, die ziel. Umgebung sozusagen hochgefahren wird.

Combined ist an sich, besteht aus vielen Einzelkomponenten selbst, und Master besteht aus einem Server ETSI Knoten, wobei dieser Knoten nicht auf dem Master selber laufen muss, das dann auch ein eigenständiges Cluster sein. Dann haben wir den Ebikon Schola. Wir haben den Scajola. Das sind alles Komponenten, die den Master quasi ausmachen. Man kann es auch so konfigurieren, dass einzelne Wirk lots, also die Container, die auch auf dem Worker laufen, auch auf dem Mars läuft.

Aber grundsätzlich in der Umgebung verhindert man, dass das Workflows auf dem Master laufen, sondern das dem Master wirklich Matheaufgaben haben und nicht noch Workouts laufen haben.

Also den Master Nod muss man sich so vorstellen wie den Tower beim Flughafen, der sozusagen die Aufgaben die Landebahnen zuteilt, auf die einzelnen Flugzeuge kybernetische. Frei Das heißt, ich kann das in meinem eigenen Rechenzentrum einsetzen. Alle großen Cloud Provider bieten auch managed kybernetischen Umgebungen an, sodass man auch in einem Cloud Rechenzentrum direkt auf diese Kobanê Infrastruktur zugreifen kann. Und ich kann das auch verbinden. Ich könnte eine Cross und Tramitz Cloud kombiniertes Umgebung schaffen. Richtig?

Ja richtig, die Worker, wo die laufen, ob sie in der Cloud laufen, laufen, hybrid laufen. Das spielt für Kybernetische selber keine Rolle. Das ist abstrahiert das Netzwerk, solange die Dinger miteinander sich connector können. Diese Worker überall laufen können.

Das heißt, für Unternehmen, die jetzt viele Dienste in die Cloud migrieren, ist das eine sehr interessante Technologie. Einfach aus dem Grund, weil man ja auch so ein bisschen Hersteller unabhängig wird. Wenn alle Clouds diese Kubernetes Umgebungen anbieten und ich die auch am eigenen Rechenzentrum verwenden kann, dann bin ich mich ja nicht an proprietäre Dienste von AWS oder AJA oder der Google Cloud. Jetzt habe ich schon die Komponenten Master Notes Worker Notes. Haben die einzelnen Docker Container? Wie sag ich denn jetzt kybernetische, wie mein Ziel Zustand ist?

Da benutzt man doch die Jamel Beschreibung Sprache, um verschiedene Dokumente anzulegen, um Kobanê das zu sagen.

So und so möchte ich das genau. Der Workflow ist wie folgt Du beschreibst deine Wünsche, wie zum Beispiel, welche Applikationen, also welches Docker Image mit wie vielen Instanzen auf welchen Ports hören soll. All diese Dinge beschreibt in sogenannten Jamel Dateien und mit einem Kommandozeile tool genannt hatte also bzgl. sagst du Kobanê, dass er die Jamel Datei nehmen soll und aufs Cluster abspielen soll. Und das machst du dieser Kommandozeile. Die Kommandozeile Tool unterhält sich immer mit diesem Speicher, quasi.

Du kannst dein gegarte Lokal auf deinem Laptop haben und ein Cluster kann sonst irgendwo stehen. So lange dieser Episode auf dem Haus und auf dem Port erreichbar ist.

Das ist dann quasi verbunden Der Dienst von einem Laptop kommuniziert zu dem Master in der Cloud oder im Rechenzentrum.

Je nach Security ist auch durchaus denkbar, dass wir nur mal als Beispiel auf Amazon unterwegs bist oder in anderen Cloud Umgebungen. Ist es auch denkbar, dass du aus Angst oder Not, wo du quasi mit einem Laptop erst über s.a. Verbindung zu dem Kamphaus hast und von dort aus Bergkuppe dann die Befehle absetzt?

Ich glaube, Kube Cattle ist die Kurzform für Cube Control Kobanê. Sollten wir vielleicht sagen, in dieser jamil Beschreibung Sprache kann ich dann ja verschiedene. Ja, ich sag mal kubanisches Artefakte beschreiben. Also Secrets sind Ingress, die in verschiedenen Naim Spaces liegen. Laut Ballonfahrt kann ich beschreiben, was es damit auf sich. Vielleicht gehen wir einfach mal durch, was ein Service ist.

Kubernetes hat viele verschiedene sogenannte epü Objekte, und die Aromas ist Pott. Der ist sowas wie ein Container. Aber laut Spezifikation kann so ein Pott auch mehrere Container beinhalten. Grundsätzlich ist das Muster, dass man einen Container in einem totlaufen laufen lässt. Es sei denn, du hast spezielle use cases, wo du einen sogenannten Tschaika Container innerhalb des Ports laufen lässt, sodass mein Container hast plus einem Container. Das kann z.B. sowas sein. Win win lock Schipper, der locks des Containers auswertet und hin.

Und das möchtest du auch mal separat für sich beschreiben. Und die Pleuel, und das läuft oder kann zum Beispiel in einem Ort als zweiter Container mitlaufen. Also Pod ist quasi die kleinste Beschreibung dieser Einheit. Man sollte aber niemals mit einem. Direkt arbeiten, weil so bekommt IPI aus dem Osten bestimmten Reinsch. Was du auch konfigurieren kannst innerhalb von Kobanê, ist nur, wenn der Potz stirbt und davon. Das ist ein Paradigma, was man verstehen sollte. Man bewegt sich einem sehr volatilen Umfeld.

Das heißt, weder Amazon noch Google noch AJA garantieren, dass ein Bohrkerne zum Beispiel, den sie dir zuweisen, auch permanent läuft. Man muss dagegen designen und gewappnet sein, dass so ein Bordkanone einfach mal stirbt und ein anderer zur Verfügung gestellt wird. Davon muss man ausgehen, man darf nichts anderes voraussetzen. Und ein Pott, wenn er denn und das macht auch Kobanê werden, wenn ein Cannot ausgetauscht wird, dann kann er sehr transparent die Potz umziehen, offenen anderen funktionierenden Nod und du bekommst das noch nicht einmal mit, weil er das Routing, Traffiq und so weiter alles automatisch finde.

Ich manage nur, wenn so ein Pott woanders hochfährt. Bekommt er zum Beispiel eine neue I.G. Das ist laut Spezifikationen so, und dann kommt ein weiterer NPD-Fraktion Layer dazu. Service Ein Service ist quasi vorgeschaltet vor einem Ort und garantiert dir zum Beispiel eine bestehende IP-Adresse oder eine permanente IP-Adresse aus diesen Reinsch. Solange das epi Objekt des Services da ist, ist die IP auch fest, und du kann sich darauf verlassen, dass du zum Beispiel dein Backend Container oder was auch immer immer gegen diese IP laufen lassen kannst.

Und dann ist quasi erreichst Der Vorteil eines Servers ist es auch noch, dass du mehrere Instanzen des Potz hinter einem Service haben kannst, und der fungiert dann quasi auch als Pilot. Balance?

Okay, das heißt, ich darf niemals mit der FDP direkt sprechen, sondern mit dem Service, weil IPI Nummer ist nicht garantiert. Und wenn ich immer mit dem Service spreche, dann managed Cohn-Bendits die Kommunikation für mich. Ob es jetzt nur man kann sich eine Anwendung vorstellen, wo z.B. eine Such Komponente drin ist. Einfach eine Website Suche Such Komponente aufgerufen wird, dann würde ich mit dem Service Suche sprechen und nicht mit irgendeiner festen IP.

Und dann könnte dahinter ein Pod laufen, der diese Suche durchführt. Wenn gerade viele suchen. durchgeführt werden, könnten aber auch fünf Such Potts dahinter laufen und ich würde einfach mit dem Service sprechen und Kobanê? Es würde die Last automatisch balancierend zwischen die exakt potz die da hinten Dreierreihen. Okay.

Dieser Service ist unter der Haube quasi ein Managed für die. Das ist der sogenannte Proxy. Das heißt, wenn ich auf dem Bohrkernen unterwegs bin, mir die Prozesse angucke, dann Proxy finden, und das ist dieser Service Dienst, und der nutzt einfach IP T-Bills, um deine Pakete entsprechend richtig Suruç.

Das ist schon ziemlich low level. Also darum kümmert sich Cohn-Bendits. Absolut wichtig, glaube ich. Für unsere Zuhörer ist, dass man sagt Okay, deine einfällt. Micro Services dürfen nur mit dem Service sprechen und auf keinen Fall mit festen Tipis, weil die können sich ändern, die sind volatil. Und wenn man einfach auf diese Services Ebene geht, dann kümmert sich Kybernetische um den Rest.

Das Interessante ist, dass dieser Service quasi auch bei der Jamil beschrieben wird. ummehr mit Kube cattle, in den Kobanê die S-Klasse eingespielt wird, automatisch dafür sorgt, dass der Service Name nur in der Jamel festgelegt ist, quasi gleichzeitig der Host Name ist und von jedem Nod aufgerufen oder aufgelöst werden kann.

Das heißt, für die Anwendungsentwicklung selber wirkt dieser Service Name wahrscheinlich wie DNS Name exakt.

Genau das ist es ja, das ist ja auch ein Konzept.

Innerhalb von Kybernetische legt man einen Naim Space an, also der STANDARD namens BAW heißt, glaub ich, default, den man nicht benutzen sollte. Also man legt namens Bacons an für unterschiedliche Services, und innerhalb der Namens bases sehen sich die Services, oder die Ports können miteinander kommunizieren, und man kann dadurch eine höhere Sicherheit erreichen, dass man zum Beispiel Services, die nicht von außen erreichbar sein sollen, dann weg kapselt.

Die Nehmens Bacons ist erstmal ein organisatorisches Konstrukt. Kannst du zum Beispiel verwenden, um verschiedene Produkte, verschiedene Projekte, verschiedene Abteilungen in deinem Unternehmen abzubilden? Security technisch so eine Art Folder Werbung, wo die Sachen reingehört. Security Technisch muss man ein bisschen mehr machen, weil die standardmäßig die Ports aus den verschiedenen Namib. Sich gegenseitig erreichen und aufrufen können. Parke aber Security. Technisch gibt es halt Möglichkeiten, dass man diese hart abschottet, dass es übergreifend keine Kommunikation und so weiter möglich ist.

Okay, namens Spaces. Man kann es sich jetzt vorstellen In einem Rechenzentrum mit 100 Anwendungen würde man jeder Anwendung einen eigenen Namen Space zuweisen und die jeweiligen Ports, aus denen die Anwendungen dann besteht, genau die einzelnen Dienste. Die würden dann unterhalb des jeweiligen Namens Spaces laufen könnten.

Cross Application aber kommunizieren genau nach dem, was du halt in deinem Polleschs festlegt. Du kannst auch User einrichten, wo du sagst, der darf z.B. nur. Rechte auf diesen Namen Space. Jetzt hast du schon gesagt, dass man mit Cube Control oder Cube Kanzeln die einzelnen Befehle oder die Konfiguration von Kybernetische verändern kann. Also ich kann ein Service hinzufügen Ich kann ein POW hinzufügen. Ich kann diesen Schritt für Schritt, diesen Wunsch, Zustand herstellen. Aber was man ja eigentlich möchte, wenn man das kennt man ja, zum Beispiel aus dem Linux Umfeld oder MacOS Umfeld.

Man möchte ja eine Anwendung paktieren, was man ein Paket hat, was man ausliefert oder wie so eine ZIP-Datei, die im Prinzip alles enthält und die Anwendung dann innerhalb dieser Copernicus Umgebung entsprechend provisionsbasis und hochfährt. Da gibt es das Tool Helm ist, glaube ich, altgriechisch für Ruder. Und das ist ja der Kuper. Nettes Paket Manager.

Wir haben ja diese ganzen egy Objekte erwähnt. Weißt du, was du hast? Du hast Ingress und jede Menge mehr. Die kann ich natürlich alle einzeln mit Kube Karte platzieren und dieser Pakete manage ist einfach dafür. Da bin ich komplexere Applikationen, hab die mit mehreren Abhängigkeiten und so weiter quasi als Paket zusammen schnüren. Und dann mache ich einfach ein Helm install meine Applikation, und der sorgt dafür, dass alles Notwendige herangezogen wird und die Plaid wird.

Der Vorteil ist jetzt hab ich das Paket, das Helm Paket oder das Hemd. Schardt hab ich ja quasi auch diese Infrastruktur Ascot Paradigma erfüllt. Ich tippe nicht mehr mit Kube Kuddel irgendwelche Befehle und hinterher kann es keiner mehr nachvollziehen, was genau ich da gemacht habe, sondern mit Helm kann ich sagen Helm in Stahl und das Paket wird installiert oder Helm an in Stohl das Paket, dann wird es wieder installiert, und ich habe immer konsistenten nachverfolgt baren Zustand, den man dann auch entsprechend pensionieren kann, um verschiedene Releases ein und derselben Anwendung nach und nach aufzubauen und auszurollen.

Also Helm Ich hab ja immer so ein paar Beispiele aufgelistet. Was kann man mit Helm machen? Also die Anwendung paktieren, Abhängigkeiten definieren beispielsweise einen Micro Service, der vom Internet aus erreichbar sein soll. Der könnte dann noch ein Luftballon vorgeschaltet bekommen ein Kobanê, kybernetische Software, Luftballons, Suchdienste können. Williams Mountain, Persistent Williams Mountain war mal an der Datenbank. Denkt die, muss er die Dateien irgendwo ablegen und verschiedene Services enthalten für anwendungs Komponenten. Also wenn man Mikroskops hat, er auf die Datenbank zugreifen will, dann muss der Service sich bei der Datenbank irgendwie authentifizieren, damit User und Passwort.

Dafür würde man dann eben einen Service USA anlegen, diesen als Siegrid. Das ist auch ein Kobanê, das Objekt ablegen und das all dies gleichzeitig geschieht und der Micro Service mit der Datenbank kommunizieren kann. Das würde man dann auch anders mit aufnehmen und in einem Rutsch sozusagen mit ausrollen. Super. Ich glaube da haben einen guten Einblick gegeben, was Kybernetische alles leisten kann und wie es aufgebaut ist. Was sind denn die Herausforderungen für die Unternehmensseite, die heute was sind die Business Probleme, wo kybernetische helfen kann?

Im Wesentlichen geht es bei diesen Plattformen. Es muss nicht einmal kybernetiker sein. Natürlich sprechen wir jetzt in dieser Episode über Kybernetische. Aber grundsätzlich geht es um Geschwindigkeit. Das heißt, was habe ich als Business One von Geschwindigkeit? Ich kann schneller auf Marktgegebenheiten und Veränderungen reagieren. Ich verbrauche meine Ressourcen in Form von Zeit, Geld und Personal nicht, um ein System am Leben zu halten und Fehler zu fixen, sondern ich kann diese Ressourcen verwenden, um schneller neue Features zu bauen und schneller am Markt zu positionieren.

Schneller zu skalieren bin ich plötzlich durch eine Marketingaktion oder durch einen glücklichen Zufall? Viele, viele User auf meiner e-commerce-plattform habe, dann kann ich durch die Geschwindigkeit, was ich manifestiert, durch Automatisierung z.B. verschiedene Nod hochfahren, um diese Last abfangen zu können. Und diese Geschwindigkeit erreiche ich, wie gesagt, durch Automatisierung. Dafür aber, damit ich das automatisieren kann und Ressourcen sparen kann, brauch ich die Beschreibung meiner Plattform als Code. Das heißt als Jamel Manifeste, die dann getriggert durch verschiedene Gegebenheiten automatisch ablaufen können.

Die Vorteile, die die verschiedenen Cloud Platform mitbringen, nämlich dass ich ein Nod hochfahren kann und so weiter, das macht sich Kybernetische zu Nutze. Und ich kann durch Kombination von verschiedenen, was ich früher erreicht habe, durch Puppet und Chef, um gewisse Dinge zu automatisieren. Das ist alles in dieser Plattform Kybernetische. Die native Unterstützung der Cloud-Anbieter für Kybernetischen automatisiert, und das kann ich auf Knopfdruck quasi lostreten. Ich brauch kein Admin, der 24Stunden 24/7 auf irgendwas achtet und aufsteht.

Natürlich brauche ich das auch in irgendeiner Art und Weise, aber es ist nicht mehr wie früher, weil alles automatisiert ist.

Das heißt auch die Rechenzentrums Landschaft. Verändert sich also so wie ein klassisches Rechenzentrum, hat verschiedene Server und Spezial Appliances Slot Balance, die für einzelne Anwendungen beschafft wurden. Es gibt den zehn Jahre alten Server in der Ecke und den neuen Server für die Anwendung von letztem Jahr, sondern dadurch, dass Kobanê eben diese Standardisierung vorantreibt. Kann man eigentlich sagen ein TMS Rechenzentrum oder ein Cloud Rechenzentrum? Man packt einfach standardisierte Server zusammen, die günstig sind im Einkauf, wenn man einfach viele davon abnehmen kann, und weil sie millionenfach verkauft werden, und hält diesen Pool an Rechenkapazität vor.

Und jetzt kann man mit Kybernetische die einzelnen Anwendungen in dieses ja vorhandene Rechenzentrum die Plotin laut Ballonfahrer sind Software mäßig oder werden per Software umgesetzt. Man kann natürlich auch Hardware Luftballons hernehmen für richtig kritische Anwendungen, und ich kann Server tauschen. Ich kann Server, die vorhanden sind, nutzen, bis sie irgendwann. Ich sage mal Anführungszeichen kaputtgehen, weil wenn sie ausfallen, wird der Potro woanders gestartet, und meine Anwendung merkt es gar nicht so. Dieses Konzept der virtuellen Maschinen kann ich dann auch auf anwendungs Ebene fortführen und bin sehr flexibel, wann eine Anwendung auf einmal deutlich mehr Ressourcen benutzt.

Kann ich das sowohl im eigenen Rechenzentrum bieten, aber auch in die Cloud hinaus skalieren, wenn ich das brauche? Genau. Denn Geschwindigkeitsvorteil, den du ansprichst, der manifestiert sich ja insbesondere ein Kernfächer von kybernetiker ist ja das schnelle Deployment, das sich eine neue Version der Anwendung sozusagen ausspielen kann und erst nur auf 100 Prozent der Potz ausrollen kann, sodass jeder zehnte Benutzer die neue Version bekommt. Und wenn das fehlerfrei funktioniert, dann kann ich nach und nach diese neue Version dann für alle Potz ausrollen.

Also ich bin da super flexibel. Ich glaube auch Security mäßig, aber da bist du der Experte. Lassen sich die Dienste sehr gut voneinander abschirmen, die, die gar nicht mit dem Internet kommunizieren sollen. Aber auch wenn ich Anforderungen habe, das die Dienste z.B. innerhalb der Cloud oder des eigenen Rechenzentrums verschlüsselt miteinander kommunizieren sollen, dann kann ich eine Sidka Komponente benutzen. Die nennt sich istso damit Dienste die legacy Dienste, die nie dafür gemacht wurden z.B. verschlüsselt zu kommunizieren über diesen Proxy dann auf einmal doch verschlüsselt miteinander sprechen und gar nichts davon wissen.

Aber auch, dass neuere Dienste eben direkt verschlüsselt miteinander kommunizieren können.

Die Einsatzgebiete sind riesig. Also wenn man im Umfeld von Kubernetes von Automatisierung spricht, dann ist das eine konsistente und allumfassende Automatisierung. Wir haben zum Beispiel gesagt, dass EPI ein Objekt ist, das Deployment. Du kannst das Deployment so konfigurieren, dass zum Beispiel, wenn man eine neue Version einer Software live stellt, das im Hintergrund erstmal. Ich sage mal Nehmen wir an, du hast drei Instanzen E-Commerce verlaufen, und es ist eine neue Version. Und jetzt hast du verschiedene Möglichkeiten, die Deployment durchzuführen, die eine ist.

Das nennt sich Blue Green Deployment. Bedeutet, das du gleichzeitig drei weitere Instanzen hochfährt? Kybernetische für dich die neue Software. Die neue Version und anhand von definierter hält checks check er, ob die Version quasi oder die Instanz gestartet ist. Wenn alle drei Instanzen das sind, dann Switch quasi um auf diese neue Version und die alten Ports wieder runter. So mag das sinnvoll oder nicht sinnvoll sein. Man muss auch Bedenken bedenken Wenn man in der Cloud umfällt, ist das nicht immer von drei Instanzen, sondern kann durchaus auch 30 Instanzen sein und 30 Instanzen parallel hochfahren.

Bedeutet doppelte Ressourcen. Dann plötzlich braucht. Das kann ich wiederum fein justieren. Aber es gibt zum Beispiel auch ein anderes Deployment Paradigma.

Ich kann sagen, was du angesprochen, dass das sogenannte Canary Deployment, wo ich eine gewisse Prozentzahl nur weiterleiten darf, was ich neue Features schnell ausprobieren und ohne die Mehrzahl der User damit zu konfrontieren, sondern erstmal nur zehn Prozent oder zwei Prozent und sehe, wie das funktioniert. Tauchen Fehler auf? Wie reagieren die User? Und wenn ich sicher bin, dass das funktioniert, kann ich dann entweder mehr Prozent oder 100 Prozent um Unruhe. All das wird möglich. Ganz plötzlich.

Experimentieren, was früher nicht so einfach war, das meine ich mit Geschwindigkeit. Du kannst vieles ausprobieren und anhand des Feedbacks dann weitermachen. Das heißt, es macht auch für dein Businessmodell macht, dass plötzlich Dinge möglich, die vorher nicht möglich waren. Zum Thema Sécurité Du kannst also zum. Neben diesem kybernetische Paradigma gibt’s natürlich das nach wie vor das klassisches Continuous Integration und Continuous Deployment, was du quasi auch völlig automatisieren kannst. Man kann es so weit automatisieren, dass du sagst, ein Code kommt, in einem durchschimmert.

Control System nimmt sich den Code getriggert durch den Code mit. Baut das Platters in eine Kesting oder Staging Umgebung wartet. Thema Quality Gate wartet, bis jemand getestet hat und irgendwo gesagt hat Passt zum Beispiel mit einem Ulrik Fest und einem Mörz und sagt dann alles klar, ist quasi genehmigt und führt dann selbstständig in der Produktion aus. Man kann diese komplette Strecke automatisieren, sogar selbst Sécurité. Stichwort Check ups, wo du den kompletten Security Check, angefangen von einer statischen Analyse, sprich hast du vielleicht schon Bax oder Security relevante Dinge im Code eingebaut.

Da gibt es Libris, für die du, die du einbinden, Cabs, jeden Code checken und zum Beispiel gegen Datenbanken im Internet checken, ob deine Leibgericht bestimmte, weil ich haben kann, das ordnenden Bild abbrechen bis hin zu dem dynamischen Applikationen. Wenn es die Leuth ist, kann es zum. Da gibt es von sowas. Das ist eine Organisation, die sich um das Thema kümmert, wo du zum Beispiel die 100 meist durchgeführten Hex automatisch auf deine Applikation durchführen kann.

Also großzieht scripting, Shakes, Scuol Injection, Jabs und so weiter. Du siehst also, wo die Reise hingeht. All das, wofür man Tage und Wochen gebraucht hat. Früher kannst du jetzt quasi in einer Pipeline komplett weg automatisiert verstehen.

Dadurch springt natürlich die Qualität der Anwendung nach oben. Exakt. Man hat einmal diesen Integrations Aufwand, aber dann nutzt man quasi diese sich auch wahrscheinlich selbst automatisieren Libraries. Wenn neue CVS oder Security Lücken auftauchen, sind sie direkt da drin und man kann automatisiert die ganze Anwendung gegen diese neue Lücke testen lassen, sogar bis hin zu Compliance-Regeln.

Da gibt es auch Tools, wo du sagen kann, das und das und das sind meine. Meine Compliance-Regeln wie beispielsweise ganz einfach, benutze nicht das Original. Im Falle von Java, weil es Probleme hat und das Tool merkt Aha, verletzt und bricht ein Bild ab. Und Reporter? Und da gibt es richtig mächtige Tools. Würde diese ganzen Campanile Compliance-Regeln hinterlegen kannst.

Einen weiteren Vorteil das hast du schon mal anklingen lassen, ist natürlich das Monitoring durch Checks. Also ich habe jetzt Kybernetische ein Ziel stand vorgegeben und sagen So und so soll meine Anwendung aussehen. Und im Kybernetische prüft ja jetzt in regelmäßigen Abständen, ob jeder Posth gesund ist. Und wenn ein Pod nicht reagiert, dann kann man halt konfigurieren ok, bitte sofort einen neuen hochfahren, oder wenn ein die CPU Last auf einem Port eine gewisse Marke überschreitet, dann werden zusätzliche Potz hochgefahren.

Durch diesen Autos Krailling Mechanismus das vereinfacht ja auch das Monitoring der Anwendungen ganz erheblich. Das ist das, was ich eben sagte. Man kann die Hardware im Grunde viel länger nutzen, zumal wenn sie ausfällt, ist es nicht so schlimm. Combined merkt das sofort und fährt dann neuen Ports hoch. In dieser Multi Service Umgebung, was ich auch bemerkt habe, ist und das ist jetzt ein ganz deutlicher Paradigmenwechsel. Die Entwickler dadurch, dass die Infrastruktur auch durch Code beschrieben wird.

Das ist ja dieses DVB-S Paradigma, wo wir ja auch eine ganz eigene Podcast Episode zugemacht haben. Denke ich auch in der Beschreibung. Die Entwickler sind auch immer mehr verantwortlich für die Infrastruktur und die eigentlichen Admins. Früher war das ja oft so oder? In den PMS Rechenzentrum ist es oft so, dass die Entwickler bei den Admins etwas bestellen. Ein User, ein Server, eine Ressource, eine harddisk irgendwie. Und die Admins liefern die irgendwann. Jetzt musste der Developer im Grunde kann in seinem Manifest sagen Okay, ich brauche eine Disk mit 10 Gigabit, und die ist persistent und so weiter und ist quasi selber dafür verantwortlich.

Kobanê, das so zu Konfigurieren des Kabinetts prüft, das die Disk nicht voll läuft, sie entsprechend vergrößert wird und so weiter. Falls die Admins entlastet und die Developer müssten die IT-Infrastruktur verstehen, was laut Ballonfahrer. Wie funktioniert IPI Mask Reading? Was ist Nath? Diese ganzen Fachtermini, die mit Netzwerk Aufbau im Grunde genommen zusammenhängen, und bekommen diese Aufgabe zusätzlich.

Thema Das Du als Entwickler auch das spielt Richtung Geschwindigkeit. Früher, wenn du irgendwas gebraucht hast, dann hast du als Entwickler immer mit einem Admin Kontakt aufnehmen müssen. So viel Platz. Ich brauch neuen Server. Ich brauch dieses jenes und das kannst du jetzt selber geben. Du diese Jamel Dateien schreibst selber haben, und zwar innerhalb von Sekunden.

Man muss natürlich verstehen was man tut. Das verstehen, aber das ist halt der Paradigmenwechsel. Und das ist halt genau dieses Niveau, was die Unternehmen sich aufbauen müssen, ihre Entwickler entsprechend Schulwissen. Das ist halt die Herausforderung im Moment. Viele Entwicklungen, Entwicklungen stehen der Herausforderungen für die Unternehmensseite.

Um wirklich alle Vorteile von Kobanê ausnutzen zu können, muss man die Software ja etwas anders. Als das ich sage mal bis vor ein paar Jahren der Fall war das Stichwort wäre z.B. diese Klout native Anwendungen. Es ist auch möglich, alte Monolithen in kybernetische zu betreiben. Das ist nicht so flexibel, weil bei einem Monolithen wenn da der Pod ausfällt, hast du trotzdem diese Ausfallzeit bis der neue Pod gestartetes Plus. Die Anwendung muss so entwickelt sein, dass sie das auch dann handeln kann, wenn sie ausfällt.

Und viele ältere Monolithen wissen eben nichts von Kybernetische und können damit nicht entsprechend umgehen. Wie muss man Software entwickeln? Diese feingliedrige Software, die parallel laufen kann, wo Ausfälle einzelner Komponenten nicht zum System Ausfall führen, sondern einfach kompensiert werden können von Kobanê? Und wie erreicht man das?

Die größte Herausforderung ist jetzt mal von der Größe der Applikation Vor und Nachteile einer Schw, eines schwergewichtigen Monolithen und einzelner Miko. Mal davon abgesehen, weil das ist im Prinzip ein eigenes Thema für sich. Aber grundsätzlich, wenn man Software machen möchte, ist das wichtigste Thema steht. Es gibt die Summer Factor App, das beschreibt, das ist im Prinzip ein Best practices für Software, um Cloud laufen zu können.

Ich kann jedem empfehlen, sich diese App, Spezifikationen oder Beschreibungen mal anzugucken, weil das beschreibt eigentlich sehr genau eine Applikation gestrickt sein muss, um Kourtney laufen zu können. Zwei Themen aus diesen Faktoren ist einmal Stabs. Das heißt, man darf nicht voraussetzen, dass die Applikation den Status, wenn man aus dem Java Umfeld kommt, jemand JCC und Session auf dem Server der Applikation eine Session hält, weil, wie gesagt, immer sein kann, dass die Applikation von jetzt auf gleich woanders hingezogen wird.

Und dann ist der Status futsch. Man denke an Shopping Card oder was auch immer sauber gehalten wird. Das heißt, ich darf keine Sessions in der Applikation halten.

Es muss alles präsentiert werden in Datenbanken.

Im Grunde genommen direkt, ja, oder? Es gibt doch andere Möglichkeiten. Du kannst zum Beispiel einen radix haben, radix Cluster, quasi eine Datenbank, wo die Session außerhalb deiner Applikation gehalten wird. Und schnell, weil wenn so eine Session abtaucht oder Applikation ungezogen wird, dann hast du halt deine Session Memory. Da gibt es Lösungen für eine zweite Faktor. Aus diesen Faktoren ist das Du Konfiguration nicht in die Applikation legst, sondern immer von außen reingepasst, sodass quasi ein Container und eine Applikation völlig unabhängig von der Umgebung laufen kann.

Lokal State oder Produktion und Umgebung? Spezifische Konfigurationen oder Parameter kommen von außen als Umgebungen variable. Das sind, so Cloud, Faktoren. Wie gesagt, ich würde mir diese Apps mal durchlesen und strikt befolgen, weil das ist das, was ich für Applikationen in der Cloud.

Das ist auf jeden Fall ein heißer Tipp. Und da wird wahrscheinlich auch beschrieben, wie man mit Anwendungen die Anwendung komplett Container frisiert, wie man Micro Services aufbaut, wie man die Zugriffe untereinander regelt.

Also nicht in der Tiefe, sondern es ist so eine Art Manifest und beschreibt so eine Art Birth, wie diese Dinge sein müssen, damit das funktionieren kann. Da geht es um das Thema Abhängigkeiten, Konfiguration, Prozesse und so weiter. Das muss man sich einfach mal durchlesen. Das ist wirklich extrem nützlich.

Das heißt? Bölts Salvo ist ein schönes Stichwort Cloud Native Anwendungen. Das kann man, glaube ich, generell sagen. Besitzende hohe Testmarkt, weil sie ja tendenziell aus sehr kleinen Komponenten bestehen. Und das eignet sich natürlich auch, um so kleine inkrementelle zu bauen für Bowling Releases. Um die Anwendung, kleinstädtische weiterzuentwickeln, dann eben auch zielgenau zu skalieren. Man muss ja vorstellen, wenn man den Staat jetzt nicht mehr in der Anwendung hält, sondern in einem Memory Story radix oder in einer Datenbank.

Dann ist es ja auch möglich, mit parallelen Prozessen und parallelen Zugriffen darauf zu schreiben und zu lesen. Man muss ein bisschen synchronisieren, dass nicht zwei Services gleichzeitig beispielsweise einen Warenkorb schreiben. Aber das ist ja schon ein Paradigmenwechsel. Wenn man denen dann vollzogen hat, bekommt man eben die ganze, die ganzen Benefiz von Cohn-Bendits ganz genau, und man kann eine Anwendung sehr, sehr flexibel einsetzen. Also wenn man mal an eine Webanwendung denkt, wo die Webserver vielleicht in Deutschland erst einmal gehostet werden, und man expandiert jetzt auf den nordamerikanischen Markt, dann könnte man ja einfach in Nordamerika in der Zone weitere Webserver hinzunehmen, müsste nichts anderes machen.

Und die Leute in Nordamerika haben direkt eine bessere Erfahrung, weil die Zugriffe einfach schneller erfolgen. Und funktioniert natürlich nicht nur mit Nordamerika, sondern weltweit und kann so nach und nach einzelne Gebiete hinzunehmen. Gibt es da noch Werkzeuge für die Entwicklung, oder? Planung, die du auf jeden Fall empfehlen würdest. Also Docker und geht nehme ich jetzt mal als gesetzt. an, aber so Spezialwerkzeug, die dir in der Vergangenheit gute Dienste geleistet haben.

Alles, was das ökosystem Kobanê angeht, da könntest du Tage und Wochen erzählen, weil da kommst du gar nicht zum Ende. Weil wir nur am Ende bist, gibt’s ein paar neue zugelangt.

Die Entwicklung ist sehr schnell. Es ist abartig. Ich hatte das Thema der Check ups erwähnt. Ja, das ist auch relativ neu. Dann gibt es schon das Thema gibt Tipps, wo du die komplette Laichzeit einer Software von Entwicklung bis hin zum Deployment komplett übergibt. Das heißt, selbst in die Kobanê setz gar keine Befehle mehr selber ab, oder? Sondern einfach mit Quests reichen, um diese Kette abzubilden. Der Vorteil ist, dass du alles dokumentiert hast. Das hast du siehst jederzeit.

Wann wurde die Leuth? Warum wurde die Leuth? Du kannst die Kommentarfunktion in Gips nutzen.

Plus die Geschwindigkeit plus die Geschwindigkeit. Also du hast das Feature entwickelt, gemurrt, getestet, und es ist sofort. Zehn Minuten später ist es in der Anwendung und kann verwendet werden.

Ja, auch die Kollaboration. Du kannst ja auch quasi Kommentare hinzufügen. Du kannst es ja mal Teams oder Slack einbinden, was wiederum das Wort Stops ins Spiel bringt, wo du quasi mit slack Befehlen diese Karte weiterspinnen kannst. Also Thema ist komplette Agilität. Nein, das sind die Werkzeuge, die du hast nutzt, um es Software abzubilden, ohne jetzt direkt konfrontiert zu sein mit Kobanê. In all diesen low level Komponenten haben, weil da halt ein paar andere Layer dazwischen sind, die irgendwas steuern.

Es geht total schnell. Du musst echt am Ball bleiben, damit du gucken kann. Was passt zu meinem Kunden am besten? Welches Setup hatte aktuell? Das ist mitunter sehr anstrengend, aber macht auch sehr viel Spaß, weil sehr viel Bewegung drin ist.

Das Deployment aus dem Chat heraus zu starten oder ob ich da jetzt noch mitmachen muss, das ist ja fast schon akademischer Natur. Aber ich glaube, das Wichtige ist einfach, dass die Zeit, die vergeht, von einer Feature Entwicklung, also feature to market, wenn man so möchte, dass die möglichst kurz ist, dass man auch dann wieder lernt. Man hat dieses Feature eben entwickelt. Die Kunden nutzen es, die Nutzer nutzen es, und man bekommt Feedback.

Ah, okay, das ist es gelungen. Das und das ist vielleicht noch nicht optimal, dass man die Entwicklung der Anwendung in die richtige Richtung sehr schnell vorantreiben kann und eben dieses Builds Development sag ich mal betreiben kann. Also genau an den Kundenbedürfnissen ausgerichtet.

Vielleicht müssen wir mal das Thema ökosystem von Kybernetische, also welche Tools und neueste Entwicklungen? Das kann man dann eine eigene Episode daraus machen.

Das können wir gerne planen. Vielen Dank für die Session. Gerne. Wenn unsere Zuhörer Fragen haben zu dem interessanten Thema, können Sie uns gerne eine E-Mail senden. An Podcast abonniert unseren Podcast und lassen uns gerne eine Bewertung da und schaut auch auf Skill slash Blog vorbei. Wenn Ihr weitere spannende Technologie Themen lesen möchtet. Masiar Ich bedanke mich ganz herzlich bei dir.

Maurice KnoppSkillbyte Podcast #25: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen
Mehr

Skillbyte Podcast #22: Digitale Transformation ist eins der Härtesten

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Digitale Transformation ist eins der Härtesten

// Inhalt //
01:00 – Definition von digitaler Transformation
02:46 – „Sofortness“
03:28 – Daten, Konnektivität, Rechenleistung
05:28 – Digitaler Reifegrad eines Unternehmens
08:11 – Verschiebung: Kunden wollen Nutzen statt Produkt
09:55 – Vorhandene Prozesse digitalisieren und neue Digitalprozesse anbieten
14:20 – Digitale Transformation für den Mittelstand
16:43 – Digitale Chance: Konzentration auf Kundennutzen
17:13 – Herausforderungen der digitalen Transformation sind Chefsache
21:14 – Keine Angst vor neuer Technologie
25:27 – Wie kann Skillbyte bei den Herausforderungen unterstützen?
27:23 – Skillbyte hilft bei agiler Softwareentwicklung, CI/CD
29:30 – Skillbyte hilft bei DevOps, DevSecOps, Skalierung
35:04 – Skillbyte hilft bei Big Data, ETL, Dashboards, Reporting, Prediction
37:39 – Digitalisierung als Chance begreifen!

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Herzlich willkommen zur aktuellen Podcast Episode Nr. 22 Digitale Transformation ist eines der härtesten. Ich bin heute hier wieder mit unserem Stammgast. Masa Hallo Maria! Hi, wenn unsere Zuhörer Fragen haben, können Sie gerne eine E-Mail schicken. Podcast. Wenn euch unser Podcast gefällt, freuen wir uns über ein Abo oder über eine Bewertung. Vielen vielen Dank im Voraus. Heute wird es sehr, sehr spannend. Denn digitale Transformation ist natürlich ein Thema, was derzeit in aller Munde ist, also schon länger digitale Transformation.

Das ist der Oberbegriff, was in der deutschen Wirtschaft herumgeistert.

Genau. Und heute wollen wir darüber sprechen. Also wollen wir dieses buzzword ein bisschen herunterbrechen und auseinander nehmen und schauen. Warum ist das so ein großes Problem? Warum tun sich Unternehmen schwer damit? Was sind die Herausforderungen? Warum ist es überhaupt wichtig, dass sich Unternehmen damit beschäftigen? Ich glaube, es ist ganz, ganz wichtig. Ich denke, das können wir ganz gut herausstellen. Ich würde gerne beginnen mit einer Definition, die ich von der Wikipedia ausgeliehen haben und natürlich immer eine neutrale Quelle, einfach um nochmal das Framework einzuführen.

Worüber sprechen wir, wenn wir über digitale Transformation sprechen? Als die digitale Transformation wird auch als digitaler Wandel bezeichnet, bezeichnet einen fortlaufenden, in digitalen Technologien begründeten Veränderungsprozessen, der in wirtschaftlicher Hinsicht speziell Unternehmen betrifft. Im engeren Sinne wird als digitale Transformation häufig durch die digitalen Technologien oder darauf beruhenden Kunden Erwartungen ausgelöste Veränderungsprozess innerhalb eines Unternehmens bezeichnet. Also auch hier ganz zentral Die Unternehmen verändern sich, aber auch die Kunden. Erwartungen desto jünger, desto mehr, würde ich sagen, desto jünger die Kunden, desto stärker treiben die Kunden Erwartungen.

Die digitale Transformation voran.

Was mir an der Definition nicht gefällt, ist, dass von digitalen Technologien die Rede ist. Ja, natürlich. Digitale Transformation betrifft natürlich digitale Technologien. Aber meines Erachtens ist das viel mehr als das. In so einem Unternehmen gibt es Personen, wirkende Menschen, wirkende Personen. Es gibt Prozesse, und es gibt die Technologie und natürlich den Kunden. Das heißt, im Unternehmen müssen all diese drei Entitäten miteinander entsprechend harmonieren und interagieren, damit so eine Transformation überhaupt stattfinden kann.

Es ist nicht nur die reine Technologie, es ist nicht nur ein Tool, oder ich führe ein Technologie Prozess neu ein und schon bin ich dabei, sondern es betrifft viel, viel mehr.

Ich würde auch sagen, die digitale Transformation ist sehr, sehr stark, auch eine Meinzer Sache. Ein Freund von mir hat das so schön formuliert.

Er sagte Für mich ist die digitale Transformation, ganz vereinfacht ausgedrückt, die sofort eines die sofortige Verfügbarkeit von Informationen, sei es jetzt Entertainment oder Information.

Oder ich möchte einen Prozess anstoßen. Ich möchte meiner Versicherung ein Dokument hochladen. Ich möchte jetzt eine Antwort auf meine Frage. Ich möchte in meiner Reise buchen. Ich möchte jetzt dieses Lied hören. Ich möchte jetzt genau diesen Film schauen. Das Bedürfnis entsteht und kann sofort befriedigt werden. Das ist einer der Haupttreiber der digitalen Transformation.

Sehr, sehr Kulturbegriff. Sofort, wenn man vielleicht irgendwie so ein bisschen abstrakter, eine Ebene drüber zieht. Warum findet überhaupt eine digitale Transformation statt oder sollte oder was hat das in Gang gesetzt? Es ist in meinen Augen einmal die Menge der Daten, die zur Verfügung steht, über viele, viele verschiedene Channels hinweg, sei es jetzt Web, sei es mobil, sei es Booty, sei es über Kunden. Telefone im Call-Center da entstehen überall Daten. In einer sehr hohen Geschwindigkeit ist das eine, das andere ist die Konnektivität all dieser Komponenten und die massive.

Die dritte Komponente ist für mich die Massive Processing Power, die zur Verfügung steht, um all das auszuwerten, auszuwerten, um auf gewisse Dinge oder Marktgeschehen zu reagieren. Das heißt, diese Datensammelei stu, um abzuschalten. Was will der Markt? Wie hat der Markt auf diesem jedes reagiert? Bei mir, beim Konkurrenten darauf, schnell reagieren zu können, sei es von den Entscheidungsprozessen her, sei es von der Technologie, eher sei es von allgemeinen Prozessen, die in so einem Unternehmen laufen.

Diese drei so auszulegen, dass sie schnell reagieren kann. Das macht es für mich insgesamt aus. Was sind die drei Komponenten?

Nochmal sagen Sie nochmal nacheinander? Ja, die eine Komponente ist, dass Daten global zur Verfügung stehen über verschiedene Channels. Es werden sehr an sehr vielen Kontaktpunkte Daten generiert. Das zweite ist die Konnektivität, dass man viele dieser Channels miteinander verbinden kann, um so Korrelationen herzustellen. Die massive Rechenpower quasi auf haben wir zur Verfügung stehen. Damit erreiche ich im Saids mit diesen drei Komponenten oder generieren um mag es schnell mitzubekommen und darauf reagieren zu können. Um darauf reagieren zu können, muss ich natürlich den digitalen Wandel in meinem Unternehmen vollzogen haben.

Einmal nämlich meine Leute abgeholt haben. Geändert haben, die Prozesse umgestellt haben und natürlich die Technologie am Start haben.

Die drei Komponenten, die du benanntes, führen ja schon dazu zur Entwicklung gegebenenfalls neuer Geschäftsmodelle. Ich finde, es gibt es einen unterschiedlichen Reifegrad von digitalen Unternehmen, digital transformierten Unternehmen. Das kann man ganz gut erklären. Zum Beispiel? Nehmen wir mal ein Unternehmen wie die Bahn oder auch eine Airline. Und da sieht man okey, die gibt es seit vielen, vielen Jahren, und die digitalisieren sich. Angefangen, sich zu digitalisieren. OK. Man kann jetzt Tickets online kaufen.

Also früher bist du in den Shop gegangen, hast ein Ticket gekauft, heute kannst du die Tickets online kaufen. Das ist für mich der erste Schritt zur digitalen Transformation. Dass man einfach sagt, ein Prozess, den es bisher gibt, den verlagere ich ins Digitale, weil dann ist mein Ticketschalter 24 Stunden auf. Die Leute können das von jedem Fleck der Erde zu einem Ticketschalter kommen, müssen nicht anstehen und klicken sich quasi selber durch die Masken und bestellen ihr Ticket selber.

Das ist der erste Schritt, den ich sehe. Ein weiterer Schritt ist Wenn du wirklich aus diesen Daten, die ansprichst, selber wieder neue Geschäftsmodelle baust. Also wenn die Bahn zum Beispiel sagen würde Dein Zug fährt um viertel nach. Aber wir wissen, dass es um die Zeit immer so voll ist, immer fünf Minuten verspätet oder so was, dass Sie das quasi mit berücksichtigen würden. Das wäre so der nächste Schritt. Und der dritte Schritt oder die voll digitalen Unternehmen, das sind wirklich die Champions heute.

Das ist eigentlich total verrückt. Das vermitteln eigentlich nur noch z.B. Booking.com besitzt kein einziges Hotel, und die bringen einfach nur diese Nachfrage von Kunden und Hotels, bringen sie zusammen und stehen in der Mitte. Uber besitzt vermutlich besitzen ein paar Autos, aber wenige keine Taxis. Aber sie sind der größte Taxi Dienstleister. Airbnb besitzt keine Wohnungen, aber auch eine gewagte These vermieten wahrscheinlich mehr Wohnungen, wenn darüber abgewickelt als eine kleinere Stadt oder Ferrando nimmt. Die z.B. haben kein Restaurant und beschäftigen keinen Fahrer fest.

Aber die bringen halt Restaurants und die Leute, die gerne essen wollen, aber sich nicht aus dem Haus bewegen möchten, zusammen. Das ist für mich ein weiteres. Es ist so krass. Ich habe heute einen Unterbreche, habe heute erfahren, dass, liebe Ferrando, 30 Prozent von dem Umsatz kriegt, eine Pizza für sieben Euro bestellt kriegt, die zwei Euro zehn. Das finde ich unfassbar.

Ich dachte, dass es pro Bestellung gibts. So eine Fixkosten drauf kommen 30 Prozent.

Ich habe mich heute mit dem Restaurant unterhalten. Der Restaurantbesitzer bezahlt.

Ich dachte, der Endkunde bezahlt die Lieferung gewissermaßen.

Nein, bezahlte er, bezahlt der Restaurantbesitzer 30 Prozent. Aber das Verrückte ist Diese digitale Transformation führt auch dazu. Du siehst es schon. Die Wertschöpfung wird quasi an anderer Stelle abgegriffen. Das Essen muss irgendwie zum Mund, und je nach Themen, wo der Mund ist, muss es da hinkommen. Und das Essen zuzubereiten ist nur noch zwei Drittel, und das Essen auszuliefern ist dann schon ein Drittel der Wertschöpfung. Wenn man so möchte, ja, auch diese Abo-Modell, die heute, die es heute überall gibt, die würden ja gar nicht funktionieren.

Die mobile Apps für die e-roller, die hier rumstehen oder es gibt es, heißt das da für 20 Euro im Monat. Wenn du die App stellst, stellen sie dir ein Fahrrad hin. Wenn was kaputt ist, reparieren die das Fahrrad, und du hast quasi ein funktionsfähiges Fahrrad im Abo. Wenn du so möchtest. Ich merke das, wenn ich mit älteren Semestern spreche, die sagen Hey, ich will das Fahrrad besitzen. Und warum sollte ich ein Fahrrad mieten und Salzkonsum jetzt einen Monat irgendwo sind in einer anderen großen Stadt.

Und wo das angeboten wird, wäre das ja ein super System. Oder auch für Leute, die ihr Fahrrad sehr viel nutzen und sehr viel für die Reparatur kaufen. Klar ist das auch im System, was lobenswert ist, dass man quasi sagt Eigentlich das Fahrrad ist. Ich zahle für den Service, ein Fahrrad zu haben und nicht mehr für das physikalische Ding. Man zahlt für das Erlebnis oder für den Nutzen beim Streaming. Du kriegst keine CD mehr oder keine DVD mehr.

Aber du siehst in Filmen oder beim Carsharing Du bezahlst für den Nutzen, von A nach B zu kommen mit dem Auto und nicht für das Auto. Ja, ja, die Anforderungen der Kunden, seien es jetzt Endkunden und natürlich auch Businesskunden. Das verschiebt sich schon ganz erheblich. Und jetzt kommen wir zu dem Punkt Warum ist das für Unternehmen ein großes Problem? Die digitale Transformation dazu gesagt?

Das fand ich sehr wichtig. Deswegen will ich nun mal gern herausstellen, dass. Was du gesagt hast, ist, dass ich bestehende Prozesse in meinem Unternehmen digitalisieren. Das heißt, ich gucke mir an definieren oder oder identifiziere Prozesse, die von A nach B nach C D laufen und gucke. Was kann ich davon automatisieren? Digitalisieren, um es schneller zu machen und effektiver zu machen? Ein ganz einfaches Beispiel Ich muss Daten, die ich von einem Lieferanten bekomme, in mein System reingehen.

Kein Witz, ganz oft gesehen. Da steht ein Faxgerät, da kommt ein Fax rein. Dann nimmt sich irgendeiner das Fax, setzt sich einen Rechner und gibt die Daten in SAP ein. Gibt’s. Ganz aktuell habe ich sogar den Fall. Mein Vater ist jetzt in Pflege, und ich musste diese Pflege beantragen. Das sind fünf Parteien involviert. Das ist einmal die Krankenkasse, die Rehaklinik, der Hausarzt, der Pflegedienst. Und die müssen sich alle miteinander irgendwie austauschen.

Und alles offline, alles mehr oder weniger offline. Eine muss oder will oder kann nur das Ding per Post verschicken, der andere kann nur Fax, der andere kann das per E-Mail machen. Das ist furchtbar. Da gibt es so viele Reibungsverluste innerhalb dieses Prozesses. Du kriegst das terminlich nie hin, weil der eine muss das dem anderen kommunizieren. Dann ist mein Vater zu Hause. Da gibt’s die Geräte noch nicht, weil der andere das nur per Post verschicken muss.

Und, und, und. Man sieht da dran, wie ich sage, mal ganz, ganz, ganz einfache Mittel schon solche Abläufe voll digitalisiert und automatisiert werden können, um einfach effektiver und effizienter zu werden. Das ist das einender, das ich in meinem Unternehmen oder in so einem gesamtprozess mit Lieferanten und Kunden und so weiter Wege digitalisieren, automatisieren. Das andere ist ein Begriff. Muss ich dazu noch einführen, nämlich die Value Proposition, das heißt, das Werte versprechen?

Was du als Unternehmen dem Kunden gegenüber gibst, sei es jetzt zum Beispiel das Produkt oder eine Dienstleistung. Eine gewisse Eigenschaft hat eine gewisse Haltbarkeit. Wenn man grundsätzlich diese value proposition zu verbessern. Das ist erst einmal der erste Ansatz der digitalen Transformation. Indem ich, wenn ich zum Beispiel als Kunde Ja sage, mal so ein Pflegefall habt, dann kann ich das Werbeversprechen als Krankenversicherung erhöhen, indem ich solche Prozesse automatisieren.

Das heißt, es ist so witzig, ist doch günstiger für alle Seiten besser?

Ich habe fünf Mal von der Krankenversicherung den selben Antrag bekommen. Ich weiß nicht, wie der Prozess gelaufen ist. Wahrscheinlich tatsächlich einmal per E-Mail, einmal per Post und fünfmal. Ich habe eine Stunde gebraucht, um allein herauszufinden, dass diese fünf Anträge eigentlich alle die gleichen sind. Damit kannst du schon mal gegenüber dem Kunden. Das ist nur ein Beispiel, wenn du effizienter bist und schneller bist. Bei der eigenen Kosten senken und das Kunden Erlebnis verbessern?

Absolut. Das andere ist, wie du dein Werbeversprechen noch verbessern kannst, du neue Angebote schaffst, wie digital unterstützte. Nehmen wir als Beispiel Amazon. Wir haben am Anfang 94 angefangen mit dem Buchhandel, und zwar per Mail. Das heißt, du hast eine Mail geschrieben und hast gesagt Ich will das und das Buch. Und dann ging das ein paarmal hin und her per Mail. Und dann hast du ein Buch bekommen, als es losging, das mehr und mehr Menschen Browser adaptiert haben, benutzt haben.

Hat Amazon sich gedacht, das wäre doch cool, wenn wir diese Kette irgendwie verkürzen würden und nutzen jetzt den Browser damit für die Bestellungen online abgeben können und noch halten können. Und so eine Kommunikation über die Weboberfläche. Was im Prozess mega beschleunigt hat, mederer vereinfacht für beide Seiten. Als die Robotik stärker wurde und die Technologie besser wurde, hat Amazon einer der ersten, der seine Lager effizienter gestaltet hat, mit Robotern. Was Roboter liefern jetzt diese Ware zu dem Menschen, der da vorne steht und das verpackt.

Das ist durch und durch ein digitales Unternehmen. Der guckt sich an Welche Technologien sind Murchison und nutzt das, um einfach das kum Erlebnis dieses Superposition einfach zu ölen, zu verbessern für den Kunden.

Es geht ja noch weiter. Dann hat er gesagt Für das Weihnachtsgeschäft oder für Peace-Zeichen haben wir so viel Rechenkapazität übrig. Können wir wiederum anderen anbieten, eine einheitliche Schnittstelle darüber ziehen und daraus das A-WM?

Exakt genau so funktioniert das also für mich ein Musterbeispiel einer durch und durch digital nativen Firma?

Absolut. Aber hier geht es natürlich auch darum, dass wir Unternehmen in Deutschland vielleicht doch nicht so Großunternehmen zeigen wollen, wie sie auch selber die digitale Transformation gestalten können. Oftmals stehen ja auch gerade kleinere Unternehmen vor der Herausforderung. Die digitale Transformation erhöht ja erst einmal den Grad an Komplexität im Unternehmen, weil ich mit dieser Technik Sicht durchgehen muss, alle Prozesse beleuchten muss. In vielen Unternehmen sind Prozesse gar nicht dokumentiert, sondern die haben sich so eingebürgert. Ich brauche neue tech Experten.

Ich kann vielleicht nicht einschätzen. Sind Sie wirklich gut oder sind die nicht gut? Damit geht natürlich auch Kontrollverlust einher. Digitale Prozesse sind. Nicht mehr Wenn du kein Techniker bist, verstehen sie nicht mehr analoge Prozesse. Hast du halt in der Hand oder haben die Leute in der Hand und die sind einfach leichter verständlich. Dennoch, da bin ich ganz bei dir, gehe ich davon aus, dass es diese ganzen STANDARD Prozesse der Unternehmen, die nur Geld kosten.

Ich weiß nicht, wieviel Versicherungen generell billiger werden könnten, wenn man diese ganze Verwaltung runter dampft, auf die wirklich schwierigen Fälle und die ganzen Standart Fälle einfach mit Software abwickeln kann. Das ist ja heute auch schon. Es gibt Versicherungen, die Kasse monatlich ein und ausschalten zum so eine Reiseversicherung. Die buche ich nur, wenn ich eine Reise mache und schaltet einen Monat danach wieder aus.

Und das sind so einfach cool, dass man das machen kann.

Warum das so schwierig ist? In deutschen Unternehmen ist meines Erachtens, weil man noch sehr in Strukturen denken. Das heißt, du ziehst Strukturen in deinen Unternehmen ein mit Abteilungsleitern und Bereichsleiter, mit einer eigenen Profit, Lein, eigenen Reporting und so weiter und so fort. Das führt dazu, dass Silos entstehen und die vielleicht vielleicht ein Anführungsstrichen für sich effizient und effektiv arbeiten. Aber wir wissen nun alle, dass im Prinzip so ein Unternehmen nicht nur in Silos funktioniert, sondern kurz funktional sein muss, wo viele Menschen miteinander Abteilungs, Grenzen, arbeiten müssen, kommunizieren müssen.

Und da vergeht halt extrem viel Energie darauf, allein schon Entscheidungsprozesse. Wenn du im Entwickler-Team bist und irgendwas machen willst oder brauchen willst, dann musst du das nach oben kommunizieren. Dann von einem Teamleiter, dann geht so ein Abteilungsleiter vielleicht sogar irgendwo in den Vorstand, bis es wieder zurück kommuniziert ist all diese Wege, diese Entscheidungsfindungen, die funktionieren in einem digitalen Unternehmen nicht. Das heißt, du musst schnell Entscheidungen treffen.

Das zum einen und zum anderen glaube ich auch die Unternehmen. Das hängt mit der digitalen Transformation zusammen, ist aber nicht eine ausschließliche Folge. Davon müssen sich wieder mehr auf den Kundennutzen konzentrieren, weil dem Kunden nutzt das überhaupt nichts. Ob da fünf Abteilungen miteinander sprechen oder eine, das ist dem Kunden auch vollkommen egal. Er möchte seine Leistungen haben, das Herz der Geschäftskunden oder der Privatkunde. Er möchte einfach sein, seinen Job erledigt haben, und ich glaube, es ist Aufgabe der Unternehmensführung, eine große Herausforderung.

Jetzt haben mehr über die Probleme der digitalen Transformation gesprochen. Jetzt kommen wir mal zu den Herausforderungen für die Unternehmen. Ich glaube, die Aufgabe, die digitale Transformation voranzutreiben, ist ganz klar eine Aufgabe der Unternehmensführung. Schafft ein Unternehmen die digitale Transformation nicht, liegt das in der Verantwortung der Führung. Ganz klar für mich. Weil die Führung muss verstehen Okay, wir müssen uns wandeln. Sie müssen das tragen müssen. Meiner Ansicht nach funktionieren auch diese klassischen Hierarchiestufen nur noch bedingt, sondern sie müssen quasi lernen, Verantwortung abzugeben in einzelne Fachbereiche, die dann autark Entscheidungen treffen können, um eben schnell reagieren zu können.

Das haben mir auch manche mitbekommen, dass sie quasi Verantwortung für ein Projekt, für ein Produkt komplett abgeben. In Anführungsstrichen Startup Team Cross funktional besetzt ist und selber entscheiden kann, also schnell mit einem gewissen Budget ausgestattet ist. Und man sieht das schon mal hier und da, aber leider viel zu selten.

Dieses Abgeben von Verantwortung bedingt natürlich auch eine offene Fehlerkultur. Natürlich werden Fehler passieren, und natürlich ärgert sich der Vorstand darüber. Aber in der digitalen Welt ist es oftmals wichtiger, schnell zu sein, an Stelle fehlerfrei zu sein. Mir fällt jetzt ein großer amerikanischer Zahlungsdienstleister ein. Wenn er schon Jahre am Markt ist, dann überlegen sich die europäischen Banken Mensch, so was machen wir auch. Und wir haben auch schon drei Banken, die mitmachen. Also für mich als Digital Native ist völlig klar Das kann so nicht funktionieren.

Entweder müssen alle mitmachen, und das am besten auch schon schnell. Wenn der amerikanische Dienstleister sozusagen gerade auf ploppt oder du kannst es gleich sein lassen, dann hast du diesen Markt einfach verloren. Und dann Post oder gar nicht mehr anfangen. Wenn ein digitaler Player laufen ist und Erfolg hat. Und jetzt kommen die anderen auf die Idee Mensch, das mache ich auch. Dann ist der Drops gelutscht, weil durch diese Netzwerke Effekte in der digitalen Welt ist es unmöglich oder nur mit extremen Ressourceneinsatz möglich, diesen Weg gelaufenen schon einzuholen?

Das beste Beispiel ist WhatsApp auf dem Handy. Du könntest jetzt einen Messenger rausbringen, der doppelt so gut ist, schöner, schneller, bunter auf mehr Handys läuft. Den würde keiner mehr laden, weil das einfach verloren ist, weil es keinen Bedarf mehr gibt. Und der Bedarf wird von einer vorhandenen Lösung zu hundert Prozent erfüllt. Und damit bist du da raus. Also offenes Mainstadt? Offene Fehlerkultur ist ganz, ganz wichtig und meiner Ansicht nach die größte Herausforderung auch für den Vorstand oder für die Leitung eines Unternehmens.

Und es reicht nicht, einfach nur Coaches zu beauftragen.

Da spricht ja ich weiß frei. Die sagen Okay, wir machen alles agil, und damit wird das schon. Man muss sich wirklich als. Die harten, ehrlichen Unternehmer fragen stellen Können wir unsere Mitarbeiter schulen? Auf diese neue Denke können und wollen diese Menschen diesen Transformationsprozess gestalten. Es gibt, wenn man sich ehrlich fragt, auch Branchen. Da muss man mit Nein antworten. Da ist die Frage Was machen wir hier? Weil die digitale Transformation wird jedes Unternehmen betreffen, unabhängig davon, auch wenn man in der Industrie tätig ist und Werk Teile herstellt.

Das ist ganz klar, dass man davon betroffen sein wird. Und die Antwort ist Nein, wir schaffen das nicht mit diesen Menschen. Dann muss man auch daraus Konsequenzen ziehen. Auch das haben Unternehmen gemacht, dass sie sagen Okay, die Firmen Bereiche, die noch laufen, die verkaufen. Wir nehmen dieses Geld und investieren in digitale Unternehmen, um sozusagen über die, wenn man so will, über die Kreditkarte oder übers Bankkonto die digitale Transformation zu gestalten. Man verkauft die Unternehmensteile, die eben nicht sich nicht digitalisieren wollen oder wo man den Aufwand als zu groß vermutet, und beteiligt sich dann an Digital Unternehmen, also auch die Mitarbeiter mitnehmen.

Welche ängste haben die Mitarbeiter? Wie können wir diese abbauen und sich wirklich hart fragen Kriegt man das mit der Mannschaft hin? Ich glaube, das muss man, muss man sich eingestehen, wenn es so ist. Und wenn auch nicht so ist.

Dazu muss man sagen Was mich auch nur ein bisschen irritiert, ist grundsätzlich die Angst Schüren der Medien. Datenschützer Katastrophen heraufbeschwören, jede aufkommende Technologie erst einmal hinterfragen und schlecht reden und immer nur die Seite herausstellen. Was als Gefahr gesehen? Bestes Beispiel künstliche Intelligenz. Wir haben für die meisten Deutschen Dawid nicht den Vorteil, dass diese Technologie alles bewirken kann, egal, ob es mein Leben physikalisch, finanziell oder so verbessern kann. Was für ein Potenzial dahinter steckt? Darüber reden wir nicht.

Wir fangen sofort an mit den Bedenken und was das alles kaputt machen könnte. Oh Gott, ich habe mir einen normalen Deutschen. Künstliche Intelligenz würde sagen, ich habe Angst um meinen Job. Aber das Einzige, was hauptsächlich hörst, dass dein Job zerstört. Ja, das ist ein Aspekt. Aber könnte ich zehn andere Aspekte aufzeigen, wie es wieder neue Jobs schaffen, wie es dein Leben vereinfacht? So, und das ist jetzt ein Bumerang. Genauso wie mit dem Internet.

Das böse Internet. Und jeder ist eine böse Datenkrake. Wir müssen jetzt wie auf den Straßen überall Schilder hochhalten Achtung, Achtung, JavaScript! Achtung! Das ist schon fast absurd. Aber was das bewirkt, ist, dass es bei den Menschen subtil Angst heraufbeschwört vor diesen Technologien. Und wenn du all das, ohne zu hinterfragen, jahrelang praktiziert, dann darfst du dich nicht wundern. Wenn die Menschen Angst vor der Technologie haben, dann ist es schwierig, Menschen abzuholen, Mitarbeiter abzuholen, weil sie schon eine subjektive Meinung gebildet haben über die Zeit.

Genau das meinte ich mit Mitarbeiter mitnehmen. Es ist natürlich die Berichterstattung, und die Medienberichterstattung ist so, wie du sagst, dass man da sehr ängstlich, aber auch Politik Cumbia das Einzige.

Das Einzige, was uns zum Thema einfällt. Alle sind sich bewusst künstliche Intelligenz. Wir müssen da mehr tun. Wir müssen fördern bla, bla, bla, bla, bla. Die erste Amtshandlung ist doch tatsächlich ein Vorschlag. Wir müssen in alle Unternehmen einen Algorithmus Beauftragten installieren, so ähnlich wie der Datenschutzbeauftragte. Das ist in Absurdität gar nicht mehr zu überbieten.

Die deutsche Angst German Angst ist natürlich auch legendär. Ich glaube, das einzige, wo digitale Transformation wirklich ein Dämon ist, ist, wenn du Angst vor Veränderung hast. Es wird sich was verändern. Das ist jedem klar. Aber Veränderung Nummer ist das kann man gestalten, und das kann man zum Positiven und zum Negativen gestalten. Die KI ist ja nur ein Vehikel, wie ein Flugzeug ein Vehikel ist oder ein Auto ein Vehikel. Und viele Menschen fahren mit dem Auto zur Arbeit, und ein paar Verrückte fahren mit dem Auto, verletzten andere Menschen.

So und genau so ist das auch mit neuen Technologien. Die sind nicht per se gut oder per se schlecht, sondern es kommt darauf an, was man daraus macht. Ich meine jetzt, wir sitzen hier in der Mitte der Coruna, Pandemie, viele Leute, die überwiegend am Bildschirm arbeiten oder digitale Arbeitsplätze haben, die konnten normal weiterarbeiten. Man stelle sich nur mal vor, diese Pandemie hätte uns Mitte der 80er erreicht, wo das Internet noch überhaupt nicht ausgebaut war.

Das wäre einfach Hetze, die Volkswirtschaft komplett gestoppt.

Da wäre keiner zur Arbeit gegangen oder hätte keiner seine Arbeit erledigen können von zuhause, außer vielleicht mit dem Telefon. Aber das ist schon ein riesengroßes Glück, dass das Internet so gut ausgebaut ist. Zu der Zeit, wo das passiert war, definitiv. Und ich glaube, auch das ist ein absoluter Beschleuniger. Jetzt auch. Covert 19 hat so viel zur digitalen Transformation beigetragen, mit zehn Regierungen das nicht leisten können. Für mich als Technologie begeisterten. Ich kann das nicht so ganz nachvollziehen, wie man immer vor allem Angst hat.

Ich versuche immer Okay, das hat Risiken. Wenn man den Führerschein macht ja, natürlich hat ein großes Auto, was man bewegt, irgendwie Risiken, aber man lernt, damit umzugehen. Dann kann man eben auch damit sehr schöne Strecken fahren und Mobilität genießen. Aber man muss eben lernen, damit umzugehen. Und das ist auch ganz wichtig. Oder die Botschaft an die Menschen und draußen lernt und die Unternehmen lernt, damit umzugehen, und beschäftigt euch damit, weil die digitale Transformation wird euch früher oder später auf jeden Fall betreffen.

Egal, welches Geschäft ihr heute habt.

Vielleicht haben wir auch darauf ein, was die wirklich wichtigen Entscheidungen für Unternehmen sind, die von der digitalen Transformation stehen oder diese gerne aktiv gestalten wollen. Das ist ja ganz wichtig, um wie wir dabei helfen können. Wir haben ja schon mal so einen Prozess skizziert, wie wir Big Data Projekte durchführen. Um bei der digitalen Transformation ist es auch wichtig, dass man am Anfang erst einmal eine Bestandsaufnahme macht. Wo steht die Firma heute? Welche Prozesse sind überhaupt wertvoll und wer welche überhaupt nicht digitalisiert werden und schon rausfallen, weil man sie eigentlich nicht braucht?

Welche Prozesse sollen digitalisiert werden? Also hier. Die Strecke für zur Pflege wäre hier ein super Beispiel. Dafür Geld sparen können, wenn das einmal implementiert ist und der Service sogar noch besser würde für die Endkunden. Was wir als Gilbert machen ist, dass wir erst einmal eine Digitalisierung Landkarte erstellen und gucken. Wo sind denn deine Potenziale als Unternehmen und die mit den strategischen Zielen des Unternehmens? Im Prinzip übereinanderliegenden zu gucken. Was ist im ersten Schritt notwendig, um die digitale Transformation zu gestalten?

Und welche Technologien können wir verwenden, um dich dahin zu bringen? Das ist ganz wichtig. Digitale Transformation steht schon. Der Name sagt es schon, hat immer auch mit Technologien zu tun. Und wir konzentrieren uns am Anfang immer darauf, dass wir den Unternehmen erst einmal. Ich sage mal die einfachen Punkte zeigen, die schnell erreicht werden können. Auch dass man so ein Motivationsschub mitnehmen kann, um dann eben in weiteren Schritten dann die Ausbaustufe 2 und drei der Komponenten anzugehen.

Also wir gucken schon Welche digitalen Lösungen gibt es heute oder welche können wir entwickeln, um die aktuellen Unternehmensziele zu unterstützen? Und während dieser Brainstorming Session oder dieser Planung fallen oftmals auch Ideen für neue Geschäftsmodelle ab, die man dann erproben kann mit der WP Methode. Andreas von Valeo Salopp gesprochen Genau da geht es ja. Darum geht es ja darum zu prüfen. Hat das Perlet für die Kunden vielleicht, sagen wir, als Gilbert helfen können. Also einmal bei der Enterprise Softwareentwicklung.

Wir können gerne zeigen, wie man agile Lösungen entwickelt im eigenen Unternehmen also. Agil heißt für uns, dass man kurze Zyklus Zeiten hat und dabei das Unternehmen die volle Kostenkontrolle besitzt, quasi eine fortwährende Ost und Leistungskontrolle sehen kann, ob sich die digitalen Prozesse in die richtige Richtung entwickeln. Ein ganz zentraler Punkt ist das Aufsetzen von Pipelines, also Continuous Integration, Continuous Delivery. Da geht es darum, dass im Grunde die Artefakte oder die Software Komponenten, an denen die Entwickler bauen, dass sie jeden Tag ausgerollt werden können, an Borten Feature.

Man testet das Feature, und es kann. Die Zeit von Coding zu Produktions Release ist relativ gering. Was wir auch machen, ist Enterprise Softwareentwicklung, vorzugsweise mit Java und Micro Services, wo wir dann eben die in der Identifikationen Phase ausgeschriebenen Anforderungen umsetzen.

Genau. Wir konzentrieren uns auf den Technologiepark in der digitalen Transformation, können aber natürlich, weil wir das in mehreren Unternehmen schon gemacht und gesehen haben, sehr, sehr gut einschätzen, was die Schiedsstellen dazu sind, wie die Kommunikationsprozesse zu den Mitwirkenden sein müssen, wie die Entscheidungsprozesse sein müssen, also nicht nur die reine Technologie. Wir setzen sein Programmieren, sondern können dem Kunden gegenüber auch sehr gut kommunizieren, wie das bei einer digitalen Transformation auch die Technologie implementiert sein muss, kommuniziert werden muss, um zu den anderen Schnittstellen zu funktionieren.

Meistens ist es ja so, dass man es eingangs als ersten Grad bezeichnet, dass man im Prinzip vorhandene Prozesse digitalisiert, also eine Bestell schrecken. Dann zum Beispiel auf eine API Strecke, also eine Schnittstellen Strecke umbaut, das Thema automatisch Bestellungen auslösen können anhand gewisser Parameter, und dass man im Zuge dessen dann weitere Potenziale identifiziert. Dass man dann auch strategisch den Unternehmen unterstützt und sagt hier das und das und das sind Potenziale als Entscheidungs Vorschlag im Prinzip für den Vorstand, dass er schauen kann, ob das auch noch Projekte sind, die interessant sind und die strategisch zum Unternehmen passen.

Gerade im Bereich der Dobbs kann man Unternehmen ja sehr stark unterstützen, was die digitale Transformation angeht. Vielleicht möchtest du dazu etwas sagen.

Das Thema, was unten drunter schwingt, ist, wie du gesagt hast, sofort ein ganz einfaches Beispiel ein Konkurrent, ein Feature eingeführt, und das funktioniert super. Du brauchst das auch.

Wie lang will sie jetzt warten und diskutieren implementieren und die Pleuel bis zu dieses Feature am Start? Vielleicht bist du auch selber der Innovator und sagt Ich möchte verschiedene Interaktionsmöglichkeiten ausprobieren. Mit dem Kunden, um zu gucken und messen natürlich, was am besten funktioniert, um zu sagen Okay, wir schlagen jetzt diesen Weg weiter ein. Und das ist das, wobei es hilft. Das heißt, es nimmt hier in der gesamten Software-Entwicklung Sketche gefegt, dass die Entwickler Operations und die Infrastruktur schnell zu sein, wenn es sein muss, mehrmals am Tag in Produktion.

Eine änderung in der Webseite zu bringen, kennen die meisten, die diese digitale Transformation noch nicht haben, wenn sie Software bauen wollen oder lesen wollen. Selbst ins Web dauert das monatelang. Und wenn du etwas machst, dann machst du etwas anderes kaputt. Fürs neue Batz ein und, und, und, und. Das wollen wir mit der Woolfs Movement, mit den Tools und Prozesse auch. Da geht es nicht nur um Technologie, sondern auch um ein Meint.

Es geht auch um Daten getriebenes Handeln. Ich messe, wie oft ich am Tag die Pleuel vielleicht eingeführt habe, um mich dann verbessern zu können. Das heißt, dieser ganze Zyklus geschieht auch innerhalb des Webs für sich allein, um den Prozess kontinuierlich zu verbessern und Software immer schneller und Qualitätssicherung an Bord zu kriegen. Da gibt es neue Bewegungen wie Check ups. Oft ist es so, dass du, wenn du entwickelst, dann hast du noch die Security Abteilungen, die ein Strich durch die Rechnung macht.

Die verlangen dann Stadtmodell. Wie wollen, wie compliance-abteilung sagen Wir müssen aufpassen, dass da keine Third Party Lizenzen verletzt werden? Beispiel Lycée von Oracle oder bestimmte Compliance-Regeln Policies eingehalten werden. Das ist alles, was diesen Zyklus behindert. Und das führt Tools ein Voodoo. Stichwort Policy Code.

Dass du quasi diese Firmenpolitik genauso wie Infrastruktur Code als Code signiert hast und Tools automatisiert checken können, ob du Compliance bist. Das verhindert einmal Fehler, teure Fehler. Wenn du mal mit so einem Ding durchgeht, weil der Mensch vielleicht einen Fehler gemacht hat. Das macht ein Tool nicht, wenn es automatisiert ist und man dementsprechend gefüttert hat. Da wird jetzt immer mehr automatisiert, um so einfach Geschwindigkeit aufzunehmen. Und es ist ganz einfach der, der das macht, der ist schneller.

Werde es nicht mal langsamer und geht die Gefahr ein, irgendwann obsolet zu werden, weil die anderen an ihnen vorbeiziehen?

Das eine ist Geschwindigkeit beim Ausrollen neuer Funktionen, das andere ist natürlich auch Geschwindigkeit in der Skalierung selber. Also wenn eine Anwendung dann gefordert wird. Ich sehe das bei unseren Kunden. Die starten ein Service oder auf einer Webseite integriert. Dann funktioniert es ganz gut aus dem Datenblatt. Ich spreche jetzt mal und dann sag mal okay, wir möchten das in allen unseren Webseiten drin haben, haben aber dann pro Monat 4 Milliarden Requests. Von heute auf morgen explodieren die Zugriffszahlen, und das kriegt man natürlich auch hin mit dieser DVB-S Entwicklungsmodell, das man auch sagt.

Okay, die Infrastruktur beschreiben wir heute als Code und das läuft im eigenen Rechenzentrum oder in der Cloud. In der Cloud können wir dann raus skalieren. Heute machen wir es auf zwei Servern, übermorgen machen wir es dann auf 200, ohne was zu bestellen. Sehr schnell. Vielleicht funktioniert die Anwendung auch nicht. Dann melden wir die 200 Server wieder ab und können dann weitermachen. Mir kann dann aber sehr schnell verloben und sehr schnell neue, werthaltige Geschäftsführer des Unternehmens finden.

Das, was wir eingangs gesagt haben Geschwindigkeit, ist oftmals wichtiger als fehlerfreiheit, um eben natürlich auch in Grenzen. Wenn man eine Steuerung fürs Atomkraftwerks sollte man vielleicht dann doch anders priorisieren. Aber gerade im Bereich Web muss man einfach schauen, dass man schnell neue Dinge ausprobieren kann.

Ich will hier mal ein Beispiel nennen, was ich anfangs sagte dass dieses Silo, Denken und Kommunikation mit dazugehört. Ich habe mal einen Kunden gehabt im konsumgüterbereich, der mit vielen filial, da die Marketingabteilung eine Werbung geplant und geschaltet, wo plötzlich dann natürlich über Nacht die Zugriffszahlen, genau wie eben gesagt, in die Höhe geschnellt sind. Dementsprechend der Schopp nicht mehr funktioniert hat. Das heißt, man hat irgendwie künstlich Service selber eingeführt. In einem Unternehmen, das die digitale Transformation durchmacht, gilt es, diese Kommunikationswege so zu vereinfachen, so agil zu gestalten, dass man voneinander weiß und dann zum Beispiel für die Skalierung sorgen, für die automatische Skalierung mit Autos gelingt oder was auch immer.

Wozu das dann führt, wenn man das nicht macht, sieht man halt.

Das Unternehmen ist gewissermaßen Opfer seines eigenen Erfolgs geworden. Ich kann auch aus dem Nähkästchen erzählen. Das war nicht mein Projekt. Aber ein befreundeter Berater hat mir mal erzählt Eine Bank wollte ein Online-Konten beworben, zur Prime Time während eines Bocks Kampfes. Da sind auch die Call-Center, und die Webseite dieser Bank war überlastet, weil so viele Leute sich dann anmelden wollten. Und das war der beste Tag für die Konkurrenz, die dann alle verstehen. Oh ja, bei A kann ich das jetzt nicht abschließen.

Aber B hat doch auch ein Online-Konten. Und genau da ist der Schuss. Nach hinten losgegangen. Okay, das war jetzt Softwareentwicklung und warum ist das wichtig? Du hast ja schon die Datentypen angesprochen. Wir bei unserer Big Data Abteilung gehen so vor. Wir brauchen eine eigene podcaster Episode, wo wir genau zeigen, wie der Prozess ist. Aber ich fasse ihn hier noch mal kurz zusammen. Dass wir anfangs eine Daten Anamnese machen bei den Unternehmen, die Unterstützung im Bereich digitaler Transformation anfragen, dass wir sagen Welche Daten hat das Unternehmen, welche Möglichkeiten ergeben sich aus diesen Daten?

Dass wir neue Daten, Produkte, proben. Das haben wir ja auch letztes Jahr schon mal für den Kunden gemacht. Ich glaube, einen Monat oder zwei Monate haben wir ausprobiert, ob das so funktioniert, wie wir uns das vorstellen. Und dass man dann sehr schnell sagt Okay, die Daten sind hinreichend. Man kann das neue Produkt bauen, oder man muss noch hier und da mehr Daten einsammeln oder die vorhandenen Daten bereinigen, um dann die gewünschte Leistung herauszubekommen.

Das ist natürlich sehr charmant, dass man da sehr schnell einsteigen kann. Oftmals ist es auch so, dass unsere Kunden möchten, dass wir die Daten mittlerweile in Echtzeit bereitstellen oder in Echtzeit ein sammeln, damit die Software Komponenten in Echtzeit Entscheidungen treffen können und letztlich damit auch die Unternehmen in Echtzeit Entscheidungen treffen können. Und wir hatten jetzt eine Anfrage Anfang des Jahres, wo es darum ging, Daten Markt zu konzipieren. Also, wenn du dich daran erinnerst, aber ein großes Unternehmen, was von vielen, vielen Kunden Verbraucherinformation sammelt und eben diese Informationen in anonymisierter Form dann wiederum weiteren Geschäftskunden bereitstellen möchte und im Grunde mit diesen Daten handelt, zum datenblöcke wird.

Großes Potenzial liegt auch an der Vereinheitlichung von Daten Strecken innerhalb der Unternehmen, sodass man mal dokumentiert Welche Daten habt ihr eigentlich und was geht wohin und was kommt von b&o? dashboards und Reports stehen auch einmal ganz vorne, gerade damit die Unternehmensführung oder das Controlling weiß. Wo steht die Firma gerade? Es gibt oft regulatorische Anforderungen von Börsen gelisteten Unternehmen, die quasi zu jedem Zeitpunkt sagen müssen, wie viel, wie viel Geld es in der Kasse. Sag ich mal vereinfacht Um welche Verbindlichkeiten haben wir sie im Prime STANDARD richten können?

Immer mehr. In der jüngsten Vergangenheit werden Produktion Modelle angepackt. Wann fällt welche Maschine aus? Welche Kunden werden vermutlich kündigen? Welche Reichweiten haben wir mit diesen und jenen Kampagnen? Voraussichtlich nehmen wir die Kampagne so und so gestalten. Welche demografischen Daten füllen die Nutzer, die diese Kampagne vermutlich konsumieren werden, sodass man quasi im Vorfeld schon so eine Art Erfolgs Abschätzung macht? Bei all diesen Punkten unterstützen wir natürlich gerne, um den Unternehmen zu helfen und sie nach vorne zu bringen.

Also Angst haben muss niemand. Man muss sich nur vor der digitalen Transformation Angst haben, muss niemand zu dem Punkt stehen eine Chance? Auf jeden Fall. Man muss sich eben nur mit dieser Thematik beschäftigen und auch den Mut haben zu sagen Hey, wir gehen das an. Wir gestalten das aktiv. Lidl hat jetzt die Schwarz-Gruppe. Muss man sagen. Die Familie hinter Lidl hat jetzt vor einer Woche bekannt gegeben, dass Sie ein eigenes Klout Angebot aus dem Boden stampfen möchten.

Ich bin gespannt, wie sich das entwickelt. Meiner Ansicht nach 15 Jahre zu spät, aber beste. Die werden auch nicht dumm sein und werden sich genau überlegt haben, was sie tun. Sie haben eine Menge Innovationskraft und Finanzkraft, um da was auf die Beine zu stellen. Da bin ich ganz gespannt. Hast du noch einen Punkt? Eine wirklich wichtige Entscheidung, der sich ein Unternehmen stellen muss, welches über digitale Transformation nachdenkt.

Was wir machen können. Ich finde, das Thema lässt sich noch ein bisschen länger diskutieren. Und was hältst du davon, wenn wir so eine Serie mit vielleicht noch zwei oder drei weiteren Podcast machen, um dieses Thema dann die nächsten, vielleicht etwas praktischen Tipps, wie man, wenn man diese Dinge angehen kann, sehr gerne.

Wenn man mal cool, wenn unsere Zuhörer Fragen haben oder Feedback. Können Sie uns gerne eine E-Mail schreiben? An Podcast bei T. Wir freuen uns, wenn ihr den Podcast abonniert oder eine externe Bewertung da lasst und für weitere Technologien Themen. Schaut gerne auf www. Skill bei slash blog vorbei. Wunderbar.

Ich wünsche dir noch einen schönen Abend, dein gewöhnlich gut, du auch.

Maurice KnoppSkillbyte Podcast #22: Digitale Transformation ist eins der Härtesten
Mehr