All posts tagged: cloud

Skillbyte Podcast #48: Grundkenntnisse und Skills für ALLE IT-Fachkräfte

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Grundkenntnisse und Skills für ALLE IT-Fachkräfte

// Inhalt //
01:29 – Was euch die Hochschule NICHT beibringt…

02:59 – Themenkomplex: Datenhaltung und -verwaltung
03:34 – SQL – Structured Query Language bei relationalen Datenbanken
05:53 – NoSQL – Not only SQL bei schemafreien Datenbanken
07:02 – Hashtabelle / HashMap
08:23 – häufige Datenvormate: JSON, YAML, CSV
10:37 – Zusammenfassung: Datenhaltung und -verwaltung

10:49 – Themenkomplex: Netze und Protokolle
11:13 – IP Adressen und -netze, Ports, NAT, Router, Gateway, TCP/UDP, Routing, Datenpakete, Firewalls
14:20 – HTTP Protokoll inkl. Status Codes und Zertifikaten für HTTPS
15:19 – REST APIs

16:13 – Themenkomplex: Systeme und Plattformen
16:25 – Linux, Kommandozeile / CLI (Bash), vi, nano, SSH, scp
18:46 – Docker, virtuelle Maschinen
19:35 – Cloud computing, Dienste und Orchestrierung dieser
21:06 – Cloud Native Software Development

23:00 – Themenkomplex: Arbeit mit Sourcode
23:09 – Code Versioning: GIT (branching, merging, rebasing), github.com, gitlab.com
25:17 – Integration von CI/CD Pipelines, GitHub Actions, Gitlab CI/CD (gitlab-ci-yml)

26:14 – Themenkomplex: Debugging
26:19 – Logdateien lesen
27:48 – Debugger konfigurieren und einsetzen

30:06 – Themenkomplex: Produktivität & Zielorientierung

32:45 – Zusammenfassung aller Themengebiete
34:21 – Podcastempfehlungen zur Vertiefung

// Weiterführende Episoden je nach Schwerpunkt //

Podcast #9: Bull’s Eye Software Development – Einfach und fokussiert auf Unternehmensziele
https://soundcloud.com/skillbyte/podcast-9-bulls-eye-software-development-einfach-und-fokussiert-auf-
unternehmensziele

Podcast #8: Must-have Skills, Technologien und Weiterbildung für DevOps
https://soundcloud.com/skillbyte/podcast-8-must-have-skills-technologien-und-weiterbildung-fur-devops

Podcast #7: Must-have Skills, Technologien und Weiterbildung für Data Engineers und Data Scientists
https://soundcloud.com/skillbyte/skillbyte-podcast-7-must-have-skills-technologien-und-weiterbildung-
3fur-data-engineers-und-data-scientists

Podcast #6: Must-have Skills, Technologien und Weiterbildung für Full-Stack Entwickler
https://soundcloud.com/skillbyte/skillbyte-podcast-6-must-have-skills-technologien-und-weiterbildung-
fur-full-stack-entwickler

Podcast #29: Die Zwölf Faktoren des Cloud Native Development (Teil 1)
https://soundcloud.com/skillbyte/podcast-29-die-zwolf-faktoren-des-cloud-native-development-teil-1

Podcast #30: Die Zwölf Faktoren des Cloud Native Development (Teil 2)
https://soundcloud.com/skillbyte/podcast-30-die-zwolf-faktoren-des-cloud-native-development-teil-2

// Weiterführende Blogposts mit mehr Informationen //

Tutorial: IT-Basiswissen für DevOps, Big Data, Developer
https://www.skillbyte.de/tutorial-it-basiswissen-fuer-devops-big-data-developer/

Onboarding neuer IT-Mitarbeiter (DevOps, Big Data, Developer)
https://www.skillbyte.de/onboarding-neuer-it-mitarbeiter-devops-big-data-developer/

Must-have Ressourcen, Skills und Techniken für Data Engineers und Data Scientists
https://www.skillbyte.de/must-have-ressourcen-skills-und-techniken-fuer-data-engineers-und-data-scientists/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Okay, ich habe jetzt meine Hochschule oder meine Ausbildung abgeschlossen. Was wird denn jetzt tatsächlich von Firmen im Alltag gefordert? Diese Skills werden oft an den Unis vernachlässigt, sind aber ganz relevant für den Berufsalltag, für die Berufspraxis. Wenn ihr mit Kollegen zusammenarbeitet.

Herzlich Willkommen zur Gewalt Podcast Episode Nr. Achtundvierzig Grundkenntnisse und Skills für alle IT-Fachkräfte Abonniert unseren Podcast für mehr spannende Themen aus dem Technologie Umfeld, wenn er IT Entscheider oder die Fachkraft seid. Wenn ihr eine Frage habt, sendet uns gerne eine E-Mail an Podcast Amtsgewalt D Wir freuen uns immer über Bewertungen und ganz besonders an Weiterempfehlung dieses Podcasts, an Freunde und Kollegen, die sich ebenfalls für diese Themen interessieren. Das ist uns ganz wichtig.

Und heute möchte ich darüber sprechen, welche Grundkenntnisse und Grundfähigkeiten denn für alle IT-Fachkräfte wichtig sind. Gerade wenn ihr vor dem Berufseinstieg steht und euch fragt Okay, ich habe jetzt meine Hochschule oder meine Ausbildung abgeschlossen, was wird denn jetzt tatsächlich von Firmen im Alltag gefordert? Und hier ist mir ganz wichtig, dass ich Themen anspreche, diese Wohlfühl Softwareentwickler, Admins, DevOps, Data Engineers von Belang sind und die für alle diese Berufsgruppen wichtig sind. Diese Skills werden oft an den Unis vernachlässigt, sind aber ganz relevant für den Berufsalltag, für die Berufspraxis.

Wenn ihr mit Kollegen zusammenarbeitet und häufig ist es so, dass das so Grundfähigkeiten sind, die euch dann auch niemand mehr so richtig erklären möchte, weil das einfach so ein Brot und Butter Geschäft ist, dass ihr das am besten dann zuhause nachliest oder die Kollegen schon mit den Augenrollen, wenn so eine Frage gestellt wird. Davor möchte ich euch bewahren und einfach ein paar Denkanstöße geben, paar Themen geben, die ja durcharbeiten könnt, wo ihr euch mit beschäftigen könnt und dann voll in den Berufseinstieg glänzen könnt und dadurch starten könnt.

Was befähigt mich dazu? Ich bin seit über 16 Jahren Softwareentwickler und seit über acht Jahren in der IT Beratung tätig, habe also schon viele Unternehmen gesehen und viele Projekte durchgeführt und habe dadurch einen breiten Erfahrungsschatz aufgebaut und sehe dann immer das neue Ankömmlinge Junior Entwickler Junior Dev Orbs Junior Atmens oft die gleichen Fragen haben, die mit einer Woche oder zwei Wochen Vorbereitung zu klären wären und wo man dann einen viel besseren Einstieg ins Berufsleben finden würde. Also vielleicht wenn ihr Einsteiger seid, sendet ihr euren Kommilitonen auch diese Podcast Episode und macht es euch sehr viel einfacher direkt erfolgreich ins Berufsleben einzusteigen.

Ich freue mich auf jeden Fall und wenn ihr Fragen habt. Wie eingangs erwähnt, schick mir gerne eine E-Mail, wenn ich ein Thema vergessen habe. Eurer Meinung nach sendet meine E-Mail an Podcast beide Punkte. Das erste Thema, wobei ich heute sprechen möchte, beschäftigt sich mit der Datenhaltung und Verwaltung. Ihr könnt euch ein Computersystem so vorstellen, dass es sich im Grunde um einen Datentyp handelt oder um mehrere Daten Zöpfe, um die drumherum Code gebaut wird. Also Decode nimmt die Daten, die in einer Eingangs Struktur vorliegen.

Das kann ein Bild sein und konvertiert diese Daten in ein anderes Format, ein Video, ein Bilder, Album usw.. Also im Grunde ist es immer so ihr habt Daten und der Computer Code macht etwas mit diesen Daten, transformiert diese Daten und gerade wenn es um das Thema Datenhaltung geht auch heute noch spielen relationale Datenbanken. Das sind Datenbanken wie Maria DB, My, SQL PostgreSQL, auch Oracle oder MS SQL eine große Rolle. Und alle diese Datenbanken werden über die STANDARD Abfrage Sprache SQL abgefragt.

Und egal in welchen Projekten, dieser SQL STANDARD wird euch immer wieder über den Weg laufen. Das ist auf jeden Fall eine Fähigkeit, die ihr brauchen werdet. In eurem Berufsalltag und die an der mannigfaltigen Stellen einsetzbar ist, ist es sogar so, dass neue Technologien, die hinzukommen z.B. wenn man an die Haddock Daten Platform denkt, die es jetzt auch gar nicht mehr so neu. Dann werden Werkzeuge extra so konzipiert, dass sie auf den vorhandenen SQL Standards aufsetzen können.

Also dass man mit der SQL Sprache, die sehr viele Entwickler bereits können, dann eben auch neue Anwendungsfälle abdecken kann. Also SQL absolut wichtig, um ein paar Beispiele zu geben. Ein paar Select Abfragen auf Tabellen Jeunes sind ganz wichtig. B. Jeune ich Daten zwischen zwei Tabellen Was ist eine Relation? Relation ist im Grunde genommen eine Tabelle. Was ist ein Primärschlüssel? Wie setze ich in die CS? Was für Vorteile haben in die CS? Welche Nachteile haben sie?

Schaut euch mal ihr Diagramme an. Also Entity Relationship Diagramme. Die habt ihr wahrscheinlich im Studium schon gesehen. Die werden auch in der Praxis eingesetzt und letztlich bilden die einfach nur Datenbank Schemas ab. Also an der Stelle nochmal wichtig die SQL Abfrage Sprache ist super wichtig. Schaut euch das an. Macht einfache Kluth abfragen also create read update Lettner fügt was ein, selektiert Ergebnisse, löscht meine Zeile. Update Meine Zeile so als Fingerübung. Da seid ihr auf jeden Fall schon mal gut gewappnet, weil SQL wird ihn mit an Sicherheit grenzender Wahrscheinlichkeit in eurem Berufsleben wieder auftreten.

Hier noch als Erweiterung. Die optionales Wenn ihr das Thema vertiefen wollt, könnt ihr euch auch Objekt relationale Mapper anschauen, sogenannte Ockhams. Hier geht es darum. Programmiersprachen sind häufig objektorientierte und ihr arbeitet mit Objekten. Daten werden aber immer, wenn sie in relationalen Datenbanken liegen, auf Tabellen abgebildet. Das heißt, es sind im Grunde zwei Welten und diese Object relationalen Mapper verbinden diese beiden Welten ist nicht unbedingt Voraussetzung, aber als Erweiterung. Wenn euch das Thema interessiert, würde ich das empfehlen, mal anzuschauen.

Kommt auch sehr häufig vor. Wir befinden uns immer noch in dem Blog Datenhaltung und Verwaltung. Und das zweite Thema, was sehr wichtig ist und was euch im Berufsleben auf jeden Fall über den Weg laufen wird, sind die sogenannten No ASCII Datenbanken wie beispielsweise Mongo DB, No SQL steht hier aber nicht für kein SQL, sondern für Not only SQL und es handelt sich um so genannte Schema freie Datenbanken. Was bedeutet das? Bei den relationalen Datenbanken haben wir schon festgestellt Es gibt Tabellen.

Diese Tabellen haben ein festes Format und alle Daten müssen in diese Tabellen hineinpassen. Bei den Schema freien Datenbanken ist das nicht der Fall. Da könnt euch vorstellen einen Such Index wird häufig mit Schema freien Datenbanken abgebildet und mit Dokumenten, die sich nach und nach erweitern. Also wenn man z.B. ein Dokument hat, das nennt sich Person, dann hat die Person vielleicht Vorname Nachname. Irgendwann kommt ein Führerschein hinzu, irgendwann kommt ein Schulabschluss hinzu, irgendwann heiratet die Person vielleicht und es kommt mir ein Link zu einer anderen Person hinzu.

Und das weiß man vorher alles nicht. Deshalb können die Dokumente in der Datenbank Personen nach und nach erweitert werden. Ohne Schema. Also SQL haben wir, No SQL haben wir, da gehen wir gleich noch genauer drauf ein. Ein weiterer Punkt zur Datenhaltung und Verwaltung, der euch auf jeden Fall begegnen wird, ist die sogenannte Hascht Tabelle oder auf Englisch Hash Map. Schaut euch bitte an, wie funktioniert eine Hash Map? Was für Vorteile habe ich bei der Hash Map?

Was? Eine Hash Map ist einfach eine Datenstruktur, die einen Schlüssel zu einem Wert abbildet. Im Grunde genommen könnt ihr euch vorstellen, ein Schlüssel muss eineindeutig sein wie eine Telefonnummer und der Wert könnte z.B. die Person sein, die hinter der Telefonnummer steckt. Wenn ich jetzt einen neuen Wert mit der gleichen Telefonnummer einfüge in diese Hash Tabelle, dann fällt der alte Wert raus und die neue Referenz. Also sagen wir mal die gleiche Telefonnummer gehört jetzt einer neuen Person, wird dann dort gespeichert.

Der Vorteil von einer hascht Tabelle ist, dass ein sehr schneller Zugriff ermöglicht werden kann, wenn man den Key errät. Wenn man die Telefonnummer weiß, kann man sofort den Namen der Person nachgucken in der O Notation, während er die Zugriffs Zeit würde sich als O von 1 darstellen, was der beste Fall ist und die Hash Tabelle läuft euch sehr sehr häufig über den Weg. Diese Datenstruktur beim Thema Caching, wenn ihr schnellen Zugriff auf Elemente benötigt bei Key Value Stores.

Ein unbekanntes Produkt aus diesem Bereich wäre z.B. Readers. Also schaut euch wirklich an, was ist eine Hash Tabelle? Wie funktioniert die? Gibt’s in allen Programmiersprachen. Macht euch mit dem Konzept vertraut. Das ist ganz wichtig. Als letzten Punkt bei Datenhaltung und Verwaltung möchte ich auf häufige Datenformate eingehen. Also ein häufiges Datenformat ist z.B. Jason Java Skript, Objekt Notation. Das habt ihr bestimmt schon mal gesehen. Das sind einfach abgerollt. Schlüssel, Werte, Kombinationen. Wenn man so möchte, also sucht nach Jason Fall, dann sieht er sofort, was ich meine.

Dieses Dateiformat kommt sehr sehr häufig vor. Und das wird zum Brot und Butter Geschäft während eurer täglichen Arbeitszeit werden bin ich ganz sicher. Ist auch sehr ähnlich beim Zugriff auf Novell SQL Datenbanken. Werdet die Abfragen an diese Datenbanken stellen. Da kommen dann Jason Dokumente zurück, also Jason Objekte zurück, wenn ihr auf irgendwelche Rest APIs zugreift. Da kommen wir gleich noch zu. Wird ebenfalls wie mit Jason Objekten gearbeitet und also an Datenformat. Jason kommt da nicht vorbei.

Wenn ihr nicht wisst was das ist. Schaut es euch an. Macht euch damit vertraut und es ist sehr, sehr wichtig. Ein zweites Datenformat, insbesondere für Konfigurationsdateien ist das sogenannte Jamel Dateiformate.

Jamel und Jason sind austauschbar. Also man kann Jason Datei als Jamil Datei schreiben und eine Jamel Datei als Jason Datei ist ein bisschen der Geschmacksfrage. Jason Dateien werden häufig zur Verwendung von Daten zum Austausch von Daten Objekten verwendet. Jamil Dateien sind oft Konfigurationsdateien, also Latin oder Markup. Länge ist die geschriebene Abkürzung und die neuen Technologien nutzen alle diese Sprache zur Konfiguration. Ein drittes sehr häufig anzutreffen das Dateiformat ist das sogenannte CSV Dateiformat. Häufig liegen Daten Exporte in dem CSV &comma.

Seppl rated beliefs vor. Das könnt euch so vorstellen, dass im Grunde einfach eine Tabelle abgerollt wird und alle Daten mit Kommas getrennt hintereinander geschrieben werden. Und das ermöglicht es auch Systemen, die keine Kenntnis voneinander haben, mit diesen Daten zu arbeiten. Also irgendein System, was mal erstellt wurde, kann Daten in CSV exportieren, z.B. eine Telefonrechnungen und ein anderes System. Was? Einige Jahre später erst danach erzeugt wurde, kann man diese Daten eben wieder einladen. Weil sich beide sind CSV STANDARD halten.

Das wären meine 4 Tipps zum Thema Datenhaltung und Verwaltung. Ich fasse nochmal zusammen SQL Abfrage Sprache superwichtig Der Umgang mit No SQL Datenbanken ist sehr wichtig. Die Funktionsweise einer hascht Tabelle sollte dir kennen und die geläufigsten Datenformate. Mit denen sollte dir auch was anfangen können. Okay, nach Datenhaltung UN-Verwaltung kommen wir jetzt zu dem Block Netze und Protokolle. Das wird einige von euch langweilen, andere von euch, wenn ihr großen Nachholbedarf haben. Das stelle ich immer wieder fest.

Und zwar geht es um nichts weniger als das Verständnis, wie das Internet funktioniert oder spezieller wie TCP IP Netzwerke funktionieren. Was ist eine IP-Adresse? Also ganz genau. Was ist das? Was ist eine IP V4 Adresse? Was ist eine IP V6 Adresse? Warum ist diese Adresse wichtig? Was bezeichnet diese Adresse? Ist diese Adresse änderbar? Wer teilt diese Adressen zu? Wer verwaltet diese Adressen? DHCP In diesem Kontext ist auch wichtig. Alles Stichworte, die er nachgucken könnt und die wichtig sind Ports.

Was ist ein Port? Von einem Service, der auf meinem Rechner läuft. Wie viele Ports gibt es? Welche Ports sind bereits belegt? Gibt Welche Konventionen existieren zu Ports? Hier insbesondere Ports unterhalb der Nummer 1024 dürfen eigentlich nur von Services verwendet werden. Die erhöhte Rechte haben und so weiter und so fort. Das sollte durch angucken gerne auch Wikipedia bietet exzellente Dokumentation zum Thema IP Netze an. Schaut euch das an! Also was sind IP Adressen? Was hat es mit den Ports auf sich?

Was ist ein Router bzw ein Gateway? Ein Router bootet innerhalb von Netzen. Ein Gateway verbindet zwei Netze. Wir sagen zwar im Sprachgebrauch häufig DSL Router, aber streng genommen ist es ein DSL Gateway, denn es verbindet das private Heim Netz mit dem Internet. Was bedeutet Network Address Translation kommt so häufig vor in Kunden Projekten. Bei Network Address Translation geht es einfach darum, dass die IP-Adresse im Internet, die euer Gateway im Internet hat, auf eure lokalen Geräte zuhause beispielsweise abgebildet werden muss.

Das heißt, euer Handy, euer PC, eurer Spielkonsole, euer Fernseher. Die haben alle die gleiche IP V4 Adresse im Internet. Aber trotzdem muss natürlich das Gateway Player DSL Gateway entscheiden. Wo schicke ich denn welche Daten hin und muss die Geräte auseinanderhalten? Wie funktioniert das genau? Ein weiteres Stichwort hier wäre Port vor Wording. Das solltet ihr auch wissen. An das habt ihr aber wahrscheinlich im Studium gelernt. TCP und UDP was ist der Unterschied zwischen TCP Verbindungen und UDP Verbindungen?

Ganz einfach kann man sagen bei TCP Verbindungen fallen Verbindungs Fehler auf und werden behoben. Also verlorene Datenpakete werden an Nacht gesendet. Bei UDP ist das nicht der Fall. Dafür ist UDP schlanker und hat weniger Management Overhead, was die Paket Verwaltung angeht. Das ist manchmal von Vorteil, wenn man einfach möglichst hohe Datenrate erzielen möchte oder wenn verlorene Pakete nicht wichtig sind z.B. bei Skype Verbindung. Wenn da ein Wort fehlt, dann nützt das nichts, das wenige Sekunden nach und später nach zu senden, sondern dann lässt man Safa weg und macht weiter.

Generell Wie funktioniert Routing? Was sind Datenpakete? Wie funktionieren Firewalls? Das ist Grundlagenwissen, aber immer wichtig in Firmen, weil Unternehmen oft sehr komplexe Systeme im Einsatz haben, die eben mit dem Netz verbunden sind. Und oftmals, wenn es Probleme gibt, liegt das an Komponenten in dem Netz, die eben diese Einzelkomponenten verbinden. Und wenn man nicht versteht, wie Alpines zu funktionieren, dann kann man den Fehler nicht entdecken und beheben. Es ist der einfache Grund.

Der zweite Punkt bei Netzen und Protokollen. Neben der Funktionsweise des Internets sein grundlegendes Verständnis des http Protokolls. Also was gibt es für Methoden geth post put die z.B.. Und was gibt es für http status codes? Viele kennen bestimmt den Status Code 404. Das ist wenden eine Ressource eine Webseite in dem Fall nicht gefunden wurde. Gibt auch den Status Quo 200, wenn der Request erfolgreich verarbeitet wurde. Es gibt noch viele, viele weitere Status Codes, die alle eine andere semantische Bedeutung haben.

Da sollte man sich mal die Tabelle anschauen, um einfach einen Überblick zu bekommen, was es alles gibt. Die muss man nicht auswendig können, aber man muss z.B. Klassen von Status Code sollte man wissen. Also die fünf Hunderter Codes bezeichnen Server Fehler als bei vier Hunderter Codes ist häufig eine Ressource einfach nicht gefunden worden. Bei 200 Codes ist der Request erfolgreich durchgeführt worden. Aber es gibt halt verschiedene Rückmeldungen, dass man einfach diese Klassen kennt. Das ist sehr wichtig und hochgradig Praxis irrelevant.

Ein dritter Punkt bei Netzen und Protokollen, der sehr wichtig und in den letzten Jahren noch an Wichtigkeit. Sind die sogenannten Rest APIs als Schnittstelle zwischen Microservices oder zwischen zwei Systemen, die miteinander sprechen, meistens über Jason? Geht es darum, System A ruft z.B. bei System B ein Login auf, System B sendet System A zurück. Okay, erfolgreich eingeloggt. Daraufhin kann System A System B sagen wieder ein Request schicken. Ok. Dann bitte möchte ich die und die Daten abrufen.

Dann weiß System B anhand von Informationen, die gesendet werden. System AS autorisiert und kann dann die entsprechenden Informationen zurück liefern. Immer wenn ihr euch irgendwo auf einer Website einloggt, wird im Hintergrund genau dieser Datenaustausch durchgeführt. Also Rest APIs in Verbindung mit dem HTTP Protokoll und der Funktionsweise des Internets. Also es sind absolute Basis Baustein und die braucht ihr mit Sicherheit grenzender Wahrscheinlichkeit auf jeden Fall in meinem Berufsleben. Kommen wir nach der Datenhaltung und Verwaltung über das Thema Netze und Protokolle.

Nun zum dritten Thema Systeme und Plattformen. Hier ist es wichtig zu wissen, wie das System Linux aufgebaut ist. Linux wird nach wie vor auf den meisten Servern eingesetzt. Auch die ganz Docke isierung und die ganzen Cloud Umgebungen basieren zum größten Teil auf Linux und sehr, sehr häufig. Wenn ihr Software entwickelt, die irgendwo ausgerollt werden soll, passiert das auf Linux Systemen. Und da sollte dir einfach ein grundlegendes Verständnis davon haben, wie das System aufgebaut ist. Da gibt es tolle Youtube-Videos zu, die das in der Kürze erklären.

Also was ist der Kernel, was ist der User Space? Was sind die häufigsten Verzeichnisse bei einer Linux Installation oder auch im Docker Container? Ist es oft so ähnlich? Was sind Konfigurationsdateien also häufig unter Slash etc., die wichtig sind, wo ich dein Haus eintragen kann oder irgendwelche anderen Systemeinstellungen verändern kann? Das lohnt sich immer. Also generell Linux System Aufbau verstehen und die häufigsten Verzeichnisse kennen. Das führt mich direkt zum nächsten Punkt dem Umgang mit der Linux Kommandozeile.

Ob das jetzt das Basch Terminal ist oder TCS h WGT, da Entwickler durch seine eigene Vorliebe. Es ist aber wichtig hier, dass ihr euch für einen Terminal entscheidet, dass ihr das so konfiguriert, dass er damit auch umgehen könnt und euch dann eben auf der Kommandozeile wegen könnt. Ob das jetzt Linux ist oder MacOS, das ist erst mal nicht so wichtig, aber dass ihr in Verzeichnissen navigieren könnt. Also mit CD in ein Verzeichnis reinspringen oder wieder rausspringen, das Sie mit lässt euch das Verzeichnis Inhalt anzeigen lassen können, dass ihr Dateien editieren könnt entweder mit den Editoren wie ein Nano oder euer Lieblings Editor, dass ihr per 6h auf einen Server zugreifen könnt.

CH Leerzeichen Server Namen entspringt er auf den Host, dass ihr z.B. mit SCP Daten zwischen Servern hin und her kopieren könnt oder von einem Server auf eurem Rechner kopieren könnt. Das wird häufig benutzt bei Log Dateien. Wenn man da etwas nachschauen möchte, das man erstmal vom Server auf den eigenen Rechner kopiert, dass man Dienste stoppen kann und neustarten kann und dass man sich einfach sicher auf der Kommandozeile bewegt. Das ist sehr, sehr sehr wichtig und das ist absolutes Grundlagenwissen.

Hab ich häufiger schon in meinem berufst Kontext gesehen, dass das nicht beherrscht wurde. Und dann entsteht im Team sehr, sehr oft Frustration, weil das eine Grundkenntnisse ist, die vorausgesetzt wird. Also wer mit dem System Ausbau von Linux besprochen und die Navigation auf Linux Kommandozeile auch die Verwendung von Docker und virtuellen Maschinen wie VirtualBox sind sehr, sehr wichtig zu wissen, wie man damit umgeht, weil die Entwicklung doch mehr und mehr in Docker Containern vollzogen wird oder auch in virtuellen Maschinen statt auf der eigenen lokalen Hardware.

Das hat einfach den Vorteil, dass man, wenn man einen Docker Container baut oder Diplomat, dass er sich überall gleich verhält und man nicht mehr das Problem hat, dass eine Software auf dem lokalen Rechner anders funktioniert als dann später in der Produktion auf dem Server, weil man das vermeiden möchte. Also schaut euch an, wie Docker funktioniert, wie man Docker Container runterlädt, wie das langjÃhrigen der Falz Systeme der Docker Images funktioniert und wie der Docker Dienst generell funktioniert auf der Linux Infrastruktur.

Ich denke ah es ist sehr interessant und b ist es auch hochgradig Praxis relevant. Ein weiterer Punkt bei System und Plattform ist natürlich, dass in den letzten Jahren immer stärker in den Vordergrund tretende Cloud-Computing auf der einen Seite versus der On Priamos Rechenzentren, die auf der anderen Seite noch laufen bei vielen Unternehmen und ich denke, es wird dahin gehen, dass bis auf sehr, sehr wenige Ausnahmen fast alle Anwendungen in der Cloud betrieben werden. Heute sind wir in einem Zwischenzustand, dass noch viele alte Anwendungen, die seit Jahren bestehen, im eigenen Rechenzentrum laufen und nicht in die Cloud wandern.

Aber Anwendungen, die neu entwickelt werden eben schon auf der Cloud Infrastruktur angelegt werden. Und da muss man sich dann einfach auskennen. Also auch mit der Terminologie Wie heißt eine virtuelle Maschine in der Amazon Cloud oder in der Cloud oder in der Google Cloud, je nachdem, welchen Cloud Provider man da verwendet?

Da ist es auch wieder wichtig. Ich die Netze und Protokolle zu verstehen. Wie können die Maschinen untereinander kommunizieren? Welche Cloud Tools gibt es? Wie heißt jetzt zum Beispiel DNS namens Auflösung jetzt bei dem Cloud Provider und so weiter und so fort. Also hier am besten wie kommt ihr da rein? Die meisten Club Weida bieten ja so ein Free Plan an, dass man sich da einfach anmelden kann und dann eine einfache Website auf diesem Cloud Host installieren. Ich glaube, da kann man sehr schnell Erfolge erzielen und sich sehr schnell in diese Infrastruktur als Dienst oder Infrastruktur as a Service Umgebungen einarbeiten.

Oft ist es auch so, dass Unternehmen schon eine Cloud Infrastruktur hab und wir die nicht von Null aufbauen müssen, sondern eben erweitert. Aber da muss man sich dann auch auskennen, welche Werkzeuge es da alles gibt. Wenn man schon bei Cloud Computing ist, muss man auch meiner Ansicht nach das Cloud Native Software Bell abmahnt ansprechen. Da haben wir bei Skill BYD 2 Podcast Episoden zu gemacht, die Episode Nummer neun und zwanzig und dreißig. Denn Anwendungs Software, die für Cloud Umgebungen entwickelt wird, die wird etwas anders entwickelt als man das vielleicht bei Legacy Anwendungen früher gemacht hat, wo alles auf einem Server ausgeführt wurde.

Heute ist es so, dass das Thema State zentral gehalten wird, dann Cloud Datenbanken oder Cloud Now, SQL Datenbanken und die Microservices drumherum. Diese Daten transformieren sehr schön. Da sind wir wieder bei dem Bild, was ich eingangs gezeichnet habe, dass man im Grunde sich einen Computer Computersystem als Datentyp vorstellen kann mit Code drumherum. Genauso ist es in der Cloud auch. Aber es gibt ja ein paar Besonderheiten, auf die man achten sollte bei der Anwendungsentwicklung, die eben unter Cloud Native Development zusammengefasst sind, damit man auch alle Vorteile der Cloud nutzen kann.

Also damit man so super breit skalieren kann, damit man sich Maschinenhaus fahren kann und im Grunde eine Milliarde User App frühstücken kann, muss man die Anwendungen in einer bestimmten Art und Weise entwickeln. Und das ist das Cloud Native Development, würd ich auch sagen. Schaut euch das mal an, müsste euch nicht so tief anschauen, aber ist auf jeden Fall wichtig. Und in dem Zuge Cloud Entwicklung macht euch mit so Schlagwörtern vertraut wie CDN konnte Delivery Network Was bedeutet AWS?

Was bedeutet CCP? Was bedeutet esgab? Wie gehe ich mit der neuen Infrastruktur aus der Cloud um statt echter Hardware im Server? Vielleicht steigt er auch direkt auf Cloud Services ein und kennt gar nicht mehr echte Server. Das ist auch okay, aber der Umgang mit den Cloud Diensten, das halte ich für sehr, sehr wichtig und hochgradig Praxisräume und auf jeden Fall. Und auch die meisten Cloud-Anbieter bieten Kommandozeile Tools. Als wenn man sich auf der Kommandozeile bewegen kann, kann man auch die Tools der Cloud-Anbieter verwenden.

Nach System und Plattform wäre der vierte Punkt von mir nun das Arbeiten mit Source Code. Wie geht man damit um? Und hier ist ein ganz, ganz grundlegendes System, was man auf jeden Fall beherrschen sollte und sich anschauen sollte. Das Git Code Version im System von Linus Torvalds himself, gegründet vor einem Jahr. Was heißt ersetz? Installiert euch Git schaut an, wie man einen Branch macht, wie man Branches wieder merkt, wie Rhee Basinger funktioniert, welche Vorgehensweise es gibt, Feature Entwicklung auf sogenannten Branches durchzuführen.

Dann, wenn das Feature entwickelt ist, muss der Branche wieder in den Master Branch zurückgemeldet werden. Da gibt es verschiedene Vorgehensweisen. Also ich sage nicht, dass man sich das alles anschauen muss, aber man muss Git so benutzen können, dass man Code einchecken kann, Code Versionierung kann, die geläufigsten Kommandos kennt, also mit blame schaut wer hat diese Code Datei geschrieben und wen kann ich da fragen z.b. Und wo kommt diese Änderung her, dass man einen Branch ziehen kann, dass man ein Branch wieder marjan kann?

Das ist super wichtig und habt ihr vielleicht schon im Studium benutzt. Wenn nicht, schaut euch bei Jude Ami oder bei YouTube an Git Kurs an, der euch die Basics vermittelt und wirklich die Basics Bronchien Marching Rebalancing. Damit seid ihr schon gut aufgestellt. Da gibt es noch sehr fortgeschrittene Themen, die wenn euer Unternehmen das einsetzt, werden sie euch das zeigen. Aber zumindest die Basis Sachen solltet ihr kennen, um damit umzugehen, dass es immer wieder ein Knackpunkt.

Und da solltet ihr zumindest Grunderfahrungen haben, um da nicht direkt anzuecken bei eurer neuen Stelle. Wenn ihr wollt, macht euch ein Account bei GitHub und komm oder Güttler Punkt kommen. Erstellt euch dort euer eigenes Repository zum Ladet mal Dateien hoch, ladet das runter. Fragt einen Freund, die Dateien zu ändern und die wieder hochzuladen, sodass er euch einfach. Ja, vielleicht nutzt er im Studium schon vor eurer Abschlussarbeit oder irgendein Text. Könnt ihr mal Git benutzen, um gemeinsam an einem Werk zu arbeiten und dann kriegt er schon Erfahrung, was für Probleme es gibt und was auch Git leistet.

Und das ist sehr sehr wichtig. Es gibt noch andere Wirsching Systeme außer Git z.B. SVR oder CVS, aber Git hat im Grunde genommen alle verdrängt. Und wenn ihr Git verstanden habt, dann könnt ihr auch mit allen anderen umgehen. Deshalb halte ich es für das Allerwichtigste. Ein weiterer Punkt Wenn ihr das Codewort Oenning mit Git beherrscht, ist die Integration von Kaikki. Die Pipeline, also Continuous Integration Continuous Delivery haben nämlich meistens in Unternehmen hört man ja nicht auf, wenn man denkt Sourcecode eingecheckt hat, sondern jetzt muss der Source Code ja in ein Programm überführt werden oder in einen Container überführt werden.

Und dieser Container wird dann ausgerollt auf dem Testsystem, auf dem Produktionssystem, je nachdem, was man gerade macht. Da gibt es bei GitHub die sogenannten GitHub Actions, die es machen können. Bei Gelabt gibt es die Key ICD Pipeline über die Gitter i-Punkt Jamel Datei lässt sich das steuern. Also schaut euch die Integration dieser Sie als Hedy Pipelines an ist ein etwas fortgeschrittenes Thema, wird aber auch hochgradig Praxis relevant. Hab ich in jedem Projekt bisher gehabt. Was man da zumindest verstehen muss.

Was da vor sich geht und gegebenenfalls auch Anpassungen durchführen können muss, würde ich empfehlen, sich auf jeden Fall da mal ein Youtube-Video zu anzugucken. Okay. Soviel zur Arbeit mit Sourcecode. Mein fünfter Punkt, der absolut wichtig ist, heißt Debugging. Womit die Bar gegen meine ich erstmal, dass ihr Log falls lesen könnt Dienste Linux Dienste System Dienste auch Windows System Dienste schreiben Ereignisse in Log Dateien Diese Log Dateien sind die erste Anlaufstelle, wenn es zu Fehlern kommt, wenn es zu Problemen kommt, wenn man irgendwie schauen muss, wie verhält sich der Dienst.

Und das ist tägliches Brot und Butter Geschäft, das man in Lokführers schauen kann. Also entweder springt man auf der Kommandozeile per Asha direkt auf die Maschine oder in den Docker Container und betrachtet dann eben die Lock falls mit den gebräuchlichen Editoren wie wie nano less more. Dies sind keine Editoren, aber Betrachter um dann die Log Dateien anzeigen zu können. Ihr könnt jeden Editor benutzen, der für euch passt. Wichtig ist, dass ihr wisst, wo sind Lokführers zu finden unter war oder jeweils an der konfigurierten Stelle im Container und dass ihr dort reinschauen könnt.

Superwichtig gibt auch so Log Aggregation Dienste wie e.K. Zum Beispiel oder Cubaner die Log Falls sammeln gerade in verteilten Umgebungen und die dann an zentraler Stelle aggregieren. Ihr könnt euch vorstellen, wenn ihr 20 Container habt, dann möchtet ihr nicht 20 Container abklappern per Kommandozeile, sondern möchtet die Log falls zentral an einer Stelle einsehen können. Dann habt ihr schon einen Dienst, der euch das abnimmt, die Lock Fields zu sammeln. Aber das Sorgfalt selber betrachten müsst ihr dann immer noch eben auf einer Web Oberfläche und vielleicht nicht in der Kommandozeile.

Aber Log falls lesen will gelernt sein kommt aber auch jeden Tag vor. Ein ganz ganz großes Thema. Was mir am Herzen liegt beim Thema Debugging ist das Richtige die Backen. Ich halte das für extrem wichtig für effektive Arbeit zu machen. Also stellt euch vor. Ihr baut eine Website und jedes Mal, wenn ihr eine Änderung gemacht hat, müsst ihr den Webserver neu starten, um zu gucken, welche Änderungen hat meine Änderungen denn jetzt bewirkt? Wie sieht die Webseite jetzt aus?

Wie sieht die Webseite jetzt aus? Jetzt würdet ihr so ein Plugin verwenden wie z.B. Hoth Reload, was einfach, wenn ihr die Datei speichert, die Webseite neu lädt und ihr sofort seht, was eure Änderung bewirkt hat. Und das ist jetzt nur Webentwicklung. Das kann man für alle möglichen Technologien gibt es einen dieBürger. Ob das im Browser ist, eine JavaScript Code schreibt, ob das auf JVM Sprachen ist wie Java oder Scala, da gibt es die Bagger.

Ob das bei iOS ist? Wenn ihr Apps entwickelt oder bei PHP. Überall gibt es die Braga, welche die Entwicklung und das Bugfixes extrem vereinfachen. Ihr könnt Breakpoint setzen, also an bestimmten Stellen im Programm stehen bleiben. Dann könnt ihr euch angucken, welche Werte alle Variablen haben. Ihr könnt oft auch die variablen Werte an dieser Stelle ändern. Teilweise könnt ihr das Programm zurückspulen, eine Änderung machen und dann nochmal vorwärts über diese Änderungen drüber gehen und gucken, ob eure Änderungen den gewünschten Effekt hat.

Ihr könnt variablen Werte ansehen und editieren. Ihr könnt OT Reload benutzen. Das heißt, dass ihr die geänderte Datei direkt kompilieren und wieder einladen könnt und direkt den geänderten Code testen könnt. Vorwärts rückwärts über eine Stelle gehen und kommt so viel schneller einem Back auf die Schliche. Oder wenn ihr auch Software entwickelt, als wenn ihr immer wieder den Server neu startet oder den Dienst neu startet und euch bis an diese Stelle durchklicken. Also nutzt ein Debugger. Das ist mein Appell.

Das ist auch ein riesen Hebel. Ich bin immer wieder überrascht. Auch fortgeschrittene Entwickler benutzen nicht immer einen Debugger, sondern erarbeiten erst einmal relativ lange ohne, bis sie dann die Bagger abklemmen. Und die Bagger ist für mich eins der Nummer eins Produktivitäts Werkzeuge überhaupt, um Softwareentwicklung zu betreiben oder Bugfix sing. durchzuführen. Also investiert wirklich die Zeit in die Bagger kennenzulernen und einzurichten. Das ist eine etwas größere Hürde. Oftmals muss man ihn konfigurieren und muss erst mal ein paar Settings gerade ziehen, bis man ihn auch nutzen kann.

Das sollte aber auf jeden Fall machen, auch wenn es etwas lästig ist, weil die Zeit holt er hinterher immer wieder raus. Nach dem Thema Diba gegen was ich abschließen möchte, komme ich zu dem sechsten Punkt und der sechste Punkt ist im Grunde genommen keine Werkzeug Empfehlung wie vorhin, sondern eine Empfehlung zu eurer generellen Einstellung. Der sechste Punkt heißt Produktivität und Zielorientierung und das ist ein ganz wesentlicher Punkt. Die Herangehensweise an ein IT bzw. Software Problem ist ganz wesentlich für euern Erfolg und ich sehe es sehr sehr oft, dass das ein Haupt Unterscheidungsmerkmal ist zwischen einem Entwickler, der vielleicht weniger Erfahrung hat und einem Entwickler, der sehr viel Erfahrung hat.

Die Entwickler mit sehr viel Erfahrung, die überlegen erst auf dem Papier, die planen eine Funktion, die schauen sich an, die lesen sehr viel. Was ist denn schon da? Was kann ich wiederverwenden? Gibt es eine Open Source Library, die ich benutzen kann, die mir schon sehr viel Arbeit abnimmt? Was ist denn schon da? Also wie ist genau mein Weg zum Ziel? Und sehr, sehr viel Zeit wird für die Planung aufgewendet, wohingegen eher Junior Entwickler meistens direkt anfangen Code zu tippen.

Ah hier, da weiß ich, da kann ich etwas implementieren und hier machen wir die Suchfunktion und so. Also die springen direkt ins Thema rein, statt erst mal zu planen. Und da ist mein Erbteil an euch. Überlegt erst einmal genau, was erreicht werden muss, was die Anforderungen sind und dann überlegt euch einen minimalen Weg, wie ihr genau diese Anforderungen auch umsetzen könnt. Nicht zu viel implementieren und gerne needed genau gucken. Okay, wie ist ein effektiver Weg von meiner Anforderung hin zur Implementierung?

Viel Zeit in das Verstehen des Problems zu investieren und auch viel Zeit in die gedankliche Entwicklung der Lösung zu investieren und dann erst mit dem Cone anzufangen und die einzelnen Blöcke zusammenzuziehen. Also desto Me im Vorfeld überlegt und plant, desto weniger Code schreibt ihr am Ende. Weniger Code heißt weniger Fehler, teils besseres Programm, bessere Software. Wichtig wäre bei dem Punkt auch noch daran zu appellieren, dass ihr, bevor er eine Änderung durchführt, überlegt Welchen Impact hat diese Änderung denn für das Business?

Und ist das wirklich wichtig? Sehr oft beobachte ich, dass Entwickler dann diese Technologie und jene Technologie und dies noch verwenden wollen. Aber das löst überhaupt nicht das Ziel Problem. Also man muss sich wirklich jeden Morgen deshalb ist das Daily bei Scrum auch so wichtig nochmal zentrieren und sagen Okay, was sind denn die wichtigsten Themen, die ich erledigen muss, damit die Anforderung umgesetzt wird, um nicht vom Weg abzukommen? Eine Podcast Episode, die genau das Thema aufgreift, ist die Episode Nummer 9 Bulls als Software Development.

Da geht es darum, wie man fokussiert auf die Unternehmensziele hin entwickelt und möglichst genau den Kurs hält. Ich fasse nochmal zusammen als der erste Themenblock Datenhaltung und Verwaltung. Da geht es darum, SKL solltet ihr beherrschen no SQL Datenbanken sollte die verwenden können und beherrschen, was eine hascht Tabelle ist Wissen und die häufigsten Datenformate Jason, Jamel und CSV verwenden können. Bei Thema 2 in Netzen und Protokollen sollte die Funktionsweise des Internets verstehen. Was sind IP Adressen usw.. Das HTTP bzw.

https Protokoll verstehen auch. Was hat es mit der Verschlüsselung auf sich und wie werden Zertifikate eingesetzt? Und ihr solltet Rest APIs ansprechen können und verwenden können. Bei Systeme und Plattformen den Linux System Aufbau verstehen, euch auf der Linux Kommandozeile sicher bewegen können. Docker und virtuelle Maschinen einsetzen können. Den Unterschied zwischen Cloud-Computing und Prims Rechenzentrums Anwendungen verstehen vielleicht die Faktoren des Cloud Native Development mal anschauen im Podcast Episode Nr. neun und zwanzig und dreißig und die geläufigsten Cloud Services habe ich mal angeschaut haben.

Also Google, Microsoft und Amazon sind hier zu nennen. Bei der Arbeit mit dem Sourcecode solltet ihr mit Geld umgehen können und die Integration von KI, als sie die Pipelines verstehen. Warum macht man das und wie geht das prinzipiell? Beim Thema Debugging Lock Falls lesen können und den Debugger einrichten. Das ist ganz wichtig, damit ihr produktiv arbeiten könnt und beim Thema Produktivität und Zielorientierung euch immer wieder daran erinnern. Planen. Problem verstehen. Möglichst viel über das Problem wissen und dann erst eine Lösung entwickeln.

Weil desto mehr man über das Problem weiß, desto einfacher ist die Lösung hinterher. Für weitere Podcast Episoden zu den Themen die packe ich euch in die Shownotes. Aber den Podcast Nr. neuen Bullshit Software Development einfach und fokussiert auf Unternehmensziele in entwickeln Must-Have Skills und Technologien für DevOps findet ihr in der Podcast Episode Nr. 8 für Data Ingenieurs und Data Scientists in der Podcast Episode Nr. 7 für Faulstich Entwickler. In der Podcast Episode Nr. 6 und die 12 Faktoren des Cloud Native Development findet ihr in der Episode 29.

und 30.. Nochmal wichtig zu sagen all die angesprochenen Themen haben eine sehr hohe Praxis Relevanz, das kann ich euch sagen aus 16 Jahren IT Erfahrung und über acht Jahren I Beratungs Erfahrung. Wenn ihr Fragen habt oder Feedback zu der Episode, weil ihr glaubt, dass ich ein wichtiges Thema vergessen habt, sendet uns gerne eine E-Mail an Podcasts. Gilbert D. Wenn euch die Podcast Episode gefallen hat, abonniert unseren Podcast und lass deine 5-Sterne Bewertung. Wir freuen uns auch immer über Weiterempfehlung an Freunde und Kollegen, die sich ebenfalls für Technologie Themen interessieren.

Ansonsten freuen wir uns noch, wenn ihr uns Gilbert D. Slash Blog vorbeischaut. Vielen Dank fürs Zuhören und bis zum nächsten Mal.

Maurice KnoppSkillbyte Podcast #48: Grundkenntnisse und Skills für ALLE IT-Fachkräfte
Mehr

Skillbyte Podcast #47: Konzern oder Mittelstand – Wo werde ich glücklich?

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Konzern oder Mittelstand – Wo werde ich glücklich?

// Inhalt //
01:06 – Wichtige Frage für Berufseinsteiger: Konzern, KMU oder Startup-Up?
04:06 – Typfragen: Wo entwickele ich mich? Wo lerne ich am meisten? Wo werde ich glücklich? Wo verbringe ich meine Zeit sinnvoll? (purpose)
06:17 – Produkt vs Consulting
07:48 – Feste Teams, Aufgaben und Strukturen in Großunternehmen
09:14 – Karriereleiter oder Individualität (vielfältiges Wissen)
11:10 – Politik, Prozesse, IT-Ausrüstung, Beschaffung und Managementaufgaben in Großunternehmen
13:51 – Verdienstmöglichkeiten und Boni in Großunternehmen
17:08 – Individualität, Flexibilität, Team-Events, persönlicher Umgang, fast keine Meetings, interessante Projekte und Arbeitsphilosophie am Beispiel des Kleinunternehmens der skillbyte GmbH
23:12 – ITler wissen was ITler schätzen – TOP Hardware, spannende Projekte und Weiterbildung
29:18 – skillbyte bietet Jobs im Bereich DevOps, Data & Cloud und Java Enterprise
Development
29:34 – Vision und Werte der skillbyte GmbH
31:17 – Zusammenfassung
32:15 – Weitere Podcast Episoden
33:14 – skillbyte unterstützt eigene Mitarbeiterprojekte

Show Notes:

Podcast #14: Big Data und Machine Learning Projekte richtig angehen
https://soundcloud.com/skillbyte/podcast-14-big-data-und-machine-learning-projekte-richtig-angehen

Podcast #9: Bull’s Eye Software Development – Einfach und fokussiert auf Unternehmensziele
https://soundcloud.com/skillbyte/podcast-9-bulls-eye-software-development-einfach-und-fokussiert-auf-unternehmensziele

Podcast #8: Must-have Skills, Technologien und Weiterbildung für DevOps
https://soundcloud.com/skillbyte/podcast-8-must-have-skills-technologien-und-weiterbildung-fur-devops

Podcast #7: Must-have Skills, Technologien und Weiterbildung für Data Engineers und Data Scientists
https://soundcloud.com/skillbyte/skillbyte-podcast-7-must-have-skills-technologien-und-weiterbildung-fur-data-engineers-und-data-scientists

Podcast #6: Must-have Skills, Technologien und Weiterbildung für Full-Stack Entwickler
https://soundcloud.com/skillbyte/skillbyte-podcast-6-must-have-skills-technologien-und-weiterbildung-fur-full-stack-entwickler

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Jung kommt von der Uni und denkst hier jetzt kann ich Gas geben, was kostet die Welt? Stimme das hier alles auf links. Und dann kommst du erst einmal gegen diese Konzernstrukturen und knallst da einfach zurück, weil die Mühlen halt nicht so schnell. Und das hat mich total abgefuckt. Irgendwie. Und das war auch die Entscheidung. Sagt Nee, das machst du nicht mehr. Du bist einfach nicht gestrickt.

Herzlich Willkommen zum Skillbyte Podcast Nr. siebenundvierzig Konzerne oder Mittelstand. Wo werde ich glücklich? Abonniert unseren Podcast für mehr spannende Themen aus dem Technologie Umfeld bin er IT Entscheider oder IT Fachkraft seid. Wenn ihr Hörer Fragen habt, rettet uns gerne eine E-Mail an Podcast Skillbyte e und wir freuen uns auch immer über Bewertungen und ganz besonders weitere Empfehlungen an Freunde und Kollegen. Ich bin heute hier wieder mit Masiar. Hallo Masiar, hallo Maurice, grüß dich, ich grüße dich auch.

Es ist eine Weile her, dass ich dich als Gast hatte. Darum freue ich mich umso mehr, dass wir heute über dieses wichtige Thema, was uns immer wieder berührt, sprechen können. Aus unserer Erfahrung ist es ja so, dass gerade Berufseinsteiger die Frage umtreibt Wo soll ich mich bewerben? Wo soll ich meinen ersten Job anfangen? Nehme ich einen Grosskonzernen oder ein kleines oder mittelständisches Unternehmen oder gar ein Startup? Und da haben wir einige Informationen zu und können jetzt einfach mal erzählen.

Bei mir sind es glaub ich 16 Jahre Berufserfahrung. Bei dir sind es wahrscheinlich 26 oder so wäre genau, was wir alles erlebt haben in der einen oder anderen Unternehmensform. Und was wahrscheinlich ganz wichtig ist zu wissen, wenn man gerade vor der Frage steht Soll ich mich für einen Großkonzern oder einen kleinen Konzern entscheiden?

Grundsätzlich ist das natürlich eine sehr spannende Frage für einen Kollegen oder eine Kollegin, die von der Uni kommt. Ich kann so unterm Strich sagen, nachdem mich jetzt auch ein paar Grosskonzernen dabei war und selber auch am Anfang meiner Karriere eben als als Festangestellter gearbeitet habe. Zum einen das Thema Sicherheit bei dem Großen und dem denkt man Okay, da ist mein Job sicher bei einem kleineren naja, wer weiß, ob der überlebt und solche Dinge. Es sind turbulente Zeiten, jetzt sowieso.

Aber das ist in meinen Augen keine wirkliche Sicherheit, weil ein Großunternehmen oder ein Konzern kann von heute auf morgen entscheiden. Und da steckst du nicht drin. Du bekommst das einfach nicht mit. Das wird einfach nur verkündet. So wie affirmiert jetzt oben. Wir packen jetzt die Gruppe in eine eigene GmbH. Also auch da ist viel Bewegung drin. Und das kann auch sein, dass ich von heut auf morgen plötzlich da keinen Job mache. Wobei wir sind es natürlich in der IT.

Es ist relativ Unwahrscheinlichkeiten. Leute sind immer gut gesucht gerade. Ich habe mal in unserem speziellen Segment Software-Entwicklung und DevOps. Da muss man sich eigentlich keine Sorgen machen. Aber ich glaube, dieser Faktor Sicherheit ist überbewertet. Das heißt, das sollte meines Erachtens nicht die Rolle spielen. Zumal ich als kleiner ich sag mal in die man Entscheidungen maso, wenn ich bei einem kleineren Unternehmen bin die Entscheidungen viel agiler getroffen werden. Und diese Geschwindigkeit ist in meinen Augen eher der Vorteil.

Oder wenn ich was will, kann ich direkt ohne Hierarchien mich mit dem entsprechenden Vorgesetzten oder Geschäftsführer oder wen auch immer unterhalten. Und das ist meine Satz auf der auf einem anderen Level, weil das ist US-Beamten mäßig in diesen Konzern. Ja, ich kann das nicht entscheiden. Ich muss mal mit dem und dem sprechen, dessen Wege, die man da zurücklegen muss, bis man keine Ahnung in Laptop kriegt, in RAM Baustein kriegt oder geschweige denn etwas Größeres bewegen will.

Das war übrigens meine größte Motivation oder mein Beweggrund, rauszugehen aus der Festanstellung. Eher die Freiberuflichkeit, weil ich meine eigenen Entscheidungen treffen wollte und sehr, sehr unglücklich war. Ah Jung, kommst von der Uni und denkst Ja, jetzt kann ich Gas geben, was kostet die Welt? Stimme das hier alles auf links und dann kommst du erst einmal gegen diese Konzernstrukturen und knallst da einfach zurück, weil die Mühlen halt nicht so schnell. Und das hat mich total abgefuckt irgendwie und das war auch die Entscheidung sagt Nee, das machst du nicht mehr, da bist einfach nicht viel gestrickt.

Grundsätzlich ist es ja so Du hast jetzt von deinen Erfahrungen berichtet. Nimmt man, muss aber glaube ich etwas differenzieren, weil es ist natürlich eine Typ Frage. Für den einen empfiehlt sich der Konzern, für den anderen empfiehlt sich eher das kleine Unternehmen. Ich glaube, die Frage, die die Menschen umtreibt oder die Fachkräfte umtreibt, ist halt Wo entwickele ich mich am meisten? Wo lerne ich am meisten und wo werde ich glücklich? Also dieses Stichwort Purpose ist ganz wichtig.

Und früher war das sehr einfach. Also vor 20, 30 Jahren, da waren die einzigen Kriterien eines Jobs geregelte Arbeitszeiten, Sicherheit und möglichst hohes Gehalt. So der typische Babyboomer Job. Und heute hat sich das doch stark gewandelt. War gerade auch das Thema Purpose. Ich möchte die Zeit auf der Arbeit nicht unglücklich verbringen, sondern ich möchte immer Sinnvolles tun. Eine immer größere Rolle spielen. Deshalb stellt sich diese Frage überhaupt, weil sonst würde man ja einfach sagen Okay, versuche ich möglichst großes unternehmen, was noch lange besteht, versuche ich da einen Job zu finden.

Gleichzeitig, und das hast du schon angesprochen, ist auch in Großunternehmen der Wandel natürlich richtig greifbar nah. Also VW habe ich heute gelesen und Audi, die entwickeln den Verbrennungsmotor nicht weiter. Das ist, denke ich, eine Nachricht, die vor drei Jahren völlig in den Sternen gestanden hätte. Also das wäre undenkbar gewesen. Das ist heute verkündet worden, muss man erstmal so sagen. Und die. In sich auch sehr schnell, von daher sehe ich das genauso wie du.

Diese Sicherheit, diese vermeintliche Sicherheit, die ist zwar irgendwo gegeben, aber die kann auch sehr wackelig und auch sehr trügerisch sein, weil man sich dann ist in seinem Nest gemütlich macht und vielleicht sich sicher glaubt, das aber gar nicht ist. Ich denke mal vor 5 Jahren, die Leute hätten sich das nicht vorstellen können, dass der Verbrennungsmotor nicht weiterentwickelt wird. Und man hat also auf der einen Seite dieses Großunternehmen, das tendenziell weniger agil und von Hierarchien geprägt ist und auf der anderen Seite das kleine Unternehmen, wo man auch eher wahrgenommen wird.

Ich glaube, das ist auch ganz, ganz wichtig. Und bei uns ist es ja wirklich so, dass wir diese 15 oder 16 bzw. 26 Jahre ja doch immer auch mit beidem in Kontakt sind. Auf der einen Seite haben wir unser kleines Unternehmen hier im Skillbyte und auf der anderen Seite arbeiten wir natürlich auch mit wesentlich größeren Unternehmen zusammen.

Eine Frage, was man noch klären muss oder sich mal angucken muss ist, wenn ich so Namensraum großen Konzern gehe, woran arbeite ich denn? Weil es ja auch einen Unterschied, wenn es ein Produkt ist, was der Konzern hat. Ich steig da ein und programmiere in diesem Produkt. Natürlich ist am Anfang alles neu und frisch, da ist alles irgendwie ein Learning. Aber du kommst relativ schnell an den Punkt, wo Technologie sich um dieses Produkt nicht mehr viel tut.

Das heißt ja, da kommt man neue Features dazu. Sehr schnell geht das Sein. In so einer Art Support Wartung weiterbetrieben. Mir persönlich würde das so langweilig. Schnell. Das ist was anderes, wenn du, ich sag mal in ein Consulting Unternehmen einsteigt. Also auch von mir aus du größere Consulting unternehmen, wo du immer wieder diesen Wechsel hast. Du bist in einem Projekt und dann bist du fertig. Und ein bisschen nächstes Projekt. Nix Kunde, völlig neues Setup.

Du hast Lust, immer Action, da passiert permanent irgendwas. Das ist auch nochmal ein Unterschied. Oder ob eine große Differenz zwischen diesen beiden Modellen, die man sich quasi am Anfang vor Augen halten muss. Ich sag mal, gerade als neu Ankömmling im Berufsleben ist glaube ich das Learning steht an erster Stelle. Das hast du musst halt versuchen unabhängig von deinem Uni wissen, weil das im Enterprise Bereich ticken die Uhren und die Welt ein bisschen anders. Und da muss man gucken, dass du so schnell wie möglich nur Hallo Aufbaues um einfach für den Jobmarkt auch attraktiv zu sein und zu bleiben.

Und das hast du halt bei dem Konzern der ich sag mal 5 Jahre wo du an einer Spring Buda Applikation arbeitest ist das nicht unbedingt gegeben finde ich.

Da hast du absolut recht. Du hast was interessantes angesprochen, diese Wartungsarbeiten. Es ist ja auch so in unserer Erfahrung, dass es oft so ist, dass Unternehmen, die diese Systeme betreiben, dann Ebene Stamm Mannschaft haben, die die vorhandenen Systeme warten und so ein bisschen weiterentwickeln. Die wirklich interessanten Projekte, innovativen Projekte oder neue Komponenten dann aber an externe Firmen vergeben, die sozusagen sich mit der spannenden Technologie beschäftigen dürfen.

Das Muster ist tatsächlich aber aufgetaucht. Das stimmt ja genau.

Und dann, wenn die Innovation dann in den Betrieb übergeht, dann wird das quasi übergeben an die Internen. Und da hab ich schon sehr oft lange Gesichter gesehen, dass die intern auch gerne mal ein neues Projekt stemmen würden, aber braucht’s, um zu zeigen, was sie können, aber dann eher klein gehalten wurden und gesagt hat Nee, lass das mal, die Experten machen die Externen. Und ihr bekommt das ja nur hinterher sozusagen zur Wartung übergeben. Und ja, dann ist natürlich entweder sind schon wachsende Applikationen oder ja, das kommt dann meistens nicht so gut an, wenn man das dann einfach rüber geschoben bekommt.

Ich meine, das ist klar jeder Ressourcen Probleme. Ich nehme an, du bist halt in einem Großkonzern an einem Produkt beteiligt mit seinem Team und dann entschließt man sich okay, da muss was Neues her. So irgendeiner muss natürlich das alte Zeugs noch betreiben und warten, dass es ja in Verwendung. Was liegt da näher als das Team, was das gemacht hat, damit zu beschäftigen? Und dann gibt’s keine Ressourcen für das Neue. Alles klar Rohm oder externe Firma dazu.

Das passiert halt ganz häufig. Ich werde unterm Strich auch sagen, dass wenn man Karriere machen will, da bist du natürlich bei einem kleinen Unternehmen. Da ist die obere Scheiße relativ schnell erreicht bei so einem Konzern. Klar kannst du im Prinzip bis zum Vorstand hoch. Aber das wird Karriere. So das Endziel ist dann bist du in so einem unter dem besser aufgehoben. Wenn aber spannende Technologie, Wechsel des Umfelds immer wieder lernen, immer wieder Challenges im Vordergrund stehen, ist vielleicht besser zu einem Kleinen zu gehen.

Zumindest ist aber für die ersten Jahre, um dies Know how aufzubauen, weil das zählt dann nachher. Unternehmen stellen oder große Unternehmen stellen gerne Leute ein, die viel gesehen haben. Viele Umfelder gesehen haben. Viele Setups gehabt haben. Weil das halt mit jedem Wechsel, mit jedem Projekt bist du für Unternehmen Mehrwert. Weil dann ist die Wahrscheinlichkeit einfach größer, dass du sein Problem löst oder genau da reinpasst, wo er dich braucht. Halt größer. Es wird durch schon mal zehn Jahre irgendwo Shells Skripte geschrieben hast.

Absolut.

Also das ist es. Du hast es eingangs schon erwähnt, dass es auch diese Sicherheit im Großkonzern ist. So eine Art Scheinsicherheit. Man muss sich einfach mal überlegen Jetzt hat jemand vielleicht ein Consultant, hat in zehn Jahren fünf Kunden Projekte gesehen. Und sich in fünf Ökosystemen bewährt. Ja, und mit 5 Technologies steckt bewährt oder vielleicht mit dreien und jemand anders macht 10 Jahre genau das Gleiche. So sagen wir mal, der Konzern löst sich auf und das kleine Unternehmen löst sich auf.

So, und beide suchen jetzt einen neuen Beruf. Wen nimmst du? Den, der 10 Jahre das gleiche gemacht hat? Oder den, der eher flexibel unterwegs ist und gezeigt hat, dass er auch neue Technologien lernen kann und sich immer wieder mal herausfordern kann? Ja genau. Also das ist für mich ein ganz großes Plus für eher Kleinunternehmen oder kurzlebiger Projekte, dass man sagt Okay, dann ituri ich einfach schneller und lerne schneller mehr dazu. Weil das kontinuierliche Dazulernen ist auch wichtig und das hat man einfach mehr, wenn man sich in wechselnden Kontexten bewegt.

Absolut. Was auch in Großunternehmen viel gesehen wird und was mich ehrlich gesagt abschreckt, ist diese ganze politische Ebene. Es ist oftmals wichtiger, wer macht ein Projekt und das Dealers Projekt oder der Erfolg des Projekts geschickt verkauft wird, als das die eigentliche Arbeit erledigt wird. Es hat wenig erfolgsorientiert, mehr politisch getrieben. Abteilungen werden nach Größe bewertet, also der leiteten Abteilung mit 50 Mitarbeitern, der andere mit hundert Mitarbeitern. Und es ist überhaupt nicht entscheidend, was von Output generieren er diese 100 Mitarbeiter oder diese 50 Mitarbeiter.

Sehr, sehr viele Meetings werden abgehalten, die oftmals zu keiner Entscheidung führen oder kein Ergebnis produzieren. Also das ist bei uns bei Skillbyte ja so, wir haben ja kaum Meetings. Wir haben natürlich die Kunden Meetings, aber eigene Meetings sehr wenige. Und wenn es da auch keinen Beitrag gibt, lass man die auch ausfallen. In Großunternehmen ist tendenziell wenig Flexibilität vorhanden. Du hast eben die Hardware Ausstattung beschrieben. Das ist natürlich für Entwickler gerade sehr schmerzhaft. Wenn eine ganze Abteilung mit STANDARD Hardware versorgt wird und Jade Entwickler PC kriegt dann entschieden Gigabyte mehr aber Gigabyte mehr RAM.

Aber dennoch haben alle ne HDD statt CSSD oder 10 Clients. Als Entwickler schlägt man die Hände über dem Kopf zusammen. Es ist ja auch nicht so, dass eine Spedition jede Mitarbeitern LKW gibt, sondern die, die nur Päckchen fahren Kriegen heiten Transporter und die, die schwere Lasten fahren, gegenhalten LKW. Das muss halt auch bei der IT so gemacht werden. Und das ist nicht immer gegeben, oder was in Großunternehmen auch mein Problem ist Da gibt’s ein Tool, das kostet 50 Dollar.

Das würde die Arbeitszeit oder die Effektivität deutlich steigern. Man käme viel schneller vorwärts. Aber das Tool, was nur 50 Euro kostet und was no brainer ist, muss per Paypal bezahlt werden oder per Kreditkarte. Und bis man das durchgesetzt hat, lässt man es lieber sein. Oder oftmals zahlen die Leute es dann privat, weil die Seigneur bis ich das beantragt habe ist schon ein halbes Jahr vorbei.

Er wird ganz oft vorgekommen, dass ich mich und da irgendwie so Ersatzprodukte mit der eigenen Kreditkarte bezahlt habe. Ne, weil es irgendwie sonst zu lang gedauert hätte, beim Kunden da irgendwas einzurichten oder einger zu finden, der der Kreditkarte hat.

Was ich häufig beobachtet habe ist, dass die Fachkräfte, die dort arbeiten, immer mehr zu Managern werden. Also die haben natürlich imstand System. Da kommen die Externen dazu, die neue Produkte entwickeln oder neue Software entwickeln. Da müssen die intern die extern irgendwie managen und werden dann so ein Stück weit zu Budget Managern. Weißt du was ich meine wäre, dass man nur noch koordinierende Aufgaben hat und geradeso im Entwicklungsbereich sind halt koordinierende Aufgaben oder Projektmanager ganz andere Menschen als eigentliche Entwickler Sohn.

Da wächst man dann so rein oder wird so reingedrückt. Was man aber sagen muss, ich glaube, das kann man schon generalisieren und Studien belegen das auch, dass man, wenn man lange bei einem Großunternehmen arbeitet, tendenziell hinterher mit einem höheren Verdienst rechnen kann.

Genau das hängt aber auch damit zusammen, dass die Karriereleiter hoch steigen Kanzler von was was ist um Teamleiter, Abteilungsleiter, Bereichsleiter usw. zu vor Ort. Und die haben auf der einen Seite natürlich mehr Mittel, auf der anderen Seite z.b. Es gibt auch viele Unternehmen. Tatsächlich, die haben Planstellen. Das heißt es heißt nicht so, wir brauchen jetzt mehr Ressourcen, weil wir mehr Arbeit haben oder was auch immer und können jetzt jemand einstellen. Irgendein anderer in einer anderen Position sagt Okay, wir können ein oder zwei Dilla mehr einstellen und erst dann darfst du sie holen, egal ob du sie dann oder die Fachabteilung sie braucht oder nicht.

Das heißt, Unterstützung im Team ist mathematisch ganz einfach, weil du erst durch diese Hürde gehen muss. Diese so trotz. Ja, wenn du die Karriereleiter hoch steigst, kannst du auch mehr verdienen. Aber es ist ja so auch das hab ich schon des öfteren gesehen. Egal wie gut du bist oder was du leistest. Nicht unbedingt mehr kriegst, weil man mit dem Argument kommt Ja, das würde aber den Timen Rahmen oder dem Team Spiegel sprengen. Das heißt, das ist für mich so Sozialismus pur.

Eigentlich, weil ich bin der Meinung, Leistung soll belohnt werden. Und als Beispiel bei uns war der Skillbyte allein das Thema Bonus da. Viele Boni sind einfach an das Firmen Ergebnis gebunden. Ja, du hast deine persönlichen Ziele, aber dann heißt es auch Okay, das Unternehmen hat jetzt Kanan und. Wird schlecht gewirtschaftet. Teil deines Bruders ist davon abhängig und das finde ich einen Schwachsinn. Weil wie kann ich nachvollziehen, was die Firma mit dem Geld macht, ob sie effizient ist, effektiv ist?

Was kann ich dafür? Ich hab 100 prozent gegeben. Ich habe alles geleistet. Das finde ich irgendwo. Und natürlich muss da einen Zusammenhang geben, damit es der Firma schlecht geht. Dann kann sie dich Ruhe Politsprech vorbeugt sieht es auch bei größt unter dem Wildtyp Millionen Boni, die auszahlen. Aber das ist eine andere Geschichte. Aber wir haben zum Beispiel bei der Skillbyte gesagt Der Bonus hängt einerseits mit deinem Ergebnis zusammen. Fairer Weise ist es natürlich auch einfach zu rechnen.

Ja, wenn du ich habe mal nach unserem Arbeitsmodell arbeitest du sehr genau sagen Okay, Kollege X hat so viel reingebracht, also kannst du auch den Bonus sehr gut zuweisen. Unabhängig davon, ob ich sage ich hab Bock mit Porsche zu kaufen. Oh, tut mir leid. Beschirmen Ergebnisses ist am Arsch und ich kann euch nichts auszahlen. Spielt überhaupt keine Rolle. Na ja, weil du hast das geleistet, also bekommst du auch deinen Anteil unabhängig. Was ich mit der Kohle mache, finde ich fairer als es von irgendwelchen nebulösen Firmen Zielen abhängig zu machen.

Man muss ja auch sehen, dass dieser höhere Verdienst. Ich hab sehr oft in diesem Kontext von Leuten, die bei Konzernen arbeiten, das Wort Schmerzensgeld gehört.

Ja das die Konzerne, denen ist das völlig klar, dass es jetzt vielleicht nicht super sexy Job ist, aber jemand muss sie machen, die Koordinierung dieser ganzen Projekte und dass sie deshalb extra mehr Geld zahlen zu sagen Ja mei, dann weiß ich, dass diese Person woanders keinen Job sucht, weil sie dann auf den Teil ihres Gehalts verzichten würde. Deshalb bezahlen wir so gut, um diese Person im Gold bestickten Hamsterrad weiter zu halten. Also von 2 Stellen fallen mir sofort ein.

Vielleicht hab ich sogar noch insgesamt dreimal gehört, aber ja, das wurde schon in den Mund genommen. Wie machen wir das denn jetzt anders bei Skillbyte? Du hast eben schon paar Punkte angesprochen. Große Vorteile sind bei Skillbyte natürlich, dass man seine Individualität besser ausspielen kann. Ja, wir fördern sehr selbstständiges Arbeiten. Die eigene Arbeitsleistung ist direkt sichtbar und auch die Wirksamkeit der eigenen Arbeit wird direkt erlebt. Das hab ich immer als ein Faktor für hohe Zufriedenheit gesehen.

Man macht etwas, man sieht Boah, das ist geschafft. Und das gibt einem dann irgendwie Befriedigung. Und das ist in Großunternehmen, wenn man wirklich nur kleines Rädchen in der Maschine ist, natürlich nicht immer der Fall. Ja, die Team Größe ist recht überschaubar, jetzt bei Skillbyte auch. Das heißt, es gibt geringe Hierarchien. Wir haben familiäres Klima, essen oft zusammen zum Mittagessen, also Pandemie mal außen vor.

Aber das musste sie jetzt sagen, da Windows kann immer verklagt, ne? Früher haben wir immer diese großen Runden gehabt. Früher ja Vocoder, vorgezogener genau.

Ja. Also ich erlebe oft, dass man durch den direkten Kontakt seiner Kollegen, dass einem das sehr viel Fröhlichkeit gibt, weil man hört ja auch oft, dass Menschen sagen Ja, mein Job ist jetzt nicht so toll, aber das Team ist super. Also Menschen sind oft der wichtigste Grund, irgendwo zu bleiben. Und ich habe schon den Anspruch, dass man nicht sagen muss, der Job ist nicht so toll, aber das Team ist super, sondern der Job ist super und das Team ist super.

Weiß Gilbert. Wir haben tendenziell gering Bürokratieaufwand, wenn man z.B. einen Kopfhörer braucht oder irgendwas braucht, einfach kurz Bescheid sagen. Er wird es beschafft, so schnell wie Amazon Prime liefern kann. Und die Entscheidungswege sind einfach viel kürzer und dadurch kommt man schneller zum Ergebnis. Häufig mehr.

Im Prinzip haben wir arbeiten wir nach einer ganz einfachen Formel Geht’s den Mitarbeitern gut, geht’s dem Kunden gut, geht es dem Kunden gut, geht’s uns gut. Das kannst du nicht sagen, wenn du sagst Geh zum Kunden, gut. Ja, geht’s uns auch gut. Aber der Mitarbeiter vielleicht schlecht. Das heißt, bei dem Mitarbeiter fängt es an, wenn er sich gut fühlt. Wenn er sich in einem familiären Umfeld zu Hause fühlt, wenn er weiß, dass die Firma hinter ihm steht.

Egal was passiert. Und damit Vertrauen schafft, wo der sagt. Also auch das oft gesehen, das muss sich überall sein. Es gibt ganz sicher auch andere Firmen, die das genauso sehen. Aber unterm Strich ist mir der Mitarbeiter wichtiger als der Kunde. Das heißt, wenn der Mitarbeiter unzufrieden ist irgendwo oder der Kunde in irgendeinem Projekt unnötig und unfair Druck ausübt, dann bin ich und du auch. Sind einfach Leute, die dann auch in die Bresche springen und sagen Hier bis hierhin und nicht weiter.

Weil ich möchte nicht, dass mein Mitarbeiter unglücklich ist oder unfair behandelt wird oder was auch immer. Und bis jetzt hat das immer wunderbar geklappt. Wir hatten keinen Fall, wo wir groß einschreiten mussten. Und ich finde es wichtig, dass an der Stelle anzufangen und zusehen, dass der Mitarbeiter sich einfach hier gut aufgehoben fühlt. Technisch, finanziell und auch gefühlsmäßig. Da haben wir letztens noch drüber gesprochen, dieses unabhängig von der Skillbyte, wie lange der Kollege bei der Skillbyte ist, wenn er nach drei, vier, fünf Jahren, egal wie lange er bei uns war, irgendwo anders hingeht und wir sagen können Der hat was bei uns gelernt.

Nicht nur technisch Skills, sondern auch was. Ich sage mal Soft Skills oder für sein weiteres Leben Verhandlungsgeschick, Präsentationen, geschickt, was auch immer, dann ist das für unsere Befriedigung eine Genugtuung, weil wir diesem Kollegen auf seinem Weg irgendwie weitergeholfen haben. Ja, das heißt, es ist nicht nur einfach eine Ressource oder verkaufen. Schulkonzept gestellt auch nicht jeden ein Ja. Wir achten sehr, sehr, sehr genau darauf, dass derjenige auch in das Team passt, weil tatsächlich, so sehen das alle hier, ist es echte Gemeinschaft auch in sich.

Weil wir machen viel oder haben viel gemacht. Wir stehen für einander ein. Wenn du hier in unserem Kollaboration ist. Ohne Frage. Ein Chef ist sofort jemand, der dir irgendwie mit Rat und Tat zur Seite springt. Und ich komme jeden Morgen gerne zu arbeiten. Das würde ich auch gerne so wie die Kollegen habe und so ein Umfeld zu schaffen, wo das passieren kann.

Ja und wenn es mal nicht so ist, dass man eben sich traut, Bescheid zu sagen und weiß, da verändert sich was und das verhallt nicht ungehört. Das ist ja auch ganz wichtig, absolut.

Egal welchem Prozess wir starten, machen, tun, sei es jetzt Thema, Fortbildung, Thema Mitarbeiter, Modell, Bonus usw. Das steht alles ist nicht in Stein gemeißelt. Ich habe die Weisheit mit Löffeln gefressen, sondern präsentieren das dem Team sein was aus Unsauberes das ausgedacht. Wie seht ihr das denn? Kann man doch hier oder da was verbessern. Manchmal kommt Tipps Major sagen Passo oder nein, das muss unbedingt anders machen. Dieser offene Diskurs über Themen und sich, ich sage mal auf Augenhöhe zu begegnen und zu diskutieren über Themen ist wichtig, weil das fehlt woanders.

Das fehlt. In Großunternehmen wird einfach Entscheidungen von oben getroffen und da Katze Purzelbäume schlagen. Es bleibt so. Aber natürlich müssen auch gewisse andere Entscheidungen und das ist halt auch die ich sag mal die Gratwanderung bei uns, dass wir sagen Okay, da treffe ich jetzt einfach mal eine Entscheidung. Man muss ja auch nicht alles diskutieren wie im Föderalismus, oder manche Dinge werden einfach entschieden, aber manche Dinge, die das Team betreffen oder das Zusammenleben. Weil, wenn man mal ehrlich ist, man sieht die Kollegen mehr als den Partner oder sonst wen.

Das heißt, es ist tatsächlich ein Zusammenleben und das muss halt genauso designt werden, gepflegt und gehegt werden wie eine private Beziehung auch.

Auf jeden Fall. Was mir zum Beispiel auch sehr wichtig ist, ist diese langfristige Perspektive. Und da zahlen ja genau unsere Ansätze drauf ein. Was nützt mir das? Wenn der Kunde zufrieden ist und der Mitarbeiter aber unzufrieden ist, dann könnte ich jetzt sagen Ja gut, das ist irgendwie bezahlt und der muss halt weiterarbeiten. Aber das rächt sich immer. Man sieht sich immer mehrfach im Leben und ich glaube, man muss da das kann man von diesen Silicon Valley unternehmen lernen, dass man sagt Okay, wir müssen hier langfristig denken und auch investieren und gucken, dass die Leute sich gut fühlen.

Und auch wenn sie dann irgendwann mal das Unternehmen wechseln oder wegziehen, das bleibt ja nicht aus, dass sie immer sagen Okay, das war eine super Zeit da, ich hab viel gelernt, ich hab mit tollen Menschen zusammenarbeiten können und das hat sich einfach gelohnt.

Nicht unbedingt Silicon Valley. Naja, also ich finde auch zum Beispiel Sipgate macht ganz tolle Sachen, die haben richtig tolle Modelle. Also ich guck mir immer wieder an, was sie da so machen, was sie ausprobieren. Die haben auch Bücher geschrieben. Darüber finde ich auch mega. Ja und tatsächlich versuche ich auch gewisse Dinge von denen uns anzugucken. Also es gibt auch durchaus deutsche Unternehmen, die das geschnallt haben, wie das heutzutage laufen muss.

Jetzt kommt bei Skillbyte natürlich noch hinzu Das ist ein riesen Bonus. Wir sind selber Techniker und wir wissen, was Techniker brauchen. Das heißt, uns wird es nie im Traum einfallen, irgendwie schlechter Hardware zu beschaffen und die Mitarbeiter mit schlechten Geräten auszustatten, sondern bei uns kann sich jeder seine Hardware aussuchen, die Software Tools aussuchen, das Headset aussuchen, weil wir wissen genau. Sogar wenn der Laptop etwas teurer ist. Das lohnt sich sowas von über die gesamte Laufzeit gerechnet bei Hardware sparen, welches Unternehmen das macht für die eigene Entwicklungsabteilung.

Das ist ein absoluter Motivations Killer. Das möchte ich an dieser Stelle einfach mal sagen. Und ich hoffe, dass es möglichst viele große wie kleine Unternehmen hören, damit man nicht mehr so Momente hat, wie das einem noch ein Laptop mit Festplatte ausgehändigt wird wie einem Kollegen letztens. Das ist ja unglaublich in 20 21 dann. Der Umgang ist zumindest bei uns sehr fair. Wir legen den Mitarbeitern ihre eigene Umsätze offen. Gut, das geht natürlich im Consulting Business, hast du gesagt.

Aber trotzdem glaube ich, ist das nochmal ein riesen Vertrauensbeweis und ein riesen Pluspunkt, dass wir das tun und dass der Mitarbeiter sozusagen selber abschätzen kann. Hammer bin ich fair bezahlt und die verstecken das nicht, weil das wird ja bei ganz ganz vielen anderen Firmen ist das ja so, dass du nicht weißt passt das zu meinem Umsatz oder nicht? Genau. Geringe interne Politik haben wir eben schon angesprochen. Also einfach fragen beim Mittagessen oder auch dazwischen. Und dann gibt’s eine Antwort oder sogar schon eine Lösung.

Ähm, fast keine eigenen Meetings, außer natürlich die Mittagessen oder die Monats Meetings, wo wir uns kurz updaten, was so passiert. Weil einfach viele Kollegen in unterschiedlichen Projekten stecken und man jetzt auch geradezu Zeit die Kollegen teilweise längere Zeit nicht gesehen hat, ist es immer wieder schön, dass man da dieses familiäre Gefühl da nochmal pushen kann. Ja, und ich muss auch sagen fachlich. Wir kriegen fast immer interessante Projekte, oder also die die Firmen nicht, die Großunternehmen nicht selber stemmen können.

Wir sind quasi auf der guten Seite, wo man sagt Okay, wir möchten was Neues ausprobieren. Das kann wir doch mit Skillbyte machen, oder?

Also das ist ja so, dass wir uns die Projekte aussuchen. Das heißt, wir bekommen die Projekte angeboten und dann sprechen halt mit dem Kollegen sagen Hey, guck mal, da liegt ein Projekt auf dem Tisch mit dem den Skills. Das passt doch ganz gut. Guck dir das mal an! Sprechen wir darüber und wir beide der Meinung sei, das passt und ist technologisch interessant, ist von den Einsatzbedingungen interessant. Dann nehmen wir das Projekt oder bzw. was heißt nehmen.

Also wir schicken dann unser Zivildiener so, steigen in den Prozess, wenn irgendwas kommt, wo wir sagen Oh nee, da will ich aber mittelfristig nicht glücklich Metern, sag mir das ab und dann wachsen halt auf dem nächsten Projekt Einsatz und das geht relativ flüssig. Und ich bin sehr, sehr froh, dass in dieser Lage sind. Weil wir nach diesem verlängert Werthmann Modell arbeiten, hat uns das natürlich auch über die Gründerzeit sehr gut geholfen. Also wenn wir das derBranche schlecht geht und die keine Projekte mehr haben, dann gehen wir dahin, wo es halt Projekte halt gibt.

Und dadurch, dass die IT halt soweit ist und so viele Digitalisierung Projekte starten. Demba Die spannenden Projekte genau.

Und natürlich auch branchenübergreifend. Der Reisebranche geht’s gerade nicht so gut oder der Gastronomie Branche geht es nicht so gut. Da kann man halt dann auf andere Branchen wechseln, die vielleicht sogar eine Boomphase aktuell erleben oder die davon gar nicht betroffen sind. Genau. Also das ist auf jeden Fall auch ein riesen Pluspunkt, dass man eben interessante Projekte umsetzen kann und sich das ein stückweit aussuchen können. Wir können natürlich nicht dem Kunden sagen, was er da einsetzen soll, aber sehr oft ist sogar das möglich.

Dennoch gibt es immer so einen abgesteckten Rahmen, in dem man sich bewegt und wo man meistens schon abschätzen kann, ob das ein spannendes Projekt wird oder nicht. Ich glaube, was bei uns auch recht deutlich wird, ist, dass bei uns die individuelle Arbeitsleistung wichtiger ist als der Head Count. Also wir arbeiten lieber mit fünf Profis zusammen als mit 25 naja, das nenne ich es mal! Und Weiterbildung ist auch ein großes Thema bei uns. Wir verwenden die Yumi Kurse, also ein riesen Jérémie Account mit hunderten Kursen, die man sich anschauen kann Hands on Trainings bei der Linux Academy und natürlich der Kollegen Austausch im Let’s Talk Meeting.

So heißt bei uns so eine Art Jour Fixe, wo man sich über neue Technologien austauscht oder auch kleine Demos gibt, um zu zeigen, was man aktuell macht.

Railly Learnings haben wir auch noch das Subskription Rendalen Büchern von O’Reily.

Ja, Weiterbildung ist einfach der Schlüssel. Also ich will jetzt gar nicht philosophisch klingen. In der IT ist Weiterbildung natürlich super wichtig. Aber auch generell fürs Leben ist Weiterbildung und persönliche Weiterentwicklung unabdingbar und wirkt auch wie ein absoluter Airbag gegen Arbeitslosigkeit oder langweilige Projekte. Wenn man immer weitergebildet ist, dann ist man immer vorne mit dabei, immer gefragt und hat einfach Gestaltungsspielraum bei der eigenen Arbeit, keine Frage.

Oft ist das auch diese Weiterbildung oder muss ich da nochmal einhaken? Also gerade das ist das, was mir am wichtigsten ist. Also wenn ich, wenn ich spüre, dass bei einem Kollegen dieses Feuer brennt, schnell zu lernen und dass das Lernen für ihn im Zentrum steht. Ich stelle lieber so einen ein und das ist nicht nur bei mir so, sondern auch bei vielen anderen Firmen. Man stellt lieber so einen oder einen Kollegen in ein als ich sagen mal einen, der keine Ahnung vielleicht mit 10 Jahren Skills und Erfahrung daherkommt, aber wo das Feuer schon erloschen ist oder gar nicht da ist oder was auch immer.

Weil so einen kannst du überall einsetzen, der schwimmt, weil es ist wie so ein Schwamm, der saugt alles auf. Das ist so tick ich ein bisschen. Ja und so versuche ich auch Leute zu finden, die auf derselben Welle sind.

Ja, ich glaube, das ist ganz normal, dass man immer versucht, Leute zu finden, die einem irgendwie entsprechen. Also was ich noch ganz interessant finde, ist, dass bei uns viele Mitarbeiter arbeiten, die vorher im Großkonzern gearbeitet haben, also die vom Großkonzern zum kleineren Unternehmen gewechselt sind, um eben der Flexibilisierung ihrer Arbeit ein Busta zu verschaffen.

Geflohen sozusagen. Ja, ich weiß dich ums Geflohen, ist aber auf jeden Fall dankend angenommen. Und die sind ja auch super zufrieden, dass man im Grunde da individuell sich da selber sehr frei arbeiten kann. Ja, wenn unsere Zuhörer aus dem Arti Bereich auf der Suche nach einem Job sind im Bereich DevOps Data und Cloud oder Java Enterprise Development können Sie natürlich gerne auf der Skillbyte Jobs Webseite nachschauen. Ob wir gerade eine Stelle in dem Bereich offen haben. Haben wir nämlich aktuell.

So viel kann ich schon mal verraten. Die Visionen und Werte von Skillbyte haben wir im Grunde schon angesprochen. Vielleicht etwas, was nochmal zusammen transparent Fairness, persönliche Weiterentwicklung der Mitarbeiter ist und super wichtig. Und dass man professionell wie auch als Mensch zusammenpasst. Natürlich, das ist Richtung Mitarbeiter. Richtung unseren Kunden sind wir natürlich immer darum bestrebt, maximale Effektivität an den Tag zu legen, also die Kunden bei den Problemen auch wirklich weiterzuhelfen. Das ist eine unheimlich hohe Befriedigung, kommt daher und das wird uns auch so von den Kunden zurückgespielt, dass sie mit unserer Arbeitsleistung sehr, sehr zufrieden sind, sodass man ein tolles Lob, was wir auch gerne natürlich an die Mitarbeiterinnen weitergeben, wenn ein Kunde Lob ausspricht.

Daneben, na ja, finde ich das gemeinsame Lachen extrem wichtig.

Du lachst sehr, sehr laut und sehr sehr. Schützt es! Ja, wir machen viele Witze, haben sehr, sehr viel Spaß und das finde ich, da gucke ich tatsächlich auch drauf, ne B-W so Bewerbungsgespräche haben.

Erzählen Sie mir einen Witz?

Nein, aber schon so manchmal auch sehr provozierend. Einfach mal zu gucken, wie geht man damit um? Na ja, das finde ich verrate nicht soviel sonst bei der nächsten Bewerbung.

Das haben wir eben schon angesprochen, dass das ist menschlich einfach passt. Also wir sind die meisten kommunikativer Typen. Als Berater oder Consultant ist es auch auf jeden Fall von Vorteil, wenn man ja auch vor dem Kunden eine Lösung erklärt oder Lösungswege skizziert. Und dann mit dem Kunden gemeinsam einen Lösungsweg zu beschreiten, ist man natürlich schon tendenziell kommunikativer Typ. Und da sind natürlich auch Witzchen machen und gute Laune immer dabei im Büro. Ja, das stimmt. Und natürlich auch im Homeoffice.

Aber da klingt das natürlich nicht so mit so unterm Strich nochmal, ne.

Um dem Thema des Podcast gerecht zu werden, würd ich sagen Wer die Karriere machen wollt, geht zu einem Großunternehmen. Wenn ihr Action haben wollt, viel viel lernen wollt in kurzer Zeit, geht zu dem kleineren.

Und gerade auch wenn ihr noch nicht so wisst, was ihr wollt, lernt man vielleicht mehr bei einem kleineren erstmal, oder? Ja, definitiv.

Weil einfach was viel mehr Abwechslung da ist. Und lasst euch nicht von großen Namen beeindrucken. Und das würde ich auch so sehen.

Das passiert ja sehr, sehr häufig, dass man dann so maken hörig wird. Und bei uns im Bereich Consulting lernt man nochmal nochmal mehr, als wenn man dann ein Produkt entwickelt bei einem kleinen Unternehmen der Consulting ist ja generell sehr vielfältig. Von daher ist das sozusagen der Turbo Boost für die fachliche und persönliche Weiterentwicklung. Auf jeden Fall.

Es sei denn du fängst bei Porsche an und kriegst Porsche geschenkt. Glaub das machen die auch nicht. Da verfahren zu wenig Porsches rum. Nee.

Ja, wir haben auch andere Podcast Episoden, wo wir im Grunde schon mal skizzieren, wie wir Projekte angehen. Da gibt’s die Episode 14 aus dem Bereich Big Data oder Episode 9 aus dem Bereich Bul Sei Software Development, verschiedene Episoden 8, 7 und 6 Welche Tools und Technologien man als Puls der Entwickler, als DevOps Engineer und als Data Engineer kennen, sollte das vielleicht noch als Hinweis zur persönlichen Weiterentwicklung aus dem Skill Baines Kontext gesagt. Und im Grunde der Appell überlegt ein bisschen Welcher Typ seid ihr?

Was schwebt euch vor? Wie möchtet ihr immerhin vierzig Stunden die Woche verbringen? Und was begeistert euch? Möchtet ihr Bea flexibel, agil, viel lernen oder diese Konzernstrukturen haben, um dann eben mit den großen Marken zusammenarbeiten? Was es natürlich auch für manche Leute wichtig, dass man eben für Porsche arbeitet und nicht für vielleicht ein kleines Unternehmen, was nur ein Zulieferer für Porsche ist, obwohl dort die Arbeit vielleicht viel mehr Spaß macht.

Ein Ding würde ich auch gerne loswerden. Da hatten wir letztens wir beide mal drüber diskutiert, weil ich hatte in ein, zwei Bewerbungsgesprächen haben die Kollegen gefragt, wie das dann aussieht, wenn man ein Produkt baut oder eine Idee hat und so weiter. Da hatten wir doch mal diskutiert Mensch, warum nicht solche Kollegen dann auch unterstützen? Also statt zu sagen Nein, irgendwie Maurice Vertrag läuft nix nebenher machen und so. Warum nicht sagen Okay, zeig doch mal, was du da hast.

Vielleicht ist das so interessant, dass wir uns daran beteiligen oder das fördert oder was auch immer. Das wollte ich auch nochmal sagen. War das vielleicht für den einen oder anderen? Interessant ist auch das hab ich mir woanders abgeguckt und fand das toll, dass man nicht so direkt negative Gotta macht was nebenher, sondern okay, lass mal gucken. Wieder diese Energien sind weg. Wie kommen wir denn gemeinsam mit dem Ding vielleicht vorwärts?

Na ja, negativ sind wir ja nie. Wenn jemand Ideen hat und eigene Projekte nebenher entwickelt. Also das ist ja, das kennen wir ja aus eigener Erfahrung, sagen, dass das Total uns entspricht. Genau. Also die Frage ist im Grunde, wie fördert man solche Ideen und wie fördert man auch Menschen, die ebenso kreativ sind und sich das zutrauen, eigene Produkte zu lauschen?

Also es war doch nur einfach nochmal, falls einer zuhört, der diese Richtung denkt und vielleicht Angst hat, dass vielleicht bei einem großen Unternehmen er das Ding sterben lassen muss oder so. Wer vielleicht bei uns gut beheimatet.

Genau, weil wir es eher pushen und auf jeden Fall die Person daran weiterarbeiten lassen. Und vielleicht gibt’s Synergieeffekte. Man macht mal eine Podcast Episode oder andere Möglichkeiten, um eben die Entwicklung noch zu pushen, die Person zu pushen, weil das natürlich auch immer eine persönliche Weiterentwicklung ist, wenn man eigene Produkte baut. Ganz, ganz wichtig wenn unsere Zuhörer Fragen haben, sendet uns gerne eine E-Mail an Podcast skillbyte. Wir freuen uns immer über Bewertungen und ein Abo des Podcasts.

Wir freuen uns auch über Weiterempfehlung des Podcast an Freunde und Kollegen. Vielen, vielen Dank Masiar.

Ich danke dir auch. Maurice mach’s gut. Ich wünsche dir noch einen schönen Abend.

Maurice KnoppSkillbyte Podcast #47: Konzern oder Mittelstand – Wo werde ich glücklich?
Mehr

Skillbyte Podcast #36: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug

// Inhalt //
01:10 – Definition: Was ist Terraform? Was leistet die Software?
06:23 – Software eats Hardware -> Infrastructure as a Service
07:42 – Welches Problem löst Terraform und wie erfolgt der Einsatz?
08:40 – So sieht ein typisches Terraform Projekt aus
11:53 – Der Terraform State – am besten remote in der Cloud
16:18 – Vorteile von Terraform
16:28 – Vorteil: Infrastructure as Code / Versionierbar in GIT
16:48 – Vorteil: Infrastrukturänderungen können sofort getestet werden
17:12 – Vorteil: Integration in CI/CD Pipeline
17:50 – Vorteil: Zentrale Infrastrukturpakete /-module
20:11 – Vorteil: Buildserver kann Terraform ausführen
20:44 – Vorteil: Portierbarkeit zwischen Cloudplattformen
23:22 – Nachteile von Terraform (Funktionsgrenzen, Cloud Limits)
23:30 – Nachteil: keine Einheitliche Benamung bei unterschiedlichen Providern; unvollständige Dokumentation
26:20 – Detaileinrichtung von VMs benötigt weitere Werkezuge (Ansible, Puppet, Chef)
27:48 – Vorteil: Kubernetes Umgebungen können mit Terraform provisioniert werden
28:35 – Nachteil: Proprietäre Cloud Features via Terraform nicht oder später verfügbar
31:48 – Nachteil: Abstraktionsschichten erhöhen immer die Komplexität
32:47 – Vorteile: Infrastruktur versionierbar, kurzfristige Wartezeit auf Ressourcen, Rückgabe nicht verwendeter Ressourcen, große Community
34:17 – Variablen in Terraform Templates für unterschiedliche Umgebungen
35:54 – Terraform Graph: stets aktuelle Dokumentation der Infrastruktur

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #36: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug
Mehr

Skillbyte Podcast #35: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz

// Inhalt //
01:30 – Definition: Microservice Architekturen (Masiar)
04:07 – Exkurs: Enterprise Service Bus
05:03 – Definition: Microservice Architekturen (Maurice)
10:39 – Die Historie hinter dem Microservice Trend
13:29 – Flexibilität vs Komplexität
16:57 – Betrachtungen der Paradigmen Monolith vs Microservice
20:47 – Vorteile von Microservices
20:51 – Modularität
21:33 – flexible Integration
23:33 – Skalierbarkeit (Cloud native Paradigma)
25:30 – Verteilte Entwicklung / Best of Breed Ansatz
25:49 – mehr (API Schnittstellen-) Dokumentation
26:46 – Robustere Systeme
29:55 – Nachteile von Microservices
29:57 – Netzwerkkommunikationsoverhead entfällt beim Monolithen
31:15 – Höhere Komplexität
32:25 – HTTP-Protokoll (overhead, stateless)
33:43 – Microservice Beispiele aus der skillbyte Praxis

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #35: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz
Mehr

Skillbyte Podcast #34: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions, Google Cloud Functions richtig verwenden

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions,
Google Cloud Functions richtig verwenden

// Inhalt //
01:04 – Was ist Serverless Computing?
03:15 – FaaS – Functions as a Service
06:43 – Cloud Anbieter für Serverless Computing
07:52 – Abrechnung von Serverless Computing Ressourcen
09:25 – AWS Lambda am Beispiel von Amazon Alexa
11:56 – Vorteil: Zeiteinsparung bei der Administration ist signifikant
14:25 – Vorteil: Abrechnung nur verbrauchter Ressourcen
15:16 – Vorteil: Kosten werden Transparent
17:09 – Vorteil: Kleine Teams können Anwendungen Millionen von Menschen zur Verfügung stellen
18:10 – Nachteil: Vendor Lock-in
20:04 – Nachteil: Keine Performance-Garantie
23:43 – Nachteil: Ressourcenbeschränkungen (CPU Zeit, RAM, Laufzeit, etc.)
25:34 – Nachteil: unflexible Laufzeitumgebungen mit fixen Softwareversionen
28:35 – Debugging bei der Entiwcklung von Functions
30:30 – In diese Szenarien ist Serverless Computing besonders sinnvoll…
35:34 – …und in diesen sind sie nicht besonders sinnvoll

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Herzlich Willkommen zum Skill bald Podcast Episode Nr. 34 Servile Computing Hype oder Chance Apps, Landa, Escher Functions, Google Cloud Functions und so weiter richtig verwenden abonniert unseren Kanal für mehr spannende Themen aus dem Technologie Umfeld. Wenn die Entscheider oder IT Fachkraft seid, lasse auch gerne eine 5-Sterne Bewertung da oder sendet uns eine E-Mail mit euren Fragen an Podcast Skill bei. Wir freuen uns auch immer, wenn ihr den Podcast an eure Freunde und Kollegen weiter empfehlt.

Ich bin heute hier mit Max von Skill bald Hallo Max, Hallo Moritz, es freut mich ganz besonders, da wir ja schon wirklich über ein Jahr zusammen arbeiten, dass wir heute diese Episode zusammen machen können.

Freue mich auch dabei sein zu können. Es hat mich immer gereizt, jetzt immer auch mein Thema gefunden und einen Zeitpunkt wo verpasst.

Ja und was für ein Themas ist auf der einen Seite ein hoch spannendes Thema Server es Computing. Auf der anderen Seite hab ich den Eindruck, dass es aktuell auch etwas gehypt wird. Wir können ja mal darauf eingehen, was servile Computing eigentlich ist. Was verstehst du denn darunter?

Ich verstehe zwei Sachen Wissen. Lattmann da sei einmal Server, alles im reinen Sinne oder so wie es jetzt im Moment und den Cloud Providern beworben wird. Bedeutet zwar aber, dass er erstmal, dass man sich selber nicht um die Hardware kümmern muss. Das heißt, dass man im Endeffekt den Cloud, wobei der dafür bezahlt, dass sie die Infrastruktur bereitstellen, wo man dann nur noch seine Anwendungen drauf ausrollen muss. Und das ist eben für mich erst mal der grundlegende Server des Computing an der Stelle.

Aber natürlich gibt es auch die engere Definition, die dann vor allen Dingen auch heute im Podcast eher die größere Rolle spielt. Bowls dann eher in Richtung Funktion Access Service geht, wo dann eben auch der ausführende Layer sozusagen nochmal abstrahiert ist, sodass man wirklich nur sehr wenig Aufwand selber hat, was man sozusagen bereitstellen muss. Genau, also die Wartung der Plattform.

Du hast eben gesagt Server lässt, man muss sich nicht mehr um die Hardware kümmern. Genau genommen muss man sich ja auch um einige Ebenen der Software nicht mehr kümmern. Also kümmern im Sinne von installieren, warten, Updates einspielen, den Server tauschen, wenn er mal alt ist. All diese Dinge also ganz klar sollten wir vielleicht sagen Server List Code läuft natürlich nach wie vor auf Servern, nur man hat keinen direkten Kontakt mehr dazu, weil eben diese Schicht weg abstrahiert ist.

Ich denke, das spannendste Thema für unsere Zuhörer ist die Abstraktionsebene Functions, also Service oder App. Faas.

Das ist auch die geschichtlich neueste Stufe der Server alles Ebene. Da geht es darum der Anbieter stellt eine Laufzeit Umgebung zur Verfügung. Also das kann eine Python Runtime sein. Das kann eine Java Run Time sein, eine dort net run time. Alle möglichen Plattformen sind hier denkbar. Und auf dieser Plattform werden dann eben einzelne Funktionen oder Programmteile ausgeführt und diese werden dynamisch gestartet anhand von bestimmten Triggern und auch skaliert. Also ob ich ein Bild konvertiere beispielsweise oder tausend Bilder konvertiere parallel.

Das ist damit dann möglich. Rampen für Cloud Provider eben dafür zuständig €000 Laufzeit Umgebung bereitzustellen, die dann parallel den Job abarbeiten können. Hast du in letzter Zeit selber schon Functions, also Service Funktionen entwickelt?

Hab ich in der Tat. Das war bei zwei verschiedenen Projekten jeweils verschiedene Anwendungsfälle. Einmal haben wir das genutzt, um Web Application also an der Stelle einer Westlake JAL bereitzustellen, die eben von außen aufgehoben wird. Dann Processing mach. Und je nach bestimmte Antwort zurückgibt. Der andere ist mehr asynchronen Fal, wo sozusagen durch Daten Anlieferung Funktion getriggert wird, die dann eben Daten einliest, transformiert und dann wieder raus schreibt. Und dann kann auch in einer Kaskade dahinter eben neue Fangzähne getriggert werden, sodass dann sozusagen dieser übliche Ettl Job durch mehrere verschiedene Functions abgebildet wird, wobei jede Funktion immer nur eine Transformation ausführt und dann Pappi Events wie Datei wurde geschrieben oder neue Datei existiert.

Angetriggert werden und dann entsprechend ihre eigene Verarbeitung an der Stelle fortsetzen. Das heißt, die Verkettung der Trigger ist quasi ein Stück weit der neue Programmcode. Wieso?

Bei einer Dominostein Reihe genommen würde ich sogar vielleicht noch einen Schritt weiter gehen und sagen, dass wenn man mit Pantheons arbeitet und da komplexere Logik umsetzen will, ist man eigentlich gezwungen Microservices mehr oder weniger in Reinform zu denken und umzusetzen, weil dazu, wenn er später noch kommen Franzens bestimmte Limitationen haben, was vor allen Dingen Performance angeht, also CPU Rechenzeit. Und dann ist so eine Funktion tatsächlich auch nur gedacht als einen logischen Schritt, sodass man, wenn man verschiedene Schritte in seiner Ausführung hat, hat man sozusagen immer wieder einen neuen Micros Service, der gekrault wird oder durch ein Event ausgeführt wird, einfach um ein plastisches Beispiel zu.

Geben Wir sind ja noch bei der Definition, was Server des Computing ist. Früher hätte man so eine klassische Webanwendung oder ein Webshop hätte eine Anwendung beinhaltet, wo dann die Bestellung ausgelöst wird, das Etikett ausgedruckt wird für den Karton, der später versendet wird. Plus die Zahlung von der Kreditkarte, mit der der Kunde bezahlt hat. Eingezogen wird und im letzten Schritt wird der Warenbestand um 1 Dex demontiert, um eben diese Bestellung dann darzustellen. Und im Server ist reich, während das einzelne Funktionen, die sich nacheinander aufrufen oder das kann er teilweise sogar auch parallel geschehen.

Aber Microservices in Reinform. Diese kleinen Funktions Blöcke, die sich dann eben nacheinander aufrufen, was man vielleicht noch sagen sollte, weil das Wort oder der Begriff Server des Computing oft marketingtechnisch ausgeschlachtet wird meinen kann, sind auch so Docker Container Round Times also die bezeichnen sich auch als Server. Alles das ist hier im Kontext dieser Podcast Episode nicht gemeint. Mir meinen wirklich nur einzelne Funktionen, die miteinander verzahnt werden können und nicht ganze Programme, Bausteine oder ganze Programm Plattformen die eben hochgefahren werden, wo man dann auf einer niedrigeren Abstraktionsebene einsteigen würde.

Im Grunde, wenn man die Geschichte der Applications Entwicklung sieht, sind Server lässt die neueste Stufe, denn es wird auch. Ich habe in einem Artikel gelesen DevOps als DevOps auf Steroiden bezeichnet. Man kümmert sich im Grunde nur noch um die Programm Logik, also die einzelnen Funktionen und die Verschaltung dieser Funktion von Deist als das Beispiel, was du gegeben hast. Max, dass die Funktion über eine API aufgerufen werden und dann eben weitere Schritte wieder über Abis anstoßen. Schon wahrscheinlich das Paradebeispiel im Server des Computing Bereich.

Mit welchen Anbietern hast du denn? Und Laufzeit Umgebung? Hast du denn jetzt schon Erfahrung gesammelt?

Persönlich hab ich schon so gut wie in den drei größten Cloud Anbietern gearbeitet. Also Amazon habe erst an der Stelle Track Software an Google Cloud Computing allerdings lediglich in Apps und den Ärger mit den befangene Pandoras gearbeitet. Das wäre an der Stelle daneben Landa Funktionen bei Apps und einmal ja Funkens, dann bei Microsoft.

Ich glaube bei Google heißt es Cloud Functions und bei IBM heißt es auch Cloud Functions. Aber das unter dem Begriff Lambada und dem jeweiligen Provider wird man ganz sicher den Produktnamen ausgraben können. Okay, ich glaube, da haben wir schon mal ein gutes Grundverständnis gegeben, was Server Computing ist. Also vielleicht noch ganz kurz Welche Laufzeit Umgebung hast du eingesetzt? Ich nehme an Python, oder?

Genau. Bei mir war es jedesmal Theißen. Allerdings wenn die relativ die Wert mittlerweile aufgestellt. JavaScript funktioniert und auch jede andere große Programmiersprache wird mittlerweile auch an der Stelle unterstützt. Vielleicht noch ein Wort zur Abrechnung.

Also klassische Server bezahlt man ja, indem man einfach die Server mietet oder? Beim Cloud Server wird ja auch pro Minute abgerechnet. Beim Server Computing ist das so ein Mix aus verbrauchten CPU Ressourcen. Remme Ressourcen und Durchsatz. Das unterscheidet sich glaube ich auch bei jedem Anbietern. Bisschen gab es unterscheidet sich auch dann nochmal zusätzlich, in welchem Kontext du sie verwendet. Also ich weiß, dass man bei Apps verschiedene Modi haben kann. Man kann die typische Lambda Funktion haben.

Man kann auch Lambda haben. Man kann die Landa Funktionen mehr oder weniger direkt dem Internet preisgeben oder ein API Gateway benutzen und je nachdem welches Modul man dann je nach Funktionsweise benutzt. Damit wird es auch nochmal ein bisschen anders abgerechnet. Beim Großen und ganzen kann man eben sagen, man bezahlt für die Ressourcen, die man auch tatsächlich einsetzt. Lambada bedeutet, dass die Funktions Ausführung möglichst nahe an den Endkunden herangeführt wird, oder?

Genau das hat. Ich glaube in dem Kontext zwei Bedeutungen. Einmal wird eben z.B. das API Gateway nicht benutzt, was dann eben auch nochmal zusätzlich ein Netzwerk Delay verursachen würde. Und wie du richtig gesagt hast, werden dafür auch Server benutzt, die eben sehr nahe beim Kunden stehen. Das wirkt dann, wenn man das so möchte und bucht quasi und auch bezahlt weltweit auf die verschiedenen Server verteilt, sodass dann je nachdem von wo der Kunde das aufruft, das dann an den nächst gelegenen Server geht.

An der Stelle noch ein Beispiel Bevor wir zu den Vor und Nachteilen von Server des Computing kommen, ist Amazon Alexa also der Sprachassistenten von Amazon selber. Jedesmal wenn man mit Alexa spricht, ruft man im Hintergrund quasi eine Lambda Funktion auf, die dann antwortet. Das fand ich ganz interessant, dass Amazon die eigene Technologie für ja doch dieses Blockbuster Produkt verwendet, was natürlich dann auch Signalwirkung haben soll. Seht her, das ist stabil genug, darauf kann man sich verlassen.

Okay, jetzt haben wir schon einige Vorteile. Implizit angesprochen. Lass uns doch nochmal durchgehen, ob wir nicht was vergessen haben. Skalierbarkeit hatten wir eben schon angesprochen. Amazon Alexa kann man sich z.B. vorstellen, dass am Anfang gab es vielleicht einige tausend Nutzer, die regelmäßig mit ihrer Alexa gesprochen haben. Mittlerweile dürfen das einige Millionen sein. Und diese ganzen Anfragen können eben parallel durchgeführt werden, ohne dass man sich darum kümmern müsste, die Infrastruktur entsprechend zu skalieren.

Das macht der Cloud Provider und auch das Konzept für die Fans sind, denen ausgelegt sind, wo man quasi nur eine Funktion vom Code her bereitstellt, mit vordefinierten Inputs und definierten Outputs. Diese Art der Programmierung dadurch ist trivial möglich, dass auch tatsächlich die Anwendung eben skaliert. Weil n klassischen Anwendungen muss man potentiell eben auch nochmal Gedancken reinstecken, ob die Anwendung überhaupt staatlich ist, ob sie skalieren kann und so weiter. Und diese Sachen sind implizit automatisch gegeben, wenn man entsprechend diese Umgebung nutzen will, weil dann muss man sich diese Gedanken alle vorher machen.

Angekommen vom Cloud Provider sozusagen ein vordefinierte Event eingereicht, mit dem man arbeiten kann. Mehr hat man nicht. Man kann natürlich auch externe Systeme noch anfragen, aber erstmal hat man nur dieses Event und tut dann eben mit diesem Event was. Und dass es in sich allein von den logischen Gedanken beliebig skalierbar, sodass allein die Herangehensweise an die Programmierung so einer Funktion eben an der Stelle das Skalieren quasi gratis mitliefern.

Ich hab bei der Recherche so einen schönen Satz gefunden. Ich glaube es von Google. Das heißt from prototype to production to planet scale, also dass im Prinzip der parallelisiert Kargheit dieser Service Funktion keine Grenzen gesetzt sind. Physikalische Grenzen sind natürlich schon durch den Cloud Provider gesetzt, aber die liegen so hoch, dass man dort erst einmal keine Probleme haben sollte.

Okay, dass man sich nicht mehr um die Beschaffung von Hardware, die Installation des Betriebssystems, die Wartung und das Update des Betriebssystems und etwaiger anderer Software Komponenten kümmern muss. Das hatten wir eingangs schon erwähnt. Ist aber ein wichtiger Punkt, denn ich wette in vielen vielen Admin Teams wird signifikant viel Zeit für diese Tätigkeiten aufgewendet. Soviel zu meiner Erfahrung. Ich weiß nicht, welche du da gesammelt hast, doch das ist ja identisch.

Muss man sich ja nur einmal in der Fachliteratur ein bisschen umschauen. Es tauchen gefühlt jede Woche mindestens eine Sicherheitslücke auf, wo man dann das Team eigentlich überprüfen muss. Okay, der Server, auf denen unsere Anwendung läuft, ist da die Open Access Bibliothek jetzt drauf, die betroffen ist oder nicht? Wenn ja, wie? Installieren wir das? Können wir das im laufenden Betrieb machen und so weiter. Und all das entfällt eben, wenn man in diesem Server lebt, Kontext unterwegs ist.

Dafür bezahlt man am Ende dann den Cloud Provider, dass die sich dann eben um Wartung, Update und so weiter kümmern. Und man selber bekommt von der Situation überhaupt nichts mehr mit. Und dann muss sich auch keine Gedanken machen, was an der Stelle eben irgendein Produktionsausfall oder sowas ist. Oder dass die Funktion erstmal nicht mehr erreichbar. 2 Grad der Hauptsatz aber ja, updatet oder sonst was.

Das hat man eben an der Stelle überhaupt nicht, da auch das Thema, was oft unter den Tisch fällt Hardware Ausfall. Vielleicht erinnerst du dich an ein Projekt, wo wir beide waren, was noch nicht so lange her ist, dass eine fehlerhafte Netzwerkkarte also wirklich wochenlang Haare raufen gesorgt hat, bis sie im gefunden und deaktiviert wurde und ab dann konnte normal weitergearbeitet werden. Das sind auch Sachen. Also nicht, dass es die defekte Netzwerkkarte in einer Cloud Umgebung nicht geben kann.

Aber ich denke die STANDARD Hardware dort ist so gut Monitor, dass das relativ schnell auffällt. Genau. Und soweit ich das weiß, haben sie ja auch nochmal spezielle Software laufen, die Unstimmigkeiten im Netzwerk aufspürt oder insgesamt Unstimmigkeiten in der Hardware. Und dann wird mal einfach ein kompletter Server Schrank aus der aktiven Hardware rausgenommen, falls nur die Ahnung ist, dass da mit dem Server schon was nicht in Ordnung ist, weil Cloud Provider haben natürlich so viel Ressourcen oder so viele Backups auch, dass das einfach mal möglich ist.

Was natürlich für ein normales durchschnittlichen Unternehmen nicht einfach mal möglich ist. So viel über pro. resümierte Hardware dazu haben, dass man meinen gesamten Server Schank aus dem Rechner Cluster rausnehmen kann.

Und wer eine Woche mit Debugging von Hardware Problemen verbracht hat, der wünscht sich, dass er damit nichts zu tun haben möge.

Preis ist auch ein Vorteil. Wir haben es unter Vorteil gelistet, aber ich würde sagen, da muss man etwas aufpassen, denn es gibt durchaus auch Szenarien, wo es günstiger ist, wenn man einen eigenen Server mietet, der z.B. kontinuierlich unter Hoch Last steht oder der sehr spezielle Anforderungen erfüllen muss, also sei es Spezial Hardware oder sehr viel Arbeitsspeicher aufweisen muss, dann sind Server alles Funktionen leider keine Option.

Genau, also das muss man je nach Anwendungsfall immer evaluieren. Es gibt eben meistens bei der Cloud nicht die STANDARD Aussage. Ja, das ist günstiger als alles andere, weil dann gäbe es das andere auch nicht. Mehr dementsprechend. Wie du richtig gesagt hast, mein Server ständig ausgelastet wäre, dann ist der häufig günstiger, als wenn man die gleichen Neuyork laut über Funktionen an der Stelle Fahndungen.

Ein weiterer positiver Punkt, der in vielerlei Hinsicht positiv ist, ist die Abrechnung für verbrauchte Ressourcen, also CPU Zeit, RAM Io. Und nicht nur, weil man tendenziell, wenn man ein System, das man nur für die Last starken Zeiten im Prinzip bezahlt, sondern es wird auch sehr deutlich im Projekt oder bei mehreren Projekten, welche Projekte wie viele Kosten verursachen und wo genau bei welchem Arbeitsschritt und welchem CPU Dienst oder bei welchem Programmteil die höchsten Kosten anfallen und die meiste Berechnung anfällt und man kann dort gezielt optimieren.

Das finde ich auch sehr schön eigentlich. Früher hat man gesagt, die Datenbank läuft 24 Stunden am Tag. Dann können wir auch hier alles rein und rausrechnen und Backup machen. Jeden Abend 100 Gigabyte übers Netzwerk schieben, das ist ja eh da und jetzt muss man sich das schon genauer überlegen. Also kann natürlich auch negativer Punkt sein, weil man sich jetzt damit beschäftigen muss. Aber generell halte ich das für eine gute Sache, dass man weiß, wo welche Aufwände erzeugt werden und man einfach so nochmal einen Überblick bekommt.

Genau.

Also vielleicht auch das Beispiel, das sein Wickler ein bisschen anders entwickelt kann. Ich habe selber gemerkt, dass wenn man sich jetzt eben genau an diese neue Serviceleistung Banken mit arbeitet, dann denkt man auch mal zwei oder drei mal mehr nach, um zu überlegen Okay, brauche ich jetzt diese Datenbank Anfrage oder nicht? Wie du eben so schön gesagt hast wenns im normalen System läuft und die Datenbank Ishtar, dann macht man im Saft. Hab eine Anfrage Mehrheit dahin, obwohl es natürlich auch Bermann Snack optimieren würde.

An der Stelle bringt das natürlich auch Vorteile in jeder anderen Umgebung. Aber gerade in diesem Klout Umgebung hat man sowieso nochmal einen monetären Vorteil dadurch, sodass man dann auch als Entwickler gleich Kaymer überlegt, ob man das nicht wieder schöner oder performant an der Stelle schreiben kann.

Also es wird einfach transparent und man kann sich gezielt darum kümmern oder sich gezielt dafür entscheiden, sich nicht darum zu kümmern. Was ich noch als gigantischen Vorteil seh ist, dass dieses Wissen für die Administration, was ja in jedem Unternehmen aktuell vorhanden ist und auch früher für die Produktentwicklung unabdingbar war, nicht mehr unbedingt notwendig ist. Und auch kleine Entwicklerteams, die vielleicht nur aus Entwicklern und einem 2 DevOps Menschen bestehen, dass sie Anwendungen entwickeln und betreiben können, die von Millionen von Nutzern genutzt werden können da draußen und das ohne eigenes Infrastruktur Team.

Wenn man sich auf Zerfalle Computing konzentriert, also das entbindet einen nicht von allen administrativen Aufgaben. Man muss sich natürlich auskennen und dieses DevOps wissen sich auf schlauen was ist eine IP Adresse? Wie funktionieren Netze, wie sicher ich das ab und so weiter. Und wie Provision niedrig die Infrastruktur auf meinem gewählten Cloud Provider. Also diese klassische Rolle zwischen Entwickler und Betrieb dann aufnehmen. Aber ist es wirklich kein Admin im engeren Sinne mehr notwendig für eine Anwendung, die Millionen von Leute nutzen?

Das ist ja auch schon mal was. Also Apps zum Beispiel. Aber wie das so ist, auch wenn es wunderbar klingt und wer jetzt die Vorteile aufgezählt haben, da gibt es natürlich auch ein paar Nachteile, die wir schon gestrichen haben.

Ich glaube, der größte Nachteil, wo man sich immer bewusst sein muss, sobald man in der Cloud unterwegs ist und vor allen Dingen bei den sogenannten Managed Service. Was Fangnetze Service an der Stelle ist, ist, dass wir ein Vendor Login haben. Das heißt, wenn wir uns jetzt entscheiden, bei Apps in der Landa Funktion was zu tun, dann können wir das nicht eins zu eins so auch danach bei Google z.B. laufen lassen, falls das wichtig ist. Allerdings, das muss man natürlich auch zugeben ist, dass dadurch das Konzept hinter den Fangzähne bei den meisten festgeschrieben ist, muss man natürlich nicht die komplette Funktion neu schreiben, sondern an der Stelle eher den Input und Output so neu formatieren, dass er auch die neue Cloud passt.

Allerdings kannst du dann auch nochmal sein, dass er nach anderen Cloud ein bestimmtes Paket nicht verfügbar als Voda. Man kann es nicht nach installieren oder lohnt was. Also man legt sich erst mal auf eine Cloud fest, wenn man eben eine bestimmte Funktion Umgebung auswählt. Am Ende dessen muss man sich bewusst sein, was natürlich auch am Ende der Tweet of ist. Zwischen dem Komfort, den wir eben erwähnt haben, bezahlt man einer gewissen Stelle dann natürlich damit, dass man den Cloud-Anbieter treu sein muss.

Es hat sich noch keine Open Source Server alles Computing Platform herauskristallisiert, so z.B. kybernetisch. Es ist ja das DevOps Rechenzentrum oder der STANDARD für Container Computing kann man sagen, der von allen Cloud Anbietern angeboten werden muss, weil er einfach so omnipräsent ist. Und für Server des Computing gibt es so einen verbreiteten offenen STANDARD eben noch nicht, der ja vielleicht noch kommen kann. Es wäre zu wünschen, dass man dann zwischen den Anbietern eben auch wechseln kann.

Ich glaube, da besteht ein hohes Bedürfnis, gerade von großen Unternehmen. Aber wer weiß, was die Zukunft bringt. Einen weiteren Nachteil sehe ich im ansprecht Verhalten einer Sour, weil es Funktion. Es gibt keine Garantie, dass diese sofort eine Antwort liefert. Manchmal ist so eine gewisse Ramp up Periode notwendig von wenigen Sekunden, bis dann die Funktion eben ausgeführt werden kann. Das ist insbesondere dann kritisch, wenn ich eine interaktive Anwendung habe, also wo der Nutzer Eingaben tätigt und er dann auf die Rückantwort wartet.

Muss aber gestehen, ich habe hier noch keine Hands on Erfahrung. Ob das wirklich so ein großes Problem ist? Wir haben tatsächlich an der Stelle einmal die Erfahrung gemacht also diese Vampir Periode ist tatsächlich nur am Anfang oder wenn die Funktion eben noch länger nicht ausgeführt wurde oder immer nur sehr sporadisch ausgeübt. Dann hat man eben dieses von dir erwähnte Problem und wir hatten tatsächlich den Fall, als wir eben die erwähnte Vest API bloed haben bzw. Konsequenz von unseren Websiten aus gekrault haben.

Da ist der Traffic schlagartig angestiegen und an der Stelle das Skalieren fand nicht schnell genug statt. Auch wegen dieser WMP Zeit. Und da hat es dann eben die ersten 5 bis 10 Minuten sehr viele Bettwil Requests Server, Time Outs und so weiter gegeben. Was an der Stelle jetzt nicht so kritisch war, weil das keine Daten waren, die das Nutzerverhalten zu sehr beeinflusst hätten. Aber je nachdem in welcher Situation man ist, kann man sich das eben nicht erlauben an der Stelle.

Wir sind danach auch etwas schlauer geworden, dass wir dann eben entsprechend, bevor wir ein anderes neues Deployment oder ein neue Landa Funktion woanders eingebaut haben. Kann man das eben auch einmal händisch selber vorheizen in Anführungsstrichen, wo man dann eben entsprechenden Traffic simuliert, dass eben vorhanden ist. Und ich glaube, mittlerweile gibt es auch seit längerem eine Checkbox, die man in den entsprechenden Oberfläche setzen kann, wo dann eben die Funktionen auf Standby gehalten wird, sodass dann eben diese Scale out oder das Skalieren sehr viel schneller geht.

Allerdings muss man den eben einmal setzen und ich glaube, es kostet auch was eine gewisse Betrag, sodass man da nämlich ständig setzen sollte. Aber es ist gut zu wissen, wenn der Cloud Provider das nicht hat, dann sollte man eben einmal quasi händisch vorheizen, sodass dann bei dem produktiv ausrollen. Wenn man nicht die Möglichkeit hat, prozentual über mehr Traffic abzugeben, dann muss man eben einmal händisch das sicherstellen, dass der Traffic erarbeitet werden kann. Händisch vorheizen.

Das hört sich ja an wie bei einer alten Dampflokomotive her.

Ich war auch amüsiert, als ich das erste Mal den Vorhalt Begriff in diesem Kontext gehört habe. Aber am Ende ist es genau das.

Das ist einfach eine technische Notwendigkeit. Die Cloud Provider haben natürlich tausende oder Millionen Funktionen registriert von all ihren Kunden auf diesen Laufzeit Umgebungen und da wird wahrscheinlich nur ein Bruchteil konstant genutzt und alle anderen werden schlafen gelegt, damit es bei diesen geringen Kosten bleiben kann. Und wenn eine Funktion angefordert wird, dann muss erst einmal eine Laufzeit Umgebung Provision tiert werden oder diese Funktion dort zur Ausführung gebracht werden. Und das kann dann eben diese berühmt berüchtigten ein, zwei, drei, vier Sekunden dauern.

In der Zeit hat man keine Antwort oder die Anwendung kann ich weitermachen? Ja genau.

Und nach dieser Vampir Periode ist das eigentlich kein Problem mehr, weil die meisten glaubt wieder an der Stelle im hingehen und diese entweihen, wo die Funktion ausgeführt wird eben sozusagen Kelchen. Das erst mal nachdem die hochgefahren wurde. Diesen sauberen State sozusagen wird dann mehr oder weniger als Abbild für alle anderen Funktionen der Nacht genommen, sodass dann eben nicht mehr die gesamte Umgebung hochgefahren werden muss, sondern nur noch dupliziert werden muss, was an der Stelle sehr viel schneller geht.

Ein weiterer Nachteil und da sind wir selber, das weiß ich aus erster Hand schon häufiger dran gestoßen und haben da Lösungen für entwickelt. Ist die Ressourcen Beschränkung innerhalb einer Server Ulis Funktion? Das ist wahrscheinlich auch oder es macht einen Unterschied. Je nach Anbieter gibt es da unterschiedliche Ressourcen Beschränkungen. Aber generell kann man glaube ich festhalten, dass man in einem sehr, sehr engen Korsett steht, also beispielsweise, dass eine Funktion maximal 40 Sekunden Laufzeit aufweisen darf. Danach wird sie zwangs beendet oder dass sie nur ein Speicherbedarf von ein Gigabyte RAM konsumieren darf und kann dann nicht weiter wachsen.

Und diese Beschränkungen sorgen zum einen dafür, dass man sich natürlich sehr kurz fasst und die Funktion wirklich nur einen sehr kleinen Teil des Programms dann eben übernimmt. Auf der anderen Seite kann es ja vielleicht doch nötig sein, eine große Anzahl an Bildern zu konvertieren und dann müsste man das irgendwie anders lösen. Genau.

Also das ist so ein bisschen dem Anwendungsfall geschuldet. Ich glaube, das liegt in der Konzeption begründet, dass eben Bankwesens kleine logische Einheiten sind, die häufig wenig Ressourcen Anspruch haben und schnell antworten. Aber das dann in millionenfach sozusagen. Wie du richtig erwähnt, das haben wir auch schon häufiger Probleme gehabt mit diesem Kontext, einfach weil sich dann am Ende das Anwendung. Szenario doch anders entpuppt hat, als es ursprünglich erdacht war, sodass man dann am Ende dann doch auf eine andere Technologie ausweichen musste.

Und man muss sich wirklich vor Augen halten. Also nach diesen 40 Sekunden als Beispiel Wert wird die Funktion Ehard beendet, also mit einem Kill abgeschossen. Wenn man da noch offene Datenbank Transaktionen hat, werden die nicht abgeschlossen oder verbleiben dann in diesem Schwebezustand. Also das muss man wirklich bedenken, wenn man da eine Anwendung, die Zeit, einen weiteren Nachteil.

Wobei ich sagen muss, ich seh das gar nicht als so großen Nachteil, weil die Cloud Provider sich ja doch sehr viel Mühe geben, sind die unflexible Provisionszahlungen der Laufzeit Umgebung. Also ja, wir haben eben schon gesagt Java wird angeboten, Pfeifen wird angeboten, sie Charb wird angeboten. Alles was Rang und Namen hat, JavaScript wird angeboten, aber dennoch muss man sich Vereine dieser FOR konfektioniert Laufzeit Umgebungen entscheiden und kann nicht frei seinen eigenen Sophistik dort aufbauen.

Genau das ist auch je nach Cloud Provider ein bisschen anders gelöst und das von dir angesprochene Korsett einmal enger geschnürt als bei anderen, sodass man da eben Dependency es zum Teil können eben relativ leicht nache installiert werden. Gemeint sind Pulsen Umfeld ist ein Python Paket kann man eigentlich in allen Umgebungen nochmal nach installieren, weil das eben einfach der normale Weg ist. An der Stelle aber zum Beispiel System Bibliotheken, auf die zum Teil bestimmte Pakete angewiesen sind, weil das eben nicht nochmal neu implementiert wird in der entsprechenden Programmiersprache, sondern eben auf normalerweise vorhandenen System Bibliotheken zurückgegriffen wird.

Die können zum Teil Probleme bereiten, wenn eben entsprechend in der Laufzeit Umgebung das einfach nicht vorinstalliert ist.

Hast du da ein Beispiel? Also Verschlüsselung oder Open CSL? Würde mir direkt einfallen, dass man vielleicht nicht jedes Cypher Sued hat.

Genau an der Stelle ist es ein relativ spezielles Beispiel, also das Knuff PGP quasi. Die asymmetrische Verschlüsselung ist an der Stelle nicht installiert in den Äther Pantheons. Zumindestens hab ich das an der Stelle nicht rausgefunden, wie ich es laden könnte. Und so gut wie alle landesüblichen heißen Pakete, die eine einfache Interaktion mit nur P&G verschlüsselten Dateien ermöglichen, setzen eben darauf, dass entsprechend die Bibliothek dafür vorinstalliert ist, was an der Stelle daneben dann nicht der Fall war und was daneben zu sehr viel Rechercheaufwand geführt hat.

Am Ende mussten wir uns auch an der Stelle aus anderen Gründen auch für eine andere Umgebung entscheiden, einfach weil sich herausgestellt hat, dass die Daten am Ende zu groß waren für die Funktion.

Da kann man mehrere beschränkende Faktoren zusammen, also Software Estag und diese Ressourcen Beschränkungen, sodass man sich dann dort von der andere nicht zur weiles Computing Lösung entscheiden musste.

Ein anderes Beispiel, was ich auch noch nennen kann es QT benutzt, was Leuten, die mit einer Maschine noch nicht vertraut sind, wahrscheinlich was sagen wird. Es ist nicht mit dem STANDARD C Compiler kompiliert, zumindest standardmäßig nicht meine ich, dass das zumindest das zugrundeliegende Problem war. Auf jeden Fall ist es nur sehr schwierig möglich, das in z.B. PKW’s zum Laufen zu bekommen. Es funktioniert, aber man muss dann doch wieder mehr Aufwand da reinstecken, dass man das eben selber kompiliert, weil die Laufzeit Umgebung sich eben leicht unterscheidet zu dem, was man normalerweise vorfindet, wo das Paket normalerweise ausgeführt wird.

Naja, und das sind dann genau diese Details Probleme, die dann doch wieder Zeit kosten. Was ich noch als Nachteil sehe.

Wobei da muss ich auch sagen, dass es bei manchen Cloud Providern doch relativ gut gelöst ist, das Debugging, während man diese Funktion entwickelt als man brauche so eine Art Remote Debugger, der dann in diese Server alles Computing Environment den dieBürger dort andockt und dass man die Funktion dann eben Schritt für Schritt durchlaufen kann. Da gibt es auch ganz gute Lösung, aber man hat halt all die Probleme, die man mit Remote Backing hat. Die Ports müssen offen sein, man muss die Funktion registrieren, es klappt nicht immer und man sieht nur die Funktion oder kann halt dadurch steppen.

Dadurch, dass man den Ausführung Stack nicht kennt, weiß man nicht. Okay, hab ich vielleicht einen Speicher Problem oder man sieht einfach nicht so viel wie wenn man das auf einer nativen Maschine macht. Genau.

Es gibt an der Schalotten unseren Ansatz. Zumindestens kenne ich den bei Apps so, dass sie tatsächlich einen lokalen Emulator für die Landa Funktionen bereitstellen. Der läuft dann meistens in Docker. Ich glaube es gibt auch alternative Installations Möglichkeiten, aber da hab ich mich dann für Docker entschieden. Und da wird dann quasi ein Docker Image Gisborne, wo dann deine Funktion Godwein kopiert wird und darum herum wird eben dann diese Funktion Logic simuliert. Funktioniert auch ganz gut, wenn man eben sozusagen die Events gucken will, ob die übereinstimmen, ob der Programmcode überhaupt ausführbar ist.

Was allerdings nicht ein Porst wird, zumindest zu dem Zeitpunkt wo ich es genutzt sind genau die angesprochenen CPU Limits MMW Limit. Execute belämmert in der Größe und so weiter, das wird an der Stelle dann eben nicht geprüft, sodass selbst wenn es dann eben lokal ausgeführt werden kann, man trotzdem in der Cloud noch auf Probleme stoßen.

In der Podcast Episode mit Olli haben wir ja über diese zwei Faktoren gesprochen, dass die Ausführung Umgebung möglichst der Entwicklungsumgebung entsprechen sollte. Und durch diesen Bruch hier kann man sich dann eben neue Probleme einfangen. Hier ist das dann nicht gegeben. Jetzt haben wir die Vor und Nachteile besprochen und ich glaube, jetzt kann man ganz gut ein Bild zeichnen, in welchen Szenarien servil es Computing denn besonders sinnvoll oder eben nicht sinnvoll eingesetzt werden kann. Alexas Gilt’s hatten wir schon als Beispiel.

Du hast gesagt, Dienste, die Überrest APIs miteinander sprechen, eignen sich auch sehr gut, weil das einfach die natürliche Sprache der servile Funktionen ist. Wir haben gesagt, es gibt verschiedene Trigger, mit denen die Funktion gestartet werden kann. Also neue Datei in einem Cloud Folder hochgeladen. In einer Message Cue steht ein neues Objekt an. Ein Rest API Call ist auch ein Trigger Import. Daten sind vorhanden, klopfen irgendwo an, in einer Datenbank entsteht ein Eintrag. Wenn die Anwendung sich darauf stützt, kann man das auch sehr einfach abbilden und bei hoch parallelisiert Baan Anwendungen also zum Beispiel könnte man sich vorstellen einen Web Dienst wo Leute ihre Audiodateien hochladen können im Wave Format und bekommen einen komprimiertes MP3 zurück.

Das wäre ja perfekt. Parallelisiert war eben pro User oder sogar pro User Datei. Das wäre so ein Anwendungsfall wo man sehr gut dann eben sovieles Computing Funktionen einsetzen könnte.

Genau. Wobei man natürlich auch an der Stelle nochmal anmerken muss, dass man sich im Vorhinein überlegen muss, ob man entsprechend Größen Beschränkungen z.B. im Mäzenen, den Kommentierungen Beispiel zu bleiben größten Beschränkungen für die Josa auferlegt, damit das eben garantiert ist, dass in der benötigten Zeit abgearbeitet werden kann. Apropos benötigte Zeit ich bin auch über einen Artikel gestolpert, wo eine Architektur vorgeschlagen wurde, dass eben die sovieles Funktionen möglichst über Message KÜS miteinander verbunden werden sollen. Das Problem liegt darin, wenn man die Server Funktionen miteinander verknüpft und eine Funktion auf die Antwort einer zweiten Funktion wartet, dann wird das berechnet, weil die erste Funktion aktiv auf den Rückgabewert der zweiten Funktion wartet.

Und der Vorteil bei Message Cues ist, dass die erste Funktion ihren Job abschließt, in die Message Kyu ein Objekt anhängt. Die zweite Funktion läuft los, führt ihren Arbeitsschritt durch. Das Ergebnis wird wieder in die Message Kyu eingehängt und jetzt startet die erste Funktion wieder mit dem Ergebnis der zweiten Funktion und kann damit weiterarbeiten. Und das das kann man sich leicht vorstellen. Bei vielen, vielen 000. Funktionen, die vielleicht parallel ablaufen, doch sehr viel Zeit sparen kann und unterm Strich natürlich auch Kostenvorteile bringt.

Wobei an der Stelle würde sehr wahrscheinlich eher so laufen, dass du insgesamt drei Funktionen und zwei Medikus hast. Hast du sozusagen die erste Funktion in die erste mildtätigen schreibt, dann die zweite Funktion aus der ersten liest und in die zweite mit Süd-Korea einschreibt und dann die dritte Funktion darauf wieder reagiert. Dann hast du eben die Trennung der Microservices noch klarer, weil sonst hast du in der ersten Funktion zwei Logiken drin einmal den externen Trigger sozusagen und dann nochmal Handfeger.

Wenn, wie deine Antwort in die Meterdicken geschrieben wird an der Stelle genau serverseitig macht es natürlich Sinn, das auch noch aufzuteilen. Mir war jetzt eigentlich nur wichtig zu zeigen, dieses aktive Warten einer sovieles Funktion. Das sollte man vermeiden, eben aus Kosten, Gesichtspunkten.

Und ein anderer Vorteil natürlich bei diesem asynchronen ist, dass dann, wenn eine davon Ressourcen intensiver als einfach durch die Hörer Verarbeitungs Zeit, dann ist das eben auch an der Stelle abstrahiert. Ich glaube es ist insgesamt ein guter esein Hinweis für die Microservices Architektur, dass du die Kommunikation möglichst asynchron machst an der Stelle, wo du es kannst, dass man die Message Cues das machen lässt, wofür sie gedacht sind, eben per Sistieren von Objekten und die Koppelung der Funktionen.

Dann eben im Grunde wie bei einer Fabrik mit ganz vielen Fließbändern. An die Fließbänder sind da die Message QoS, dass man das dann so aufbaut. Mach doch das Recovery einfacher. Wenn einzelne Dienste streiken oder es zu Problemen kommt, dann sind die Nutzdaten weiterhin in den Message cuius vorhanden, in der Mehrzahl der Fälle aber sinnig verloren. Die Prozessors führen kann ein resoniert werden. Ich denke generell, dass sovieles Computing bei der Neukonzeption von Anwendungen, insbesondere Webanwendungen die Stärken ausspielen kann, wenn klar ist, dass die Anwendung in der Cloud betrieben werden soll, wenn klar ist, welche Funktionen dort umgesetzt werden können, auch mit Nutzer Interaction oder Import-Export Jobs.

Im Grunde so eine klassische Webanwendung kann schon oder weitestgehend Services umgebaut werden. Glaube ich schon. Im Grunde hat man mit der Services Computing Technologie oder Funktion, also Service. Ziel wie mit den Container Technologien nur auf der Abstraktionsebene höher. Man möchte Ressourcen schonen, wenn eine Funktion nicht laufen muss. Möchte man sich nicht darum kümmern und keine Hardware vorhalten oder die Hardware, kann man für andere Funktionen benutzt werden. Und nur die Funktionen, die jetzt gerade laufen müssen, sollen dann eben auch Hardware in Beschlag nehmen.

Genau wie bei Container Technologien auch plus Skalierung plus Ausfallsicherheit. Diese ganzen Benefiz, die man dazu bekommt bei der Container isierung, bekommt man natürlich auch beim Server des Computing dazu. Dennoch gibt es auch einige Szenarien, wo Functions A Service nicht sinnvoll sind.

Genau, also zwei prominente Beispiele. An der Stelle einmal das von uns bereits angesprochene Sache, dass wenn ein Server zum Beispiel 24 Stunden am Tag sieben Tage die Woche komplett ausgelastet ist, dann kann das potenziell günstiger sein, sich tatsächlich dann den virtuellen Server dahin zu stellen oder auch zwei oder drei je nach Last Verteilung an der Stelle. Was aber für mich der wichtigere Punkt ist, ist, dass man eben auch Limitationen hat. Man hat Lais Herz die Ressourcen, die man benutzen darf CPU, RAM und vor allen Dingen Dauer der Funktion, aber auch die Limitationen im deiner Umgebung.

Das heißt, wenn du Ebene Software Komponente hast, die bestimmte Bibliotheken benötigt, die man nicht ohne weiteres nach installieren kann, dann ist das eben definitiv ein Fall, den man nicht in den Fanzines umsetzen kann. Zumindestens aktuell nicht. Es kann natürlich sein, dass sich das in Zukunft ändert, aber nackte entstand hat man da einfach zu wenig Freiheiten, als dass man jede Anwendungs Situation da komplett abbilden kann?

Ich denke auch, es gibt ja durchaus Szenarien, wo man die volle Kontrolle über die Software Komponenten die man einsetzt haben möchte. Einfach weil man eine Anwendung betreibt, die zertifiziert ist mit einer bestimmten Version einer Datenbank. Und dann ist zwar weiles Computing auch nicht geeignet, einfach weil man alle Variablen kontrollieren muss, um die Anwendung konform zu betreiben, eben mit diesen zertifizierten Komponenten und der Cloud Provider, sogar wenn er die Anwendung anbietet. Es kann immer sein, dass es nächste Woche ein Update gibt und dann die nächste Version benutzt wird ungefragt und man dann quasi nicht mehr zertifizierte Software einsetzt.

Genau. Und noch ein anderer Punkt, der je nach Unternehmen weniger wichtig oder wichtiger ist, ist die Portabilität. Weil wir haben an der Stelle ja schon hervorgehoben, dass je nach Cloud Anbieter sich eben die Pantheons leicht unterscheiden und man dann eben die Anforderungen hat, das sehr leicht sehr schnell zwischen verschiedenen Clouds hin und her gewechselt werden kann. Dann empfangt uns an der Stelle nicht das Richtige, sondern dann muss man sich zum Beispiel mit Containern und der Cuba net selbst Bentheim angucken, die so standardisiert eigentlich in jeder Cloud auch als Managed Service angeboten werden.

Die Limits einer Server Umgebung als Nachteil. Also wenn man die nicht halten kann. Das haben wir schon angesprochen, dass das problematisch ist. Also wenn man sehr viel Memory braucht oder kontinuierlich CPU braucht einen Punkt, den man noch gar nicht angesprochen haben und der auf jeden Fall ein Nachteil ist. Denn der Server des Computing Welt ist das Thema Security, denn man muss sich eben vor Augen führen. Der eigene Code wird parallel mit Code von ganz vielen anderen Unternehmen ausgeführt.

Generell ist das schon gegeneinander abgeschirmt, aber wenn man jetzt an die Prozessor Fehler der großen 86 Hersteller denkt, ist das natürlich ein Thema. Also man läuft mit Code von anderen Unternehmen, mit Daten von anderen Unternehmen Memory parallel und es gibt einfach Anwendungsfälle, wo man das rechtlich nicht darf oder wo man das einfach nicht möchte. Und in diesen Fällen ist Server des Computing oder generell Cloud Computing ist auch schon schwierig. Dann vielleicht nichts für ein naja. Also in den Fällen muss man wie du schon sagst, generell bieten Cloud Provider Möglichkeiten, dass man eben exklusiv auf Service läuft, also auf tatsächlich Hardware Maschinen.

Ich bin mir nicht sicher, ob das in den Pantheons vorgesehen ist. Wenn ja, bezahlt man da deutlich mehr, weil dann natürlich die gesamte Hardware bezahlt werden muss, auch wenn man sie nicht nutzt. Das heißt, da sind dann potenziell andere Services durchaus besser geeignet, wenn man eben diese Bedenken berechtigterweise dann hat.

Das muss man dann abwägen, je nach Anwendung, die da ausgeführt wird und natürlich auch, welche Arten man am Ende verarbeitet.

Herr Server, weil Computing eignet sich insbesondere dann, wenn man dieses Microservices Service Masch eben hochfahren kann oder die Anwendung sich darauf abbilden lässt. Und man kann glaub ich sagen in anderen Szenarien opfert man den einen oder anderen Vorteil. Dieser SVR Wallis Umgebung dann schon eben zugunsten von mehr Kontrolle. Kann auch Szenarien geben, wo man z.B. Abhängigkeiten zu externen Diensten hat. Also bei meinem aktuellen Projekt gibt es z.B. viele Stammdaten liegen einem SAP System, was mehrere Sekunden benötigt, um komplexe Anfragen zu beantworten und hier Ergebnisse zu liefern.

Und da würde ich mich auch schwertun direkt Server Funktionen anzudocken, ohne. Ein Caching ler dazwischen. Weil ich sonst nicht sicherstellen kann, dass ich diese 40 Sekunden Marke oder diese Zeit SchrÃnke der Server alles Funktionen nicht irgendwann mal reiße und dann abgebrochen wird und in undefinierten Zustand habe. Genau. Häufig ist es eben, solange man sich in der Cloud selber bewegt. Vor allen Dingen beim gleichen Anbieter ist man relativ sicher, was diese Timelords angeht. Hat natürlich niemals davor gewappnet.

Es gibt auch da Systeme, die einfach nicht auf zeitige Antworten ausgelegt sind. Aber wie du richtig sagst, sobald man externe Systeme noch dazukommen, hast du einfach da nicht zwangsweise die Kontrolle drüber. Zumal man, wenn man jetzt nochmal sagt externe Systeme, die man selber gar nicht kontrolliert, weil es nochmal von einem anderen Anbieter kommt, dann muss man eben schon auch gucken, ob da die Anforderungen eingehalten werden können.

Ja, wenn das GAP zwischen alter Technologie und servile Computing oder funktionelles as a Service, die ja wirklich ganz neu und an vorderster Front der Entwicklung stehen, wenn Scepter dazwischen zu groß ist, dann muss man schauen, wie man das minimiert, damit man nicht zu viele Abstriche machen muss in beiden Welten. Ja, vielen, vielen Dank, Max, dass du heute da warst. Wenn unsere Zuhörer Fragen haben oder Feedback senden möchten, können sie das gerne tun unter der E-Mail-Adresse, Podcast etc.

. Gilbert E. Lasst uns gerne eine Bewertung dar und abonniert unseren Podcast. Und wir freuen uns immer, wenn ihr diesen auch an Freunde und Kollegen weiterleitet. Für mehr spannende Technologie. Tim schaut auch gerne auf Skill bei TE Slash Blog vorbei. Max, ich bedanke mich ganz herzlich bei dir für dieses wahnsinnig interessante Gespräche rund um Server des Computing und das Thema Functions Service. Es hat einen Riesenspaß gemacht. Danke Meads, auch Spaß gemacht, dabei zu sein.

Wunderbar! Ich wünsche dir noch einen schönen Abend.

Danke. Gleichfalls.

Maurice KnoppSkillbyte Podcast #34: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions, Google Cloud Functions richtig verwenden
Mehr

Skillbyte Podcast #30: Die Zwölf Faktoren des Cloud Native Development (Teil 2)

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Die Zwölf Faktoren des Cloud Native Development (Teil 2)

// Inhalt //
01:16 – Faktor 7: Bindung an Ports / Port binding
06:36 – Faktor 8: Nebenläufigkeit / Concurrency
14:31 – Faktor 9: Einweggebrauch / Disposability
19:34 – Faktor 10: Dev&Prod Vergleichbarkeit / Dev&prod parity
25:05 – Faktor 11: Logs
29:37 – Faktor 12: Administrationsprozesse / Admin processes

Twelve Factor App: https://12factor.net/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #30: Die Zwölf Faktoren des Cloud Native Development (Teil 2)
Mehr

Skillbyte Podcast #29: Die Zwölf Faktoren des Cloud Native Development (Teil 1)

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Die Zwölf Faktoren des Cloud Native Development (Teil 1)

// Inhalt //
06:34 – 5 Leistungsversprechen von 12 Factor Apps
06:44 – Generelles Ziel: Verwednung deklarativer Formate
08:12 – Generelles Ziel: saubere Abgrenzung
08:43 – Generelles Ziel: Gleichartige Umgebungen (Dev, Stage, Prod)
08:55 – Generelles Ziel: Cloud-Deployments
09:00 – Generelles Ziel: Skalierbarkeit
10:56 – Faktor 1: Codebasis / Codebase
15:32 – Faktor 2: Abhängigkeiten / Dependencies
21:03 – Faktor 3: Konfiguration / Configuration
25:47 – Faktor 4: Unterstützende Dienste / Backing Services
29:59 – Faktor 5: Build, release, run
35:47 – Faktor 6: Prozesse / Processes

Twelve Factor App: https://12factor.net/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #29: Die Zwölf Faktoren des Cloud Native Development (Teil 1)
Mehr

Skillbyte Podcast #28: Cloud als Strategie, nicht als Technologie!

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Cloud als Strategie, nicht als Technologie!

// Inhalt //
01:20 – Intro Maurice Kemmann von Cloud-Mates.de
02:22 – Kosten von Cloudlösungen
03:09 – Möglichkeiten der Cloud-Migration
14:18 – Herausforderungen für Kunden bei der Cloud Migration
18:11 – Positive und negative Beispiele für Cloud Strategien aus echten Projekten
23:46 – Keine Angst vor Releases!
25:28 – Die Applikation als Basis für die Strategie / Cloud hat eine Lernkurve
27:29 – Retain und Retire inkl. Beispielen zum Datenschutz
34:26 – Prozesse, Betrieb und Monitoring
41:23 – Ausblick für zukünftige Cloud Strategien

Cloud Mates: https://www.cloud-mates.de/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Wir haben bei einem Kunden, der auch noch aktuell in der Betreuung ist. Da kamen wir an, und die waren überzeugt Ja. Cloud Das ist das Meine, das wollen wir machen, da wollen wir hin. Aber es ist noch keine Strategie entwickelt worden. Wir sagen ja ganz klar Strategie, da hinzugehen. Ich glaube, da war eher mehr die Technik, das Interessante. Und von daher ist wenig Fokus darauf. Und wie bei allen Projekten, und da kann man jetzt in die allgemeine Projektsteuerung gehen, wenn ich keinen Fokus hab.

Wenn ich mir keine Ziele setze, wenn das eher so schwammig ist. Das geht schief. Herzlich willkommen zu unserer Podcast Episode Nr. 28 Cloud als Strategie, nicht als Technologie abonniert unseren Podcast. Wenn Ihr mehr spannende Themen aus dem Technologie Umfeld hören, möchtet ihr eine höhere Frage habt. Wir freuen uns immer sehr über eure Fragen, schreibt uns eine E-Mail an Podcasts D. Lasst uns eine positive Bewertung da und empfehlen weiter, wenn er euch gefällt. Das ist ganz, ganz wichtig für uns.

Ich freue mich ganz besonders auf meinen Studiogast, der ebenfalls Maurice heißt. Maurice Kemmann von Cloud Mates. Hallo Maurice, hallo schönen Abend.

Ich freue mich sehr auf dieses Gespräch, weil mit ihr habe ich ja wirklich ein Veteran in der Rechenzentrums. Planung, Durchführung im Betrieb heute hier mit ganz, ganz viel Erfahrung.

Ja, das kommt daher in 2000, angefangen mit Rechenzentren und ähnlichem. Uns darüber ja 16 Jahre, 17 Jahre bewegt. Dann halt später auch nochmal. Allerdings dann noch mehr. Also 13 Rechenzentren betreut und dabei so meinen Ausstieg gefunden. Und neuerdings sage ich Rechenzentrum adé zumindest im physischen Sinne und widme mich in den Clouds dieser Welt und vor allen Dingen aber dabei, das ja auch in einem Rechenzentrum betrieben wird.

Das ist ja ganz klar, das Cloud auch Rechenzentrum ist. Nur eben nicht das eigene dennauch.

Es ist kein Henson mehr, und ich muss keine Server mehr bestellen. Ich schreib ein bisschen Kohle und hab dann plötzlich eine VM oder sowas ist schon schon interessante Entwicklung. Ich sage mal generell auch von der ganzen Automatisierung her, ich hätte das gerne früher in meinen eigenen Rechenzentren gehabt. Aber naja, wir waren halt immer etwas kleiner als jetzt eine aways oder eine Microsoft oder Google.

Ich glaube, das gilt für die meisten Rechenzentrums Betreiber. Du hast ja dann direkten Einblick. Wie ist das denn von den Kosten für dich als Betreiber oder auch für die Endkunden, für die ihr ja Anwendungen oder Server gehostet habt, wird zu sagen Das ist überhaupt keine Frage, die Cloud ist immer günstiger, oder muss man da abwägen?

Also wenn man auf die Kosten schaut, da muss man schon sehr differenziert reinschauen. Okay, ich sag mal, wenn ich jetzt sehr weit bin, auf dem Weg in die Cloud zu gehen, so sehr alle Technologien alles, was es nutze, habe ich ein sehr großes Einsparungspotenzial. Aber letzten Endes ist das ja nicht die Welt, in der wir uns bewegen. Außerdem sind es Dadaab. Wir machen alles direkt für die Cloud. Wenn ich ein eigenes Rechenzentrum habe oder irgendwo was in Kolonisation hat, dann sieht die Welt natürlich ein bisschen anders aus.

Da ist nicht alles direkt klar.

Das heißt, eure Kunden sind sowieso so unterwegs, dass sie ein Rechenzentrum haben und neue Services neue Cloud Services nach und nach dazunehmen? Genau.

Also eigentlich sind es tatsächlich Migrations Kunden, die schon Vorteile sehen, für sich Benefiz herausgearbeitet haben, aber eigentlich nicht so genau wissen Wo fangen wir jetzt an, weil einfach das Thema auch sehr vielschichtig ist. Ich sage mal Ich persönlich bin jetzt mehr in der Arbeitswelt. Aber A-WM bietet 170, 180 Services an noch nicht aufsetzen kann. Da den überblick zu behalten, ist nicht so ganz einfach. Und den idealen Weg zu finden, ist auch nicht einfach ein Prozess.

Und das ist so der Bereich, in dem wir uns dann tummeln, wo wir dann reinkommen, wo wir unterstützen, unterstützen und diese Migration letztendlich mit den Kunden angehen. Was uns auch so ein bisschen zu dem Thema des heutigen Gesprächs führt. Weil wir ja gesagt haben, es ist eine Strategie weniger Technologie. Es ist natürlich auch eine Technologie.

Aber für den Kunden, den Endkunden in die Cloud gehen will, ist es eher eine strategische Entscheidung, weil es eben nicht nur um Outsourcing von Server Hardware geht, sondern viel mehr durch dieses Service Netzwerk, was ja um die einzelnen Cloud Komponenten entsteht.

Genau den größten Fehler, den man eigentlich machen kann, ist, dass man versucht ein klassisches Rechenzentrum eins zu eins abzubilden. Das ist die klassische Lyft. Entschlüpft, sagt man da neudeutsch zu. Und ja, das heißt, ich habe da eine VM, und ich habe Server. Bildet das genau so mit dem gleichen Aspekts auch wieder in der Cloud ab, und da muss man sagen Oder komme ich wieder zurück auf die Kosten? Das ist in aller Regel teurer, weil ich ja in der Cloud so Vorteile habe wie Pay as you go.

Also ich zahl das, was ich nutze. Aber im Rechenzentrum hab ich ja immer so eine 24 Stunden Nutzung auf die ganzen Specks nicht reserviert. Habe möchte das eins zu eins in der Cloud mache. Dann wird es einfach teurer, weil dafür, das ist nicht der Sinn hinter den klassischen klar.

Ja, das hab ich bei der Anwendungsentwicklung auch schon bemerkt, dass man im Grunde, das sie dieses Paradigma etwas verschiebt. Früher hat man gesagt Okay, die Datenbank ist eh da. Da kann man Abfragen machen ohne Ende. Und jetzt ist es schon so, dass man überlegt Wie mache ich deine Such Query? Oder schwanke ich sozusagen fünf Sekunden an Daten, macht dann einen Badge und schiebt das einmal durch? Statt 5000 Query mache ich dann eine. Anwendungen, die viel Datendurchsatz haben, kann es schon ein Unterschied machen für den Betrieb?

Genau. Es ist halt ein leichtes Umdenken. Es ist ja nicht so, dass ein technisch versierter Entwickler oder Administrator das alles komplett neue Geschichten sind. Aber wenn ich mich halt auch auf klauer stürze, dann hab ich einfach gewisse Möglichkeiten und Optimierungsmöglichkeiten. Und die nutzt man aber nicht nur bei Datenbanken. Das geht ja wirklich in alle Bereiche.

Also nochmal als Cloud maatz hilft Kunden und begleitet Kunden auch Henson bei dem Weg aus dem eigenen Rechenzentrum in die Cloud. Plus der Erstellung der Strategie. Was für Cloud Services machen denn in deinem Rechenzentrums so anwendungs zu Sinn? Und wie kannst du die optimal einsetzen? Genau.

Wir haben so eine Framework. Man kann es doch einfach ein Beratungs Ansatz nennen, wie wir halt vorgehen. Wir schauen uns natürlich erst mal an Was haben wir da für den Kunden? Was hat er an T. Das brechen wir halt runter. In aller Regel durchaus auf Applikationen, um zu schauen Okay. Was setzt dir ein? Wir versuchen, den Applications Runa ausfindig zu machen. Also hat die Hoheit über die Applikation Wer kann uns am meisten erzählen, um erst einmal zu sehen Okay, wie wird sie genutzt?

Welche Lernprozesse werden unterstützt? überhAUPT Welche Prozesse im Unternehmen werden durch die Software unterstützt? Welche Risiken existieren auch, wenn ich eine Applikation überfuhr? Als Beispiel, wenn ich ein Bin ich sehr Vertriebsleute ich bin, dann habe ich häufig ein crm-system, das sehr wichtig ist für meinen ganzen Vertrieb. Da sind alle Informationen drin, und hier hätte man sicherlich ein hohes Risiko bei einer Migration, wenn es denn schief gehen würde. Und das wird halt entsprechend beurteilt, wird festgehalten und auf Grund des Consulting im Vorfeld haben, wird dann letztendlich ein Plan entwickelt, wie man da vorgehen kann.

Das heißt, die Herausforderungen für eure Kunden sind an dieser Stelle ganz klar. Kritische Anwendungen dürfen während der Migration nicht ausfallen.

Genau, oder es muss ein sehr geringer Ausfall sein, also ein Gering. Man hat immer einen Ausfall, also spätestens dann, wenn ich halt umschalten von der bestehenden Applikation auf die neue Halts in der Cloud Umgebung. Aber sowas kann man natürlich gering halten. Man macht es entweder nachts oder am Wochenende, sodass man auch noch immer ein bisschen Zeit habe. Das Schöne ist aber dadurch, dass eine Migration ist, können wir den Hogg, eigentlich den Plouffe of Konzept, parallel zur bestehenden Umgebung aufbauen, und somit lässt sich das eigentlich ausgiebig testen.

Und wenn die Kunden dann einmal die Anwendungen in die Cloud verlagert haben, dann kann man ja mehrere Umgebungen hochfahren. Und ab dann sind die Deployment relativ einfach nachvollziehbar oder durchführbar. Ohne Ausfall?

Genau. Wir versuchen natürlich immer So sehen, ja können wir Sie hier wirklich automatisch wieder wie Staaten? Welche Abhängigkeiten sind dahinter? Das ist immer Teil der Planung und der Analyse. Wir haben letztendlich vom Ansatz her es wurde immer Six Artz genannt, also die 6, wonach so ein bisschen wie die Applikationen und Hosts eingeteilt werden. Das eine ist ein Request, dass es diesen Lyft in Shift Ich mache erst mal eine Eins zu eins übertragung. Das machen wir nicht besonders gerne, weil der Quick Win eigentlich nicht sehr hoch ist.

Also im Zweifelsfall habe ich vielleicht sogar noch höhere Kosten. Macht dann Sinn, wenn man einer eine Applikation oder eine Architektur erst mal kennenlernen muss und viele andere Systeme aber durchaus schon umziehen können, um dann alles umzuziehen. Da macht man halt ein Haus, aber es ist nicht der optimale Fall. Dann gibt es das, die Plattform an der Stelle, das sehr häufig bei Datenbanken stattfindet. Wir hatten eben schon mal das Thema Datenbank. Ich habe zum Beispiel ich sage jetzt mal meine Microsoft Scuol Datenbank, ich Aufsätze.

Ich musste mir da weiß nicht Enterprise Lizenz holen, aus welchen Gründen auch immer. Sie ist aber wenig belastet. Das ist ein Paradebeispiel dafür, dass ich dann zum Beispiel erst auf Aerts Datenbank Service umstellte, wo ich halt nicht mehr eine VM Map oder physischen Server, auf der die Datenbank mit der kompletten Lizenz, sondern ich hatte eine Datenbank Service und zahle per Transaktion. Und leider ist es häufig so, dass unsere Kunden nicht wissen, wieviel Transaktionen pro Sekunde oder so machen.

Da finden wir im Zweifelsfall für sie raus. Das ist dann in der Datenbank. Scuol wird über Scuol gemanagt, also steht auch da drin. Hat man eine Datenbank admin vor Ort, dann weiß er das. Und dann kann man schon mal entscheiden Ist das zum Beispiel eine Möglichkeit der Umstellung? Dafür gibts dann auch Migrations Tools. Sowas lässt sich sehr sehr gut machen und das ist etwas, was ich so als Cloud verstehe. Pay as you go. Ich zahl so viele Transaktionen wie ich habe.

Aber muss man natürlich schauen als Softwareentwickler. Wenn man dorthin geht, dann achtet man natürlich drauf, dass eine eine Suche oder das Abrufen von Daten einfach nicht so kostenintensiv ist.

Sprich Ich hab jetzt nicht so viele verschiedene Abfragen dahinter, um zu einem Ergebnis zu kommen oder das man crasht, das man wiederkehrende Abfragen crasht für einen gewissen Zeitraum das Genner mit zum Kiewel just z.B.. Und nicht jedes Mal die Datenbank abfragt. Genau das war schon bei hochbelasteten Datenbanken, vor allen Dingen bei größeren Firmen ist das auf jeden Fall zu empfehlen.

Ganz klar Per Datenbank ist ein eigener Themenkomplex Wahl. Es gibt ja, du hast es angesprochen Dorsts in einem Rechenzentrum hast du den Server mit der installierten Datenbank plus Lizenz vor oder hältst du vor meinetwegen auch mehrere Datenbanken. Und in der Cloud hast du jetzt unterschiedliche Möglichkeiten. Entweder du fährst da auf einer VM diese Software hoch. Lift ein Schiff, das ist sozusagen die einfachste Form. Aber da profitiert man am wenigsten von. Oder man nimmt so ein Scuol Service, der ja von den Cloud Providern schon angeboten wird.

Also wo man im Grunde eine global, also weltweit verteilte Datenbank erhält, die dann Scuol API davor hat, die man einfach ansprechen kann. Und man bezahlt pro Transaktion sehr, sehr wenig und die Volumina sind auch sehr groß. Das muss man dann gucken, wie sich das lohnt oder wie die Kosten sind. Und dann hast du nichts mehr zu tun mit Software Maintenance, also Updates installieren, das Betriebssystem aktuell zu halten, die Datenbank Software aktuell zu halten, mehr Speicherplatz irgendwann hinzuzufügen, weil die Datenbank wächst.

Einfach Es kostet zwar mehr Geld, aber man muss. Es muss keiner mehr rausfahren, um die Festplatte zu vergrößern, die die Datenbank zu stoppen, die Festplatte vergrößern, die Datenbank wieder zu starten und auf der vergrößerten Festplatte die Anwendung fortführen zu lassen, sondern das geht alles dynamisch. Man bezahlt einfach nur für den genutzten Speicherplatz für die Transaktionen und muss sich im Grunde nicht um die Wartung der Datenbank kümmern.

Genau das fällt tatsächlich fast komplett weg. Wir bieten hier über das reine Umstellen natürlich auch noch so Managed Services an, auch Datenbank Services reinfallen. Das ist immer dann die Frage, ob der Kunde einen eigenen DBA hat. Brauchen Sie das nicht zu machen? Der kann diese Aufgaben locker übernehmen. Aber die Erfahrung zeigt, dass selbst in relativ großen Firmen ist das Datenbanken Know how relativ gering, weil es vorher auch getanzt war. Oder man hat halt einfach gesagt Naja, gut, was sollen wir da schon großartig machen, sodass Parameter wie hydrazin oder sowas nicht beobachtet werden.

Wenn man das haben möchte, dann können wir das auch für Kunden übernehmen, das man einfach sagen kann. Bada. So stelle ich fest, ob die Software auch optimal arbeitet. Das ist zwar schön, dass ich eine Datenbank habe, die fast beliebig skaliert. Aber es entbindet natürlich nicht davon, vernünftige Software darauf zu entwickeln. Und absolut, da können wir natürlich noch unterstützen, was von den 6er gesprochen.

Ich glaube, drei hattest du schon genannt, aber es war das letzte Mal. Die Plattform hat diese Transformation in eine neue Plattform. Es gibt jetzt das Repertoire. Das ist letztendlich auch ein anderes lizenzmodell, also dass man einfach sagt, das passt auch zur Plattform. Bei einer Datenbank, welche Datenbank Lizenz vorhatte und jetzt offen, da hat man Service wie vielleicht auch das lizenzmodell. Letztendlich ja. Ich hab nämlich mit Lizenzen gar nichts mehr am Hut und muss nun nicht mehr alle paar Jahre erneuern und Support und sonstiges dazu holen.

Hat natürlich auch mal leichte Architektur änderungen, aber das betrachtet man halt auch nochmal. Das kann durchaus auch sein, dass es einfach das typische Beispiel auch immer mal wieder die originale Datenbank Oracle um ein anderes Produkt zu nennen. Meine lizensierung fällt auf, weil die auf Jahres basieren und jetzt die ich vor der Entscheidung Soll ich etwas Neues kaufen oder ändert? Irgendwie hat man diese Möglichkeiten natürlich auch in der Cloud. Das gleiche Geld mit fast allen Elitz oder wichtigen Dezenz Anbietern muss man aber gegebenenfalls einfach überprüfen.

Also es funktioniert nicht mit allem. Das ist nicht so die Lösung für alles. Aber da helfen wir natürlich.

Jetzt haben wir viel über Datenbanken gesprochen. Wer sind denn eure Kunden und was haben die für Herausforderungen? Gibt es da so? Muss da, wo du sagen kannst Ja, das ist ein schwerer Brocken für die meisten Kunden? Oder ist es hochgradig individuell?

Sowohl als auch individuell. Natürlich, weil alle Kunden haben unterschiedliche Schwerpunkte. Auch was risiko-management und so weiter angeht. Aber letztendlich Datenbank ist immer cih für die Anwendung. Aber die größte Herausforderung sind natürlich tatsächlich Anwendungen, die so gar nicht in die Cloud passen. Die, sagen wir mal, eher altbacken sind erp-systeme, die teilweise. Ich übertreibe mal gern ein bisschen noch mit dos Lückenfüller rüberkommen. Du hast es natürlich teilweise schwierig.

An der Stelle gibt es das Image ist auf aways gar nicht. Ich muss ehrlich sagen Prinzipiell würden wir das wahrscheinlich hinkriegen. Ich weiß es aber tatsächlich.

Auch für die an diese Kunden ist gedacht, wie das mit Security aussieht. Das mag ich mir gar nicht auszumalen.

Es wird auch weniger an der Stelle. Aber das sind so diese klassischen Kunden für ein Refektorium, das heißt neue Architektur. Ich such mir eine neue Plattform des software-plattform, denn, würde man sagen Pass auf, entweder man sucht. Ein Produkt am Markt, das existent ist, was unseren und seinen Belangen da hinreichendes, ist auch für die Cloud. Ich sag mal, aktuellere Produkte werden fast alle in Richtung Cloud entwickelt. Muss man ja nicht sagen, oder? Aber das ist natürlich dann der Idealfall.

Ich habe eine selbst entwickelte Software und suche mir halt eine Softwareschmiede meines Vertrauens, die mir das direkt laut Radi umsetzen. Das ist natürlich dann der höchste Benefit. Es gibt sehr, sehr gute Programmierer, schmieden dazu. Aber das hängt natürlich immer Kosten-Nutzen-Verhältnis in West. Also ich investiere natürlich dann wieder für die nächsten Jahre. Das muss dann gerade passen. Aber Factoring Ansatz ist der natürlich, der den höchsten Nutzwert eigentlich bringt, weil ich eine veraltete Architektur in aller Regel habe und die in eine komplett neue überführen und dort natürlich aus allen Vorteilen dann letztendlich profitieren kann.

Teichert Jetzt gedacht, das ist fast bei, wenn man hoffnungslos veraltete Software hat. Wie? Man muss eine Service Lösung nehmen, also eine Software as a Service Lösung, und dann irgendwie schauen, dass man die Daten da rein importiert bekommt, weil diesen Rückstand sehr schwer, dann aufzuholen.

Da geht es dann los mit der individuellen Betrachtung. Das kann sehr unterschiedlich sein. Auch ich sage mal eben Banken Umfeld trifft man häufig noch auf Termühlen Emulation im Frontend, komischerweise aber dann in einem Fensterchen mittlerweile drin sind und und, und, und und. Im Backend ist zwar auch häufig auf mainframe basieren, aber dennoch schon neuere Architektur zu finden. Das hat dann aber ich weiß nicht irgendwelche Cross Kompatibilität, die gehalten werden müssen. Da bin ich da manchmal auch überfragt.

Bankkunden Wer noch nicht überführt, muss ich auch der Ehrlichkeit sagen. Ich kenne halt nur, weil wir früher viel mit Banken Kunden zu tun hatten. Da gilt es dann zu überlegen Wie geht man vor? Aber hier mehr schriftlich vorgehen, denn so eine Entwicklung ist ja auch ein Prozess. Die sind dann eher ein, zwei Jahre, je nach Größe und Inhalt der Software. Das muss man sich halt wirklich genau angucken. Aber der Nutzwert ist tatsächlich der aus meiner Sicht höchste und ist natürlich ein optimaler Weg, den zu gehen, weil man es dann state of the art anfangen.

Das halte ich so raus. Eure Kunden sind Mittelständler, aber auch Großunternehmen in allen Lagen der Technik. So kann sein, dass sie 20 Jahre alte Technik haben. Es kann sein, dass sie relativ modern unterwegs sind.

Genau das ist wirklich ganz breitgefächert. Macht eigentlich auch den Spaß aus, weil man natürlich alles nur Nullen und Einsen, aber immer neu zusammengesetzt und dadurch natürlich interessanter, immer neue Herausforderungen. Die Kunst ist es natürlich, aus Kundensicht den besten Weg zu finden, was natürlich auch immer Kostenfaktor und so weiter.

Hast du ein Beispiel für ein Projekt, was du einfach mal ohne den kundennamen zu nennen, was besonders gut funktioniert hat? Oder vielleicht doch etwas, was nicht besonders gut funktioniert hat? Das ist ja auch immer ganz interessant für unsere Zuhörer, das man zeigt ok. Das hat überhaupt nicht geklappt. Wenn ihr in so einer Situation seid, überlegt nochmal, ob das richtige Weg ist und holt euch vorher Hilfe. Und ja, natürlich auch positive Beispiele, dass man sagt Okay, in deren Constellation lohnt sich das auf jeden Fall.

Und man hat sehr, sehr wenig Widerstände zu überwinden, vielleicht etwas Positives und ein negatives Beispiel.

Ich fange mal mit einem negativen an, weil sich daraus durchaus positive Ansätze zumindest definieren lassen. Wir haben bei einem Kunden, der auch noch aktuell in der Betreuung ist. Da kamen wir an und waren überzeugt Ja, Cloud, das ist das Meine, das wollen wir machen, das wollen wir hin. Aber es ist noch keine Strategie entwickelt worden. Wir sagen ja ganz klar Strategie, da hinzugehen. Ich glaube, da war eher mehr die Technik, das Interessante.

Und von daher ist wenig Fokus darauf. Und wie bei allen Projekten, und da kann man jetzt in die allgemeine Projektsteuerung gehen, wenn ich keinen Fokus hab, wenn ich mir keine Ziele setze. Wenn das eher so schwammig ist. Das geht schief, und hier sind wir aber auch uns an, weil wir am Anfang dachten Gut, ja, weil man vorgehen. Man will jetzt erst mal was kennenlernen, und dann gehts weiter. Aber vielleicht auch Coruna bedingt.

Ist das jetzt so ein bisschen aus dem Fokus geraten und ist jetzt so eine never ending story? Hier wird man nochmal neuen Anlauf brauchen, einen Plan aufstellen und einfach mal so sagen Okay, wie ist das? Fangen wir doch mal mit Applikationen an. Gerade wenn ich es kennenlernen will. Wie funktioniert? Klar? Welche Möglichkeiten sind da Applikationen mit wenig Risiko dabei, die ich parallel gut aufziehen kann? Und dann kann die IT-Abteilung des Kunden so wie wir. Man kann sich annähern, findet den Weg und findet halt auch die Rezepte, wie wir die Umsetzung machen wollen, die Migrationen machen wollen, sondern das ist so der negative Aspekt, der aber eigentlich wieder ganz klar vor Augen führt.

Bitte bleib bei diesen Frameworks, wie wir sie auch vorgeben.

Also Fokus und Fokus auf ein Projekt haben. Und auch ich sag mal ehrgeizige Ziele sich vornehmen und dann noch bei der Stange bleiben. Das ist ein ganz wichtiges Voraussetzung für ein erfolgreiches Projekt.

Definitiv. Da entgegen haben wir einen anderen Kunden. Die beiden kann man ganz gut vergleichen, weil erste Berührungspunkte mit der Cloud. Mittelständische Unternehmen, in Deutschland ansässig und hier? Um? Ja, anfangs um die Lösung für Back up Szenarien notfalls Szenarien unternehmen. Und die hatte man erstmal ein klares Ziel definiert, hat gesagt Okay, die anderen Dinge, die finden wir sexy. Aber mit dem wollen wir uns jetzt noch nicht beschäftigen. Wir haben jetzt ein Primärziel, und das haben wir dann umgesetzt.

Auch sehr, sehr schnell. Tatsächlich konnten wir denn den Plouffe auf Konzert machen. Da haben wir ihn dann innerhalb weniger Tage direkt in eine produktive Umgebung überführt und konnten eigentlich so den Kunden sofort zufriedenstellen. Und er sagt Ja, und so wollen wir weiter vorgehen. Wir möchten jetzt gerne, dass das Ablösen, wir neue Dinge identifiziert. Und das wandert jetzt auch in die Cloud. Und da hat einer meines Erachtens schon sehr viel Projekt Erfahrung einfach gehabt, sodass er eigentlich unsere Dinge direkt mit aufgenommen hat und auch so vorgeht.

Und für uns ist das Interessante Ja, wir wachsen mit dem Kunden. Und wir verstehen ihn immer mehr und können auch die Applikationen, die dahinter sind, besser verstehen und somit auch vielleicht Risiken aus unserer Sicht einschätzen. Es gibt auch immer Applikationen. Wo ich den Kunden empfehle, würde ich nicht machen. Also, wenn ich zum Beispiel nicht bereit, denn eine alte Software abzulösen, und wenn ich schlechte Bandbreiten habe, sind zig Faktoren erreichbar. Und noch weiß nicht eine funktionierende Abteilung.

Alles ist gut. Dann würde ich auch sagen Passt auf, dass es. Dieses partielle Bausteinen würde ich jetzt nicht überführen, zumindest jetzt noch nicht.

Never change running system.

Mehr ja. Erst wenn die Zeit gekommen ist, wenn man sagt Ja, ich will die Software jetzt ablösen, dann würde man natürlich wieder auf die neuen Technologien. Aber solange das System Apple Running ist und es keine weiteren Quicken oder Winds gibt, also Kosteneinsparung, Effizienzsteigerungen, was auch immer, dann muss man natürlich auch davon abraten. Und hier war es ganz einfach ein Kunde Mittelschiff, sehr bodenständig. Ich nenne sie immer Schnittchen, Kunden, weil da gibt’s mal Mittagessen, gibt’s immer Schnittchen drauf, und das meine ich auch gar nicht negativ.

Ich finde das. Die wissen genau, was sie wollen und sehen wollen und dass das sehr positiv verlaufen. Muss man sagen, da sagst du was.

Ich hab auch das Gefühl, dass beim mittelständischen Unternehmen der Fokus sehr hoch ist oder tendenziell höher ist, weil ich weiß nicht, weil die einfach mehr darauf angewiesen sind, dass ihre Kerne Prozesse funktionieren müssen, damit sie Geld verdienen und sie nicht so viel eher weiche Ziele haben, sondern meistens ist es ja ein Unternehmen, das genau um einen Zweck gebaut ist. Und alles, was nicht diesem Zweck dient, wird irgendwie rausgeschmissen. Und von daher ist immer sehr schnell klar, in welche Richtung es gehen muss.

Genau so kann ich so unterschreiben, wobei man immer noch eine Sache beobachten muss. Das ist die IT-Abteilung. Das ist immer schön, wenn der Chef oder so sagt Ja, das hört sich gut an, das wollen wir machen. Aber es ist ja eine ganze, ist eine Strategie. Und Strategie muss getragen werden von den Leuten, die sie hinterher auch umsetzen. Das ist dann in aller Regel ja die Abteilung, und die müssen natürlich auch mitziehen. Und wenn man hier neugierig ist, wenn man auch Spaß hat an Technik?

Adam begeistert auch klar und einfach die Automatisierung Unmöglichkeiten. Ich habe die Reporting Monitor. Ich habe so viele Daten nicht auswerten kann, wenn ich mir denn vernünftige kpis schaffe. Also, ich habe wirklich jede Menge Benefiz, aber das macht doch wirklich Spaß.

Das ist auch so eine, merke ich manchmal. Es gibt zum manche Hürden bei meinen Z. Gerade was Fury ließ es angeht, dass man sagt Ja, dann fährst du die Umgebung zweimal hoch und schalte ist um. Da brauchst du keine Angst mehr, families zu haben, und wenn das nicht klappt, nimmst du das alte Image. Das ist ne abschottet und fest, das hat wieder hoch. Und damit Kybernetische ist das ja noch dynamischer. Aber definitiv, dass man wirklich da.

Das freut mich immer ganz besonders, dass man dann diese Aha-Effekt sieht, wenn die Leute das es erst mal machen. Früher hatten wir ein Release alle drei Monate, weil dann mussten alle nachts in die Firma, oder die Leute mussten nachts in die Firma, und alle haben gebetet und sich bei ihren Familien abgemeldet für zwei Tage. Und dann wurde mit Biegen und Brechen das neue Relais ausgespielt. Und jetzt kann du einfach so machen und haßten viel geringeres Risiko, weil du zurückrollen kannst.

Wenn du merkst, das neue Feature braucht mehr CPU Power, kannst du dich einfach hinzu buchen, und man ist halt einfach flexibler.

Wo du es auch anspreche, sobald ich mich mit Thematiken die micro Service ist und so weiter beschäftige, was natürlich meistens bei diesem Refektorium Einsatz kommt. Ich mache etwas neu und ich gehe direkt in diese Welt. Taugt da wirklich ein A? Ich kann hier ganz modular abdecken. Ich muss nicht mehr dieses Jahres Mammut Update machen, wie du geschrieben hast. Alle gehen mit Essen und Trinken für zwei Tage ins Exil und in die Firmen. Quarantäne? Genau.

Ich war einfach Meine einzelne Micro Service tauscht die aus, die kommunizieren nur noch über Schnittstellen. Sie hatten einen hohen Grad von Testmarkt an einer Stelle, und alles wird doch deutlich entspannter oder planbarer und planbarer, was natürlich auch zur Entspannung beiträgt.

Was ich bei dir super finde, ist Du gehst von konkreten Nutzungs Szenarien aus oder von der Applikation. Und schaust Was kann die Cloud mir bieten im Bezug auf diese Applikation? Du schaust sie die Applikationen an, und du gehst nicht von diesem Cloud Hype aus. Also ganz oft in der Werbe, Literatur oder im Internet. Tanja Wie du gesagt hast. Cloud hat 170 Services, und Server lässt und man braucht sich um nichts mehr kümmern. Ja, ja, das ist schon wahr.

Aber man erkauft sich dadurch. Das sind sozusagen die positiven Sachen. Aber man erkauft sich dadurch andere Paradigmen, nach denen man entwickeln muss, die man erst mal lernen muss. Das Thema Stat ist bei Cloud net Anwendungen ganz anders. Da muss man das behandeln als mit Prammers Anwendungen und auch Parallelisierung von Entwicklung, was ja schon immer eine Herausforderung war. Also dass mehrere Freds parallel sich nicht in die Quere kommen und die Anwendung quasi horizontal skaliert. Da muss die Anwendung darauf vorbereitet sein.

Und das ist auch nicht trivial, so eine Architektur aufzusetzen. Und das ist sozusagen der Preis. Der Preis, den man bei einer Cloud Anwendung hat? Definitiv. Das ist nicht immer notwendig. Deswegen auch meine ganz klare Aussage Es ist eine Strategie. Die Services und die konkreten Dinge, das sind die Technologien, die man einsetzen kann, die man nutzen kann. Aber es ist eine Strategie, und wir sagen halt ja. Die Strategie kann durchaus auch beinhalten Ich gehe nicht zu 100 Prozent in die Cloud, sondern nur zu 70 Prozent, was auch immer.

Aber man legt sich da fest, zumindest für einen gewissen Zeitstrahl. Und ich sage man Darüber hinaus wird sowieso wieder was Neues entwickeln. Oder die ganzen Cloud-Anbieter sind so effektiv dabei neue Services erschaffen. In drei Jahren gibts vielleicht wieder doppelt so viel. Und vielleicht trifft dann etwas, was ich machen will, dann besser. Dann ist da ein Service. Ich jetzt zurzeit noch nicht oder unzureichend habe. Und deswegen ist das auch durchaus ein langwieriger Prozess, der immer immer wieder hinterfragt werden muss.

Ich bin nicht sicher, ob du schon alle 6 er gesprochen hast. Ich glaube ihr, wir haben noch zwei übrig. Wobei den einen haben wir ja schon so angeschnitten. Das sind Applikationen, die tatsächlich nicht im migriert werden können. Aus diversen Gründen sei es, dass man Applikationen auch so lang betreiben will, bis sie End of Life ist, und erst dann sich Gedanken macht, dass das Risiko der Migration ist zu hoch. Oder es gibt halt auch ganz einfach politische Compliance.

Wie auch immer Gründe, wo man sagt Nein, die sollen weiter hier und in unserem Rechenzentrum oder bei unserem Rechenzentrum stehen. Und ich sage Je größer eine Umgebung ist, eine IT-Landschaft, desto mehr hat man auch durchaus Applikationen, die darunter fallen. Mackensen Nützliches ist und was sehr häufig vergessen wird, das ist Retailer. Das heisst nicht oder kaum genutzte Applikationen, die einfach weggeschafft werden. Was ist das? Gibts sowas überhaupt? Natürlich, weil fast jeder hat in seinem Rechenzentrum plötzlich VMware oder einen anderen hypervisor laufen.

Schafft sich VMs ohne Ende? Und ja, dann wird halt noch ein Server hin zugestellt, wenn er nicht reicht. Und hier ein bisschen stolz, weil in Anführungszeichen. Kostja nichts. Es wird ja immer nur der Preis für eine Hardware oder für Festplatten gesehen. Wird ja weniger. Ich sag mal, das ganze Operations dahinter gesehen. Und wenn ich dann aber VMs habe, dieser ganze Park ist gewachsen, und ich nutze dann aber nichts davon. Und ich rede ja durchaus von 30 Prozent und manchmal mehr an Ressourcen, die nicht regelmäßig genutzt werden.

Dann Retailer zum Einsatz, und hier haben wir häufig auch ein Quick Win. Also einfach sagen, was? Man könnte ja einfach ausstellen. Wir finden keinen, der dafür verantwortlich ist, weil die läuft seit Jahren. Aber der eingerichtet ist nicht mehr da. Keiner kümmert sich drum. Es werden nur noch abdeckte gepflegt. Aber seit 18 Monaten hat sich niemand eingeloggt. Aber man hat tatsächlich diesen Fall, und da sagen wir ganz einfach abschalten. Das Risiko ist gering.

Und wenn, dann schreit einer. Aber dadurch ist das Risiko gering, dass es das nicht, und das ist durchaus ein Einsparungspotenzial. Und es ist auch einer der ersten ersten, die wir tatsächlich versuchen zu rauszufinden, weil alles, was ich retailer, muss ich nicht erst migrieren, weil das gehört natürlich auch dazu, jetzt nicht in unnötigen Olver zu schaffen.

Also erst mal den Papierkorb rausbringen, sozusagen, um dann zu sehen, was übrig bleibt.

Das ist aber ein klassisches Thema, was Virtualisierung angeht. Das sind meistens dann VMs und gerade auch in größeren Unternehmen, die ja Richtlinien haben. Die kennen dann nur drei Grössen von VM sag ich jetzt mal, die haben je die große, die mittlere und die kleine. Schaut man sich das mal statistisch an, irgendwie kaum kleiner dabei. Fast alles ist mittel und gross, weil irgendein Software-Hersteller mal gesagt hat Ja, wir brauchen aber mindestens so viel und so unser Programm.

Und Deutsch? Und ja, aber dann halt wirklich nicht mehr genutzt, sondern ist relativ viel IT Ressource da reingesteckt. Das ist wirklich einer der häufigsten Punkte in den Eitan, die nicht so gepflegt werden. Es gibt auch die anderen Beispiele. Wo eine Abteilung. Hinterher ist auch Ich sage mal Lebenszyklen für die VMs festlegt. Aber wenn ich es sehr positiv ausdrücken würde, hält sich das ungefähr die Waage. Aus dem Bauch heraus würde ich sagen, dass wir mehr irritieren, als dass da ordentlich gepflegt wird.

Das ist, glaube ich, nicht zu unterschätzen. Auch da fällt mir noch etwas ein. Denn ich habe bei einem aktuellen Kunden das Problem, dass er Daten in die Cloud migrieren möchte, aber er selber mit seinen Endkunden einen Vertrag hat. Steht das kein nicht EU Mitarbeiter diese Daten je anguckt? So, jetzt leite ich Daten in die Cloud und jetzt theoretisch der Cloud Provider oder plant dies zu tun. Der Cloud Provider könnte ja jetzt darauf zugreifen. Kann er nicht in jedem Fall.

Je nachdem, ob ich das verschlüsseln oder wie ich das verschlüsseln. Aber das ist natürlich auch ein Thema, das man sagt Ja, im Moment. Ich kann nicht einfach alles in die Cloud laden, weil der Cloud Provider mehr unter anderem nicht garantieren kann, dass nur EU-Bürger auf diese Daten Zugriff haben.

Genau das ist ein typisches Compliance Thema, was auch je nach Unternehmen relativ hoch aufgänge ist. Auch zu Recht. Da bin ich auch ein absoluter Befürworter, das zu durchleuchten. Man muss halt sehen, erst einmal. Generell kann man erst mal sagen So häufig ist gefordert Das muss auf europäischen oder auf deutschen Server liegen. Das kann ich einschränken. Also ich kann sagen meine, ich benutze nur Server in Frankfurt oder nutze Server in Europa. Das kann ich natürlich schon machen.

Ich kann die Festplatten verschlüsseln, ich kann alles Mögliche verschlüsseln. Ich kann mir Key Management Server buchen, aber das muss man klar sagen, je nach Schutz Bedarf, Feststellung. Auf meine Daten all diese Infrastrukturen kommen ja von dem Cloud Provider Provider sitzt in Amerika und ich sag mal, wenn man Böses denkt, kann man natürlich sagen Na gut, er hat immer eine Backdoor oder er hat die Festplatte verschlüsselt.

Aber der Schlüssel liegt ja auch irgendwo bei dem Provider. Genau, aber letztendlich das Einfachste für ihn wäre. Ich habe halt einfach sowieso den Super Master Ki, und das ist meine meine Backdoor an der Stelle. Da muss man sehr differenziert reingehen. Also, da komme ich so ein bisschen aus der Alten Welt, wo ich mich halt auch sehr viel mit alten grundschutz um IT-Sicherheit Compliance beschäftigt habe. Man macht ja tatsächlich schutzbedürftig Feststellung, wonach man guckt Was hab ich für Daten?

Wo liegen diese Daten? Also z.B. ich bleibe beim Beispiel. Abends hab ich zum Beispiel Account Daten, die liegen durchaus auch in den USA. Das lässt sich nicht verhindern. Das ist halt so eingestellt, wenn ich eine Datenbank in Deutschland suche. Da hat man Service oder eine Weinbuch. Da hat man die Daten liegen natürlich auf europäischen Server. Aber spätestens also Mitarbeiter hat nicht. Erst einmal hat kein Interesse daran, auf die Daten zuzugehen. Aber gerade in der Datenbank rufe ich mir eine Datenbank admin oder an Spezialisten von AVM.

Habe ich keinen Einfluss da drauf? Zumindest im ersten Schritt nicht. Woher der kommt? Die werden natürlich immer aus meiner Zeitzone holen. Es wird in aller Regel europäisch sein, aber hier sind sicherlich Dinge zu betrachten. Da muss man dann ja, das ist die differenzierte Betrachtung. Und wenn es da Zweifel gibt, dann würden wir auch eher sagen Pass auf, Meedia Das Risiko nicht. Man kann es natürlich auch umgehen, aber da muss Hellwege Software mitspielen. Nämlich nämlich eigene Verschlüsselung, Auslösung und Topliga.

Das ich sage jetzt mal das triviales Beispiel wäre jetzt eine Datei Server oder Server. Ich lebt halt nur genug Budget verschlüsselte Dateien ab. Die Schlüssel liegen hier bei mir in Deutschland. Dann ist es mit vertretbarem Aufwand selbst auch für Geheimdienste nach besten Wissen und Gewissen nicht möglich, darauf zuzugreifen. Und da hätte man Sicherheit. Aber man muss ja auch ehrlich sagen Welche Applikation schafft das durchgehend? Von daher ist hier ein kritischer Umgang damit. Ist auf jeden Fall auch von unserer Seite erwünscht, wird gefördert und sollte auf jeden Fall immer beibehalten werden.

Wie ist es denn, wenn die Anwendungen in die Cloud migriert sind und jetzt betrieben werden? Man hat ja sehr viele Möglichkeiten, eine Anwendung zu monitoren, entweder durch Shakes oder durch eingebaute ablösungen, einfach um die ganze Landschaft zu monitoren.

Unterstützt ja, dabei auch. Ja, das ist ein sehr wichtiger Aspekt, der häufig auch missverstanden. Zwar bieten die Provider jede Menge Services und so weiter an, und dann entsteht häufig der Eindruck Naja, das eigentliche Operations, der eigentliche Betrieb, läuft über den Cloud Weida oder wie auch immer, das ist tatsächlich nicht vollständig richtig. Also ich sage jetzt mal kleiner mittelständischer Betrieb fünf Arbeitsplätze, ruft bei KWS an und sagte Ich habe ein Problem, sagte er. Gut an, schmeiß mal hier ordentlich Geld ein, und dann schauen wir uns das ganze Thema mal an.

Bis das gelöst ist, haben hochrangige Spezialisten diesen supertoll. Aber der kennt den Kunden nicht, erkennt nichts von der Umgebung. Das heißt, die Wahrscheinlichkeit, dass er zielgerichtet schnell helfen kann, ist relativ gering. Da kommen wir natürlich ins Spiel. Wir richten zusammen mit den Kunden anhand seiner vorgegebenen kpis, oder? Wir vorschlagen Monitoring, ein Kontrolle und wir reagieren dann darauf. Das ist natürlich eine maschinenteilen aus Weggucken oder ein Service fällt aus. Wir gucken das dann wieder an, Staat kommt aber halt auch so Dinge aus der Datenbank sind schlechte Werte.

Wir gucken mal, woran es liegen könnte. Wir haben im Netz komisches Verhalten. Irgendwas ist hier langsam. Dann fällt das halt auf. Darum kümmern wir uns ihre Pforten natürlich auch. Wir sind also unsere Welt des Operations, des Betriebs. Hat sich schon etwas verändert? Wir müssen noch mehr Reportern, eigentlich, aber wir haben auch mehr Daten. Die Reporter können also deutlich mehr, als wir teilweise früher hatten, und können dem Kunden halt auf der Basis kennenlernen und können auf der Basis Vorschläge machen und optimieren.

Der Betrieb, die überführung in einen Betrieb, ist heute sehr, sehr wichtig für uns. Aber das kennen wir als Firma gar nicht anders. Das haben wir früher mit eigenen Rechenzentren genauso gemacht. Die Arbeit mit der IT-Abteilung des Kunden zusammen beschert Responsibility. Guck mal, wer ist für was zuständig? Und danach wird das aufgetrennt. Und das funktioniert eigentlich sehr, sehr gut und insbesondere, wenn sich das mal eingespielt hat. Das ist auch ein Prozess, der braucht von wenigen Tagen bis in einem Jahr von einer Größe ab, denn den ganzen Umgebung.

Da stimmt sich das ein, und ich glaube, am Ende des Tages hat man dann schon sehr, sehr guten an der Stelle. Genau.

Also in der Cloud. Ist es generell so, dass Hardware fehlt? Ja, sollten nicht mehr auftreten. Aber natürlich kann es immer noch in der Anwendung selber Probleme geben, auf die dann reagiert werden muss. Also Beispiel Irgendwas ist nicht richtig gesichert, und statt eines ein Megabit profil Bildes lädt irgendjemand 50 Megabit hoch oder so was dann zu einem Problem wird an anderen Stelle?

Ja, es gibt auch so klassische Szenarien. Ich habe im Auto Stellingen eingerichtet. Das heißt, ich. Meine Webseite braucht sonst nur zwei Webservices, um redundant zu sein. Und jetzt hab ich auf dem Heise Ticker gerade heute News gepostet, und schon werde ich mit.

Geht die Post, Gena? Und dann geht plötzlich mein mein Auto hoch. Aber ich war damals vorsichtig und hab gesagt Der mehr als 100 Webserver werde ich nie brauchen, um die Anfragen so zu erfüllen. Und dann? Plötzlich wird es auch langsam. Na, dann kann man halt sagen Okay, wir erhöhen jetzt mal gerade die Anzahl. Solange das andauert, können wir im Nachgang nochmal besprechen, wer diese Vata mag. Richtig. Oder andersherum Wir machen den Prozess daraus, dass wir benachrichtigt werden, wenn ihr solche Mitteilungen hat, die potenziell interessant sein können, dass wir im Zweifelsfall auch durchaus mal manuell eingreifen.

Also durchaus auch noch der Fall? Ja, man macht ja eine Begrenzung des Ganzen, malt auch nicht über gewisse Kosten Grenzen zu kommen, was immer Sinn macht. Und dann sagt man Okay, ich hab jetzt aber eine große Veranstaltung, große Pressemitteilung, wie immer. Jetzt muss ich sicher gehen, dass da nichts schief geht. Da macht man es manuell für eine Zeitspanne, und dann stellt man es wieder zurück.

Also dieses semi Automatische würde ich fast als Ideallösung sehen, weil wenn du einfach sagst, du setzt die Autos galligen Gruppe hoch. Statt 100 Maschinen stelle ich es einfach auf hundert. Und wenn mal der Heise Artikel kommt, dann bin ich safe. Kann es immer noch sein, dass man so eine Art DDoS Attacke bekommt? Einfach unfassbar viele Anfragen auf ein Webdienst abgegeben werden und dann würde man ja das Geld bezahlen für diese 1000 Server und wenn man das einfach blind einstellen würde.

Also ich bin sowieso immer ein Freund davon, dass Automatisierung ist toll. Es erleichtert Unmengen, insbesondere heute bei Google, und man entwirft eine Plattform, schiebt sie raus. Oder doch nicht? Man wirft sie wieder weg. Also alles ist sehr easy, sehr schnell. Aber ich bin immer ein Freund davon, dass halt auch noch ein Mensch drauf guckt, bei der im Endeffekt besser entscheiden kann bei gewissen Szenarien. Was ist das jetzt? Gerade wenn etwas häufig Vorfeld greifen, auch Maschinen, löning ki, Algorithmen an anderer Stelle, die haben dann gelernt irgendwelche Relationen, Information, Relation.

Und dann? Dann kann ich darauf auch reagieren. Aber bei so spontanen, erstmalig auftretenden Fällen, wie auch immer da ist ein Mensch, denke ich, noch eine ganz gute Alternative.

Mir fällt ein Projekt von mir selber ein. Da hatte ich in mehreren Wochen Anwendungen entschlackt und hat dann ungefähr eine 30 prozentige Steigerung in der Arbeitsgeschwindigkeit erzielt. Es war eine interaktive Anwendung, das heißt, die Nutzer waren so zwei, 300 Leute gleichzeitig immer auf der Anbindung aktiv, haben halt gespürt, dass die Anwendung besser reagiert und das zügig ihres Arbeiten möglich ist. Und dann hab ich mal vor ein Nachrichten unternehmen, dann hab ich die neue Version abends online gestellt oder liest, und ich komme am nächsten Morgen rein ins Büro und gucke ok.

Wie sieht es denn aus? Sondern hab ich genau die gleiche alte Last wieder, als hätte ich diese Optimierung nie gemacht. Ich hab mich gefragt Also wirklich Einzelstunden? Wie kann es sein, den Fehler gesucht? Was ist das Problem? Und dann habe ich herausgefunden, dass genau an diesem Morgen ein Flugzeugabsturz stattgefunden hat. Und das statt 200! Auf einmal 5500 Leute gleichzeitig die Anwendung benutzt haben Ich habe das gleiche lãst profil hatte wie Vortags, wo die alte Software noch lief.

Was dann wiederum sehr gut war. Aber ich hab zuerst nicht verstanden, warum. Warum die Zahlen nicht deutlich besser sind oder die Performance deutlich besser ist.

Aber du hast für eine Firma gearbeitet, du kãnntest du es mit Eckdaten, dann hinter der Entscheidung. Daran könnte es liegen. Man das jetzt bei nem Dienstleister, der so gar keinen Bezug zu einem hat, der käme ja nicht da drauf, weil er gar nicht weiß, was man macht. Ich glaube, da war, was du als Mensch dann in dem Moment fast unbezahlbar.

Ich möchte einfach sagen Manchmal ist menschliche Intelligenz halt wichtig, um zu verstehen Warum ist der Effekt so, wie er ist? Und das hätte jetzt ein automatisiertes System nicht unter Umständen so erkennen können. Was glaubst du denn in Zukunft? Wohin geht die Reise noch? Was sagt eine Glaskugel?

Kann ich ja sagen. Ich fang einfach mal in der Vergangenheit an, wo ich gesagt, habe ich viele sehr skeptisch gegenüber. Klar, die ersten klar, Anfänge. Was aber daran lag, dass vieles noch im Unklaren war. Es war ein gewisser Hype. Für viele war allerdings Cloud mehr Storage Anbieter. Da konnte ich meine Bilder hochladen und meine Dateien. Viel mehr war da nicht. Wenn ich mir anschaue, wie schnell sich hier eine neue IT-Landschaft entwickelt hat und wie gut ist, funktioniert bei durchaus Kritik würdigen Aspekten.

Aber, muss ich ganz ehrlich sagen, glaube ich schon, dass es jetzt ein halbmayr ist. Man sieht, es ist ein Geschäftsmodell. Es entstehen immer mehr Firmen, so wie wir auch in diesem Umfeld. Ich glaube, es ist noch ein längerer Prozess, bis hohe Prozentsätze der Wortlauts gewandert sind. Aber es wird passieren. Man wird sehr, sehr viele Birkenholz. Wird man in die Cloud wandern? Das klassische kleine Rechenzentrum wird aussterben. In meinen Augen aus.

Es hat eine Nische, in der Claudia mich jetzt nicht tätig sind. Es wird es immer noch etwas geben. Aber das sind dann wirklich reine Nischenanbieter.

Oder man braucht Kerth Spezial Anforderungen, besonders viele GPUs, die in der Cloud halt teuer sind, weil sie mich massenweise eingekauft werden. Und wenn ich sie 24 Stunden am Tag brauche, lohnt sich das einfach wieder die Sachen selber zu kaufen.

Genau das sind natürlich so Punkte, aber das meine ich auch so mit einer Nische. Aber was die beiden Wortlauts angeht im Markt ist. Ich denke, da geht der Trend absolut hin. Das wird immer mehr kommen. Die Software geht über die Applikation, wie wir ja auch schon heute viel gesprochen haben. Und die Applikation ist heute schon schwierig, individual Entwickler zu finden, die noch so Oldschool entwickeln. Sicherlich, aber ich habe mit großen Software-Hersteller gesprochen, alle mindestens 1000, 200, 300 Mitarbeiter, Softwareentwickler.

Und da wird kein Oldschool mehr entwickelt. Die machen alles nur noch Clouds und von daher ist es gar nicht so eine große Glaskugel. Das ist einfach auf der Zeitachse die Glaskugel. Wie schnell passiert ist. Also ich denke nicht, dass das von heute auf morgen geht, ist halt ein Prozess. Aber es wird passieren, was ich auch beobachte.

Bei unseren Kunden ist das. Man tastet sich manchmal ran an die neuen Anwendungen werden in so eine kubanisches Umgebung zum Beispiel. Und da ist es ja dann wiederum ein sehr kleiner Schritt zu sagen Okay. Diese Copernicus Umgebung läuft bei mir im Rechenzentrum oder läuft in der Cloud A oder B oder C. Gerade wenn man noch nicht weiß, welcher Anbieter macht das Rennen? Wobei ich glaube, das kann man schon ein bisschen antizipieren, dass da zwei ganz besonders hervor stechen werden die nächsten Jahre, oder ist jedenfalls mein Tipp.

Es wird so sein, und man muss sich einfach mal die gängigen Marktanalysen anschauen. Es ist schon sehr erstaunlich der Unterschied zwischen Platz 1 und Platz 2 noch erstaunlicher ist, wenn man reingeschaut. Unterschied zwischen 2 und 3, denn plötzlich ist mit Google am Platz drei. Und ich sage mal Ich weiß nicht, was für ein Bild du von Google hast, aber für mich so ein absoluter tech Riese. Aber die spielen da halt nur den dritten Platz und müssen aufpassen, dass Chinesen wie Alibaba oder Soda nicht aufholen, weil die drängen jetzt auch in den europäischen Markt, und die sind ja auch sehr teuer.

Aber die Big Player bieten schon hervorragende Services an, insbesondere für die Welt, die du gerade beschrieben hast. Und hier kann ich dann als Entwickler oder auch als Kunde sagen Pass auf, ich schaue mir einfach am Ende des Tages an, wenn alles servas ist. Soweit nicht leicht migrieren kann. Wo hab ich meine besten Kosten nutzen? Structure an der Stelle, und dann kommt da auch mehr Konkurrenzkampf noch in Markt. Im Moment ist noch nicht so viel Konkurrenzkampf im Markt, teilt sich gut auf.

Aber ich glaube, in Zukunft wird es da mehr Konkurrenzkampf geben. Und das wird im Zweifelsfall in niedrigeren Preisen oder durchsichtige und Preismodell gipfeln als mein absolut subjektiver Eindruck.

Der Cloud Provider ist Technologieführer dafür preislich etwas teurer. Wer aways? Ganz klar. Wobei man da ja auch deutliche Rabatte bekommt, wenn man gewisse Ressourcen fest für ein Jahr bucht oder gar für drei Jahre bucht. Ich glaube, dann gibts 60 Prozent Rabatt. hws waren die ersten, die profitieren. Das haben auch meiner Ansicht nach das. Angebot und die Profitierenden nach wie vor von auf dem zweiten Platz im absoluten Sauseschritt. In den letzten ein, zwei Jahren hat Microsoft aufgeholt.

Ich glaube, das kommt durch die. Microsoft ist in den Firmen groß, die mittleren und kleinen Firmen natürlich schon super präsent durch die Office Lösungen, durch die Windows Lösung. Und da ist dieses Cloud Ding ein cheek Punkt mehr im Vertrag. Haben Sie da schon guten Kontakt zu den Unternehmen und an dritter Stelle Google? Ich finde die Google Cloud ziemlich gut, muss ich sagen. Ich habe auch schon mit der gearbeitet. Aber ich glaube, Google ist ein Teck Konzern, der supergut Technologie macht.

Aber ich glaube Marketing mäßig zumindest im Cloud Bereich. Da ist nicht so viel Platz. Dort sind auf der einen Seite den Technologieführer, auf der anderen Seite den mit den Unternehmenskunden. So, wer bleibt da noch? Der Cloud macht?

Das ist meiner Ansicht nach die blöde dritte Position von Google, das sie nicht so richtig klar positioniert sind. Und diese Oracle, IBM Cloud eben. Mir ist noch niemand über den Weg gelaufen, der die wirklich produktiv einsetzt. Ich denke, das sind die haben ihre Daseinsberechtigung in irgendwelchen Nischen oder vielleicht in anderen Märkten. Könnte mir vorstellen, dass im Mittleren Osten Nahen Osten das Orakel noch ganz stark ist, aber auch nicht da sind, glaube ich, eher ueberall, wo ich diese klassischen hybride Ansätze habe.

Oder wenn ich mit IBM ein absoluter Technoide ist, mit Unmengen an Angeboten, und das ich in Bestandskunden dann noch ein bisschen Cloud lief. Also ungefähr so okey wird auch weiter wohl existieren, aber nicht Weltmarkt relevant sein. Oracle hat halt ein wesentliches Produkt, bietet ein bisschen was drumherum. Aber ich glaube, er hat auch ein bisschen ein Imageproblem. Aber das muss jeder für sich entscheiden. Und tatsächlich Um wieder an den Anfang zu springen, versuchen es mit weit über 40 Prozent absolut Marktführer, weil sie am längsten am Markt sind, die meisten Services haben und sich halt auch nichts verbauen.

Also ich kann von komplett Microsoft Umgebung bis hin zu komplett Unix oder was auch immer. Ich kann alles entsprechend umsetzen. Asea empfinde ich, ohne dass ich jetzt ein echter Experte bin, als sehr stark. Sind auch stark im Wachstum. Und genau wie du sagst es die Unternehmenskunden die reine Microsoft Umgebung haben, die keine Hybrid oder sonstigen Technologien verwenden, was ihr kleiner eine Firma ist, also kleiner mittlerer Mittelstand durchaus der Fall sein kann. Ich sage mal so schon aus dem Bauch heraus würde ich da wahrscheinlich eher in diese Richtung gehen.

Aber man muss sagen, viele Kunden haben dann doch noch hier bisschen, da etwas. Und wenn man dann einfach sieht Okay, ich will halt wirklich Cloud Ansatz wählen. Ich will diese Strategie ganz konsequent verfolgen. Und ich versuche dann eher, klassische Mittel abzulösen durch Service. Dann landet bei Aretz, weil die Menge an Service ist. Die Innovation, die dahintersteht. Das, muss man wirklich sagen, ist momentan noch out. Und da wird selbst Microsoft noch etwas brauchen, um da in diese Richtung zu kommen.

Aber wie gesagt, es gibt immer überraschungen. Das sind alles sehr große Konzerne, und ich fände es ja auch spannend, wenn da noch mal irgendwelche überraschungen eintreten.

Auf jeden Fall. Für den Endkunden kann es ja nur positiv sein, entweder durch den Preis oder durch die Innovation, die er dann nutzen kann.

Genau. Der Endkunde wird der Sieger sein. Definitiv. Wenn unsere Zuhörer Fragen haben oder Feedback zu der aktuellen Folge hat, können Sie uns gerne eine E-Mail an Podcast senden. Bitte bewertet diese Podcast Episode und lasst uns einen Kommentar dafür. Weitere spannende Technologie Themen schaut gerne auf Skill bei Slash Blog vorbei Bries. Ich bedanke mich ganz ganz herzlich bei dir.

Ich danke dir Maurice.

Maurice KnoppSkillbyte Podcast #28: Cloud als Strategie, nicht als Technologie!
Mehr

Skillbyte Podcast #25: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen

// Inhalt //
01:07 – Kubernetes: Aus welchen Komponenten besteht es? Was leistet es?
06:24 – On-Premise und in der Cloud
07:26 – Yaml Beschreibung für Applikation Zielzustand
09:07 – Services, Secrets, Ingress, Namespaces, Loadbalancer,… Wie hängt das zusammen?
13:43 – Namespaces
15:18 – Kubernetes Softwarepakete mit HELM
18:05 – Kubernetes steigert Geschwindigkeit und verkürzt Innovationszyklen
25:32 – Security Checks automatisieren
27:24 – Monitoring durch Health Checks
28:11 – Entwickler übernehmen Verantwortung für Infrastruktur
30:09 – Cloud Native Softwareentwicklung
35:11 – Werkzeuge entwickeln sich schnell

DevOps Folge: https://soundcloud.com/skillbyte/skillbyte-podcast-2-devops

Was ist die Twelve-Factor App?: https://www.dev-insider.de/was-ist-die-twelve-factor-app-a-894702/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Was man nicht mit Geschwindigkeit Du kannst vieles ausprobieren und anhand des Feedbacks dann weitermachen, das heißt, es macht auch ein Businessmodell, macht es plötzlich Dinge möglich, die vorher nicht möglich war?

Herzlich willkommen zum skillbyte Podcast Episode Nummer 25 Kybernetische, flexibles und leistungsfähiges Rechenzentrum für Unternehmen abonniert unseren Kanal für mehr spannende Themen aus dem Technologie Umfeld. Wenn er eine Frage habt, schickt uns gerne eine E-Mail an Podcast. Wir freuen uns auch immer über Bewertungen des Podcasts oder Anregungen an die gleiche E-Mail-Adresse senden.

Ich bin heute hier wieder mit Masiar hier. Es freut mich, dich mal wieder zurück zu haben nach einigen ausschweifenden Suchen. Und wir sprechen heute über das Thema Kubernetes und welche Herausforderungen sich für die unternehmensalltag ergeben in Kombination mit kybernetische und natürlich auch, welche Vor und gegebenenfalls Nachteile sich um das Hauptthema Kubernetes ranken. Ich denke, wir sollten erst mal ein paar Begrifflichkeiten im Kubernetes Kontext einführen und besprechen, kurz sagen, was das ist für die Zuhörer, die noch nicht so viel Kubernetes Erfahrung haben und sich erst mal aufschlagen möchten.

Was ist Kubernetes überhaupt?

Kybernetische ist eine Orchestrierung, Plattform für Docker, Container. Jeder, der sich vielleicht mal mit Arisierungen und Containern beschäftigt hat, weiß, dass man die Container im Prinzip als Service für eine bestimmte Applikation baut. Services spielen hier eine Rolle. Jede eigenständige Applikation oder Micro Service wird in einen Container gepackt, und diese Container kommunizieren miteinander. Bei ein, zwei Containern ist das noch relativ einfach. Hier kann man entweder direkt mit dem Docker Command Interface starten und verbinden, wenn es mehr und komplexer wird.

Dann kann man z.B. Docker Composer nutzen. Aber Docker Combos ist mehr gedacht für lokale Entwicklungsumgebung, um schnell mal eine Umgebung zu starten. Verschiedene Dienste wie zum Beispiel Majas gelten als Frontend und ein, zwei Backend Container. Sobald es in Produktion geht, dann wird es schwieriger, das mit Docker, Combos oder auch selbst mit Swarm zu managen. Da braucht man ein etwas robustes System, und das sind dann halt Plattformen wie Kobanê oder meeses, Marathon oder Opernchef.

Die Docker Container, die rohen Docker Container benutzt man eher lokal zur Entwicklung, wenn man sich nicht sein lokales Entwicklungs System mit Dependance zu Mülln möchte, sondern schnell verschiedene Dienste nebeneinander installieren möchte und kybernetische ist sozusagen der Puppenspieler, der die Docker Container dann orchestriert.

Das ist ein schönes Wort. Puppenspieler? Genau, genau. Ja, es ist vielleicht nochmals im Hintergrund. Historisch gesehen war es früher so, dass man ein Server installiert hat, darauf Dienste installiert hat, und die Dienste hatten ihrerseits wiederum Abhängigkeiten, bestimmte Software, Bibliotheken oder andere Dienste. Und das war sehr flexibel, weil man z.B., wenn man zwei verschiedene Versionen nebeneinander installieren wollte, von beispielsweise Majas Cruel. Dann gab es halt die Probleme, dass die Abhängigkeiten nicht richtig stimmen und dass man sehr viel manueller Aufwand betreiben musste, um mehrere Versionen nebeneinander betreiben zu können, so es denn überhaupt möglich war.

Und mit Docker hat man eben diese ganzen Applikationen zusammen gepackt und fährt jetzt nebeneinander eben diese einzeln Container hoch, die alles mitbringen. Und somit ist auch der Betrieb von unterschiedlichen software-version einer Komponente kein Problem mehr. Also eine Flexibilisierung in der softer Schicht Kybernetik ist sozusagen. Ja, ich glaube, dass Altgriechisch für Steuermann. Google hat es ursprünglich entwickelt und dann unter einer offenen Lizenz gestellt. Der Steuermann steuert die Docker Container aus, je nachdem, welche Gesamtklang schafft man denn haben möchte.

Also ich glaube, technisch ist es so Kobanê. Es besteht aus einem Master und mehreren Worker Notes. Ich weiß nicht, ob es auch mehrere Master Notch geben kann.

Ja, natürlich. Wenn du in einer hoch verfügbaren Umgebung bist, dann brauchst auf jeden Fall mehrere Master. Da spielt das genutzte Protokoll eine Rolle, wie sich diese Master quasi miteinander synchronisieren. Das ist im Wesentlichen ist das basierend auf CD, quasi den Status des Clusters. Das ist die kritische Komponente und das benutztes Protokoll. Das heißt, für eine hoch verfügbare Umgebung braucht man eine ungerade Zahl an einem Master. Das heißt drei, fünf, sieben und so weiter.

Damit man immer beschlussfähig ist, sozusagen, wenn eine Maschine ausfällt.

Richtig, deshalb man Majority und Votings und so weiter zu tun. Deswegen habe ich bis jetzt fünf. War das Maximum, was ich erlebt habe. Kommt doch drauf an, wie schwer die Master runterlassen sind, wie viel sie zu arbeiten haben. Aber grundsätzlich kommt man mit drei, maximal fünf Marston aus in einer hoch verfügbaren Umgebung, dem Master.

Oder der Master unterscheidet sich nur dadurch von den Wolken, dass dort eben der Master. Dienst läuft, der Master Kybernetische Dienst läuft, dem gibt man sozusagen vor, ich hätte gerne folgende Umgebung mit folgenden Docker Containern. Und der sorgt dann dafür, dass auf den Worker Schnauz die entsprechende Last verteilt wird und diese soll Umgebung, die ziel. Umgebung sozusagen hochgefahren wird.

Combined ist an sich, besteht aus vielen Einzelkomponenten selbst, und Master besteht aus einem Server ETSI Knoten, wobei dieser Knoten nicht auf dem Master selber laufen muss, das dann auch ein eigenständiges Cluster sein. Dann haben wir den Ebikon Schola. Wir haben den Scajola. Das sind alles Komponenten, die den Master quasi ausmachen. Man kann es auch so konfigurieren, dass einzelne Wirk lots, also die Container, die auch auf dem Worker laufen, auch auf dem Mars läuft.

Aber grundsätzlich in der Umgebung verhindert man, dass das Workflows auf dem Master laufen, sondern das dem Master wirklich Matheaufgaben haben und nicht noch Workouts laufen haben.

Also den Master Nod muss man sich so vorstellen wie den Tower beim Flughafen, der sozusagen die Aufgaben die Landebahnen zuteilt, auf die einzelnen Flugzeuge kybernetische. Frei Das heißt, ich kann das in meinem eigenen Rechenzentrum einsetzen. Alle großen Cloud Provider bieten auch managed kybernetischen Umgebungen an, sodass man auch in einem Cloud Rechenzentrum direkt auf diese Kobanê Infrastruktur zugreifen kann. Und ich kann das auch verbinden. Ich könnte eine Cross und Tramitz Cloud kombiniertes Umgebung schaffen. Richtig?

Ja richtig, die Worker, wo die laufen, ob sie in der Cloud laufen, laufen, hybrid laufen. Das spielt für Kybernetische selber keine Rolle. Das ist abstrahiert das Netzwerk, solange die Dinger miteinander sich connector können. Diese Worker überall laufen können.

Das heißt, für Unternehmen, die jetzt viele Dienste in die Cloud migrieren, ist das eine sehr interessante Technologie. Einfach aus dem Grund, weil man ja auch so ein bisschen Hersteller unabhängig wird. Wenn alle Clouds diese Kubernetes Umgebungen anbieten und ich die auch am eigenen Rechenzentrum verwenden kann, dann bin ich mich ja nicht an proprietäre Dienste von AWS oder AJA oder der Google Cloud. Jetzt habe ich schon die Komponenten Master Notes Worker Notes. Haben die einzelnen Docker Container? Wie sag ich denn jetzt kybernetische, wie mein Ziel Zustand ist?

Da benutzt man doch die Jamel Beschreibung Sprache, um verschiedene Dokumente anzulegen, um Kobanê das zu sagen.

So und so möchte ich das genau. Der Workflow ist wie folgt Du beschreibst deine Wünsche, wie zum Beispiel, welche Applikationen, also welches Docker Image mit wie vielen Instanzen auf welchen Ports hören soll. All diese Dinge beschreibt in sogenannten Jamel Dateien und mit einem Kommandozeile tool genannt hatte also bzgl. sagst du Kobanê, dass er die Jamel Datei nehmen soll und aufs Cluster abspielen soll. Und das machst du dieser Kommandozeile. Die Kommandozeile Tool unterhält sich immer mit diesem Speicher, quasi.

Du kannst dein gegarte Lokal auf deinem Laptop haben und ein Cluster kann sonst irgendwo stehen. So lange dieser Episode auf dem Haus und auf dem Port erreichbar ist.

Das ist dann quasi verbunden Der Dienst von einem Laptop kommuniziert zu dem Master in der Cloud oder im Rechenzentrum.

Je nach Security ist auch durchaus denkbar, dass wir nur mal als Beispiel auf Amazon unterwegs bist oder in anderen Cloud Umgebungen. Ist es auch denkbar, dass du aus Angst oder Not, wo du quasi mit einem Laptop erst über s.a. Verbindung zu dem Kamphaus hast und von dort aus Bergkuppe dann die Befehle absetzt?

Ich glaube, Kube Cattle ist die Kurzform für Cube Control Kobanê. Sollten wir vielleicht sagen, in dieser jamil Beschreibung Sprache kann ich dann ja verschiedene. Ja, ich sag mal kubanisches Artefakte beschreiben. Also Secrets sind Ingress, die in verschiedenen Naim Spaces liegen. Laut Ballonfahrt kann ich beschreiben, was es damit auf sich. Vielleicht gehen wir einfach mal durch, was ein Service ist.

Kubernetes hat viele verschiedene sogenannte epü Objekte, und die Aromas ist Pott. Der ist sowas wie ein Container. Aber laut Spezifikation kann so ein Pott auch mehrere Container beinhalten. Grundsätzlich ist das Muster, dass man einen Container in einem totlaufen laufen lässt. Es sei denn, du hast spezielle use cases, wo du einen sogenannten Tschaika Container innerhalb des Ports laufen lässt, sodass mein Container hast plus einem Container. Das kann z.B. sowas sein. Win win lock Schipper, der locks des Containers auswertet und hin.

Und das möchtest du auch mal separat für sich beschreiben. Und die Pleuel, und das läuft oder kann zum Beispiel in einem Ort als zweiter Container mitlaufen. Also Pod ist quasi die kleinste Beschreibung dieser Einheit. Man sollte aber niemals mit einem. Direkt arbeiten, weil so bekommt IPI aus dem Osten bestimmten Reinsch. Was du auch konfigurieren kannst innerhalb von Kobanê, ist nur, wenn der Potz stirbt und davon. Das ist ein Paradigma, was man verstehen sollte. Man bewegt sich einem sehr volatilen Umfeld.

Das heißt, weder Amazon noch Google noch AJA garantieren, dass ein Bohrkerne zum Beispiel, den sie dir zuweisen, auch permanent läuft. Man muss dagegen designen und gewappnet sein, dass so ein Bordkanone einfach mal stirbt und ein anderer zur Verfügung gestellt wird. Davon muss man ausgehen, man darf nichts anderes voraussetzen. Und ein Pott, wenn er denn und das macht auch Kobanê werden, wenn ein Cannot ausgetauscht wird, dann kann er sehr transparent die Potz umziehen, offenen anderen funktionierenden Nod und du bekommst das noch nicht einmal mit, weil er das Routing, Traffiq und so weiter alles automatisch finde.

Ich manage nur, wenn so ein Pott woanders hochfährt. Bekommt er zum Beispiel eine neue I.G. Das ist laut Spezifikationen so, und dann kommt ein weiterer NPD-Fraktion Layer dazu. Service Ein Service ist quasi vorgeschaltet vor einem Ort und garantiert dir zum Beispiel eine bestehende IP-Adresse oder eine permanente IP-Adresse aus diesen Reinsch. Solange das epi Objekt des Services da ist, ist die IP auch fest, und du kann sich darauf verlassen, dass du zum Beispiel dein Backend Container oder was auch immer immer gegen diese IP laufen lassen kannst.

Und dann ist quasi erreichst Der Vorteil eines Servers ist es auch noch, dass du mehrere Instanzen des Potz hinter einem Service haben kannst, und der fungiert dann quasi auch als Pilot. Balance?

Okay, das heißt, ich darf niemals mit der FDP direkt sprechen, sondern mit dem Service, weil IPI Nummer ist nicht garantiert. Und wenn ich immer mit dem Service spreche, dann managed Cohn-Bendits die Kommunikation für mich. Ob es jetzt nur man kann sich eine Anwendung vorstellen, wo z.B. eine Such Komponente drin ist. Einfach eine Website Suche Such Komponente aufgerufen wird, dann würde ich mit dem Service Suche sprechen und nicht mit irgendeiner festen IP.

Und dann könnte dahinter ein Pod laufen, der diese Suche durchführt. Wenn gerade viele suchen. durchgeführt werden, könnten aber auch fünf Such Potts dahinter laufen und ich würde einfach mit dem Service sprechen und Kobanê? Es würde die Last automatisch balancierend zwischen die exakt potz die da hinten Dreierreihen. Okay.

Dieser Service ist unter der Haube quasi ein Managed für die. Das ist der sogenannte Proxy. Das heißt, wenn ich auf dem Bohrkernen unterwegs bin, mir die Prozesse angucke, dann Proxy finden, und das ist dieser Service Dienst, und der nutzt einfach IP T-Bills, um deine Pakete entsprechend richtig Suruç.

Das ist schon ziemlich low level. Also darum kümmert sich Cohn-Bendits. Absolut wichtig, glaube ich. Für unsere Zuhörer ist, dass man sagt Okay, deine einfällt. Micro Services dürfen nur mit dem Service sprechen und auf keinen Fall mit festen Tipis, weil die können sich ändern, die sind volatil. Und wenn man einfach auf diese Services Ebene geht, dann kümmert sich Kybernetische um den Rest.

Das Interessante ist, dass dieser Service quasi auch bei der Jamil beschrieben wird. ummehr mit Kube cattle, in den Kobanê die S-Klasse eingespielt wird, automatisch dafür sorgt, dass der Service Name nur in der Jamel festgelegt ist, quasi gleichzeitig der Host Name ist und von jedem Nod aufgerufen oder aufgelöst werden kann.

Das heißt, für die Anwendungsentwicklung selber wirkt dieser Service Name wahrscheinlich wie DNS Name exakt.

Genau das ist es ja, das ist ja auch ein Konzept.

Innerhalb von Kybernetische legt man einen Naim Space an, also der STANDARD namens BAW heißt, glaub ich, default, den man nicht benutzen sollte. Also man legt namens Bacons an für unterschiedliche Services, und innerhalb der Namens bases sehen sich die Services, oder die Ports können miteinander kommunizieren, und man kann dadurch eine höhere Sicherheit erreichen, dass man zum Beispiel Services, die nicht von außen erreichbar sein sollen, dann weg kapselt.

Die Nehmens Bacons ist erstmal ein organisatorisches Konstrukt. Kannst du zum Beispiel verwenden, um verschiedene Produkte, verschiedene Projekte, verschiedene Abteilungen in deinem Unternehmen abzubilden? Security technisch so eine Art Folder Werbung, wo die Sachen reingehört. Security Technisch muss man ein bisschen mehr machen, weil die standardmäßig die Ports aus den verschiedenen Namib. Sich gegenseitig erreichen und aufrufen können. Parke aber Security. Technisch gibt es halt Möglichkeiten, dass man diese hart abschottet, dass es übergreifend keine Kommunikation und so weiter möglich ist.

Okay, namens Spaces. Man kann es sich jetzt vorstellen In einem Rechenzentrum mit 100 Anwendungen würde man jeder Anwendung einen eigenen Namen Space zuweisen und die jeweiligen Ports, aus denen die Anwendungen dann besteht, genau die einzelnen Dienste. Die würden dann unterhalb des jeweiligen Namens Spaces laufen könnten.

Cross Application aber kommunizieren genau nach dem, was du halt in deinem Polleschs festlegt. Du kannst auch User einrichten, wo du sagst, der darf z.B. nur. Rechte auf diesen Namen Space. Jetzt hast du schon gesagt, dass man mit Cube Control oder Cube Kanzeln die einzelnen Befehle oder die Konfiguration von Kybernetische verändern kann. Also ich kann ein Service hinzufügen Ich kann ein POW hinzufügen. Ich kann diesen Schritt für Schritt, diesen Wunsch, Zustand herstellen. Aber was man ja eigentlich möchte, wenn man das kennt man ja, zum Beispiel aus dem Linux Umfeld oder MacOS Umfeld.

Man möchte ja eine Anwendung paktieren, was man ein Paket hat, was man ausliefert oder wie so eine ZIP-Datei, die im Prinzip alles enthält und die Anwendung dann innerhalb dieser Copernicus Umgebung entsprechend provisionsbasis und hochfährt. Da gibt es das Tool Helm ist, glaube ich, altgriechisch für Ruder. Und das ist ja der Kuper. Nettes Paket Manager.

Wir haben ja diese ganzen egy Objekte erwähnt. Weißt du, was du hast? Du hast Ingress und jede Menge mehr. Die kann ich natürlich alle einzeln mit Kube Karte platzieren und dieser Pakete manage ist einfach dafür. Da bin ich komplexere Applikationen, hab die mit mehreren Abhängigkeiten und so weiter quasi als Paket zusammen schnüren. Und dann mache ich einfach ein Helm install meine Applikation, und der sorgt dafür, dass alles Notwendige herangezogen wird und die Plaid wird.

Der Vorteil ist jetzt hab ich das Paket, das Helm Paket oder das Hemd. Schardt hab ich ja quasi auch diese Infrastruktur Ascot Paradigma erfüllt. Ich tippe nicht mehr mit Kube Kuddel irgendwelche Befehle und hinterher kann es keiner mehr nachvollziehen, was genau ich da gemacht habe, sondern mit Helm kann ich sagen Helm in Stahl und das Paket wird installiert oder Helm an in Stohl das Paket, dann wird es wieder installiert, und ich habe immer konsistenten nachverfolgt baren Zustand, den man dann auch entsprechend pensionieren kann, um verschiedene Releases ein und derselben Anwendung nach und nach aufzubauen und auszurollen.

Also Helm Ich hab ja immer so ein paar Beispiele aufgelistet. Was kann man mit Helm machen? Also die Anwendung paktieren, Abhängigkeiten definieren beispielsweise einen Micro Service, der vom Internet aus erreichbar sein soll. Der könnte dann noch ein Luftballon vorgeschaltet bekommen ein Kobanê, kybernetische Software, Luftballons, Suchdienste können. Williams Mountain, Persistent Williams Mountain war mal an der Datenbank. Denkt die, muss er die Dateien irgendwo ablegen und verschiedene Services enthalten für anwendungs Komponenten. Also wenn man Mikroskops hat, er auf die Datenbank zugreifen will, dann muss der Service sich bei der Datenbank irgendwie authentifizieren, damit User und Passwort.

Dafür würde man dann eben einen Service USA anlegen, diesen als Siegrid. Das ist auch ein Kobanê, das Objekt ablegen und das all dies gleichzeitig geschieht und der Micro Service mit der Datenbank kommunizieren kann. Das würde man dann auch anders mit aufnehmen und in einem Rutsch sozusagen mit ausrollen. Super. Ich glaube da haben einen guten Einblick gegeben, was Kybernetische alles leisten kann und wie es aufgebaut ist. Was sind denn die Herausforderungen für die Unternehmensseite, die heute was sind die Business Probleme, wo kybernetische helfen kann?

Im Wesentlichen geht es bei diesen Plattformen. Es muss nicht einmal kybernetiker sein. Natürlich sprechen wir jetzt in dieser Episode über Kybernetische. Aber grundsätzlich geht es um Geschwindigkeit. Das heißt, was habe ich als Business One von Geschwindigkeit? Ich kann schneller auf Marktgegebenheiten und Veränderungen reagieren. Ich verbrauche meine Ressourcen in Form von Zeit, Geld und Personal nicht, um ein System am Leben zu halten und Fehler zu fixen, sondern ich kann diese Ressourcen verwenden, um schneller neue Features zu bauen und schneller am Markt zu positionieren.

Schneller zu skalieren bin ich plötzlich durch eine Marketingaktion oder durch einen glücklichen Zufall? Viele, viele User auf meiner e-commerce-plattform habe, dann kann ich durch die Geschwindigkeit, was ich manifestiert, durch Automatisierung z.B. verschiedene Nod hochfahren, um diese Last abfangen zu können. Und diese Geschwindigkeit erreiche ich, wie gesagt, durch Automatisierung. Dafür aber, damit ich das automatisieren kann und Ressourcen sparen kann, brauch ich die Beschreibung meiner Plattform als Code. Das heißt als Jamel Manifeste, die dann getriggert durch verschiedene Gegebenheiten automatisch ablaufen können.

Die Vorteile, die die verschiedenen Cloud Platform mitbringen, nämlich dass ich ein Nod hochfahren kann und so weiter, das macht sich Kybernetische zu Nutze. Und ich kann durch Kombination von verschiedenen, was ich früher erreicht habe, durch Puppet und Chef, um gewisse Dinge zu automatisieren. Das ist alles in dieser Plattform Kybernetische. Die native Unterstützung der Cloud-Anbieter für Kybernetischen automatisiert, und das kann ich auf Knopfdruck quasi lostreten. Ich brauch kein Admin, der 24Stunden 24/7 auf irgendwas achtet und aufsteht.

Natürlich brauche ich das auch in irgendeiner Art und Weise, aber es ist nicht mehr wie früher, weil alles automatisiert ist.

Das heißt auch die Rechenzentrums Landschaft. Verändert sich also so wie ein klassisches Rechenzentrum, hat verschiedene Server und Spezial Appliances Slot Balance, die für einzelne Anwendungen beschafft wurden. Es gibt den zehn Jahre alten Server in der Ecke und den neuen Server für die Anwendung von letztem Jahr, sondern dadurch, dass Kobanê eben diese Standardisierung vorantreibt. Kann man eigentlich sagen ein TMS Rechenzentrum oder ein Cloud Rechenzentrum? Man packt einfach standardisierte Server zusammen, die günstig sind im Einkauf, wenn man einfach viele davon abnehmen kann, und weil sie millionenfach verkauft werden, und hält diesen Pool an Rechenkapazität vor.

Und jetzt kann man mit Kybernetische die einzelnen Anwendungen in dieses ja vorhandene Rechenzentrum die Plotin laut Ballonfahrer sind Software mäßig oder werden per Software umgesetzt. Man kann natürlich auch Hardware Luftballons hernehmen für richtig kritische Anwendungen, und ich kann Server tauschen. Ich kann Server, die vorhanden sind, nutzen, bis sie irgendwann. Ich sage mal Anführungszeichen kaputtgehen, weil wenn sie ausfallen, wird der Potro woanders gestartet, und meine Anwendung merkt es gar nicht so. Dieses Konzept der virtuellen Maschinen kann ich dann auch auf anwendungs Ebene fortführen und bin sehr flexibel, wann eine Anwendung auf einmal deutlich mehr Ressourcen benutzt.

Kann ich das sowohl im eigenen Rechenzentrum bieten, aber auch in die Cloud hinaus skalieren, wenn ich das brauche? Genau. Denn Geschwindigkeitsvorteil, den du ansprichst, der manifestiert sich ja insbesondere ein Kernfächer von kybernetiker ist ja das schnelle Deployment, das sich eine neue Version der Anwendung sozusagen ausspielen kann und erst nur auf 100 Prozent der Potz ausrollen kann, sodass jeder zehnte Benutzer die neue Version bekommt. Und wenn das fehlerfrei funktioniert, dann kann ich nach und nach diese neue Version dann für alle Potz ausrollen.

Also ich bin da super flexibel. Ich glaube auch Security mäßig, aber da bist du der Experte. Lassen sich die Dienste sehr gut voneinander abschirmen, die, die gar nicht mit dem Internet kommunizieren sollen. Aber auch wenn ich Anforderungen habe, das die Dienste z.B. innerhalb der Cloud oder des eigenen Rechenzentrums verschlüsselt miteinander kommunizieren sollen, dann kann ich eine Sidka Komponente benutzen. Die nennt sich istso damit Dienste die legacy Dienste, die nie dafür gemacht wurden z.B. verschlüsselt zu kommunizieren über diesen Proxy dann auf einmal doch verschlüsselt miteinander sprechen und gar nichts davon wissen.

Aber auch, dass neuere Dienste eben direkt verschlüsselt miteinander kommunizieren können.

Die Einsatzgebiete sind riesig. Also wenn man im Umfeld von Kubernetes von Automatisierung spricht, dann ist das eine konsistente und allumfassende Automatisierung. Wir haben zum Beispiel gesagt, dass EPI ein Objekt ist, das Deployment. Du kannst das Deployment so konfigurieren, dass zum Beispiel, wenn man eine neue Version einer Software live stellt, das im Hintergrund erstmal. Ich sage mal Nehmen wir an, du hast drei Instanzen E-Commerce verlaufen, und es ist eine neue Version. Und jetzt hast du verschiedene Möglichkeiten, die Deployment durchzuführen, die eine ist.

Das nennt sich Blue Green Deployment. Bedeutet, das du gleichzeitig drei weitere Instanzen hochfährt? Kybernetische für dich die neue Software. Die neue Version und anhand von definierter hält checks check er, ob die Version quasi oder die Instanz gestartet ist. Wenn alle drei Instanzen das sind, dann Switch quasi um auf diese neue Version und die alten Ports wieder runter. So mag das sinnvoll oder nicht sinnvoll sein. Man muss auch Bedenken bedenken Wenn man in der Cloud umfällt, ist das nicht immer von drei Instanzen, sondern kann durchaus auch 30 Instanzen sein und 30 Instanzen parallel hochfahren.

Bedeutet doppelte Ressourcen. Dann plötzlich braucht. Das kann ich wiederum fein justieren. Aber es gibt zum Beispiel auch ein anderes Deployment Paradigma.

Ich kann sagen, was du angesprochen, dass das sogenannte Canary Deployment, wo ich eine gewisse Prozentzahl nur weiterleiten darf, was ich neue Features schnell ausprobieren und ohne die Mehrzahl der User damit zu konfrontieren, sondern erstmal nur zehn Prozent oder zwei Prozent und sehe, wie das funktioniert. Tauchen Fehler auf? Wie reagieren die User? Und wenn ich sicher bin, dass das funktioniert, kann ich dann entweder mehr Prozent oder 100 Prozent um Unruhe. All das wird möglich. Ganz plötzlich.

Experimentieren, was früher nicht so einfach war, das meine ich mit Geschwindigkeit. Du kannst vieles ausprobieren und anhand des Feedbacks dann weitermachen. Das heißt, es macht auch für dein Businessmodell macht, dass plötzlich Dinge möglich, die vorher nicht möglich waren. Zum Thema Sécurité Du kannst also zum. Neben diesem kybernetische Paradigma gibt’s natürlich das nach wie vor das klassisches Continuous Integration und Continuous Deployment, was du quasi auch völlig automatisieren kannst. Man kann es so weit automatisieren, dass du sagst, ein Code kommt, in einem durchschimmert.

Control System nimmt sich den Code getriggert durch den Code mit. Baut das Platters in eine Kesting oder Staging Umgebung wartet. Thema Quality Gate wartet, bis jemand getestet hat und irgendwo gesagt hat Passt zum Beispiel mit einem Ulrik Fest und einem Mörz und sagt dann alles klar, ist quasi genehmigt und führt dann selbstständig in der Produktion aus. Man kann diese komplette Strecke automatisieren, sogar selbst Sécurité. Stichwort Check ups, wo du den kompletten Security Check, angefangen von einer statischen Analyse, sprich hast du vielleicht schon Bax oder Security relevante Dinge im Code eingebaut.

Da gibt es Libris, für die du, die du einbinden, Cabs, jeden Code checken und zum Beispiel gegen Datenbanken im Internet checken, ob deine Leibgericht bestimmte, weil ich haben kann, das ordnenden Bild abbrechen bis hin zu dem dynamischen Applikationen. Wenn es die Leuth ist, kann es zum. Da gibt es von sowas. Das ist eine Organisation, die sich um das Thema kümmert, wo du zum Beispiel die 100 meist durchgeführten Hex automatisch auf deine Applikation durchführen kann.

Also großzieht scripting, Shakes, Scuol Injection, Jabs und so weiter. Du siehst also, wo die Reise hingeht. All das, wofür man Tage und Wochen gebraucht hat. Früher kannst du jetzt quasi in einer Pipeline komplett weg automatisiert verstehen.

Dadurch springt natürlich die Qualität der Anwendung nach oben. Exakt. Man hat einmal diesen Integrations Aufwand, aber dann nutzt man quasi diese sich auch wahrscheinlich selbst automatisieren Libraries. Wenn neue CVS oder Security Lücken auftauchen, sind sie direkt da drin und man kann automatisiert die ganze Anwendung gegen diese neue Lücke testen lassen, sogar bis hin zu Compliance-Regeln.

Da gibt es auch Tools, wo du sagen kann, das und das und das sind meine. Meine Compliance-Regeln wie beispielsweise ganz einfach, benutze nicht das Original. Im Falle von Java, weil es Probleme hat und das Tool merkt Aha, verletzt und bricht ein Bild ab. Und Reporter? Und da gibt es richtig mächtige Tools. Würde diese ganzen Campanile Compliance-Regeln hinterlegen kannst.

Einen weiteren Vorteil das hast du schon mal anklingen lassen, ist natürlich das Monitoring durch Checks. Also ich habe jetzt Kybernetische ein Ziel stand vorgegeben und sagen So und so soll meine Anwendung aussehen. Und im Kybernetische prüft ja jetzt in regelmäßigen Abständen, ob jeder Posth gesund ist. Und wenn ein Pod nicht reagiert, dann kann man halt konfigurieren ok, bitte sofort einen neuen hochfahren, oder wenn ein die CPU Last auf einem Port eine gewisse Marke überschreitet, dann werden zusätzliche Potz hochgefahren.

Durch diesen Autos Krailling Mechanismus das vereinfacht ja auch das Monitoring der Anwendungen ganz erheblich. Das ist das, was ich eben sagte. Man kann die Hardware im Grunde viel länger nutzen, zumal wenn sie ausfällt, ist es nicht so schlimm. Combined merkt das sofort und fährt dann neuen Ports hoch. In dieser Multi Service Umgebung, was ich auch bemerkt habe, ist und das ist jetzt ein ganz deutlicher Paradigmenwechsel. Die Entwickler dadurch, dass die Infrastruktur auch durch Code beschrieben wird.

Das ist ja dieses DVB-S Paradigma, wo wir ja auch eine ganz eigene Podcast Episode zugemacht haben. Denke ich auch in der Beschreibung. Die Entwickler sind auch immer mehr verantwortlich für die Infrastruktur und die eigentlichen Admins. Früher war das ja oft so oder? In den PMS Rechenzentrum ist es oft so, dass die Entwickler bei den Admins etwas bestellen. Ein User, ein Server, eine Ressource, eine harddisk irgendwie. Und die Admins liefern die irgendwann. Jetzt musste der Developer im Grunde kann in seinem Manifest sagen Okay, ich brauche eine Disk mit 10 Gigabit, und die ist persistent und so weiter und ist quasi selber dafür verantwortlich.

Kobanê, das so zu Konfigurieren des Kabinetts prüft, das die Disk nicht voll läuft, sie entsprechend vergrößert wird und so weiter. Falls die Admins entlastet und die Developer müssten die IT-Infrastruktur verstehen, was laut Ballonfahrer. Wie funktioniert IPI Mask Reading? Was ist Nath? Diese ganzen Fachtermini, die mit Netzwerk Aufbau im Grunde genommen zusammenhängen, und bekommen diese Aufgabe zusätzlich.

Thema Das Du als Entwickler auch das spielt Richtung Geschwindigkeit. Früher, wenn du irgendwas gebraucht hast, dann hast du als Entwickler immer mit einem Admin Kontakt aufnehmen müssen. So viel Platz. Ich brauch neuen Server. Ich brauch dieses jenes und das kannst du jetzt selber geben. Du diese Jamel Dateien schreibst selber haben, und zwar innerhalb von Sekunden.

Man muss natürlich verstehen was man tut. Das verstehen, aber das ist halt der Paradigmenwechsel. Und das ist halt genau dieses Niveau, was die Unternehmen sich aufbauen müssen, ihre Entwickler entsprechend Schulwissen. Das ist halt die Herausforderung im Moment. Viele Entwicklungen, Entwicklungen stehen der Herausforderungen für die Unternehmensseite.

Um wirklich alle Vorteile von Kobanê ausnutzen zu können, muss man die Software ja etwas anders. Als das ich sage mal bis vor ein paar Jahren der Fall war das Stichwort wäre z.B. diese Klout native Anwendungen. Es ist auch möglich, alte Monolithen in kybernetische zu betreiben. Das ist nicht so flexibel, weil bei einem Monolithen wenn da der Pod ausfällt, hast du trotzdem diese Ausfallzeit bis der neue Pod gestartetes Plus. Die Anwendung muss so entwickelt sein, dass sie das auch dann handeln kann, wenn sie ausfällt.

Und viele ältere Monolithen wissen eben nichts von Kybernetische und können damit nicht entsprechend umgehen. Wie muss man Software entwickeln? Diese feingliedrige Software, die parallel laufen kann, wo Ausfälle einzelner Komponenten nicht zum System Ausfall führen, sondern einfach kompensiert werden können von Kobanê? Und wie erreicht man das?

Die größte Herausforderung ist jetzt mal von der Größe der Applikation Vor und Nachteile einer Schw, eines schwergewichtigen Monolithen und einzelner Miko. Mal davon abgesehen, weil das ist im Prinzip ein eigenes Thema für sich. Aber grundsätzlich, wenn man Software machen möchte, ist das wichtigste Thema steht. Es gibt die Summer Factor App, das beschreibt, das ist im Prinzip ein Best practices für Software, um Cloud laufen zu können.

Ich kann jedem empfehlen, sich diese App, Spezifikationen oder Beschreibungen mal anzugucken, weil das beschreibt eigentlich sehr genau eine Applikation gestrickt sein muss, um Kourtney laufen zu können. Zwei Themen aus diesen Faktoren ist einmal Stabs. Das heißt, man darf nicht voraussetzen, dass die Applikation den Status, wenn man aus dem Java Umfeld kommt, jemand JCC und Session auf dem Server der Applikation eine Session hält, weil, wie gesagt, immer sein kann, dass die Applikation von jetzt auf gleich woanders hingezogen wird.

Und dann ist der Status futsch. Man denke an Shopping Card oder was auch immer sauber gehalten wird. Das heißt, ich darf keine Sessions in der Applikation halten.

Es muss alles präsentiert werden in Datenbanken.

Im Grunde genommen direkt, ja, oder? Es gibt doch andere Möglichkeiten. Du kannst zum Beispiel einen radix haben, radix Cluster, quasi eine Datenbank, wo die Session außerhalb deiner Applikation gehalten wird. Und schnell, weil wenn so eine Session abtaucht oder Applikation ungezogen wird, dann hast du halt deine Session Memory. Da gibt es Lösungen für eine zweite Faktor. Aus diesen Faktoren ist das Du Konfiguration nicht in die Applikation legst, sondern immer von außen reingepasst, sodass quasi ein Container und eine Applikation völlig unabhängig von der Umgebung laufen kann.

Lokal State oder Produktion und Umgebung? Spezifische Konfigurationen oder Parameter kommen von außen als Umgebungen variable. Das sind, so Cloud, Faktoren. Wie gesagt, ich würde mir diese Apps mal durchlesen und strikt befolgen, weil das ist das, was ich für Applikationen in der Cloud.

Das ist auf jeden Fall ein heißer Tipp. Und da wird wahrscheinlich auch beschrieben, wie man mit Anwendungen die Anwendung komplett Container frisiert, wie man Micro Services aufbaut, wie man die Zugriffe untereinander regelt.

Also nicht in der Tiefe, sondern es ist so eine Art Manifest und beschreibt so eine Art Birth, wie diese Dinge sein müssen, damit das funktionieren kann. Da geht es um das Thema Abhängigkeiten, Konfiguration, Prozesse und so weiter. Das muss man sich einfach mal durchlesen. Das ist wirklich extrem nützlich.

Das heißt? Bölts Salvo ist ein schönes Stichwort Cloud Native Anwendungen. Das kann man, glaube ich, generell sagen. Besitzende hohe Testmarkt, weil sie ja tendenziell aus sehr kleinen Komponenten bestehen. Und das eignet sich natürlich auch, um so kleine inkrementelle zu bauen für Bowling Releases. Um die Anwendung, kleinstädtische weiterzuentwickeln, dann eben auch zielgenau zu skalieren. Man muss ja vorstellen, wenn man den Staat jetzt nicht mehr in der Anwendung hält, sondern in einem Memory Story radix oder in einer Datenbank.

Dann ist es ja auch möglich, mit parallelen Prozessen und parallelen Zugriffen darauf zu schreiben und zu lesen. Man muss ein bisschen synchronisieren, dass nicht zwei Services gleichzeitig beispielsweise einen Warenkorb schreiben. Aber das ist ja schon ein Paradigmenwechsel. Wenn man denen dann vollzogen hat, bekommt man eben die ganze, die ganzen Benefiz von Cohn-Bendits ganz genau, und man kann eine Anwendung sehr, sehr flexibel einsetzen. Also wenn man mal an eine Webanwendung denkt, wo die Webserver vielleicht in Deutschland erst einmal gehostet werden, und man expandiert jetzt auf den nordamerikanischen Markt, dann könnte man ja einfach in Nordamerika in der Zone weitere Webserver hinzunehmen, müsste nichts anderes machen.

Und die Leute in Nordamerika haben direkt eine bessere Erfahrung, weil die Zugriffe einfach schneller erfolgen. Und funktioniert natürlich nicht nur mit Nordamerika, sondern weltweit und kann so nach und nach einzelne Gebiete hinzunehmen. Gibt es da noch Werkzeuge für die Entwicklung, oder? Planung, die du auf jeden Fall empfehlen würdest. Also Docker und geht nehme ich jetzt mal als gesetzt. an, aber so Spezialwerkzeug, die dir in der Vergangenheit gute Dienste geleistet haben.

Alles, was das ökosystem Kobanê angeht, da könntest du Tage und Wochen erzählen, weil da kommst du gar nicht zum Ende. Weil wir nur am Ende bist, gibt’s ein paar neue zugelangt.

Die Entwicklung ist sehr schnell. Es ist abartig. Ich hatte das Thema der Check ups erwähnt. Ja, das ist auch relativ neu. Dann gibt es schon das Thema gibt Tipps, wo du die komplette Laichzeit einer Software von Entwicklung bis hin zum Deployment komplett übergibt. Das heißt, selbst in die Kobanê setz gar keine Befehle mehr selber ab, oder? Sondern einfach mit Quests reichen, um diese Kette abzubilden. Der Vorteil ist, dass du alles dokumentiert hast. Das hast du siehst jederzeit.

Wann wurde die Leuth? Warum wurde die Leuth? Du kannst die Kommentarfunktion in Gips nutzen.

Plus die Geschwindigkeit plus die Geschwindigkeit. Also du hast das Feature entwickelt, gemurrt, getestet, und es ist sofort. Zehn Minuten später ist es in der Anwendung und kann verwendet werden.

Ja, auch die Kollaboration. Du kannst ja auch quasi Kommentare hinzufügen. Du kannst es ja mal Teams oder Slack einbinden, was wiederum das Wort Stops ins Spiel bringt, wo du quasi mit slack Befehlen diese Karte weiterspinnen kannst. Also Thema ist komplette Agilität. Nein, das sind die Werkzeuge, die du hast nutzt, um es Software abzubilden, ohne jetzt direkt konfrontiert zu sein mit Kobanê. In all diesen low level Komponenten haben, weil da halt ein paar andere Layer dazwischen sind, die irgendwas steuern.

Es geht total schnell. Du musst echt am Ball bleiben, damit du gucken kann. Was passt zu meinem Kunden am besten? Welches Setup hatte aktuell? Das ist mitunter sehr anstrengend, aber macht auch sehr viel Spaß, weil sehr viel Bewegung drin ist.

Das Deployment aus dem Chat heraus zu starten oder ob ich da jetzt noch mitmachen muss, das ist ja fast schon akademischer Natur. Aber ich glaube, das Wichtige ist einfach, dass die Zeit, die vergeht, von einer Feature Entwicklung, also feature to market, wenn man so möchte, dass die möglichst kurz ist, dass man auch dann wieder lernt. Man hat dieses Feature eben entwickelt. Die Kunden nutzen es, die Nutzer nutzen es, und man bekommt Feedback.

Ah, okay, das ist es gelungen. Das und das ist vielleicht noch nicht optimal, dass man die Entwicklung der Anwendung in die richtige Richtung sehr schnell vorantreiben kann und eben dieses Builds Development sag ich mal betreiben kann. Also genau an den Kundenbedürfnissen ausgerichtet.

Vielleicht müssen wir mal das Thema ökosystem von Kybernetische, also welche Tools und neueste Entwicklungen? Das kann man dann eine eigene Episode daraus machen.

Das können wir gerne planen. Vielen Dank für die Session. Gerne. Wenn unsere Zuhörer Fragen haben zu dem interessanten Thema, können Sie uns gerne eine E-Mail senden. An Podcast abonniert unseren Podcast und lassen uns gerne eine Bewertung da und schaut auch auf Skill slash Blog vorbei. Wenn Ihr weitere spannende Technologie Themen lesen möchtet. Masiar Ich bedanke mich ganz herzlich bei dir.

Maurice KnoppSkillbyte Podcast #25: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen
Mehr

Skillbyte Podcast #11: TOP IT Trends 2020 – DevOps, Big Data, Developer und Hardware Trends 2020

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: TOP IT Trends 2020 – DevOps, Big Data, Developer und Hardware Trends 2020

// Inhalt //
00:33 -> Große Technologietrends 2020: Cloud, Big Data, 5G, Datenlösungen für den Mittelstand
05:22 -> Trend Security
09:11 -> Trend Cloud Computing
09:45 -> Trend Cloudprovider neben AWS
11:01 -> Trend Blockchain
12:12 -> Trend Blockchain Anwendungsbeispiel hygh
15:14 -> Trend OpenSource Software
15:50 -> Devops Trend: Kubernetes Tools
17:18 -> Devops Trend: Pluggable Container Runtimes neben Docker
18:18 -> Big Data Trend: In-memory Datenverarbeitung für Realtime-Analysen
20:52 -> Big Data Trend: Predictive Analytics / Vorhersagen
21:44 -> Big Data Trend: Data Quality / Datenqualität
23:14 -> Developer Trend: Microservices
23:23 -> Developer Trend: Event Sourcing und Streaming
24:50 -> Developer Trend: Cloud-Setup + GIT + IDEs
25:19 -> Developer Trend: Programmiersprachen des TIOBE Index 2020
31:17 -> Hardware Trend: AMD Threadripper CPUs

Link zum TIOBE Index: https://www.tiobe.com/tiobe-index/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #11: TOP IT Trends 2020 – DevOps, Big Data, Developer und Hardware Trends 2020
Mehr