All posts tagged: DevOps

Skillbyte Podcast #47: Konzern oder Mittelstand – Wo werde ich glücklich?

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Konzern oder Mittelstand – Wo werde ich glücklich?

// Inhalt //
01:06 – Wichtige Frage für Berufseinsteiger: Konzern, KMU oder Startup-Up?
04:06 – Typfragen: Wo entwickele ich mich? Wo lerne ich am meisten? Wo werde ich glücklich? Wo verbringe ich meine Zeit sinnvoll? (purpose)
06:17 – Produkt vs Consulting
07:48 – Feste Teams, Aufgaben und Strukturen in Großunternehmen
09:14 – Karriereleiter oder Individualität (vielfältiges Wissen)
11:10 – Politik, Prozesse, IT-Ausrüstung, Beschaffung und Managementaufgaben in Großunternehmen
13:51 – Verdienstmöglichkeiten und Boni in Großunternehmen
17:08 – Individualität, Flexibilität, Team-Events, persönlicher Umgang, fast keine Meetings, interessante Projekte und Arbeitsphilosophie am Beispiel des Kleinunternehmens der skillbyte GmbH
23:12 – ITler wissen was ITler schätzen – TOP Hardware, spannende Projekte und Weiterbildung
29:18 – skillbyte bietet Jobs im Bereich DevOps, Data & Cloud und Java Enterprise
Development
29:34 – Vision und Werte der skillbyte GmbH
31:17 – Zusammenfassung
32:15 – Weitere Podcast Episoden
33:14 – skillbyte unterstützt eigene Mitarbeiterprojekte

Show Notes:

Podcast #14: Big Data und Machine Learning Projekte richtig angehen
https://soundcloud.com/skillbyte/podcast-14-big-data-und-machine-learning-projekte-richtig-angehen

Podcast #9: Bull’s Eye Software Development – Einfach und fokussiert auf Unternehmensziele
https://soundcloud.com/skillbyte/podcast-9-bulls-eye-software-development-einfach-und-fokussiert-auf-unternehmensziele

Podcast #8: Must-have Skills, Technologien und Weiterbildung für DevOps
https://soundcloud.com/skillbyte/podcast-8-must-have-skills-technologien-und-weiterbildung-fur-devops

Podcast #7: Must-have Skills, Technologien und Weiterbildung für Data Engineers und Data Scientists
https://soundcloud.com/skillbyte/skillbyte-podcast-7-must-have-skills-technologien-und-weiterbildung-fur-data-engineers-und-data-scientists

Podcast #6: Must-have Skills, Technologien und Weiterbildung für Full-Stack Entwickler
https://soundcloud.com/skillbyte/skillbyte-podcast-6-must-have-skills-technologien-und-weiterbildung-fur-full-stack-entwickler

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Jung kommt von der Uni und denkst hier jetzt kann ich Gas geben, was kostet die Welt? Stimme das hier alles auf links. Und dann kommst du erst einmal gegen diese Konzernstrukturen und knallst da einfach zurück, weil die Mühlen halt nicht so schnell. Und das hat mich total abgefuckt. Irgendwie. Und das war auch die Entscheidung. Sagt Nee, das machst du nicht mehr. Du bist einfach nicht gestrickt.

Herzlich Willkommen zum Skillbyte Podcast Nr. siebenundvierzig Konzerne oder Mittelstand. Wo werde ich glücklich? Abonniert unseren Podcast für mehr spannende Themen aus dem Technologie Umfeld bin er IT Entscheider oder IT Fachkraft seid. Wenn ihr Hörer Fragen habt, rettet uns gerne eine E-Mail an Podcast Skillbyte e und wir freuen uns auch immer über Bewertungen und ganz besonders weitere Empfehlungen an Freunde und Kollegen. Ich bin heute hier wieder mit Masiar. Hallo Masiar, hallo Maurice, grüß dich, ich grüße dich auch.

Es ist eine Weile her, dass ich dich als Gast hatte. Darum freue ich mich umso mehr, dass wir heute über dieses wichtige Thema, was uns immer wieder berührt, sprechen können. Aus unserer Erfahrung ist es ja so, dass gerade Berufseinsteiger die Frage umtreibt Wo soll ich mich bewerben? Wo soll ich meinen ersten Job anfangen? Nehme ich einen Grosskonzernen oder ein kleines oder mittelständisches Unternehmen oder gar ein Startup? Und da haben wir einige Informationen zu und können jetzt einfach mal erzählen.

Bei mir sind es glaub ich 16 Jahre Berufserfahrung. Bei dir sind es wahrscheinlich 26 oder so wäre genau, was wir alles erlebt haben in der einen oder anderen Unternehmensform. Und was wahrscheinlich ganz wichtig ist zu wissen, wenn man gerade vor der Frage steht Soll ich mich für einen Großkonzern oder einen kleinen Konzern entscheiden?

Grundsätzlich ist das natürlich eine sehr spannende Frage für einen Kollegen oder eine Kollegin, die von der Uni kommt. Ich kann so unterm Strich sagen, nachdem mich jetzt auch ein paar Grosskonzernen dabei war und selber auch am Anfang meiner Karriere eben als als Festangestellter gearbeitet habe. Zum einen das Thema Sicherheit bei dem Großen und dem denkt man Okay, da ist mein Job sicher bei einem kleineren naja, wer weiß, ob der überlebt und solche Dinge. Es sind turbulente Zeiten, jetzt sowieso.

Aber das ist in meinen Augen keine wirkliche Sicherheit, weil ein Großunternehmen oder ein Konzern kann von heute auf morgen entscheiden. Und da steckst du nicht drin. Du bekommst das einfach nicht mit. Das wird einfach nur verkündet. So wie affirmiert jetzt oben. Wir packen jetzt die Gruppe in eine eigene GmbH. Also auch da ist viel Bewegung drin. Und das kann auch sein, dass ich von heut auf morgen plötzlich da keinen Job mache. Wobei wir sind es natürlich in der IT.

Es ist relativ Unwahrscheinlichkeiten. Leute sind immer gut gesucht gerade. Ich habe mal in unserem speziellen Segment Software-Entwicklung und DevOps. Da muss man sich eigentlich keine Sorgen machen. Aber ich glaube, dieser Faktor Sicherheit ist überbewertet. Das heißt, das sollte meines Erachtens nicht die Rolle spielen. Zumal ich als kleiner ich sag mal in die man Entscheidungen maso, wenn ich bei einem kleineren Unternehmen bin die Entscheidungen viel agiler getroffen werden. Und diese Geschwindigkeit ist in meinen Augen eher der Vorteil.

Oder wenn ich was will, kann ich direkt ohne Hierarchien mich mit dem entsprechenden Vorgesetzten oder Geschäftsführer oder wen auch immer unterhalten. Und das ist meine Satz auf der auf einem anderen Level, weil das ist US-Beamten mäßig in diesen Konzern. Ja, ich kann das nicht entscheiden. Ich muss mal mit dem und dem sprechen, dessen Wege, die man da zurücklegen muss, bis man keine Ahnung in Laptop kriegt, in RAM Baustein kriegt oder geschweige denn etwas Größeres bewegen will.

Das war übrigens meine größte Motivation oder mein Beweggrund, rauszugehen aus der Festanstellung. Eher die Freiberuflichkeit, weil ich meine eigenen Entscheidungen treffen wollte und sehr, sehr unglücklich war. Ah Jung, kommst von der Uni und denkst Ja, jetzt kann ich Gas geben, was kostet die Welt? Stimme das hier alles auf links und dann kommst du erst einmal gegen diese Konzernstrukturen und knallst da einfach zurück, weil die Mühlen halt nicht so schnell. Und das hat mich total abgefuckt irgendwie und das war auch die Entscheidung sagt Nee, das machst du nicht mehr, da bist einfach nicht viel gestrickt.

Grundsätzlich ist es ja so Du hast jetzt von deinen Erfahrungen berichtet. Nimmt man, muss aber glaube ich etwas differenzieren, weil es ist natürlich eine Typ Frage. Für den einen empfiehlt sich der Konzern, für den anderen empfiehlt sich eher das kleine Unternehmen. Ich glaube, die Frage, die die Menschen umtreibt oder die Fachkräfte umtreibt, ist halt Wo entwickele ich mich am meisten? Wo lerne ich am meisten und wo werde ich glücklich? Also dieses Stichwort Purpose ist ganz wichtig.

Und früher war das sehr einfach. Also vor 20, 30 Jahren, da waren die einzigen Kriterien eines Jobs geregelte Arbeitszeiten, Sicherheit und möglichst hohes Gehalt. So der typische Babyboomer Job. Und heute hat sich das doch stark gewandelt. War gerade auch das Thema Purpose. Ich möchte die Zeit auf der Arbeit nicht unglücklich verbringen, sondern ich möchte immer Sinnvolles tun. Eine immer größere Rolle spielen. Deshalb stellt sich diese Frage überhaupt, weil sonst würde man ja einfach sagen Okay, versuche ich möglichst großes unternehmen, was noch lange besteht, versuche ich da einen Job zu finden.

Gleichzeitig, und das hast du schon angesprochen, ist auch in Großunternehmen der Wandel natürlich richtig greifbar nah. Also VW habe ich heute gelesen und Audi, die entwickeln den Verbrennungsmotor nicht weiter. Das ist, denke ich, eine Nachricht, die vor drei Jahren völlig in den Sternen gestanden hätte. Also das wäre undenkbar gewesen. Das ist heute verkündet worden, muss man erstmal so sagen. Und die. In sich auch sehr schnell, von daher sehe ich das genauso wie du.

Diese Sicherheit, diese vermeintliche Sicherheit, die ist zwar irgendwo gegeben, aber die kann auch sehr wackelig und auch sehr trügerisch sein, weil man sich dann ist in seinem Nest gemütlich macht und vielleicht sich sicher glaubt, das aber gar nicht ist. Ich denke mal vor 5 Jahren, die Leute hätten sich das nicht vorstellen können, dass der Verbrennungsmotor nicht weiterentwickelt wird. Und man hat also auf der einen Seite dieses Großunternehmen, das tendenziell weniger agil und von Hierarchien geprägt ist und auf der anderen Seite das kleine Unternehmen, wo man auch eher wahrgenommen wird.

Ich glaube, das ist auch ganz, ganz wichtig. Und bei uns ist es ja wirklich so, dass wir diese 15 oder 16 bzw. 26 Jahre ja doch immer auch mit beidem in Kontakt sind. Auf der einen Seite haben wir unser kleines Unternehmen hier im Skillbyte und auf der anderen Seite arbeiten wir natürlich auch mit wesentlich größeren Unternehmen zusammen.

Eine Frage, was man noch klären muss oder sich mal angucken muss ist, wenn ich so Namensraum großen Konzern gehe, woran arbeite ich denn? Weil es ja auch einen Unterschied, wenn es ein Produkt ist, was der Konzern hat. Ich steig da ein und programmiere in diesem Produkt. Natürlich ist am Anfang alles neu und frisch, da ist alles irgendwie ein Learning. Aber du kommst relativ schnell an den Punkt, wo Technologie sich um dieses Produkt nicht mehr viel tut.

Das heißt ja, da kommt man neue Features dazu. Sehr schnell geht das Sein. In so einer Art Support Wartung weiterbetrieben. Mir persönlich würde das so langweilig. Schnell. Das ist was anderes, wenn du, ich sag mal in ein Consulting Unternehmen einsteigt. Also auch von mir aus du größere Consulting unternehmen, wo du immer wieder diesen Wechsel hast. Du bist in einem Projekt und dann bist du fertig. Und ein bisschen nächstes Projekt. Nix Kunde, völlig neues Setup.

Du hast Lust, immer Action, da passiert permanent irgendwas. Das ist auch nochmal ein Unterschied. Oder ob eine große Differenz zwischen diesen beiden Modellen, die man sich quasi am Anfang vor Augen halten muss. Ich sag mal, gerade als neu Ankömmling im Berufsleben ist glaube ich das Learning steht an erster Stelle. Das hast du musst halt versuchen unabhängig von deinem Uni wissen, weil das im Enterprise Bereich ticken die Uhren und die Welt ein bisschen anders. Und da muss man gucken, dass du so schnell wie möglich nur Hallo Aufbaues um einfach für den Jobmarkt auch attraktiv zu sein und zu bleiben.

Und das hast du halt bei dem Konzern der ich sag mal 5 Jahre wo du an einer Spring Buda Applikation arbeitest ist das nicht unbedingt gegeben finde ich.

Da hast du absolut recht. Du hast was interessantes angesprochen, diese Wartungsarbeiten. Es ist ja auch so in unserer Erfahrung, dass es oft so ist, dass Unternehmen, die diese Systeme betreiben, dann Ebene Stamm Mannschaft haben, die die vorhandenen Systeme warten und so ein bisschen weiterentwickeln. Die wirklich interessanten Projekte, innovativen Projekte oder neue Komponenten dann aber an externe Firmen vergeben, die sozusagen sich mit der spannenden Technologie beschäftigen dürfen.

Das Muster ist tatsächlich aber aufgetaucht. Das stimmt ja genau.

Und dann, wenn die Innovation dann in den Betrieb übergeht, dann wird das quasi übergeben an die Internen. Und da hab ich schon sehr oft lange Gesichter gesehen, dass die intern auch gerne mal ein neues Projekt stemmen würden, aber braucht’s, um zu zeigen, was sie können, aber dann eher klein gehalten wurden und gesagt hat Nee, lass das mal, die Experten machen die Externen. Und ihr bekommt das ja nur hinterher sozusagen zur Wartung übergeben. Und ja, dann ist natürlich entweder sind schon wachsende Applikationen oder ja, das kommt dann meistens nicht so gut an, wenn man das dann einfach rüber geschoben bekommt.

Ich meine, das ist klar jeder Ressourcen Probleme. Ich nehme an, du bist halt in einem Großkonzern an einem Produkt beteiligt mit seinem Team und dann entschließt man sich okay, da muss was Neues her. So irgendeiner muss natürlich das alte Zeugs noch betreiben und warten, dass es ja in Verwendung. Was liegt da näher als das Team, was das gemacht hat, damit zu beschäftigen? Und dann gibt’s keine Ressourcen für das Neue. Alles klar Rohm oder externe Firma dazu.

Das passiert halt ganz häufig. Ich werde unterm Strich auch sagen, dass wenn man Karriere machen will, da bist du natürlich bei einem kleinen Unternehmen. Da ist die obere Scheiße relativ schnell erreicht bei so einem Konzern. Klar kannst du im Prinzip bis zum Vorstand hoch. Aber das wird Karriere. So das Endziel ist dann bist du in so einem unter dem besser aufgehoben. Wenn aber spannende Technologie, Wechsel des Umfelds immer wieder lernen, immer wieder Challenges im Vordergrund stehen, ist vielleicht besser zu einem Kleinen zu gehen.

Zumindest ist aber für die ersten Jahre, um dies Know how aufzubauen, weil das zählt dann nachher. Unternehmen stellen oder große Unternehmen stellen gerne Leute ein, die viel gesehen haben. Viele Umfelder gesehen haben. Viele Setups gehabt haben. Weil das halt mit jedem Wechsel, mit jedem Projekt bist du für Unternehmen Mehrwert. Weil dann ist die Wahrscheinlichkeit einfach größer, dass du sein Problem löst oder genau da reinpasst, wo er dich braucht. Halt größer. Es wird durch schon mal zehn Jahre irgendwo Shells Skripte geschrieben hast.

Absolut.

Also das ist es. Du hast es eingangs schon erwähnt, dass es auch diese Sicherheit im Großkonzern ist. So eine Art Scheinsicherheit. Man muss sich einfach mal überlegen Jetzt hat jemand vielleicht ein Consultant, hat in zehn Jahren fünf Kunden Projekte gesehen. Und sich in fünf Ökosystemen bewährt. Ja, und mit 5 Technologies steckt bewährt oder vielleicht mit dreien und jemand anders macht 10 Jahre genau das Gleiche. So sagen wir mal, der Konzern löst sich auf und das kleine Unternehmen löst sich auf.

So, und beide suchen jetzt einen neuen Beruf. Wen nimmst du? Den, der 10 Jahre das gleiche gemacht hat? Oder den, der eher flexibel unterwegs ist und gezeigt hat, dass er auch neue Technologien lernen kann und sich immer wieder mal herausfordern kann? Ja genau. Also das ist für mich ein ganz großes Plus für eher Kleinunternehmen oder kurzlebiger Projekte, dass man sagt Okay, dann ituri ich einfach schneller und lerne schneller mehr dazu. Weil das kontinuierliche Dazulernen ist auch wichtig und das hat man einfach mehr, wenn man sich in wechselnden Kontexten bewegt.

Absolut. Was auch in Großunternehmen viel gesehen wird und was mich ehrlich gesagt abschreckt, ist diese ganze politische Ebene. Es ist oftmals wichtiger, wer macht ein Projekt und das Dealers Projekt oder der Erfolg des Projekts geschickt verkauft wird, als das die eigentliche Arbeit erledigt wird. Es hat wenig erfolgsorientiert, mehr politisch getrieben. Abteilungen werden nach Größe bewertet, also der leiteten Abteilung mit 50 Mitarbeitern, der andere mit hundert Mitarbeitern. Und es ist überhaupt nicht entscheidend, was von Output generieren er diese 100 Mitarbeiter oder diese 50 Mitarbeiter.

Sehr, sehr viele Meetings werden abgehalten, die oftmals zu keiner Entscheidung führen oder kein Ergebnis produzieren. Also das ist bei uns bei Skillbyte ja so, wir haben ja kaum Meetings. Wir haben natürlich die Kunden Meetings, aber eigene Meetings sehr wenige. Und wenn es da auch keinen Beitrag gibt, lass man die auch ausfallen. In Großunternehmen ist tendenziell wenig Flexibilität vorhanden. Du hast eben die Hardware Ausstattung beschrieben. Das ist natürlich für Entwickler gerade sehr schmerzhaft. Wenn eine ganze Abteilung mit STANDARD Hardware versorgt wird und Jade Entwickler PC kriegt dann entschieden Gigabyte mehr aber Gigabyte mehr RAM.

Aber dennoch haben alle ne HDD statt CSSD oder 10 Clients. Als Entwickler schlägt man die Hände über dem Kopf zusammen. Es ist ja auch nicht so, dass eine Spedition jede Mitarbeitern LKW gibt, sondern die, die nur Päckchen fahren Kriegen heiten Transporter und die, die schwere Lasten fahren, gegenhalten LKW. Das muss halt auch bei der IT so gemacht werden. Und das ist nicht immer gegeben, oder was in Großunternehmen auch mein Problem ist Da gibt’s ein Tool, das kostet 50 Dollar.

Das würde die Arbeitszeit oder die Effektivität deutlich steigern. Man käme viel schneller vorwärts. Aber das Tool, was nur 50 Euro kostet und was no brainer ist, muss per Paypal bezahlt werden oder per Kreditkarte. Und bis man das durchgesetzt hat, lässt man es lieber sein. Oder oftmals zahlen die Leute es dann privat, weil die Seigneur bis ich das beantragt habe ist schon ein halbes Jahr vorbei.

Er wird ganz oft vorgekommen, dass ich mich und da irgendwie so Ersatzprodukte mit der eigenen Kreditkarte bezahlt habe. Ne, weil es irgendwie sonst zu lang gedauert hätte, beim Kunden da irgendwas einzurichten oder einger zu finden, der der Kreditkarte hat.

Was ich häufig beobachtet habe ist, dass die Fachkräfte, die dort arbeiten, immer mehr zu Managern werden. Also die haben natürlich imstand System. Da kommen die Externen dazu, die neue Produkte entwickeln oder neue Software entwickeln. Da müssen die intern die extern irgendwie managen und werden dann so ein Stück weit zu Budget Managern. Weißt du was ich meine wäre, dass man nur noch koordinierende Aufgaben hat und geradeso im Entwicklungsbereich sind halt koordinierende Aufgaben oder Projektmanager ganz andere Menschen als eigentliche Entwickler Sohn.

Da wächst man dann so rein oder wird so reingedrückt. Was man aber sagen muss, ich glaube, das kann man schon generalisieren und Studien belegen das auch, dass man, wenn man lange bei einem Großunternehmen arbeitet, tendenziell hinterher mit einem höheren Verdienst rechnen kann.

Genau das hängt aber auch damit zusammen, dass die Karriereleiter hoch steigen Kanzler von was was ist um Teamleiter, Abteilungsleiter, Bereichsleiter usw. zu vor Ort. Und die haben auf der einen Seite natürlich mehr Mittel, auf der anderen Seite z.b. Es gibt auch viele Unternehmen. Tatsächlich, die haben Planstellen. Das heißt es heißt nicht so, wir brauchen jetzt mehr Ressourcen, weil wir mehr Arbeit haben oder was auch immer und können jetzt jemand einstellen. Irgendein anderer in einer anderen Position sagt Okay, wir können ein oder zwei Dilla mehr einstellen und erst dann darfst du sie holen, egal ob du sie dann oder die Fachabteilung sie braucht oder nicht.

Das heißt, Unterstützung im Team ist mathematisch ganz einfach, weil du erst durch diese Hürde gehen muss. Diese so trotz. Ja, wenn du die Karriereleiter hoch steigst, kannst du auch mehr verdienen. Aber es ist ja so auch das hab ich schon des öfteren gesehen. Egal wie gut du bist oder was du leistest. Nicht unbedingt mehr kriegst, weil man mit dem Argument kommt Ja, das würde aber den Timen Rahmen oder dem Team Spiegel sprengen. Das heißt, das ist für mich so Sozialismus pur.

Eigentlich, weil ich bin der Meinung, Leistung soll belohnt werden. Und als Beispiel bei uns war der Skillbyte allein das Thema Bonus da. Viele Boni sind einfach an das Firmen Ergebnis gebunden. Ja, du hast deine persönlichen Ziele, aber dann heißt es auch Okay, das Unternehmen hat jetzt Kanan und. Wird schlecht gewirtschaftet. Teil deines Bruders ist davon abhängig und das finde ich einen Schwachsinn. Weil wie kann ich nachvollziehen, was die Firma mit dem Geld macht, ob sie effizient ist, effektiv ist?

Was kann ich dafür? Ich hab 100 prozent gegeben. Ich habe alles geleistet. Das finde ich irgendwo. Und natürlich muss da einen Zusammenhang geben, damit es der Firma schlecht geht. Dann kann sie dich Ruhe Politsprech vorbeugt sieht es auch bei größt unter dem Wildtyp Millionen Boni, die auszahlen. Aber das ist eine andere Geschichte. Aber wir haben zum Beispiel bei der Skillbyte gesagt Der Bonus hängt einerseits mit deinem Ergebnis zusammen. Fairer Weise ist es natürlich auch einfach zu rechnen.

Ja, wenn du ich habe mal nach unserem Arbeitsmodell arbeitest du sehr genau sagen Okay, Kollege X hat so viel reingebracht, also kannst du auch den Bonus sehr gut zuweisen. Unabhängig davon, ob ich sage ich hab Bock mit Porsche zu kaufen. Oh, tut mir leid. Beschirmen Ergebnisses ist am Arsch und ich kann euch nichts auszahlen. Spielt überhaupt keine Rolle. Na ja, weil du hast das geleistet, also bekommst du auch deinen Anteil unabhängig. Was ich mit der Kohle mache, finde ich fairer als es von irgendwelchen nebulösen Firmen Zielen abhängig zu machen.

Man muss ja auch sehen, dass dieser höhere Verdienst. Ich hab sehr oft in diesem Kontext von Leuten, die bei Konzernen arbeiten, das Wort Schmerzensgeld gehört.

Ja das die Konzerne, denen ist das völlig klar, dass es jetzt vielleicht nicht super sexy Job ist, aber jemand muss sie machen, die Koordinierung dieser ganzen Projekte und dass sie deshalb extra mehr Geld zahlen zu sagen Ja mei, dann weiß ich, dass diese Person woanders keinen Job sucht, weil sie dann auf den Teil ihres Gehalts verzichten würde. Deshalb bezahlen wir so gut, um diese Person im Gold bestickten Hamsterrad weiter zu halten. Also von 2 Stellen fallen mir sofort ein.

Vielleicht hab ich sogar noch insgesamt dreimal gehört, aber ja, das wurde schon in den Mund genommen. Wie machen wir das denn jetzt anders bei Skillbyte? Du hast eben schon paar Punkte angesprochen. Große Vorteile sind bei Skillbyte natürlich, dass man seine Individualität besser ausspielen kann. Ja, wir fördern sehr selbstständiges Arbeiten. Die eigene Arbeitsleistung ist direkt sichtbar und auch die Wirksamkeit der eigenen Arbeit wird direkt erlebt. Das hab ich immer als ein Faktor für hohe Zufriedenheit gesehen.

Man macht etwas, man sieht Boah, das ist geschafft. Und das gibt einem dann irgendwie Befriedigung. Und das ist in Großunternehmen, wenn man wirklich nur kleines Rädchen in der Maschine ist, natürlich nicht immer der Fall. Ja, die Team Größe ist recht überschaubar, jetzt bei Skillbyte auch. Das heißt, es gibt geringe Hierarchien. Wir haben familiäres Klima, essen oft zusammen zum Mittagessen, also Pandemie mal außen vor.

Aber das musste sie jetzt sagen, da Windows kann immer verklagt, ne? Früher haben wir immer diese großen Runden gehabt. Früher ja Vocoder, vorgezogener genau.

Ja. Also ich erlebe oft, dass man durch den direkten Kontakt seiner Kollegen, dass einem das sehr viel Fröhlichkeit gibt, weil man hört ja auch oft, dass Menschen sagen Ja, mein Job ist jetzt nicht so toll, aber das Team ist super. Also Menschen sind oft der wichtigste Grund, irgendwo zu bleiben. Und ich habe schon den Anspruch, dass man nicht sagen muss, der Job ist nicht so toll, aber das Team ist super, sondern der Job ist super und das Team ist super.

Weiß Gilbert. Wir haben tendenziell gering Bürokratieaufwand, wenn man z.B. einen Kopfhörer braucht oder irgendwas braucht, einfach kurz Bescheid sagen. Er wird es beschafft, so schnell wie Amazon Prime liefern kann. Und die Entscheidungswege sind einfach viel kürzer und dadurch kommt man schneller zum Ergebnis. Häufig mehr.

Im Prinzip haben wir arbeiten wir nach einer ganz einfachen Formel Geht’s den Mitarbeitern gut, geht’s dem Kunden gut, geht es dem Kunden gut, geht’s uns gut. Das kannst du nicht sagen, wenn du sagst Geh zum Kunden, gut. Ja, geht’s uns auch gut. Aber der Mitarbeiter vielleicht schlecht. Das heißt, bei dem Mitarbeiter fängt es an, wenn er sich gut fühlt. Wenn er sich in einem familiären Umfeld zu Hause fühlt, wenn er weiß, dass die Firma hinter ihm steht.

Egal was passiert. Und damit Vertrauen schafft, wo der sagt. Also auch das oft gesehen, das muss sich überall sein. Es gibt ganz sicher auch andere Firmen, die das genauso sehen. Aber unterm Strich ist mir der Mitarbeiter wichtiger als der Kunde. Das heißt, wenn der Mitarbeiter unzufrieden ist irgendwo oder der Kunde in irgendeinem Projekt unnötig und unfair Druck ausübt, dann bin ich und du auch. Sind einfach Leute, die dann auch in die Bresche springen und sagen Hier bis hierhin und nicht weiter.

Weil ich möchte nicht, dass mein Mitarbeiter unglücklich ist oder unfair behandelt wird oder was auch immer. Und bis jetzt hat das immer wunderbar geklappt. Wir hatten keinen Fall, wo wir groß einschreiten mussten. Und ich finde es wichtig, dass an der Stelle anzufangen und zusehen, dass der Mitarbeiter sich einfach hier gut aufgehoben fühlt. Technisch, finanziell und auch gefühlsmäßig. Da haben wir letztens noch drüber gesprochen, dieses unabhängig von der Skillbyte, wie lange der Kollege bei der Skillbyte ist, wenn er nach drei, vier, fünf Jahren, egal wie lange er bei uns war, irgendwo anders hingeht und wir sagen können Der hat was bei uns gelernt.

Nicht nur technisch Skills, sondern auch was. Ich sage mal Soft Skills oder für sein weiteres Leben Verhandlungsgeschick, Präsentationen, geschickt, was auch immer, dann ist das für unsere Befriedigung eine Genugtuung, weil wir diesem Kollegen auf seinem Weg irgendwie weitergeholfen haben. Ja, das heißt, es ist nicht nur einfach eine Ressource oder verkaufen. Schulkonzept gestellt auch nicht jeden ein Ja. Wir achten sehr, sehr, sehr genau darauf, dass derjenige auch in das Team passt, weil tatsächlich, so sehen das alle hier, ist es echte Gemeinschaft auch in sich.

Weil wir machen viel oder haben viel gemacht. Wir stehen für einander ein. Wenn du hier in unserem Kollaboration ist. Ohne Frage. Ein Chef ist sofort jemand, der dir irgendwie mit Rat und Tat zur Seite springt. Und ich komme jeden Morgen gerne zu arbeiten. Das würde ich auch gerne so wie die Kollegen habe und so ein Umfeld zu schaffen, wo das passieren kann.

Ja und wenn es mal nicht so ist, dass man eben sich traut, Bescheid zu sagen und weiß, da verändert sich was und das verhallt nicht ungehört. Das ist ja auch ganz wichtig, absolut.

Egal welchem Prozess wir starten, machen, tun, sei es jetzt Thema, Fortbildung, Thema Mitarbeiter, Modell, Bonus usw. Das steht alles ist nicht in Stein gemeißelt. Ich habe die Weisheit mit Löffeln gefressen, sondern präsentieren das dem Team sein was aus Unsauberes das ausgedacht. Wie seht ihr das denn? Kann man doch hier oder da was verbessern. Manchmal kommt Tipps Major sagen Passo oder nein, das muss unbedingt anders machen. Dieser offene Diskurs über Themen und sich, ich sage mal auf Augenhöhe zu begegnen und zu diskutieren über Themen ist wichtig, weil das fehlt woanders.

Das fehlt. In Großunternehmen wird einfach Entscheidungen von oben getroffen und da Katze Purzelbäume schlagen. Es bleibt so. Aber natürlich müssen auch gewisse andere Entscheidungen und das ist halt auch die ich sag mal die Gratwanderung bei uns, dass wir sagen Okay, da treffe ich jetzt einfach mal eine Entscheidung. Man muss ja auch nicht alles diskutieren wie im Föderalismus, oder manche Dinge werden einfach entschieden, aber manche Dinge, die das Team betreffen oder das Zusammenleben. Weil, wenn man mal ehrlich ist, man sieht die Kollegen mehr als den Partner oder sonst wen.

Das heißt, es ist tatsächlich ein Zusammenleben und das muss halt genauso designt werden, gepflegt und gehegt werden wie eine private Beziehung auch.

Auf jeden Fall. Was mir zum Beispiel auch sehr wichtig ist, ist diese langfristige Perspektive. Und da zahlen ja genau unsere Ansätze drauf ein. Was nützt mir das? Wenn der Kunde zufrieden ist und der Mitarbeiter aber unzufrieden ist, dann könnte ich jetzt sagen Ja gut, das ist irgendwie bezahlt und der muss halt weiterarbeiten. Aber das rächt sich immer. Man sieht sich immer mehrfach im Leben und ich glaube, man muss da das kann man von diesen Silicon Valley unternehmen lernen, dass man sagt Okay, wir müssen hier langfristig denken und auch investieren und gucken, dass die Leute sich gut fühlen.

Und auch wenn sie dann irgendwann mal das Unternehmen wechseln oder wegziehen, das bleibt ja nicht aus, dass sie immer sagen Okay, das war eine super Zeit da, ich hab viel gelernt, ich hab mit tollen Menschen zusammenarbeiten können und das hat sich einfach gelohnt.

Nicht unbedingt Silicon Valley. Naja, also ich finde auch zum Beispiel Sipgate macht ganz tolle Sachen, die haben richtig tolle Modelle. Also ich guck mir immer wieder an, was sie da so machen, was sie ausprobieren. Die haben auch Bücher geschrieben. Darüber finde ich auch mega. Ja und tatsächlich versuche ich auch gewisse Dinge von denen uns anzugucken. Also es gibt auch durchaus deutsche Unternehmen, die das geschnallt haben, wie das heutzutage laufen muss.

Jetzt kommt bei Skillbyte natürlich noch hinzu Das ist ein riesen Bonus. Wir sind selber Techniker und wir wissen, was Techniker brauchen. Das heißt, uns wird es nie im Traum einfallen, irgendwie schlechter Hardware zu beschaffen und die Mitarbeiter mit schlechten Geräten auszustatten, sondern bei uns kann sich jeder seine Hardware aussuchen, die Software Tools aussuchen, das Headset aussuchen, weil wir wissen genau. Sogar wenn der Laptop etwas teurer ist. Das lohnt sich sowas von über die gesamte Laufzeit gerechnet bei Hardware sparen, welches Unternehmen das macht für die eigene Entwicklungsabteilung.

Das ist ein absoluter Motivations Killer. Das möchte ich an dieser Stelle einfach mal sagen. Und ich hoffe, dass es möglichst viele große wie kleine Unternehmen hören, damit man nicht mehr so Momente hat, wie das einem noch ein Laptop mit Festplatte ausgehändigt wird wie einem Kollegen letztens. Das ist ja unglaublich in 20 21 dann. Der Umgang ist zumindest bei uns sehr fair. Wir legen den Mitarbeitern ihre eigene Umsätze offen. Gut, das geht natürlich im Consulting Business, hast du gesagt.

Aber trotzdem glaube ich, ist das nochmal ein riesen Vertrauensbeweis und ein riesen Pluspunkt, dass wir das tun und dass der Mitarbeiter sozusagen selber abschätzen kann. Hammer bin ich fair bezahlt und die verstecken das nicht, weil das wird ja bei ganz ganz vielen anderen Firmen ist das ja so, dass du nicht weißt passt das zu meinem Umsatz oder nicht? Genau. Geringe interne Politik haben wir eben schon angesprochen. Also einfach fragen beim Mittagessen oder auch dazwischen. Und dann gibt’s eine Antwort oder sogar schon eine Lösung.

Ähm, fast keine eigenen Meetings, außer natürlich die Mittagessen oder die Monats Meetings, wo wir uns kurz updaten, was so passiert. Weil einfach viele Kollegen in unterschiedlichen Projekten stecken und man jetzt auch geradezu Zeit die Kollegen teilweise längere Zeit nicht gesehen hat, ist es immer wieder schön, dass man da dieses familiäre Gefühl da nochmal pushen kann. Ja, und ich muss auch sagen fachlich. Wir kriegen fast immer interessante Projekte, oder also die die Firmen nicht, die Großunternehmen nicht selber stemmen können.

Wir sind quasi auf der guten Seite, wo man sagt Okay, wir möchten was Neues ausprobieren. Das kann wir doch mit Skillbyte machen, oder?

Also das ist ja so, dass wir uns die Projekte aussuchen. Das heißt, wir bekommen die Projekte angeboten und dann sprechen halt mit dem Kollegen sagen Hey, guck mal, da liegt ein Projekt auf dem Tisch mit dem den Skills. Das passt doch ganz gut. Guck dir das mal an! Sprechen wir darüber und wir beide der Meinung sei, das passt und ist technologisch interessant, ist von den Einsatzbedingungen interessant. Dann nehmen wir das Projekt oder bzw. was heißt nehmen.

Also wir schicken dann unser Zivildiener so, steigen in den Prozess, wenn irgendwas kommt, wo wir sagen Oh nee, da will ich aber mittelfristig nicht glücklich Metern, sag mir das ab und dann wachsen halt auf dem nächsten Projekt Einsatz und das geht relativ flüssig. Und ich bin sehr, sehr froh, dass in dieser Lage sind. Weil wir nach diesem verlängert Werthmann Modell arbeiten, hat uns das natürlich auch über die Gründerzeit sehr gut geholfen. Also wenn wir das derBranche schlecht geht und die keine Projekte mehr haben, dann gehen wir dahin, wo es halt Projekte halt gibt.

Und dadurch, dass die IT halt soweit ist und so viele Digitalisierung Projekte starten. Demba Die spannenden Projekte genau.

Und natürlich auch branchenübergreifend. Der Reisebranche geht’s gerade nicht so gut oder der Gastronomie Branche geht es nicht so gut. Da kann man halt dann auf andere Branchen wechseln, die vielleicht sogar eine Boomphase aktuell erleben oder die davon gar nicht betroffen sind. Genau. Also das ist auf jeden Fall auch ein riesen Pluspunkt, dass man eben interessante Projekte umsetzen kann und sich das ein stückweit aussuchen können. Wir können natürlich nicht dem Kunden sagen, was er da einsetzen soll, aber sehr oft ist sogar das möglich.

Dennoch gibt es immer so einen abgesteckten Rahmen, in dem man sich bewegt und wo man meistens schon abschätzen kann, ob das ein spannendes Projekt wird oder nicht. Ich glaube, was bei uns auch recht deutlich wird, ist, dass bei uns die individuelle Arbeitsleistung wichtiger ist als der Head Count. Also wir arbeiten lieber mit fünf Profis zusammen als mit 25 naja, das nenne ich es mal! Und Weiterbildung ist auch ein großes Thema bei uns. Wir verwenden die Yumi Kurse, also ein riesen Jérémie Account mit hunderten Kursen, die man sich anschauen kann Hands on Trainings bei der Linux Academy und natürlich der Kollegen Austausch im Let’s Talk Meeting.

So heißt bei uns so eine Art Jour Fixe, wo man sich über neue Technologien austauscht oder auch kleine Demos gibt, um zu zeigen, was man aktuell macht.

Railly Learnings haben wir auch noch das Subskription Rendalen Büchern von O’Reily.

Ja, Weiterbildung ist einfach der Schlüssel. Also ich will jetzt gar nicht philosophisch klingen. In der IT ist Weiterbildung natürlich super wichtig. Aber auch generell fürs Leben ist Weiterbildung und persönliche Weiterentwicklung unabdingbar und wirkt auch wie ein absoluter Airbag gegen Arbeitslosigkeit oder langweilige Projekte. Wenn man immer weitergebildet ist, dann ist man immer vorne mit dabei, immer gefragt und hat einfach Gestaltungsspielraum bei der eigenen Arbeit, keine Frage.

Oft ist das auch diese Weiterbildung oder muss ich da nochmal einhaken? Also gerade das ist das, was mir am wichtigsten ist. Also wenn ich, wenn ich spüre, dass bei einem Kollegen dieses Feuer brennt, schnell zu lernen und dass das Lernen für ihn im Zentrum steht. Ich stelle lieber so einen ein und das ist nicht nur bei mir so, sondern auch bei vielen anderen Firmen. Man stellt lieber so einen oder einen Kollegen in ein als ich sagen mal einen, der keine Ahnung vielleicht mit 10 Jahren Skills und Erfahrung daherkommt, aber wo das Feuer schon erloschen ist oder gar nicht da ist oder was auch immer.

Weil so einen kannst du überall einsetzen, der schwimmt, weil es ist wie so ein Schwamm, der saugt alles auf. Das ist so tick ich ein bisschen. Ja und so versuche ich auch Leute zu finden, die auf derselben Welle sind.

Ja, ich glaube, das ist ganz normal, dass man immer versucht, Leute zu finden, die einem irgendwie entsprechen. Also was ich noch ganz interessant finde, ist, dass bei uns viele Mitarbeiter arbeiten, die vorher im Großkonzern gearbeitet haben, also die vom Großkonzern zum kleineren Unternehmen gewechselt sind, um eben der Flexibilisierung ihrer Arbeit ein Busta zu verschaffen.

Geflohen sozusagen. Ja, ich weiß dich ums Geflohen, ist aber auf jeden Fall dankend angenommen. Und die sind ja auch super zufrieden, dass man im Grunde da individuell sich da selber sehr frei arbeiten kann. Ja, wenn unsere Zuhörer aus dem Arti Bereich auf der Suche nach einem Job sind im Bereich DevOps Data und Cloud oder Java Enterprise Development können Sie natürlich gerne auf der Skillbyte Jobs Webseite nachschauen. Ob wir gerade eine Stelle in dem Bereich offen haben. Haben wir nämlich aktuell.

So viel kann ich schon mal verraten. Die Visionen und Werte von Skillbyte haben wir im Grunde schon angesprochen. Vielleicht etwas, was nochmal zusammen transparent Fairness, persönliche Weiterentwicklung der Mitarbeiter ist und super wichtig. Und dass man professionell wie auch als Mensch zusammenpasst. Natürlich, das ist Richtung Mitarbeiter. Richtung unseren Kunden sind wir natürlich immer darum bestrebt, maximale Effektivität an den Tag zu legen, also die Kunden bei den Problemen auch wirklich weiterzuhelfen. Das ist eine unheimlich hohe Befriedigung, kommt daher und das wird uns auch so von den Kunden zurückgespielt, dass sie mit unserer Arbeitsleistung sehr, sehr zufrieden sind, sodass man ein tolles Lob, was wir auch gerne natürlich an die Mitarbeiterinnen weitergeben, wenn ein Kunde Lob ausspricht.

Daneben, na ja, finde ich das gemeinsame Lachen extrem wichtig.

Du lachst sehr, sehr laut und sehr sehr. Schützt es! Ja, wir machen viele Witze, haben sehr, sehr viel Spaß und das finde ich, da gucke ich tatsächlich auch drauf, ne B-W so Bewerbungsgespräche haben.

Erzählen Sie mir einen Witz?

Nein, aber schon so manchmal auch sehr provozierend. Einfach mal zu gucken, wie geht man damit um? Na ja, das finde ich verrate nicht soviel sonst bei der nächsten Bewerbung.

Das haben wir eben schon angesprochen, dass das ist menschlich einfach passt. Also wir sind die meisten kommunikativer Typen. Als Berater oder Consultant ist es auch auf jeden Fall von Vorteil, wenn man ja auch vor dem Kunden eine Lösung erklärt oder Lösungswege skizziert. Und dann mit dem Kunden gemeinsam einen Lösungsweg zu beschreiten, ist man natürlich schon tendenziell kommunikativer Typ. Und da sind natürlich auch Witzchen machen und gute Laune immer dabei im Büro. Ja, das stimmt. Und natürlich auch im Homeoffice.

Aber da klingt das natürlich nicht so mit so unterm Strich nochmal, ne.

Um dem Thema des Podcast gerecht zu werden, würd ich sagen Wer die Karriere machen wollt, geht zu einem Großunternehmen. Wenn ihr Action haben wollt, viel viel lernen wollt in kurzer Zeit, geht zu dem kleineren.

Und gerade auch wenn ihr noch nicht so wisst, was ihr wollt, lernt man vielleicht mehr bei einem kleineren erstmal, oder? Ja, definitiv.

Weil einfach was viel mehr Abwechslung da ist. Und lasst euch nicht von großen Namen beeindrucken. Und das würde ich auch so sehen.

Das passiert ja sehr, sehr häufig, dass man dann so maken hörig wird. Und bei uns im Bereich Consulting lernt man nochmal nochmal mehr, als wenn man dann ein Produkt entwickelt bei einem kleinen Unternehmen der Consulting ist ja generell sehr vielfältig. Von daher ist das sozusagen der Turbo Boost für die fachliche und persönliche Weiterentwicklung. Auf jeden Fall.

Es sei denn du fängst bei Porsche an und kriegst Porsche geschenkt. Glaub das machen die auch nicht. Da verfahren zu wenig Porsches rum. Nee.

Ja, wir haben auch andere Podcast Episoden, wo wir im Grunde schon mal skizzieren, wie wir Projekte angehen. Da gibt’s die Episode 14 aus dem Bereich Big Data oder Episode 9 aus dem Bereich Bul Sei Software Development, verschiedene Episoden 8, 7 und 6 Welche Tools und Technologien man als Puls der Entwickler, als DevOps Engineer und als Data Engineer kennen, sollte das vielleicht noch als Hinweis zur persönlichen Weiterentwicklung aus dem Skill Baines Kontext gesagt. Und im Grunde der Appell überlegt ein bisschen Welcher Typ seid ihr?

Was schwebt euch vor? Wie möchtet ihr immerhin vierzig Stunden die Woche verbringen? Und was begeistert euch? Möchtet ihr Bea flexibel, agil, viel lernen oder diese Konzernstrukturen haben, um dann eben mit den großen Marken zusammenarbeiten? Was es natürlich auch für manche Leute wichtig, dass man eben für Porsche arbeitet und nicht für vielleicht ein kleines Unternehmen, was nur ein Zulieferer für Porsche ist, obwohl dort die Arbeit vielleicht viel mehr Spaß macht.

Ein Ding würde ich auch gerne loswerden. Da hatten wir letztens wir beide mal drüber diskutiert, weil ich hatte in ein, zwei Bewerbungsgesprächen haben die Kollegen gefragt, wie das dann aussieht, wenn man ein Produkt baut oder eine Idee hat und so weiter. Da hatten wir doch mal diskutiert Mensch, warum nicht solche Kollegen dann auch unterstützen? Also statt zu sagen Nein, irgendwie Maurice Vertrag läuft nix nebenher machen und so. Warum nicht sagen Okay, zeig doch mal, was du da hast.

Vielleicht ist das so interessant, dass wir uns daran beteiligen oder das fördert oder was auch immer. Das wollte ich auch nochmal sagen. War das vielleicht für den einen oder anderen? Interessant ist auch das hab ich mir woanders abgeguckt und fand das toll, dass man nicht so direkt negative Gotta macht was nebenher, sondern okay, lass mal gucken. Wieder diese Energien sind weg. Wie kommen wir denn gemeinsam mit dem Ding vielleicht vorwärts?

Na ja, negativ sind wir ja nie. Wenn jemand Ideen hat und eigene Projekte nebenher entwickelt. Also das ist ja, das kennen wir ja aus eigener Erfahrung, sagen, dass das Total uns entspricht. Genau. Also die Frage ist im Grunde, wie fördert man solche Ideen und wie fördert man auch Menschen, die ebenso kreativ sind und sich das zutrauen, eigene Produkte zu lauschen?

Also es war doch nur einfach nochmal, falls einer zuhört, der diese Richtung denkt und vielleicht Angst hat, dass vielleicht bei einem großen Unternehmen er das Ding sterben lassen muss oder so. Wer vielleicht bei uns gut beheimatet.

Genau, weil wir es eher pushen und auf jeden Fall die Person daran weiterarbeiten lassen. Und vielleicht gibt’s Synergieeffekte. Man macht mal eine Podcast Episode oder andere Möglichkeiten, um eben die Entwicklung noch zu pushen, die Person zu pushen, weil das natürlich auch immer eine persönliche Weiterentwicklung ist, wenn man eigene Produkte baut. Ganz, ganz wichtig wenn unsere Zuhörer Fragen haben, sendet uns gerne eine E-Mail an Podcast skillbyte. Wir freuen uns immer über Bewertungen und ein Abo des Podcasts.

Wir freuen uns auch über Weiterempfehlung des Podcast an Freunde und Kollegen. Vielen, vielen Dank Masiar.

Ich danke dir auch. Maurice mach’s gut. Ich wünsche dir noch einen schönen Abend.

Maurice KnoppSkillbyte Podcast #47: Konzern oder Mittelstand – Wo werde ich glücklich?
Mehr

Skillbyte Podcast #36: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug

// Inhalt //
01:10 – Definition: Was ist Terraform? Was leistet die Software?
06:23 – Software eats Hardware -> Infrastructure as a Service
07:42 – Welches Problem löst Terraform und wie erfolgt der Einsatz?
08:40 – So sieht ein typisches Terraform Projekt aus
11:53 – Der Terraform State – am besten remote in der Cloud
16:18 – Vorteile von Terraform
16:28 – Vorteil: Infrastructure as Code / Versionierbar in GIT
16:48 – Vorteil: Infrastrukturänderungen können sofort getestet werden
17:12 – Vorteil: Integration in CI/CD Pipeline
17:50 – Vorteil: Zentrale Infrastrukturpakete /-module
20:11 – Vorteil: Buildserver kann Terraform ausführen
20:44 – Vorteil: Portierbarkeit zwischen Cloudplattformen
23:22 – Nachteile von Terraform (Funktionsgrenzen, Cloud Limits)
23:30 – Nachteil: keine Einheitliche Benamung bei unterschiedlichen Providern; unvollständige Dokumentation
26:20 – Detaileinrichtung von VMs benötigt weitere Werkezuge (Ansible, Puppet, Chef)
27:48 – Vorteil: Kubernetes Umgebungen können mit Terraform provisioniert werden
28:35 – Nachteil: Proprietäre Cloud Features via Terraform nicht oder später verfügbar
31:48 – Nachteil: Abstraktionsschichten erhöhen immer die Komplexität
32:47 – Vorteile: Infrastruktur versionierbar, kurzfristige Wartezeit auf Ressourcen, Rückgabe nicht verwendeter Ressourcen, große Community
34:17 – Variablen in Terraform Templates für unterschiedliche Umgebungen
35:54 – Terraform Graph: stets aktuelle Dokumentation der Infrastruktur

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #36: Terraform – Virtuelles Rechenzentrum mit dem Infrastructure as a Service (IaaS) Werkzeug
Mehr

Skillbyte Podcast #35: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz

// Inhalt //
01:30 – Definition: Microservice Architekturen (Masiar)
04:07 – Exkurs: Enterprise Service Bus
05:03 – Definition: Microservice Architekturen (Maurice)
10:39 – Die Historie hinter dem Microservice Trend
13:29 – Flexibilität vs Komplexität
16:57 – Betrachtungen der Paradigmen Monolith vs Microservice
20:47 – Vorteile von Microservices
20:51 – Modularität
21:33 – flexible Integration
23:33 – Skalierbarkeit (Cloud native Paradigma)
25:30 – Verteilte Entwicklung / Best of Breed Ansatz
25:49 – mehr (API Schnittstellen-) Dokumentation
26:46 – Robustere Systeme
29:55 – Nachteile von Microservices
29:57 – Netzwerkkommunikationsoverhead entfällt beim Monolithen
31:15 – Höhere Komplexität
32:25 – HTTP-Protokoll (overhead, stateless)
33:43 – Microservice Beispiele aus der skillbyte Praxis

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #35: Moderne Microservice Architekturen – Die Zukunft der Softwareentwicklung als Servicenetz
Mehr

Skillbyte Podcast #34: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions, Google Cloud Functions richtig verwenden

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions,
Google Cloud Functions richtig verwenden

// Inhalt //
01:04 – Was ist Serverless Computing?
03:15 – FaaS – Functions as a Service
06:43 – Cloud Anbieter für Serverless Computing
07:52 – Abrechnung von Serverless Computing Ressourcen
09:25 – AWS Lambda am Beispiel von Amazon Alexa
11:56 – Vorteil: Zeiteinsparung bei der Administration ist signifikant
14:25 – Vorteil: Abrechnung nur verbrauchter Ressourcen
15:16 – Vorteil: Kosten werden Transparent
17:09 – Vorteil: Kleine Teams können Anwendungen Millionen von Menschen zur Verfügung stellen
18:10 – Nachteil: Vendor Lock-in
20:04 – Nachteil: Keine Performance-Garantie
23:43 – Nachteil: Ressourcenbeschränkungen (CPU Zeit, RAM, Laufzeit, etc.)
25:34 – Nachteil: unflexible Laufzeitumgebungen mit fixen Softwareversionen
28:35 – Debugging bei der Entiwcklung von Functions
30:30 – In diese Szenarien ist Serverless Computing besonders sinnvoll…
35:34 – …und in diesen sind sie nicht besonders sinnvoll

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Herzlich Willkommen zum Skill bald Podcast Episode Nr. 34 Servile Computing Hype oder Chance Apps, Landa, Escher Functions, Google Cloud Functions und so weiter richtig verwenden abonniert unseren Kanal für mehr spannende Themen aus dem Technologie Umfeld. Wenn die Entscheider oder IT Fachkraft seid, lasse auch gerne eine 5-Sterne Bewertung da oder sendet uns eine E-Mail mit euren Fragen an Podcast Skill bei. Wir freuen uns auch immer, wenn ihr den Podcast an eure Freunde und Kollegen weiter empfehlt.

Ich bin heute hier mit Max von Skill bald Hallo Max, Hallo Moritz, es freut mich ganz besonders, da wir ja schon wirklich über ein Jahr zusammen arbeiten, dass wir heute diese Episode zusammen machen können.

Freue mich auch dabei sein zu können. Es hat mich immer gereizt, jetzt immer auch mein Thema gefunden und einen Zeitpunkt wo verpasst.

Ja und was für ein Themas ist auf der einen Seite ein hoch spannendes Thema Server es Computing. Auf der anderen Seite hab ich den Eindruck, dass es aktuell auch etwas gehypt wird. Wir können ja mal darauf eingehen, was servile Computing eigentlich ist. Was verstehst du denn darunter?

Ich verstehe zwei Sachen Wissen. Lattmann da sei einmal Server, alles im reinen Sinne oder so wie es jetzt im Moment und den Cloud Providern beworben wird. Bedeutet zwar aber, dass er erstmal, dass man sich selber nicht um die Hardware kümmern muss. Das heißt, dass man im Endeffekt den Cloud, wobei der dafür bezahlt, dass sie die Infrastruktur bereitstellen, wo man dann nur noch seine Anwendungen drauf ausrollen muss. Und das ist eben für mich erst mal der grundlegende Server des Computing an der Stelle.

Aber natürlich gibt es auch die engere Definition, die dann vor allen Dingen auch heute im Podcast eher die größere Rolle spielt. Bowls dann eher in Richtung Funktion Access Service geht, wo dann eben auch der ausführende Layer sozusagen nochmal abstrahiert ist, sodass man wirklich nur sehr wenig Aufwand selber hat, was man sozusagen bereitstellen muss. Genau, also die Wartung der Plattform.

Du hast eben gesagt Server lässt, man muss sich nicht mehr um die Hardware kümmern. Genau genommen muss man sich ja auch um einige Ebenen der Software nicht mehr kümmern. Also kümmern im Sinne von installieren, warten, Updates einspielen, den Server tauschen, wenn er mal alt ist. All diese Dinge also ganz klar sollten wir vielleicht sagen Server List Code läuft natürlich nach wie vor auf Servern, nur man hat keinen direkten Kontakt mehr dazu, weil eben diese Schicht weg abstrahiert ist.

Ich denke, das spannendste Thema für unsere Zuhörer ist die Abstraktionsebene Functions, also Service oder App. Faas.

Das ist auch die geschichtlich neueste Stufe der Server alles Ebene. Da geht es darum der Anbieter stellt eine Laufzeit Umgebung zur Verfügung. Also das kann eine Python Runtime sein. Das kann eine Java Run Time sein, eine dort net run time. Alle möglichen Plattformen sind hier denkbar. Und auf dieser Plattform werden dann eben einzelne Funktionen oder Programmteile ausgeführt und diese werden dynamisch gestartet anhand von bestimmten Triggern und auch skaliert. Also ob ich ein Bild konvertiere beispielsweise oder tausend Bilder konvertiere parallel.

Das ist damit dann möglich. Rampen für Cloud Provider eben dafür zuständig €000 Laufzeit Umgebung bereitzustellen, die dann parallel den Job abarbeiten können. Hast du in letzter Zeit selber schon Functions, also Service Funktionen entwickelt?

Hab ich in der Tat. Das war bei zwei verschiedenen Projekten jeweils verschiedene Anwendungsfälle. Einmal haben wir das genutzt, um Web Application also an der Stelle einer Westlake JAL bereitzustellen, die eben von außen aufgehoben wird. Dann Processing mach. Und je nach bestimmte Antwort zurückgibt. Der andere ist mehr asynchronen Fal, wo sozusagen durch Daten Anlieferung Funktion getriggert wird, die dann eben Daten einliest, transformiert und dann wieder raus schreibt. Und dann kann auch in einer Kaskade dahinter eben neue Fangzähne getriggert werden, sodass dann sozusagen dieser übliche Ettl Job durch mehrere verschiedene Functions abgebildet wird, wobei jede Funktion immer nur eine Transformation ausführt und dann Pappi Events wie Datei wurde geschrieben oder neue Datei existiert.

Angetriggert werden und dann entsprechend ihre eigene Verarbeitung an der Stelle fortsetzen. Das heißt, die Verkettung der Trigger ist quasi ein Stück weit der neue Programmcode. Wieso?

Bei einer Dominostein Reihe genommen würde ich sogar vielleicht noch einen Schritt weiter gehen und sagen, dass wenn man mit Pantheons arbeitet und da komplexere Logik umsetzen will, ist man eigentlich gezwungen Microservices mehr oder weniger in Reinform zu denken und umzusetzen, weil dazu, wenn er später noch kommen Franzens bestimmte Limitationen haben, was vor allen Dingen Performance angeht, also CPU Rechenzeit. Und dann ist so eine Funktion tatsächlich auch nur gedacht als einen logischen Schritt, sodass man, wenn man verschiedene Schritte in seiner Ausführung hat, hat man sozusagen immer wieder einen neuen Micros Service, der gekrault wird oder durch ein Event ausgeführt wird, einfach um ein plastisches Beispiel zu.

Geben Wir sind ja noch bei der Definition, was Server des Computing ist. Früher hätte man so eine klassische Webanwendung oder ein Webshop hätte eine Anwendung beinhaltet, wo dann die Bestellung ausgelöst wird, das Etikett ausgedruckt wird für den Karton, der später versendet wird. Plus die Zahlung von der Kreditkarte, mit der der Kunde bezahlt hat. Eingezogen wird und im letzten Schritt wird der Warenbestand um 1 Dex demontiert, um eben diese Bestellung dann darzustellen. Und im Server ist reich, während das einzelne Funktionen, die sich nacheinander aufrufen oder das kann er teilweise sogar auch parallel geschehen.

Aber Microservices in Reinform. Diese kleinen Funktions Blöcke, die sich dann eben nacheinander aufrufen, was man vielleicht noch sagen sollte, weil das Wort oder der Begriff Server des Computing oft marketingtechnisch ausgeschlachtet wird meinen kann, sind auch so Docker Container Round Times also die bezeichnen sich auch als Server. Alles das ist hier im Kontext dieser Podcast Episode nicht gemeint. Mir meinen wirklich nur einzelne Funktionen, die miteinander verzahnt werden können und nicht ganze Programme, Bausteine oder ganze Programm Plattformen die eben hochgefahren werden, wo man dann auf einer niedrigeren Abstraktionsebene einsteigen würde.

Im Grunde, wenn man die Geschichte der Applications Entwicklung sieht, sind Server lässt die neueste Stufe, denn es wird auch. Ich habe in einem Artikel gelesen DevOps als DevOps auf Steroiden bezeichnet. Man kümmert sich im Grunde nur noch um die Programm Logik, also die einzelnen Funktionen und die Verschaltung dieser Funktion von Deist als das Beispiel, was du gegeben hast. Max, dass die Funktion über eine API aufgerufen werden und dann eben weitere Schritte wieder über Abis anstoßen. Schon wahrscheinlich das Paradebeispiel im Server des Computing Bereich.

Mit welchen Anbietern hast du denn? Und Laufzeit Umgebung? Hast du denn jetzt schon Erfahrung gesammelt?

Persönlich hab ich schon so gut wie in den drei größten Cloud Anbietern gearbeitet. Also Amazon habe erst an der Stelle Track Software an Google Cloud Computing allerdings lediglich in Apps und den Ärger mit den befangene Pandoras gearbeitet. Das wäre an der Stelle daneben Landa Funktionen bei Apps und einmal ja Funkens, dann bei Microsoft.

Ich glaube bei Google heißt es Cloud Functions und bei IBM heißt es auch Cloud Functions. Aber das unter dem Begriff Lambada und dem jeweiligen Provider wird man ganz sicher den Produktnamen ausgraben können. Okay, ich glaube, da haben wir schon mal ein gutes Grundverständnis gegeben, was Server Computing ist. Also vielleicht noch ganz kurz Welche Laufzeit Umgebung hast du eingesetzt? Ich nehme an Python, oder?

Genau. Bei mir war es jedesmal Theißen. Allerdings wenn die relativ die Wert mittlerweile aufgestellt. JavaScript funktioniert und auch jede andere große Programmiersprache wird mittlerweile auch an der Stelle unterstützt. Vielleicht noch ein Wort zur Abrechnung.

Also klassische Server bezahlt man ja, indem man einfach die Server mietet oder? Beim Cloud Server wird ja auch pro Minute abgerechnet. Beim Server Computing ist das so ein Mix aus verbrauchten CPU Ressourcen. Remme Ressourcen und Durchsatz. Das unterscheidet sich glaube ich auch bei jedem Anbietern. Bisschen gab es unterscheidet sich auch dann nochmal zusätzlich, in welchem Kontext du sie verwendet. Also ich weiß, dass man bei Apps verschiedene Modi haben kann. Man kann die typische Lambda Funktion haben.

Man kann auch Lambda haben. Man kann die Landa Funktionen mehr oder weniger direkt dem Internet preisgeben oder ein API Gateway benutzen und je nachdem welches Modul man dann je nach Funktionsweise benutzt. Damit wird es auch nochmal ein bisschen anders abgerechnet. Beim Großen und ganzen kann man eben sagen, man bezahlt für die Ressourcen, die man auch tatsächlich einsetzt. Lambada bedeutet, dass die Funktions Ausführung möglichst nahe an den Endkunden herangeführt wird, oder?

Genau das hat. Ich glaube in dem Kontext zwei Bedeutungen. Einmal wird eben z.B. das API Gateway nicht benutzt, was dann eben auch nochmal zusätzlich ein Netzwerk Delay verursachen würde. Und wie du richtig gesagt hast, werden dafür auch Server benutzt, die eben sehr nahe beim Kunden stehen. Das wirkt dann, wenn man das so möchte und bucht quasi und auch bezahlt weltweit auf die verschiedenen Server verteilt, sodass dann je nachdem von wo der Kunde das aufruft, das dann an den nächst gelegenen Server geht.

An der Stelle noch ein Beispiel Bevor wir zu den Vor und Nachteilen von Server des Computing kommen, ist Amazon Alexa also der Sprachassistenten von Amazon selber. Jedesmal wenn man mit Alexa spricht, ruft man im Hintergrund quasi eine Lambda Funktion auf, die dann antwortet. Das fand ich ganz interessant, dass Amazon die eigene Technologie für ja doch dieses Blockbuster Produkt verwendet, was natürlich dann auch Signalwirkung haben soll. Seht her, das ist stabil genug, darauf kann man sich verlassen.

Okay, jetzt haben wir schon einige Vorteile. Implizit angesprochen. Lass uns doch nochmal durchgehen, ob wir nicht was vergessen haben. Skalierbarkeit hatten wir eben schon angesprochen. Amazon Alexa kann man sich z.B. vorstellen, dass am Anfang gab es vielleicht einige tausend Nutzer, die regelmäßig mit ihrer Alexa gesprochen haben. Mittlerweile dürfen das einige Millionen sein. Und diese ganzen Anfragen können eben parallel durchgeführt werden, ohne dass man sich darum kümmern müsste, die Infrastruktur entsprechend zu skalieren.

Das macht der Cloud Provider und auch das Konzept für die Fans sind, denen ausgelegt sind, wo man quasi nur eine Funktion vom Code her bereitstellt, mit vordefinierten Inputs und definierten Outputs. Diese Art der Programmierung dadurch ist trivial möglich, dass auch tatsächlich die Anwendung eben skaliert. Weil n klassischen Anwendungen muss man potentiell eben auch nochmal Gedancken reinstecken, ob die Anwendung überhaupt staatlich ist, ob sie skalieren kann und so weiter. Und diese Sachen sind implizit automatisch gegeben, wenn man entsprechend diese Umgebung nutzen will, weil dann muss man sich diese Gedanken alle vorher machen.

Angekommen vom Cloud Provider sozusagen ein vordefinierte Event eingereicht, mit dem man arbeiten kann. Mehr hat man nicht. Man kann natürlich auch externe Systeme noch anfragen, aber erstmal hat man nur dieses Event und tut dann eben mit diesem Event was. Und dass es in sich allein von den logischen Gedanken beliebig skalierbar, sodass allein die Herangehensweise an die Programmierung so einer Funktion eben an der Stelle das Skalieren quasi gratis mitliefern.

Ich hab bei der Recherche so einen schönen Satz gefunden. Ich glaube es von Google. Das heißt from prototype to production to planet scale, also dass im Prinzip der parallelisiert Kargheit dieser Service Funktion keine Grenzen gesetzt sind. Physikalische Grenzen sind natürlich schon durch den Cloud Provider gesetzt, aber die liegen so hoch, dass man dort erst einmal keine Probleme haben sollte.

Okay, dass man sich nicht mehr um die Beschaffung von Hardware, die Installation des Betriebssystems, die Wartung und das Update des Betriebssystems und etwaiger anderer Software Komponenten kümmern muss. Das hatten wir eingangs schon erwähnt. Ist aber ein wichtiger Punkt, denn ich wette in vielen vielen Admin Teams wird signifikant viel Zeit für diese Tätigkeiten aufgewendet. Soviel zu meiner Erfahrung. Ich weiß nicht, welche du da gesammelt hast, doch das ist ja identisch.

Muss man sich ja nur einmal in der Fachliteratur ein bisschen umschauen. Es tauchen gefühlt jede Woche mindestens eine Sicherheitslücke auf, wo man dann das Team eigentlich überprüfen muss. Okay, der Server, auf denen unsere Anwendung läuft, ist da die Open Access Bibliothek jetzt drauf, die betroffen ist oder nicht? Wenn ja, wie? Installieren wir das? Können wir das im laufenden Betrieb machen und so weiter. Und all das entfällt eben, wenn man in diesem Server lebt, Kontext unterwegs ist.

Dafür bezahlt man am Ende dann den Cloud Provider, dass die sich dann eben um Wartung, Update und so weiter kümmern. Und man selber bekommt von der Situation überhaupt nichts mehr mit. Und dann muss sich auch keine Gedanken machen, was an der Stelle eben irgendein Produktionsausfall oder sowas ist. Oder dass die Funktion erstmal nicht mehr erreichbar. 2 Grad der Hauptsatz aber ja, updatet oder sonst was.

Das hat man eben an der Stelle überhaupt nicht, da auch das Thema, was oft unter den Tisch fällt Hardware Ausfall. Vielleicht erinnerst du dich an ein Projekt, wo wir beide waren, was noch nicht so lange her ist, dass eine fehlerhafte Netzwerkkarte also wirklich wochenlang Haare raufen gesorgt hat, bis sie im gefunden und deaktiviert wurde und ab dann konnte normal weitergearbeitet werden. Das sind auch Sachen. Also nicht, dass es die defekte Netzwerkkarte in einer Cloud Umgebung nicht geben kann.

Aber ich denke die STANDARD Hardware dort ist so gut Monitor, dass das relativ schnell auffällt. Genau. Und soweit ich das weiß, haben sie ja auch nochmal spezielle Software laufen, die Unstimmigkeiten im Netzwerk aufspürt oder insgesamt Unstimmigkeiten in der Hardware. Und dann wird mal einfach ein kompletter Server Schrank aus der aktiven Hardware rausgenommen, falls nur die Ahnung ist, dass da mit dem Server schon was nicht in Ordnung ist, weil Cloud Provider haben natürlich so viel Ressourcen oder so viele Backups auch, dass das einfach mal möglich ist.

Was natürlich für ein normales durchschnittlichen Unternehmen nicht einfach mal möglich ist. So viel über pro. resümierte Hardware dazu haben, dass man meinen gesamten Server Schank aus dem Rechner Cluster rausnehmen kann.

Und wer eine Woche mit Debugging von Hardware Problemen verbracht hat, der wünscht sich, dass er damit nichts zu tun haben möge.

Preis ist auch ein Vorteil. Wir haben es unter Vorteil gelistet, aber ich würde sagen, da muss man etwas aufpassen, denn es gibt durchaus auch Szenarien, wo es günstiger ist, wenn man einen eigenen Server mietet, der z.B. kontinuierlich unter Hoch Last steht oder der sehr spezielle Anforderungen erfüllen muss, also sei es Spezial Hardware oder sehr viel Arbeitsspeicher aufweisen muss, dann sind Server alles Funktionen leider keine Option.

Genau, also das muss man je nach Anwendungsfall immer evaluieren. Es gibt eben meistens bei der Cloud nicht die STANDARD Aussage. Ja, das ist günstiger als alles andere, weil dann gäbe es das andere auch nicht. Mehr dementsprechend. Wie du richtig gesagt hast, mein Server ständig ausgelastet wäre, dann ist der häufig günstiger, als wenn man die gleichen Neuyork laut über Funktionen an der Stelle Fahndungen.

Ein weiterer positiver Punkt, der in vielerlei Hinsicht positiv ist, ist die Abrechnung für verbrauchte Ressourcen, also CPU Zeit, RAM Io. Und nicht nur, weil man tendenziell, wenn man ein System, das man nur für die Last starken Zeiten im Prinzip bezahlt, sondern es wird auch sehr deutlich im Projekt oder bei mehreren Projekten, welche Projekte wie viele Kosten verursachen und wo genau bei welchem Arbeitsschritt und welchem CPU Dienst oder bei welchem Programmteil die höchsten Kosten anfallen und die meiste Berechnung anfällt und man kann dort gezielt optimieren.

Das finde ich auch sehr schön eigentlich. Früher hat man gesagt, die Datenbank läuft 24 Stunden am Tag. Dann können wir auch hier alles rein und rausrechnen und Backup machen. Jeden Abend 100 Gigabyte übers Netzwerk schieben, das ist ja eh da und jetzt muss man sich das schon genauer überlegen. Also kann natürlich auch negativer Punkt sein, weil man sich jetzt damit beschäftigen muss. Aber generell halte ich das für eine gute Sache, dass man weiß, wo welche Aufwände erzeugt werden und man einfach so nochmal einen Überblick bekommt.

Genau.

Also vielleicht auch das Beispiel, das sein Wickler ein bisschen anders entwickelt kann. Ich habe selber gemerkt, dass wenn man sich jetzt eben genau an diese neue Serviceleistung Banken mit arbeitet, dann denkt man auch mal zwei oder drei mal mehr nach, um zu überlegen Okay, brauche ich jetzt diese Datenbank Anfrage oder nicht? Wie du eben so schön gesagt hast wenns im normalen System läuft und die Datenbank Ishtar, dann macht man im Saft. Hab eine Anfrage Mehrheit dahin, obwohl es natürlich auch Bermann Snack optimieren würde.

An der Stelle bringt das natürlich auch Vorteile in jeder anderen Umgebung. Aber gerade in diesem Klout Umgebung hat man sowieso nochmal einen monetären Vorteil dadurch, sodass man dann auch als Entwickler gleich Kaymer überlegt, ob man das nicht wieder schöner oder performant an der Stelle schreiben kann.

Also es wird einfach transparent und man kann sich gezielt darum kümmern oder sich gezielt dafür entscheiden, sich nicht darum zu kümmern. Was ich noch als gigantischen Vorteil seh ist, dass dieses Wissen für die Administration, was ja in jedem Unternehmen aktuell vorhanden ist und auch früher für die Produktentwicklung unabdingbar war, nicht mehr unbedingt notwendig ist. Und auch kleine Entwicklerteams, die vielleicht nur aus Entwicklern und einem 2 DevOps Menschen bestehen, dass sie Anwendungen entwickeln und betreiben können, die von Millionen von Nutzern genutzt werden können da draußen und das ohne eigenes Infrastruktur Team.

Wenn man sich auf Zerfalle Computing konzentriert, also das entbindet einen nicht von allen administrativen Aufgaben. Man muss sich natürlich auskennen und dieses DevOps wissen sich auf schlauen was ist eine IP Adresse? Wie funktionieren Netze, wie sicher ich das ab und so weiter. Und wie Provision niedrig die Infrastruktur auf meinem gewählten Cloud Provider. Also diese klassische Rolle zwischen Entwickler und Betrieb dann aufnehmen. Aber ist es wirklich kein Admin im engeren Sinne mehr notwendig für eine Anwendung, die Millionen von Leute nutzen?

Das ist ja auch schon mal was. Also Apps zum Beispiel. Aber wie das so ist, auch wenn es wunderbar klingt und wer jetzt die Vorteile aufgezählt haben, da gibt es natürlich auch ein paar Nachteile, die wir schon gestrichen haben.

Ich glaube, der größte Nachteil, wo man sich immer bewusst sein muss, sobald man in der Cloud unterwegs ist und vor allen Dingen bei den sogenannten Managed Service. Was Fangnetze Service an der Stelle ist, ist, dass wir ein Vendor Login haben. Das heißt, wenn wir uns jetzt entscheiden, bei Apps in der Landa Funktion was zu tun, dann können wir das nicht eins zu eins so auch danach bei Google z.B. laufen lassen, falls das wichtig ist. Allerdings, das muss man natürlich auch zugeben ist, dass dadurch das Konzept hinter den Fangzähne bei den meisten festgeschrieben ist, muss man natürlich nicht die komplette Funktion neu schreiben, sondern an der Stelle eher den Input und Output so neu formatieren, dass er auch die neue Cloud passt.

Allerdings kannst du dann auch nochmal sein, dass er nach anderen Cloud ein bestimmtes Paket nicht verfügbar als Voda. Man kann es nicht nach installieren oder lohnt was. Also man legt sich erst mal auf eine Cloud fest, wenn man eben eine bestimmte Funktion Umgebung auswählt. Am Ende dessen muss man sich bewusst sein, was natürlich auch am Ende der Tweet of ist. Zwischen dem Komfort, den wir eben erwähnt haben, bezahlt man einer gewissen Stelle dann natürlich damit, dass man den Cloud-Anbieter treu sein muss.

Es hat sich noch keine Open Source Server alles Computing Platform herauskristallisiert, so z.B. kybernetisch. Es ist ja das DevOps Rechenzentrum oder der STANDARD für Container Computing kann man sagen, der von allen Cloud Anbietern angeboten werden muss, weil er einfach so omnipräsent ist. Und für Server des Computing gibt es so einen verbreiteten offenen STANDARD eben noch nicht, der ja vielleicht noch kommen kann. Es wäre zu wünschen, dass man dann zwischen den Anbietern eben auch wechseln kann.

Ich glaube, da besteht ein hohes Bedürfnis, gerade von großen Unternehmen. Aber wer weiß, was die Zukunft bringt. Einen weiteren Nachteil sehe ich im ansprecht Verhalten einer Sour, weil es Funktion. Es gibt keine Garantie, dass diese sofort eine Antwort liefert. Manchmal ist so eine gewisse Ramp up Periode notwendig von wenigen Sekunden, bis dann die Funktion eben ausgeführt werden kann. Das ist insbesondere dann kritisch, wenn ich eine interaktive Anwendung habe, also wo der Nutzer Eingaben tätigt und er dann auf die Rückantwort wartet.

Muss aber gestehen, ich habe hier noch keine Hands on Erfahrung. Ob das wirklich so ein großes Problem ist? Wir haben tatsächlich an der Stelle einmal die Erfahrung gemacht also diese Vampir Periode ist tatsächlich nur am Anfang oder wenn die Funktion eben noch länger nicht ausgeführt wurde oder immer nur sehr sporadisch ausgeübt. Dann hat man eben dieses von dir erwähnte Problem und wir hatten tatsächlich den Fall, als wir eben die erwähnte Vest API bloed haben bzw. Konsequenz von unseren Websiten aus gekrault haben.

Da ist der Traffic schlagartig angestiegen und an der Stelle das Skalieren fand nicht schnell genug statt. Auch wegen dieser WMP Zeit. Und da hat es dann eben die ersten 5 bis 10 Minuten sehr viele Bettwil Requests Server, Time Outs und so weiter gegeben. Was an der Stelle jetzt nicht so kritisch war, weil das keine Daten waren, die das Nutzerverhalten zu sehr beeinflusst hätten. Aber je nachdem in welcher Situation man ist, kann man sich das eben nicht erlauben an der Stelle.

Wir sind danach auch etwas schlauer geworden, dass wir dann eben entsprechend, bevor wir ein anderes neues Deployment oder ein neue Landa Funktion woanders eingebaut haben. Kann man das eben auch einmal händisch selber vorheizen in Anführungsstrichen, wo man dann eben entsprechenden Traffic simuliert, dass eben vorhanden ist. Und ich glaube, mittlerweile gibt es auch seit längerem eine Checkbox, die man in den entsprechenden Oberfläche setzen kann, wo dann eben die Funktionen auf Standby gehalten wird, sodass dann eben diese Scale out oder das Skalieren sehr viel schneller geht.

Allerdings muss man den eben einmal setzen und ich glaube, es kostet auch was eine gewisse Betrag, sodass man da nämlich ständig setzen sollte. Aber es ist gut zu wissen, wenn der Cloud Provider das nicht hat, dann sollte man eben einmal quasi händisch vorheizen, sodass dann bei dem produktiv ausrollen. Wenn man nicht die Möglichkeit hat, prozentual über mehr Traffic abzugeben, dann muss man eben einmal händisch das sicherstellen, dass der Traffic erarbeitet werden kann. Händisch vorheizen.

Das hört sich ja an wie bei einer alten Dampflokomotive her.

Ich war auch amüsiert, als ich das erste Mal den Vorhalt Begriff in diesem Kontext gehört habe. Aber am Ende ist es genau das.

Das ist einfach eine technische Notwendigkeit. Die Cloud Provider haben natürlich tausende oder Millionen Funktionen registriert von all ihren Kunden auf diesen Laufzeit Umgebungen und da wird wahrscheinlich nur ein Bruchteil konstant genutzt und alle anderen werden schlafen gelegt, damit es bei diesen geringen Kosten bleiben kann. Und wenn eine Funktion angefordert wird, dann muss erst einmal eine Laufzeit Umgebung Provision tiert werden oder diese Funktion dort zur Ausführung gebracht werden. Und das kann dann eben diese berühmt berüchtigten ein, zwei, drei, vier Sekunden dauern.

In der Zeit hat man keine Antwort oder die Anwendung kann ich weitermachen? Ja genau.

Und nach dieser Vampir Periode ist das eigentlich kein Problem mehr, weil die meisten glaubt wieder an der Stelle im hingehen und diese entweihen, wo die Funktion ausgeführt wird eben sozusagen Kelchen. Das erst mal nachdem die hochgefahren wurde. Diesen sauberen State sozusagen wird dann mehr oder weniger als Abbild für alle anderen Funktionen der Nacht genommen, sodass dann eben nicht mehr die gesamte Umgebung hochgefahren werden muss, sondern nur noch dupliziert werden muss, was an der Stelle sehr viel schneller geht.

Ein weiterer Nachteil und da sind wir selber, das weiß ich aus erster Hand schon häufiger dran gestoßen und haben da Lösungen für entwickelt. Ist die Ressourcen Beschränkung innerhalb einer Server Ulis Funktion? Das ist wahrscheinlich auch oder es macht einen Unterschied. Je nach Anbieter gibt es da unterschiedliche Ressourcen Beschränkungen. Aber generell kann man glaube ich festhalten, dass man in einem sehr, sehr engen Korsett steht, also beispielsweise, dass eine Funktion maximal 40 Sekunden Laufzeit aufweisen darf. Danach wird sie zwangs beendet oder dass sie nur ein Speicherbedarf von ein Gigabyte RAM konsumieren darf und kann dann nicht weiter wachsen.

Und diese Beschränkungen sorgen zum einen dafür, dass man sich natürlich sehr kurz fasst und die Funktion wirklich nur einen sehr kleinen Teil des Programms dann eben übernimmt. Auf der anderen Seite kann es ja vielleicht doch nötig sein, eine große Anzahl an Bildern zu konvertieren und dann müsste man das irgendwie anders lösen. Genau.

Also das ist so ein bisschen dem Anwendungsfall geschuldet. Ich glaube, das liegt in der Konzeption begründet, dass eben Bankwesens kleine logische Einheiten sind, die häufig wenig Ressourcen Anspruch haben und schnell antworten. Aber das dann in millionenfach sozusagen. Wie du richtig erwähnt, das haben wir auch schon häufiger Probleme gehabt mit diesem Kontext, einfach weil sich dann am Ende das Anwendung. Szenario doch anders entpuppt hat, als es ursprünglich erdacht war, sodass man dann am Ende dann doch auf eine andere Technologie ausweichen musste.

Und man muss sich wirklich vor Augen halten. Also nach diesen 40 Sekunden als Beispiel Wert wird die Funktion Ehard beendet, also mit einem Kill abgeschossen. Wenn man da noch offene Datenbank Transaktionen hat, werden die nicht abgeschlossen oder verbleiben dann in diesem Schwebezustand. Also das muss man wirklich bedenken, wenn man da eine Anwendung, die Zeit, einen weiteren Nachteil.

Wobei ich sagen muss, ich seh das gar nicht als so großen Nachteil, weil die Cloud Provider sich ja doch sehr viel Mühe geben, sind die unflexible Provisionszahlungen der Laufzeit Umgebung. Also ja, wir haben eben schon gesagt Java wird angeboten, Pfeifen wird angeboten, sie Charb wird angeboten. Alles was Rang und Namen hat, JavaScript wird angeboten, aber dennoch muss man sich Vereine dieser FOR konfektioniert Laufzeit Umgebungen entscheiden und kann nicht frei seinen eigenen Sophistik dort aufbauen.

Genau das ist auch je nach Cloud Provider ein bisschen anders gelöst und das von dir angesprochene Korsett einmal enger geschnürt als bei anderen, sodass man da eben Dependency es zum Teil können eben relativ leicht nache installiert werden. Gemeint sind Pulsen Umfeld ist ein Python Paket kann man eigentlich in allen Umgebungen nochmal nach installieren, weil das eben einfach der normale Weg ist. An der Stelle aber zum Beispiel System Bibliotheken, auf die zum Teil bestimmte Pakete angewiesen sind, weil das eben nicht nochmal neu implementiert wird in der entsprechenden Programmiersprache, sondern eben auf normalerweise vorhandenen System Bibliotheken zurückgegriffen wird.

Die können zum Teil Probleme bereiten, wenn eben entsprechend in der Laufzeit Umgebung das einfach nicht vorinstalliert ist.

Hast du da ein Beispiel? Also Verschlüsselung oder Open CSL? Würde mir direkt einfallen, dass man vielleicht nicht jedes Cypher Sued hat.

Genau an der Stelle ist es ein relativ spezielles Beispiel, also das Knuff PGP quasi. Die asymmetrische Verschlüsselung ist an der Stelle nicht installiert in den Äther Pantheons. Zumindestens hab ich das an der Stelle nicht rausgefunden, wie ich es laden könnte. Und so gut wie alle landesüblichen heißen Pakete, die eine einfache Interaktion mit nur P&G verschlüsselten Dateien ermöglichen, setzen eben darauf, dass entsprechend die Bibliothek dafür vorinstalliert ist, was an der Stelle daneben dann nicht der Fall war und was daneben zu sehr viel Rechercheaufwand geführt hat.

Am Ende mussten wir uns auch an der Stelle aus anderen Gründen auch für eine andere Umgebung entscheiden, einfach weil sich herausgestellt hat, dass die Daten am Ende zu groß waren für die Funktion.

Da kann man mehrere beschränkende Faktoren zusammen, also Software Estag und diese Ressourcen Beschränkungen, sodass man sich dann dort von der andere nicht zur weiles Computing Lösung entscheiden musste.

Ein anderes Beispiel, was ich auch noch nennen kann es QT benutzt, was Leuten, die mit einer Maschine noch nicht vertraut sind, wahrscheinlich was sagen wird. Es ist nicht mit dem STANDARD C Compiler kompiliert, zumindest standardmäßig nicht meine ich, dass das zumindest das zugrundeliegende Problem war. Auf jeden Fall ist es nur sehr schwierig möglich, das in z.B. PKW’s zum Laufen zu bekommen. Es funktioniert, aber man muss dann doch wieder mehr Aufwand da reinstecken, dass man das eben selber kompiliert, weil die Laufzeit Umgebung sich eben leicht unterscheidet zu dem, was man normalerweise vorfindet, wo das Paket normalerweise ausgeführt wird.

Naja, und das sind dann genau diese Details Probleme, die dann doch wieder Zeit kosten. Was ich noch als Nachteil sehe.

Wobei da muss ich auch sagen, dass es bei manchen Cloud Providern doch relativ gut gelöst ist, das Debugging, während man diese Funktion entwickelt als man brauche so eine Art Remote Debugger, der dann in diese Server alles Computing Environment den dieBürger dort andockt und dass man die Funktion dann eben Schritt für Schritt durchlaufen kann. Da gibt es auch ganz gute Lösung, aber man hat halt all die Probleme, die man mit Remote Backing hat. Die Ports müssen offen sein, man muss die Funktion registrieren, es klappt nicht immer und man sieht nur die Funktion oder kann halt dadurch steppen.

Dadurch, dass man den Ausführung Stack nicht kennt, weiß man nicht. Okay, hab ich vielleicht einen Speicher Problem oder man sieht einfach nicht so viel wie wenn man das auf einer nativen Maschine macht. Genau.

Es gibt an der Schalotten unseren Ansatz. Zumindestens kenne ich den bei Apps so, dass sie tatsächlich einen lokalen Emulator für die Landa Funktionen bereitstellen. Der läuft dann meistens in Docker. Ich glaube es gibt auch alternative Installations Möglichkeiten, aber da hab ich mich dann für Docker entschieden. Und da wird dann quasi ein Docker Image Gisborne, wo dann deine Funktion Godwein kopiert wird und darum herum wird eben dann diese Funktion Logic simuliert. Funktioniert auch ganz gut, wenn man eben sozusagen die Events gucken will, ob die übereinstimmen, ob der Programmcode überhaupt ausführbar ist.

Was allerdings nicht ein Porst wird, zumindest zu dem Zeitpunkt wo ich es genutzt sind genau die angesprochenen CPU Limits MMW Limit. Execute belämmert in der Größe und so weiter, das wird an der Stelle dann eben nicht geprüft, sodass selbst wenn es dann eben lokal ausgeführt werden kann, man trotzdem in der Cloud noch auf Probleme stoßen.

In der Podcast Episode mit Olli haben wir ja über diese zwei Faktoren gesprochen, dass die Ausführung Umgebung möglichst der Entwicklungsumgebung entsprechen sollte. Und durch diesen Bruch hier kann man sich dann eben neue Probleme einfangen. Hier ist das dann nicht gegeben. Jetzt haben wir die Vor und Nachteile besprochen und ich glaube, jetzt kann man ganz gut ein Bild zeichnen, in welchen Szenarien servil es Computing denn besonders sinnvoll oder eben nicht sinnvoll eingesetzt werden kann. Alexas Gilt’s hatten wir schon als Beispiel.

Du hast gesagt, Dienste, die Überrest APIs miteinander sprechen, eignen sich auch sehr gut, weil das einfach die natürliche Sprache der servile Funktionen ist. Wir haben gesagt, es gibt verschiedene Trigger, mit denen die Funktion gestartet werden kann. Also neue Datei in einem Cloud Folder hochgeladen. In einer Message Cue steht ein neues Objekt an. Ein Rest API Call ist auch ein Trigger Import. Daten sind vorhanden, klopfen irgendwo an, in einer Datenbank entsteht ein Eintrag. Wenn die Anwendung sich darauf stützt, kann man das auch sehr einfach abbilden und bei hoch parallelisiert Baan Anwendungen also zum Beispiel könnte man sich vorstellen einen Web Dienst wo Leute ihre Audiodateien hochladen können im Wave Format und bekommen einen komprimiertes MP3 zurück.

Das wäre ja perfekt. Parallelisiert war eben pro User oder sogar pro User Datei. Das wäre so ein Anwendungsfall wo man sehr gut dann eben sovieles Computing Funktionen einsetzen könnte.

Genau. Wobei man natürlich auch an der Stelle nochmal anmerken muss, dass man sich im Vorhinein überlegen muss, ob man entsprechend Größen Beschränkungen z.B. im Mäzenen, den Kommentierungen Beispiel zu bleiben größten Beschränkungen für die Josa auferlegt, damit das eben garantiert ist, dass in der benötigten Zeit abgearbeitet werden kann. Apropos benötigte Zeit ich bin auch über einen Artikel gestolpert, wo eine Architektur vorgeschlagen wurde, dass eben die sovieles Funktionen möglichst über Message KÜS miteinander verbunden werden sollen. Das Problem liegt darin, wenn man die Server Funktionen miteinander verknüpft und eine Funktion auf die Antwort einer zweiten Funktion wartet, dann wird das berechnet, weil die erste Funktion aktiv auf den Rückgabewert der zweiten Funktion wartet.

Und der Vorteil bei Message Cues ist, dass die erste Funktion ihren Job abschließt, in die Message Kyu ein Objekt anhängt. Die zweite Funktion läuft los, führt ihren Arbeitsschritt durch. Das Ergebnis wird wieder in die Message Kyu eingehängt und jetzt startet die erste Funktion wieder mit dem Ergebnis der zweiten Funktion und kann damit weiterarbeiten. Und das das kann man sich leicht vorstellen. Bei vielen, vielen 000. Funktionen, die vielleicht parallel ablaufen, doch sehr viel Zeit sparen kann und unterm Strich natürlich auch Kostenvorteile bringt.

Wobei an der Stelle würde sehr wahrscheinlich eher so laufen, dass du insgesamt drei Funktionen und zwei Medikus hast. Hast du sozusagen die erste Funktion in die erste mildtätigen schreibt, dann die zweite Funktion aus der ersten liest und in die zweite mit Süd-Korea einschreibt und dann die dritte Funktion darauf wieder reagiert. Dann hast du eben die Trennung der Microservices noch klarer, weil sonst hast du in der ersten Funktion zwei Logiken drin einmal den externen Trigger sozusagen und dann nochmal Handfeger.

Wenn, wie deine Antwort in die Meterdicken geschrieben wird an der Stelle genau serverseitig macht es natürlich Sinn, das auch noch aufzuteilen. Mir war jetzt eigentlich nur wichtig zu zeigen, dieses aktive Warten einer sovieles Funktion. Das sollte man vermeiden, eben aus Kosten, Gesichtspunkten.

Und ein anderer Vorteil natürlich bei diesem asynchronen ist, dass dann, wenn eine davon Ressourcen intensiver als einfach durch die Hörer Verarbeitungs Zeit, dann ist das eben auch an der Stelle abstrahiert. Ich glaube es ist insgesamt ein guter esein Hinweis für die Microservices Architektur, dass du die Kommunikation möglichst asynchron machst an der Stelle, wo du es kannst, dass man die Message Cues das machen lässt, wofür sie gedacht sind, eben per Sistieren von Objekten und die Koppelung der Funktionen.

Dann eben im Grunde wie bei einer Fabrik mit ganz vielen Fließbändern. An die Fließbänder sind da die Message QoS, dass man das dann so aufbaut. Mach doch das Recovery einfacher. Wenn einzelne Dienste streiken oder es zu Problemen kommt, dann sind die Nutzdaten weiterhin in den Message cuius vorhanden, in der Mehrzahl der Fälle aber sinnig verloren. Die Prozessors führen kann ein resoniert werden. Ich denke generell, dass sovieles Computing bei der Neukonzeption von Anwendungen, insbesondere Webanwendungen die Stärken ausspielen kann, wenn klar ist, dass die Anwendung in der Cloud betrieben werden soll, wenn klar ist, welche Funktionen dort umgesetzt werden können, auch mit Nutzer Interaction oder Import-Export Jobs.

Im Grunde so eine klassische Webanwendung kann schon oder weitestgehend Services umgebaut werden. Glaube ich schon. Im Grunde hat man mit der Services Computing Technologie oder Funktion, also Service. Ziel wie mit den Container Technologien nur auf der Abstraktionsebene höher. Man möchte Ressourcen schonen, wenn eine Funktion nicht laufen muss. Möchte man sich nicht darum kümmern und keine Hardware vorhalten oder die Hardware, kann man für andere Funktionen benutzt werden. Und nur die Funktionen, die jetzt gerade laufen müssen, sollen dann eben auch Hardware in Beschlag nehmen.

Genau wie bei Container Technologien auch plus Skalierung plus Ausfallsicherheit. Diese ganzen Benefiz, die man dazu bekommt bei der Container isierung, bekommt man natürlich auch beim Server des Computing dazu. Dennoch gibt es auch einige Szenarien, wo Functions A Service nicht sinnvoll sind.

Genau, also zwei prominente Beispiele. An der Stelle einmal das von uns bereits angesprochene Sache, dass wenn ein Server zum Beispiel 24 Stunden am Tag sieben Tage die Woche komplett ausgelastet ist, dann kann das potenziell günstiger sein, sich tatsächlich dann den virtuellen Server dahin zu stellen oder auch zwei oder drei je nach Last Verteilung an der Stelle. Was aber für mich der wichtigere Punkt ist, ist, dass man eben auch Limitationen hat. Man hat Lais Herz die Ressourcen, die man benutzen darf CPU, RAM und vor allen Dingen Dauer der Funktion, aber auch die Limitationen im deiner Umgebung.

Das heißt, wenn du Ebene Software Komponente hast, die bestimmte Bibliotheken benötigt, die man nicht ohne weiteres nach installieren kann, dann ist das eben definitiv ein Fall, den man nicht in den Fanzines umsetzen kann. Zumindestens aktuell nicht. Es kann natürlich sein, dass sich das in Zukunft ändert, aber nackte entstand hat man da einfach zu wenig Freiheiten, als dass man jede Anwendungs Situation da komplett abbilden kann?

Ich denke auch, es gibt ja durchaus Szenarien, wo man die volle Kontrolle über die Software Komponenten die man einsetzt haben möchte. Einfach weil man eine Anwendung betreibt, die zertifiziert ist mit einer bestimmten Version einer Datenbank. Und dann ist zwar weiles Computing auch nicht geeignet, einfach weil man alle Variablen kontrollieren muss, um die Anwendung konform zu betreiben, eben mit diesen zertifizierten Komponenten und der Cloud Provider, sogar wenn er die Anwendung anbietet. Es kann immer sein, dass es nächste Woche ein Update gibt und dann die nächste Version benutzt wird ungefragt und man dann quasi nicht mehr zertifizierte Software einsetzt.

Genau. Und noch ein anderer Punkt, der je nach Unternehmen weniger wichtig oder wichtiger ist, ist die Portabilität. Weil wir haben an der Stelle ja schon hervorgehoben, dass je nach Cloud Anbieter sich eben die Pantheons leicht unterscheiden und man dann eben die Anforderungen hat, das sehr leicht sehr schnell zwischen verschiedenen Clouds hin und her gewechselt werden kann. Dann empfangt uns an der Stelle nicht das Richtige, sondern dann muss man sich zum Beispiel mit Containern und der Cuba net selbst Bentheim angucken, die so standardisiert eigentlich in jeder Cloud auch als Managed Service angeboten werden.

Die Limits einer Server Umgebung als Nachteil. Also wenn man die nicht halten kann. Das haben wir schon angesprochen, dass das problematisch ist. Also wenn man sehr viel Memory braucht oder kontinuierlich CPU braucht einen Punkt, den man noch gar nicht angesprochen haben und der auf jeden Fall ein Nachteil ist. Denn der Server des Computing Welt ist das Thema Security, denn man muss sich eben vor Augen führen. Der eigene Code wird parallel mit Code von ganz vielen anderen Unternehmen ausgeführt.

Generell ist das schon gegeneinander abgeschirmt, aber wenn man jetzt an die Prozessor Fehler der großen 86 Hersteller denkt, ist das natürlich ein Thema. Also man läuft mit Code von anderen Unternehmen, mit Daten von anderen Unternehmen Memory parallel und es gibt einfach Anwendungsfälle, wo man das rechtlich nicht darf oder wo man das einfach nicht möchte. Und in diesen Fällen ist Server des Computing oder generell Cloud Computing ist auch schon schwierig. Dann vielleicht nichts für ein naja. Also in den Fällen muss man wie du schon sagst, generell bieten Cloud Provider Möglichkeiten, dass man eben exklusiv auf Service läuft, also auf tatsächlich Hardware Maschinen.

Ich bin mir nicht sicher, ob das in den Pantheons vorgesehen ist. Wenn ja, bezahlt man da deutlich mehr, weil dann natürlich die gesamte Hardware bezahlt werden muss, auch wenn man sie nicht nutzt. Das heißt, da sind dann potenziell andere Services durchaus besser geeignet, wenn man eben diese Bedenken berechtigterweise dann hat.

Das muss man dann abwägen, je nach Anwendung, die da ausgeführt wird und natürlich auch, welche Arten man am Ende verarbeitet.

Herr Server, weil Computing eignet sich insbesondere dann, wenn man dieses Microservices Service Masch eben hochfahren kann oder die Anwendung sich darauf abbilden lässt. Und man kann glaub ich sagen in anderen Szenarien opfert man den einen oder anderen Vorteil. Dieser SVR Wallis Umgebung dann schon eben zugunsten von mehr Kontrolle. Kann auch Szenarien geben, wo man z.B. Abhängigkeiten zu externen Diensten hat. Also bei meinem aktuellen Projekt gibt es z.B. viele Stammdaten liegen einem SAP System, was mehrere Sekunden benötigt, um komplexe Anfragen zu beantworten und hier Ergebnisse zu liefern.

Und da würde ich mich auch schwertun direkt Server Funktionen anzudocken, ohne. Ein Caching ler dazwischen. Weil ich sonst nicht sicherstellen kann, dass ich diese 40 Sekunden Marke oder diese Zeit SchrÃnke der Server alles Funktionen nicht irgendwann mal reiße und dann abgebrochen wird und in undefinierten Zustand habe. Genau. Häufig ist es eben, solange man sich in der Cloud selber bewegt. Vor allen Dingen beim gleichen Anbieter ist man relativ sicher, was diese Timelords angeht. Hat natürlich niemals davor gewappnet.

Es gibt auch da Systeme, die einfach nicht auf zeitige Antworten ausgelegt sind. Aber wie du richtig sagst, sobald man externe Systeme noch dazukommen, hast du einfach da nicht zwangsweise die Kontrolle drüber. Zumal man, wenn man jetzt nochmal sagt externe Systeme, die man selber gar nicht kontrolliert, weil es nochmal von einem anderen Anbieter kommt, dann muss man eben schon auch gucken, ob da die Anforderungen eingehalten werden können.

Ja, wenn das GAP zwischen alter Technologie und servile Computing oder funktionelles as a Service, die ja wirklich ganz neu und an vorderster Front der Entwicklung stehen, wenn Scepter dazwischen zu groß ist, dann muss man schauen, wie man das minimiert, damit man nicht zu viele Abstriche machen muss in beiden Welten. Ja, vielen, vielen Dank, Max, dass du heute da warst. Wenn unsere Zuhörer Fragen haben oder Feedback senden möchten, können sie das gerne tun unter der E-Mail-Adresse, Podcast etc.

. Gilbert E. Lasst uns gerne eine Bewertung dar und abonniert unseren Podcast. Und wir freuen uns immer, wenn ihr diesen auch an Freunde und Kollegen weiterleitet. Für mehr spannende Technologie. Tim schaut auch gerne auf Skill bei TE Slash Blog vorbei. Max, ich bedanke mich ganz herzlich bei dir für dieses wahnsinnig interessante Gespräche rund um Server des Computing und das Thema Functions Service. Es hat einen Riesenspaß gemacht. Danke Meads, auch Spaß gemacht, dabei zu sein.

Wunderbar! Ich wünsche dir noch einen schönen Abend.

Danke. Gleichfalls.

Maurice KnoppSkillbyte Podcast #34: Serverless Computing – Hype oder Chance? AWS Lambda, Azure Functions, Google Cloud Functions richtig verwenden
Mehr

Skillbyte Podcast #25: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen

// Inhalt //
01:07 – Kubernetes: Aus welchen Komponenten besteht es? Was leistet es?
06:24 – On-Premise und in der Cloud
07:26 – Yaml Beschreibung für Applikation Zielzustand
09:07 – Services, Secrets, Ingress, Namespaces, Loadbalancer,… Wie hängt das zusammen?
13:43 – Namespaces
15:18 – Kubernetes Softwarepakete mit HELM
18:05 – Kubernetes steigert Geschwindigkeit und verkürzt Innovationszyklen
25:32 – Security Checks automatisieren
27:24 – Monitoring durch Health Checks
28:11 – Entwickler übernehmen Verantwortung für Infrastruktur
30:09 – Cloud Native Softwareentwicklung
35:11 – Werkzeuge entwickeln sich schnell

DevOps Folge: https://soundcloud.com/skillbyte/skillbyte-podcast-2-devops

Was ist die Twelve-Factor App?: https://www.dev-insider.de/was-ist-die-twelve-factor-app-a-894702/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Was man nicht mit Geschwindigkeit Du kannst vieles ausprobieren und anhand des Feedbacks dann weitermachen, das heißt, es macht auch ein Businessmodell, macht es plötzlich Dinge möglich, die vorher nicht möglich war?

Herzlich willkommen zum skillbyte Podcast Episode Nummer 25 Kybernetische, flexibles und leistungsfähiges Rechenzentrum für Unternehmen abonniert unseren Kanal für mehr spannende Themen aus dem Technologie Umfeld. Wenn er eine Frage habt, schickt uns gerne eine E-Mail an Podcast. Wir freuen uns auch immer über Bewertungen des Podcasts oder Anregungen an die gleiche E-Mail-Adresse senden.

Ich bin heute hier wieder mit Masiar hier. Es freut mich, dich mal wieder zurück zu haben nach einigen ausschweifenden Suchen. Und wir sprechen heute über das Thema Kubernetes und welche Herausforderungen sich für die unternehmensalltag ergeben in Kombination mit kybernetische und natürlich auch, welche Vor und gegebenenfalls Nachteile sich um das Hauptthema Kubernetes ranken. Ich denke, wir sollten erst mal ein paar Begrifflichkeiten im Kubernetes Kontext einführen und besprechen, kurz sagen, was das ist für die Zuhörer, die noch nicht so viel Kubernetes Erfahrung haben und sich erst mal aufschlagen möchten.

Was ist Kubernetes überhaupt?

Kybernetische ist eine Orchestrierung, Plattform für Docker, Container. Jeder, der sich vielleicht mal mit Arisierungen und Containern beschäftigt hat, weiß, dass man die Container im Prinzip als Service für eine bestimmte Applikation baut. Services spielen hier eine Rolle. Jede eigenständige Applikation oder Micro Service wird in einen Container gepackt, und diese Container kommunizieren miteinander. Bei ein, zwei Containern ist das noch relativ einfach. Hier kann man entweder direkt mit dem Docker Command Interface starten und verbinden, wenn es mehr und komplexer wird.

Dann kann man z.B. Docker Composer nutzen. Aber Docker Combos ist mehr gedacht für lokale Entwicklungsumgebung, um schnell mal eine Umgebung zu starten. Verschiedene Dienste wie zum Beispiel Majas gelten als Frontend und ein, zwei Backend Container. Sobald es in Produktion geht, dann wird es schwieriger, das mit Docker, Combos oder auch selbst mit Swarm zu managen. Da braucht man ein etwas robustes System, und das sind dann halt Plattformen wie Kobanê oder meeses, Marathon oder Opernchef.

Die Docker Container, die rohen Docker Container benutzt man eher lokal zur Entwicklung, wenn man sich nicht sein lokales Entwicklungs System mit Dependance zu Mülln möchte, sondern schnell verschiedene Dienste nebeneinander installieren möchte und kybernetische ist sozusagen der Puppenspieler, der die Docker Container dann orchestriert.

Das ist ein schönes Wort. Puppenspieler? Genau, genau. Ja, es ist vielleicht nochmals im Hintergrund. Historisch gesehen war es früher so, dass man ein Server installiert hat, darauf Dienste installiert hat, und die Dienste hatten ihrerseits wiederum Abhängigkeiten, bestimmte Software, Bibliotheken oder andere Dienste. Und das war sehr flexibel, weil man z.B., wenn man zwei verschiedene Versionen nebeneinander installieren wollte, von beispielsweise Majas Cruel. Dann gab es halt die Probleme, dass die Abhängigkeiten nicht richtig stimmen und dass man sehr viel manueller Aufwand betreiben musste, um mehrere Versionen nebeneinander betreiben zu können, so es denn überhaupt möglich war.

Und mit Docker hat man eben diese ganzen Applikationen zusammen gepackt und fährt jetzt nebeneinander eben diese einzeln Container hoch, die alles mitbringen. Und somit ist auch der Betrieb von unterschiedlichen software-version einer Komponente kein Problem mehr. Also eine Flexibilisierung in der softer Schicht Kybernetik ist sozusagen. Ja, ich glaube, dass Altgriechisch für Steuermann. Google hat es ursprünglich entwickelt und dann unter einer offenen Lizenz gestellt. Der Steuermann steuert die Docker Container aus, je nachdem, welche Gesamtklang schafft man denn haben möchte.

Also ich glaube, technisch ist es so Kobanê. Es besteht aus einem Master und mehreren Worker Notes. Ich weiß nicht, ob es auch mehrere Master Notch geben kann.

Ja, natürlich. Wenn du in einer hoch verfügbaren Umgebung bist, dann brauchst auf jeden Fall mehrere Master. Da spielt das genutzte Protokoll eine Rolle, wie sich diese Master quasi miteinander synchronisieren. Das ist im Wesentlichen ist das basierend auf CD, quasi den Status des Clusters. Das ist die kritische Komponente und das benutztes Protokoll. Das heißt, für eine hoch verfügbare Umgebung braucht man eine ungerade Zahl an einem Master. Das heißt drei, fünf, sieben und so weiter.

Damit man immer beschlussfähig ist, sozusagen, wenn eine Maschine ausfällt.

Richtig, deshalb man Majority und Votings und so weiter zu tun. Deswegen habe ich bis jetzt fünf. War das Maximum, was ich erlebt habe. Kommt doch drauf an, wie schwer die Master runterlassen sind, wie viel sie zu arbeiten haben. Aber grundsätzlich kommt man mit drei, maximal fünf Marston aus in einer hoch verfügbaren Umgebung, dem Master.

Oder der Master unterscheidet sich nur dadurch von den Wolken, dass dort eben der Master. Dienst läuft, der Master Kybernetische Dienst läuft, dem gibt man sozusagen vor, ich hätte gerne folgende Umgebung mit folgenden Docker Containern. Und der sorgt dann dafür, dass auf den Worker Schnauz die entsprechende Last verteilt wird und diese soll Umgebung, die ziel. Umgebung sozusagen hochgefahren wird.

Combined ist an sich, besteht aus vielen Einzelkomponenten selbst, und Master besteht aus einem Server ETSI Knoten, wobei dieser Knoten nicht auf dem Master selber laufen muss, das dann auch ein eigenständiges Cluster sein. Dann haben wir den Ebikon Schola. Wir haben den Scajola. Das sind alles Komponenten, die den Master quasi ausmachen. Man kann es auch so konfigurieren, dass einzelne Wirk lots, also die Container, die auch auf dem Worker laufen, auch auf dem Mars läuft.

Aber grundsätzlich in der Umgebung verhindert man, dass das Workflows auf dem Master laufen, sondern das dem Master wirklich Matheaufgaben haben und nicht noch Workouts laufen haben.

Also den Master Nod muss man sich so vorstellen wie den Tower beim Flughafen, der sozusagen die Aufgaben die Landebahnen zuteilt, auf die einzelnen Flugzeuge kybernetische. Frei Das heißt, ich kann das in meinem eigenen Rechenzentrum einsetzen. Alle großen Cloud Provider bieten auch managed kybernetischen Umgebungen an, sodass man auch in einem Cloud Rechenzentrum direkt auf diese Kobanê Infrastruktur zugreifen kann. Und ich kann das auch verbinden. Ich könnte eine Cross und Tramitz Cloud kombiniertes Umgebung schaffen. Richtig?

Ja richtig, die Worker, wo die laufen, ob sie in der Cloud laufen, laufen, hybrid laufen. Das spielt für Kybernetische selber keine Rolle. Das ist abstrahiert das Netzwerk, solange die Dinger miteinander sich connector können. Diese Worker überall laufen können.

Das heißt, für Unternehmen, die jetzt viele Dienste in die Cloud migrieren, ist das eine sehr interessante Technologie. Einfach aus dem Grund, weil man ja auch so ein bisschen Hersteller unabhängig wird. Wenn alle Clouds diese Kubernetes Umgebungen anbieten und ich die auch am eigenen Rechenzentrum verwenden kann, dann bin ich mich ja nicht an proprietäre Dienste von AWS oder AJA oder der Google Cloud. Jetzt habe ich schon die Komponenten Master Notes Worker Notes. Haben die einzelnen Docker Container? Wie sag ich denn jetzt kybernetische, wie mein Ziel Zustand ist?

Da benutzt man doch die Jamel Beschreibung Sprache, um verschiedene Dokumente anzulegen, um Kobanê das zu sagen.

So und so möchte ich das genau. Der Workflow ist wie folgt Du beschreibst deine Wünsche, wie zum Beispiel, welche Applikationen, also welches Docker Image mit wie vielen Instanzen auf welchen Ports hören soll. All diese Dinge beschreibt in sogenannten Jamel Dateien und mit einem Kommandozeile tool genannt hatte also bzgl. sagst du Kobanê, dass er die Jamel Datei nehmen soll und aufs Cluster abspielen soll. Und das machst du dieser Kommandozeile. Die Kommandozeile Tool unterhält sich immer mit diesem Speicher, quasi.

Du kannst dein gegarte Lokal auf deinem Laptop haben und ein Cluster kann sonst irgendwo stehen. So lange dieser Episode auf dem Haus und auf dem Port erreichbar ist.

Das ist dann quasi verbunden Der Dienst von einem Laptop kommuniziert zu dem Master in der Cloud oder im Rechenzentrum.

Je nach Security ist auch durchaus denkbar, dass wir nur mal als Beispiel auf Amazon unterwegs bist oder in anderen Cloud Umgebungen. Ist es auch denkbar, dass du aus Angst oder Not, wo du quasi mit einem Laptop erst über s.a. Verbindung zu dem Kamphaus hast und von dort aus Bergkuppe dann die Befehle absetzt?

Ich glaube, Kube Cattle ist die Kurzform für Cube Control Kobanê. Sollten wir vielleicht sagen, in dieser jamil Beschreibung Sprache kann ich dann ja verschiedene. Ja, ich sag mal kubanisches Artefakte beschreiben. Also Secrets sind Ingress, die in verschiedenen Naim Spaces liegen. Laut Ballonfahrt kann ich beschreiben, was es damit auf sich. Vielleicht gehen wir einfach mal durch, was ein Service ist.

Kubernetes hat viele verschiedene sogenannte epü Objekte, und die Aromas ist Pott. Der ist sowas wie ein Container. Aber laut Spezifikation kann so ein Pott auch mehrere Container beinhalten. Grundsätzlich ist das Muster, dass man einen Container in einem totlaufen laufen lässt. Es sei denn, du hast spezielle use cases, wo du einen sogenannten Tschaika Container innerhalb des Ports laufen lässt, sodass mein Container hast plus einem Container. Das kann z.B. sowas sein. Win win lock Schipper, der locks des Containers auswertet und hin.

Und das möchtest du auch mal separat für sich beschreiben. Und die Pleuel, und das läuft oder kann zum Beispiel in einem Ort als zweiter Container mitlaufen. Also Pod ist quasi die kleinste Beschreibung dieser Einheit. Man sollte aber niemals mit einem. Direkt arbeiten, weil so bekommt IPI aus dem Osten bestimmten Reinsch. Was du auch konfigurieren kannst innerhalb von Kobanê, ist nur, wenn der Potz stirbt und davon. Das ist ein Paradigma, was man verstehen sollte. Man bewegt sich einem sehr volatilen Umfeld.

Das heißt, weder Amazon noch Google noch AJA garantieren, dass ein Bohrkerne zum Beispiel, den sie dir zuweisen, auch permanent läuft. Man muss dagegen designen und gewappnet sein, dass so ein Bordkanone einfach mal stirbt und ein anderer zur Verfügung gestellt wird. Davon muss man ausgehen, man darf nichts anderes voraussetzen. Und ein Pott, wenn er denn und das macht auch Kobanê werden, wenn ein Cannot ausgetauscht wird, dann kann er sehr transparent die Potz umziehen, offenen anderen funktionierenden Nod und du bekommst das noch nicht einmal mit, weil er das Routing, Traffiq und so weiter alles automatisch finde.

Ich manage nur, wenn so ein Pott woanders hochfährt. Bekommt er zum Beispiel eine neue I.G. Das ist laut Spezifikationen so, und dann kommt ein weiterer NPD-Fraktion Layer dazu. Service Ein Service ist quasi vorgeschaltet vor einem Ort und garantiert dir zum Beispiel eine bestehende IP-Adresse oder eine permanente IP-Adresse aus diesen Reinsch. Solange das epi Objekt des Services da ist, ist die IP auch fest, und du kann sich darauf verlassen, dass du zum Beispiel dein Backend Container oder was auch immer immer gegen diese IP laufen lassen kannst.

Und dann ist quasi erreichst Der Vorteil eines Servers ist es auch noch, dass du mehrere Instanzen des Potz hinter einem Service haben kannst, und der fungiert dann quasi auch als Pilot. Balance?

Okay, das heißt, ich darf niemals mit der FDP direkt sprechen, sondern mit dem Service, weil IPI Nummer ist nicht garantiert. Und wenn ich immer mit dem Service spreche, dann managed Cohn-Bendits die Kommunikation für mich. Ob es jetzt nur man kann sich eine Anwendung vorstellen, wo z.B. eine Such Komponente drin ist. Einfach eine Website Suche Such Komponente aufgerufen wird, dann würde ich mit dem Service Suche sprechen und nicht mit irgendeiner festen IP.

Und dann könnte dahinter ein Pod laufen, der diese Suche durchführt. Wenn gerade viele suchen. durchgeführt werden, könnten aber auch fünf Such Potts dahinter laufen und ich würde einfach mit dem Service sprechen und Kobanê? Es würde die Last automatisch balancierend zwischen die exakt potz die da hinten Dreierreihen. Okay.

Dieser Service ist unter der Haube quasi ein Managed für die. Das ist der sogenannte Proxy. Das heißt, wenn ich auf dem Bohrkernen unterwegs bin, mir die Prozesse angucke, dann Proxy finden, und das ist dieser Service Dienst, und der nutzt einfach IP T-Bills, um deine Pakete entsprechend richtig Suruç.

Das ist schon ziemlich low level. Also darum kümmert sich Cohn-Bendits. Absolut wichtig, glaube ich. Für unsere Zuhörer ist, dass man sagt Okay, deine einfällt. Micro Services dürfen nur mit dem Service sprechen und auf keinen Fall mit festen Tipis, weil die können sich ändern, die sind volatil. Und wenn man einfach auf diese Services Ebene geht, dann kümmert sich Kybernetische um den Rest.

Das Interessante ist, dass dieser Service quasi auch bei der Jamil beschrieben wird. ummehr mit Kube cattle, in den Kobanê die S-Klasse eingespielt wird, automatisch dafür sorgt, dass der Service Name nur in der Jamel festgelegt ist, quasi gleichzeitig der Host Name ist und von jedem Nod aufgerufen oder aufgelöst werden kann.

Das heißt, für die Anwendungsentwicklung selber wirkt dieser Service Name wahrscheinlich wie DNS Name exakt.

Genau das ist es ja, das ist ja auch ein Konzept.

Innerhalb von Kybernetische legt man einen Naim Space an, also der STANDARD namens BAW heißt, glaub ich, default, den man nicht benutzen sollte. Also man legt namens Bacons an für unterschiedliche Services, und innerhalb der Namens bases sehen sich die Services, oder die Ports können miteinander kommunizieren, und man kann dadurch eine höhere Sicherheit erreichen, dass man zum Beispiel Services, die nicht von außen erreichbar sein sollen, dann weg kapselt.

Die Nehmens Bacons ist erstmal ein organisatorisches Konstrukt. Kannst du zum Beispiel verwenden, um verschiedene Produkte, verschiedene Projekte, verschiedene Abteilungen in deinem Unternehmen abzubilden? Security technisch so eine Art Folder Werbung, wo die Sachen reingehört. Security Technisch muss man ein bisschen mehr machen, weil die standardmäßig die Ports aus den verschiedenen Namib. Sich gegenseitig erreichen und aufrufen können. Parke aber Security. Technisch gibt es halt Möglichkeiten, dass man diese hart abschottet, dass es übergreifend keine Kommunikation und so weiter möglich ist.

Okay, namens Spaces. Man kann es sich jetzt vorstellen In einem Rechenzentrum mit 100 Anwendungen würde man jeder Anwendung einen eigenen Namen Space zuweisen und die jeweiligen Ports, aus denen die Anwendungen dann besteht, genau die einzelnen Dienste. Die würden dann unterhalb des jeweiligen Namens Spaces laufen könnten.

Cross Application aber kommunizieren genau nach dem, was du halt in deinem Polleschs festlegt. Du kannst auch User einrichten, wo du sagst, der darf z.B. nur. Rechte auf diesen Namen Space. Jetzt hast du schon gesagt, dass man mit Cube Control oder Cube Kanzeln die einzelnen Befehle oder die Konfiguration von Kybernetische verändern kann. Also ich kann ein Service hinzufügen Ich kann ein POW hinzufügen. Ich kann diesen Schritt für Schritt, diesen Wunsch, Zustand herstellen. Aber was man ja eigentlich möchte, wenn man das kennt man ja, zum Beispiel aus dem Linux Umfeld oder MacOS Umfeld.

Man möchte ja eine Anwendung paktieren, was man ein Paket hat, was man ausliefert oder wie so eine ZIP-Datei, die im Prinzip alles enthält und die Anwendung dann innerhalb dieser Copernicus Umgebung entsprechend provisionsbasis und hochfährt. Da gibt es das Tool Helm ist, glaube ich, altgriechisch für Ruder. Und das ist ja der Kuper. Nettes Paket Manager.

Wir haben ja diese ganzen egy Objekte erwähnt. Weißt du, was du hast? Du hast Ingress und jede Menge mehr. Die kann ich natürlich alle einzeln mit Kube Karte platzieren und dieser Pakete manage ist einfach dafür. Da bin ich komplexere Applikationen, hab die mit mehreren Abhängigkeiten und so weiter quasi als Paket zusammen schnüren. Und dann mache ich einfach ein Helm install meine Applikation, und der sorgt dafür, dass alles Notwendige herangezogen wird und die Plaid wird.

Der Vorteil ist jetzt hab ich das Paket, das Helm Paket oder das Hemd. Schardt hab ich ja quasi auch diese Infrastruktur Ascot Paradigma erfüllt. Ich tippe nicht mehr mit Kube Kuddel irgendwelche Befehle und hinterher kann es keiner mehr nachvollziehen, was genau ich da gemacht habe, sondern mit Helm kann ich sagen Helm in Stahl und das Paket wird installiert oder Helm an in Stohl das Paket, dann wird es wieder installiert, und ich habe immer konsistenten nachverfolgt baren Zustand, den man dann auch entsprechend pensionieren kann, um verschiedene Releases ein und derselben Anwendung nach und nach aufzubauen und auszurollen.

Also Helm Ich hab ja immer so ein paar Beispiele aufgelistet. Was kann man mit Helm machen? Also die Anwendung paktieren, Abhängigkeiten definieren beispielsweise einen Micro Service, der vom Internet aus erreichbar sein soll. Der könnte dann noch ein Luftballon vorgeschaltet bekommen ein Kobanê, kybernetische Software, Luftballons, Suchdienste können. Williams Mountain, Persistent Williams Mountain war mal an der Datenbank. Denkt die, muss er die Dateien irgendwo ablegen und verschiedene Services enthalten für anwendungs Komponenten. Also wenn man Mikroskops hat, er auf die Datenbank zugreifen will, dann muss der Service sich bei der Datenbank irgendwie authentifizieren, damit User und Passwort.

Dafür würde man dann eben einen Service USA anlegen, diesen als Siegrid. Das ist auch ein Kobanê, das Objekt ablegen und das all dies gleichzeitig geschieht und der Micro Service mit der Datenbank kommunizieren kann. Das würde man dann auch anders mit aufnehmen und in einem Rutsch sozusagen mit ausrollen. Super. Ich glaube da haben einen guten Einblick gegeben, was Kybernetische alles leisten kann und wie es aufgebaut ist. Was sind denn die Herausforderungen für die Unternehmensseite, die heute was sind die Business Probleme, wo kybernetische helfen kann?

Im Wesentlichen geht es bei diesen Plattformen. Es muss nicht einmal kybernetiker sein. Natürlich sprechen wir jetzt in dieser Episode über Kybernetische. Aber grundsätzlich geht es um Geschwindigkeit. Das heißt, was habe ich als Business One von Geschwindigkeit? Ich kann schneller auf Marktgegebenheiten und Veränderungen reagieren. Ich verbrauche meine Ressourcen in Form von Zeit, Geld und Personal nicht, um ein System am Leben zu halten und Fehler zu fixen, sondern ich kann diese Ressourcen verwenden, um schneller neue Features zu bauen und schneller am Markt zu positionieren.

Schneller zu skalieren bin ich plötzlich durch eine Marketingaktion oder durch einen glücklichen Zufall? Viele, viele User auf meiner e-commerce-plattform habe, dann kann ich durch die Geschwindigkeit, was ich manifestiert, durch Automatisierung z.B. verschiedene Nod hochfahren, um diese Last abfangen zu können. Und diese Geschwindigkeit erreiche ich, wie gesagt, durch Automatisierung. Dafür aber, damit ich das automatisieren kann und Ressourcen sparen kann, brauch ich die Beschreibung meiner Plattform als Code. Das heißt als Jamel Manifeste, die dann getriggert durch verschiedene Gegebenheiten automatisch ablaufen können.

Die Vorteile, die die verschiedenen Cloud Platform mitbringen, nämlich dass ich ein Nod hochfahren kann und so weiter, das macht sich Kybernetische zu Nutze. Und ich kann durch Kombination von verschiedenen, was ich früher erreicht habe, durch Puppet und Chef, um gewisse Dinge zu automatisieren. Das ist alles in dieser Plattform Kybernetische. Die native Unterstützung der Cloud-Anbieter für Kybernetischen automatisiert, und das kann ich auf Knopfdruck quasi lostreten. Ich brauch kein Admin, der 24Stunden 24/7 auf irgendwas achtet und aufsteht.

Natürlich brauche ich das auch in irgendeiner Art und Weise, aber es ist nicht mehr wie früher, weil alles automatisiert ist.

Das heißt auch die Rechenzentrums Landschaft. Verändert sich also so wie ein klassisches Rechenzentrum, hat verschiedene Server und Spezial Appliances Slot Balance, die für einzelne Anwendungen beschafft wurden. Es gibt den zehn Jahre alten Server in der Ecke und den neuen Server für die Anwendung von letztem Jahr, sondern dadurch, dass Kobanê eben diese Standardisierung vorantreibt. Kann man eigentlich sagen ein TMS Rechenzentrum oder ein Cloud Rechenzentrum? Man packt einfach standardisierte Server zusammen, die günstig sind im Einkauf, wenn man einfach viele davon abnehmen kann, und weil sie millionenfach verkauft werden, und hält diesen Pool an Rechenkapazität vor.

Und jetzt kann man mit Kybernetische die einzelnen Anwendungen in dieses ja vorhandene Rechenzentrum die Plotin laut Ballonfahrer sind Software mäßig oder werden per Software umgesetzt. Man kann natürlich auch Hardware Luftballons hernehmen für richtig kritische Anwendungen, und ich kann Server tauschen. Ich kann Server, die vorhanden sind, nutzen, bis sie irgendwann. Ich sage mal Anführungszeichen kaputtgehen, weil wenn sie ausfallen, wird der Potro woanders gestartet, und meine Anwendung merkt es gar nicht so. Dieses Konzept der virtuellen Maschinen kann ich dann auch auf anwendungs Ebene fortführen und bin sehr flexibel, wann eine Anwendung auf einmal deutlich mehr Ressourcen benutzt.

Kann ich das sowohl im eigenen Rechenzentrum bieten, aber auch in die Cloud hinaus skalieren, wenn ich das brauche? Genau. Denn Geschwindigkeitsvorteil, den du ansprichst, der manifestiert sich ja insbesondere ein Kernfächer von kybernetiker ist ja das schnelle Deployment, das sich eine neue Version der Anwendung sozusagen ausspielen kann und erst nur auf 100 Prozent der Potz ausrollen kann, sodass jeder zehnte Benutzer die neue Version bekommt. Und wenn das fehlerfrei funktioniert, dann kann ich nach und nach diese neue Version dann für alle Potz ausrollen.

Also ich bin da super flexibel. Ich glaube auch Security mäßig, aber da bist du der Experte. Lassen sich die Dienste sehr gut voneinander abschirmen, die, die gar nicht mit dem Internet kommunizieren sollen. Aber auch wenn ich Anforderungen habe, das die Dienste z.B. innerhalb der Cloud oder des eigenen Rechenzentrums verschlüsselt miteinander kommunizieren sollen, dann kann ich eine Sidka Komponente benutzen. Die nennt sich istso damit Dienste die legacy Dienste, die nie dafür gemacht wurden z.B. verschlüsselt zu kommunizieren über diesen Proxy dann auf einmal doch verschlüsselt miteinander sprechen und gar nichts davon wissen.

Aber auch, dass neuere Dienste eben direkt verschlüsselt miteinander kommunizieren können.

Die Einsatzgebiete sind riesig. Also wenn man im Umfeld von Kubernetes von Automatisierung spricht, dann ist das eine konsistente und allumfassende Automatisierung. Wir haben zum Beispiel gesagt, dass EPI ein Objekt ist, das Deployment. Du kannst das Deployment so konfigurieren, dass zum Beispiel, wenn man eine neue Version einer Software live stellt, das im Hintergrund erstmal. Ich sage mal Nehmen wir an, du hast drei Instanzen E-Commerce verlaufen, und es ist eine neue Version. Und jetzt hast du verschiedene Möglichkeiten, die Deployment durchzuführen, die eine ist.

Das nennt sich Blue Green Deployment. Bedeutet, das du gleichzeitig drei weitere Instanzen hochfährt? Kybernetische für dich die neue Software. Die neue Version und anhand von definierter hält checks check er, ob die Version quasi oder die Instanz gestartet ist. Wenn alle drei Instanzen das sind, dann Switch quasi um auf diese neue Version und die alten Ports wieder runter. So mag das sinnvoll oder nicht sinnvoll sein. Man muss auch Bedenken bedenken Wenn man in der Cloud umfällt, ist das nicht immer von drei Instanzen, sondern kann durchaus auch 30 Instanzen sein und 30 Instanzen parallel hochfahren.

Bedeutet doppelte Ressourcen. Dann plötzlich braucht. Das kann ich wiederum fein justieren. Aber es gibt zum Beispiel auch ein anderes Deployment Paradigma.

Ich kann sagen, was du angesprochen, dass das sogenannte Canary Deployment, wo ich eine gewisse Prozentzahl nur weiterleiten darf, was ich neue Features schnell ausprobieren und ohne die Mehrzahl der User damit zu konfrontieren, sondern erstmal nur zehn Prozent oder zwei Prozent und sehe, wie das funktioniert. Tauchen Fehler auf? Wie reagieren die User? Und wenn ich sicher bin, dass das funktioniert, kann ich dann entweder mehr Prozent oder 100 Prozent um Unruhe. All das wird möglich. Ganz plötzlich.

Experimentieren, was früher nicht so einfach war, das meine ich mit Geschwindigkeit. Du kannst vieles ausprobieren und anhand des Feedbacks dann weitermachen. Das heißt, es macht auch für dein Businessmodell macht, dass plötzlich Dinge möglich, die vorher nicht möglich waren. Zum Thema Sécurité Du kannst also zum. Neben diesem kybernetische Paradigma gibt’s natürlich das nach wie vor das klassisches Continuous Integration und Continuous Deployment, was du quasi auch völlig automatisieren kannst. Man kann es so weit automatisieren, dass du sagst, ein Code kommt, in einem durchschimmert.

Control System nimmt sich den Code getriggert durch den Code mit. Baut das Platters in eine Kesting oder Staging Umgebung wartet. Thema Quality Gate wartet, bis jemand getestet hat und irgendwo gesagt hat Passt zum Beispiel mit einem Ulrik Fest und einem Mörz und sagt dann alles klar, ist quasi genehmigt und führt dann selbstständig in der Produktion aus. Man kann diese komplette Strecke automatisieren, sogar selbst Sécurité. Stichwort Check ups, wo du den kompletten Security Check, angefangen von einer statischen Analyse, sprich hast du vielleicht schon Bax oder Security relevante Dinge im Code eingebaut.

Da gibt es Libris, für die du, die du einbinden, Cabs, jeden Code checken und zum Beispiel gegen Datenbanken im Internet checken, ob deine Leibgericht bestimmte, weil ich haben kann, das ordnenden Bild abbrechen bis hin zu dem dynamischen Applikationen. Wenn es die Leuth ist, kann es zum. Da gibt es von sowas. Das ist eine Organisation, die sich um das Thema kümmert, wo du zum Beispiel die 100 meist durchgeführten Hex automatisch auf deine Applikation durchführen kann.

Also großzieht scripting, Shakes, Scuol Injection, Jabs und so weiter. Du siehst also, wo die Reise hingeht. All das, wofür man Tage und Wochen gebraucht hat. Früher kannst du jetzt quasi in einer Pipeline komplett weg automatisiert verstehen.

Dadurch springt natürlich die Qualität der Anwendung nach oben. Exakt. Man hat einmal diesen Integrations Aufwand, aber dann nutzt man quasi diese sich auch wahrscheinlich selbst automatisieren Libraries. Wenn neue CVS oder Security Lücken auftauchen, sind sie direkt da drin und man kann automatisiert die ganze Anwendung gegen diese neue Lücke testen lassen, sogar bis hin zu Compliance-Regeln.

Da gibt es auch Tools, wo du sagen kann, das und das und das sind meine. Meine Compliance-Regeln wie beispielsweise ganz einfach, benutze nicht das Original. Im Falle von Java, weil es Probleme hat und das Tool merkt Aha, verletzt und bricht ein Bild ab. Und Reporter? Und da gibt es richtig mächtige Tools. Würde diese ganzen Campanile Compliance-Regeln hinterlegen kannst.

Einen weiteren Vorteil das hast du schon mal anklingen lassen, ist natürlich das Monitoring durch Checks. Also ich habe jetzt Kybernetische ein Ziel stand vorgegeben und sagen So und so soll meine Anwendung aussehen. Und im Kybernetische prüft ja jetzt in regelmäßigen Abständen, ob jeder Posth gesund ist. Und wenn ein Pod nicht reagiert, dann kann man halt konfigurieren ok, bitte sofort einen neuen hochfahren, oder wenn ein die CPU Last auf einem Port eine gewisse Marke überschreitet, dann werden zusätzliche Potz hochgefahren.

Durch diesen Autos Krailling Mechanismus das vereinfacht ja auch das Monitoring der Anwendungen ganz erheblich. Das ist das, was ich eben sagte. Man kann die Hardware im Grunde viel länger nutzen, zumal wenn sie ausfällt, ist es nicht so schlimm. Combined merkt das sofort und fährt dann neuen Ports hoch. In dieser Multi Service Umgebung, was ich auch bemerkt habe, ist und das ist jetzt ein ganz deutlicher Paradigmenwechsel. Die Entwickler dadurch, dass die Infrastruktur auch durch Code beschrieben wird.

Das ist ja dieses DVB-S Paradigma, wo wir ja auch eine ganz eigene Podcast Episode zugemacht haben. Denke ich auch in der Beschreibung. Die Entwickler sind auch immer mehr verantwortlich für die Infrastruktur und die eigentlichen Admins. Früher war das ja oft so oder? In den PMS Rechenzentrum ist es oft so, dass die Entwickler bei den Admins etwas bestellen. Ein User, ein Server, eine Ressource, eine harddisk irgendwie. Und die Admins liefern die irgendwann. Jetzt musste der Developer im Grunde kann in seinem Manifest sagen Okay, ich brauche eine Disk mit 10 Gigabit, und die ist persistent und so weiter und ist quasi selber dafür verantwortlich.

Kobanê, das so zu Konfigurieren des Kabinetts prüft, das die Disk nicht voll läuft, sie entsprechend vergrößert wird und so weiter. Falls die Admins entlastet und die Developer müssten die IT-Infrastruktur verstehen, was laut Ballonfahrer. Wie funktioniert IPI Mask Reading? Was ist Nath? Diese ganzen Fachtermini, die mit Netzwerk Aufbau im Grunde genommen zusammenhängen, und bekommen diese Aufgabe zusätzlich.

Thema Das Du als Entwickler auch das spielt Richtung Geschwindigkeit. Früher, wenn du irgendwas gebraucht hast, dann hast du als Entwickler immer mit einem Admin Kontakt aufnehmen müssen. So viel Platz. Ich brauch neuen Server. Ich brauch dieses jenes und das kannst du jetzt selber geben. Du diese Jamel Dateien schreibst selber haben, und zwar innerhalb von Sekunden.

Man muss natürlich verstehen was man tut. Das verstehen, aber das ist halt der Paradigmenwechsel. Und das ist halt genau dieses Niveau, was die Unternehmen sich aufbauen müssen, ihre Entwickler entsprechend Schulwissen. Das ist halt die Herausforderung im Moment. Viele Entwicklungen, Entwicklungen stehen der Herausforderungen für die Unternehmensseite.

Um wirklich alle Vorteile von Kobanê ausnutzen zu können, muss man die Software ja etwas anders. Als das ich sage mal bis vor ein paar Jahren der Fall war das Stichwort wäre z.B. diese Klout native Anwendungen. Es ist auch möglich, alte Monolithen in kybernetische zu betreiben. Das ist nicht so flexibel, weil bei einem Monolithen wenn da der Pod ausfällt, hast du trotzdem diese Ausfallzeit bis der neue Pod gestartetes Plus. Die Anwendung muss so entwickelt sein, dass sie das auch dann handeln kann, wenn sie ausfällt.

Und viele ältere Monolithen wissen eben nichts von Kybernetische und können damit nicht entsprechend umgehen. Wie muss man Software entwickeln? Diese feingliedrige Software, die parallel laufen kann, wo Ausfälle einzelner Komponenten nicht zum System Ausfall führen, sondern einfach kompensiert werden können von Kobanê? Und wie erreicht man das?

Die größte Herausforderung ist jetzt mal von der Größe der Applikation Vor und Nachteile einer Schw, eines schwergewichtigen Monolithen und einzelner Miko. Mal davon abgesehen, weil das ist im Prinzip ein eigenes Thema für sich. Aber grundsätzlich, wenn man Software machen möchte, ist das wichtigste Thema steht. Es gibt die Summer Factor App, das beschreibt, das ist im Prinzip ein Best practices für Software, um Cloud laufen zu können.

Ich kann jedem empfehlen, sich diese App, Spezifikationen oder Beschreibungen mal anzugucken, weil das beschreibt eigentlich sehr genau eine Applikation gestrickt sein muss, um Kourtney laufen zu können. Zwei Themen aus diesen Faktoren ist einmal Stabs. Das heißt, man darf nicht voraussetzen, dass die Applikation den Status, wenn man aus dem Java Umfeld kommt, jemand JCC und Session auf dem Server der Applikation eine Session hält, weil, wie gesagt, immer sein kann, dass die Applikation von jetzt auf gleich woanders hingezogen wird.

Und dann ist der Status futsch. Man denke an Shopping Card oder was auch immer sauber gehalten wird. Das heißt, ich darf keine Sessions in der Applikation halten.

Es muss alles präsentiert werden in Datenbanken.

Im Grunde genommen direkt, ja, oder? Es gibt doch andere Möglichkeiten. Du kannst zum Beispiel einen radix haben, radix Cluster, quasi eine Datenbank, wo die Session außerhalb deiner Applikation gehalten wird. Und schnell, weil wenn so eine Session abtaucht oder Applikation ungezogen wird, dann hast du halt deine Session Memory. Da gibt es Lösungen für eine zweite Faktor. Aus diesen Faktoren ist das Du Konfiguration nicht in die Applikation legst, sondern immer von außen reingepasst, sodass quasi ein Container und eine Applikation völlig unabhängig von der Umgebung laufen kann.

Lokal State oder Produktion und Umgebung? Spezifische Konfigurationen oder Parameter kommen von außen als Umgebungen variable. Das sind, so Cloud, Faktoren. Wie gesagt, ich würde mir diese Apps mal durchlesen und strikt befolgen, weil das ist das, was ich für Applikationen in der Cloud.

Das ist auf jeden Fall ein heißer Tipp. Und da wird wahrscheinlich auch beschrieben, wie man mit Anwendungen die Anwendung komplett Container frisiert, wie man Micro Services aufbaut, wie man die Zugriffe untereinander regelt.

Also nicht in der Tiefe, sondern es ist so eine Art Manifest und beschreibt so eine Art Birth, wie diese Dinge sein müssen, damit das funktionieren kann. Da geht es um das Thema Abhängigkeiten, Konfiguration, Prozesse und so weiter. Das muss man sich einfach mal durchlesen. Das ist wirklich extrem nützlich.

Das heißt? Bölts Salvo ist ein schönes Stichwort Cloud Native Anwendungen. Das kann man, glaube ich, generell sagen. Besitzende hohe Testmarkt, weil sie ja tendenziell aus sehr kleinen Komponenten bestehen. Und das eignet sich natürlich auch, um so kleine inkrementelle zu bauen für Bowling Releases. Um die Anwendung, kleinstädtische weiterzuentwickeln, dann eben auch zielgenau zu skalieren. Man muss ja vorstellen, wenn man den Staat jetzt nicht mehr in der Anwendung hält, sondern in einem Memory Story radix oder in einer Datenbank.

Dann ist es ja auch möglich, mit parallelen Prozessen und parallelen Zugriffen darauf zu schreiben und zu lesen. Man muss ein bisschen synchronisieren, dass nicht zwei Services gleichzeitig beispielsweise einen Warenkorb schreiben. Aber das ist ja schon ein Paradigmenwechsel. Wenn man denen dann vollzogen hat, bekommt man eben die ganze, die ganzen Benefiz von Cohn-Bendits ganz genau, und man kann eine Anwendung sehr, sehr flexibel einsetzen. Also wenn man mal an eine Webanwendung denkt, wo die Webserver vielleicht in Deutschland erst einmal gehostet werden, und man expandiert jetzt auf den nordamerikanischen Markt, dann könnte man ja einfach in Nordamerika in der Zone weitere Webserver hinzunehmen, müsste nichts anderes machen.

Und die Leute in Nordamerika haben direkt eine bessere Erfahrung, weil die Zugriffe einfach schneller erfolgen. Und funktioniert natürlich nicht nur mit Nordamerika, sondern weltweit und kann so nach und nach einzelne Gebiete hinzunehmen. Gibt es da noch Werkzeuge für die Entwicklung, oder? Planung, die du auf jeden Fall empfehlen würdest. Also Docker und geht nehme ich jetzt mal als gesetzt. an, aber so Spezialwerkzeug, die dir in der Vergangenheit gute Dienste geleistet haben.

Alles, was das ökosystem Kobanê angeht, da könntest du Tage und Wochen erzählen, weil da kommst du gar nicht zum Ende. Weil wir nur am Ende bist, gibt’s ein paar neue zugelangt.

Die Entwicklung ist sehr schnell. Es ist abartig. Ich hatte das Thema der Check ups erwähnt. Ja, das ist auch relativ neu. Dann gibt es schon das Thema gibt Tipps, wo du die komplette Laichzeit einer Software von Entwicklung bis hin zum Deployment komplett übergibt. Das heißt, selbst in die Kobanê setz gar keine Befehle mehr selber ab, oder? Sondern einfach mit Quests reichen, um diese Kette abzubilden. Der Vorteil ist, dass du alles dokumentiert hast. Das hast du siehst jederzeit.

Wann wurde die Leuth? Warum wurde die Leuth? Du kannst die Kommentarfunktion in Gips nutzen.

Plus die Geschwindigkeit plus die Geschwindigkeit. Also du hast das Feature entwickelt, gemurrt, getestet, und es ist sofort. Zehn Minuten später ist es in der Anwendung und kann verwendet werden.

Ja, auch die Kollaboration. Du kannst ja auch quasi Kommentare hinzufügen. Du kannst es ja mal Teams oder Slack einbinden, was wiederum das Wort Stops ins Spiel bringt, wo du quasi mit slack Befehlen diese Karte weiterspinnen kannst. Also Thema ist komplette Agilität. Nein, das sind die Werkzeuge, die du hast nutzt, um es Software abzubilden, ohne jetzt direkt konfrontiert zu sein mit Kobanê. In all diesen low level Komponenten haben, weil da halt ein paar andere Layer dazwischen sind, die irgendwas steuern.

Es geht total schnell. Du musst echt am Ball bleiben, damit du gucken kann. Was passt zu meinem Kunden am besten? Welches Setup hatte aktuell? Das ist mitunter sehr anstrengend, aber macht auch sehr viel Spaß, weil sehr viel Bewegung drin ist.

Das Deployment aus dem Chat heraus zu starten oder ob ich da jetzt noch mitmachen muss, das ist ja fast schon akademischer Natur. Aber ich glaube, das Wichtige ist einfach, dass die Zeit, die vergeht, von einer Feature Entwicklung, also feature to market, wenn man so möchte, dass die möglichst kurz ist, dass man auch dann wieder lernt. Man hat dieses Feature eben entwickelt. Die Kunden nutzen es, die Nutzer nutzen es, und man bekommt Feedback.

Ah, okay, das ist es gelungen. Das und das ist vielleicht noch nicht optimal, dass man die Entwicklung der Anwendung in die richtige Richtung sehr schnell vorantreiben kann und eben dieses Builds Development sag ich mal betreiben kann. Also genau an den Kundenbedürfnissen ausgerichtet.

Vielleicht müssen wir mal das Thema ökosystem von Kybernetische, also welche Tools und neueste Entwicklungen? Das kann man dann eine eigene Episode daraus machen.

Das können wir gerne planen. Vielen Dank für die Session. Gerne. Wenn unsere Zuhörer Fragen haben zu dem interessanten Thema, können Sie uns gerne eine E-Mail senden. An Podcast abonniert unseren Podcast und lassen uns gerne eine Bewertung da und schaut auch auf Skill slash Blog vorbei. Wenn Ihr weitere spannende Technologie Themen lesen möchtet. Masiar Ich bedanke mich ganz herzlich bei dir.

Maurice KnoppSkillbyte Podcast #25: Kubernetes: Flexibles und leistungsfähiges Rechenzentrum für Unternehmen
Mehr

Skillbyte Podcast #22: Digitale Transformation ist eins der Härtesten

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Digitale Transformation ist eins der Härtesten

// Inhalt //
01:00 – Definition von digitaler Transformation
02:46 – „Sofortness“
03:28 – Daten, Konnektivität, Rechenleistung
05:28 – Digitaler Reifegrad eines Unternehmens
08:11 – Verschiebung: Kunden wollen Nutzen statt Produkt
09:55 – Vorhandene Prozesse digitalisieren und neue Digitalprozesse anbieten
14:20 – Digitale Transformation für den Mittelstand
16:43 – Digitale Chance: Konzentration auf Kundennutzen
17:13 – Herausforderungen der digitalen Transformation sind Chefsache
21:14 – Keine Angst vor neuer Technologie
25:27 – Wie kann Skillbyte bei den Herausforderungen unterstützen?
27:23 – Skillbyte hilft bei agiler Softwareentwicklung, CI/CD
29:30 – Skillbyte hilft bei DevOps, DevSecOps, Skalierung
35:04 – Skillbyte hilft bei Big Data, ETL, Dashboards, Reporting, Prediction
37:39 – Digitalisierung als Chance begreifen!

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Herzlich willkommen zur aktuellen Podcast Episode Nr. 22 Digitale Transformation ist eines der härtesten. Ich bin heute hier wieder mit unserem Stammgast. Masa Hallo Maria! Hi, wenn unsere Zuhörer Fragen haben, können Sie gerne eine E-Mail schicken. Podcast. Wenn euch unser Podcast gefällt, freuen wir uns über ein Abo oder über eine Bewertung. Vielen vielen Dank im Voraus. Heute wird es sehr, sehr spannend. Denn digitale Transformation ist natürlich ein Thema, was derzeit in aller Munde ist, also schon länger digitale Transformation.

Das ist der Oberbegriff, was in der deutschen Wirtschaft herumgeistert.

Genau. Und heute wollen wir darüber sprechen. Also wollen wir dieses buzzword ein bisschen herunterbrechen und auseinander nehmen und schauen. Warum ist das so ein großes Problem? Warum tun sich Unternehmen schwer damit? Was sind die Herausforderungen? Warum ist es überhaupt wichtig, dass sich Unternehmen damit beschäftigen? Ich glaube, es ist ganz, ganz wichtig. Ich denke, das können wir ganz gut herausstellen. Ich würde gerne beginnen mit einer Definition, die ich von der Wikipedia ausgeliehen haben und natürlich immer eine neutrale Quelle, einfach um nochmal das Framework einzuführen.

Worüber sprechen wir, wenn wir über digitale Transformation sprechen? Als die digitale Transformation wird auch als digitaler Wandel bezeichnet, bezeichnet einen fortlaufenden, in digitalen Technologien begründeten Veränderungsprozessen, der in wirtschaftlicher Hinsicht speziell Unternehmen betrifft. Im engeren Sinne wird als digitale Transformation häufig durch die digitalen Technologien oder darauf beruhenden Kunden Erwartungen ausgelöste Veränderungsprozess innerhalb eines Unternehmens bezeichnet. Also auch hier ganz zentral Die Unternehmen verändern sich, aber auch die Kunden. Erwartungen desto jünger, desto mehr, würde ich sagen, desto jünger die Kunden, desto stärker treiben die Kunden Erwartungen.

Die digitale Transformation voran.

Was mir an der Definition nicht gefällt, ist, dass von digitalen Technologien die Rede ist. Ja, natürlich. Digitale Transformation betrifft natürlich digitale Technologien. Aber meines Erachtens ist das viel mehr als das. In so einem Unternehmen gibt es Personen, wirkende Menschen, wirkende Personen. Es gibt Prozesse, und es gibt die Technologie und natürlich den Kunden. Das heißt, im Unternehmen müssen all diese drei Entitäten miteinander entsprechend harmonieren und interagieren, damit so eine Transformation überhaupt stattfinden kann.

Es ist nicht nur die reine Technologie, es ist nicht nur ein Tool, oder ich führe ein Technologie Prozess neu ein und schon bin ich dabei, sondern es betrifft viel, viel mehr.

Ich würde auch sagen, die digitale Transformation ist sehr, sehr stark, auch eine Meinzer Sache. Ein Freund von mir hat das so schön formuliert.

Er sagte Für mich ist die digitale Transformation, ganz vereinfacht ausgedrückt, die sofort eines die sofortige Verfügbarkeit von Informationen, sei es jetzt Entertainment oder Information.

Oder ich möchte einen Prozess anstoßen. Ich möchte meiner Versicherung ein Dokument hochladen. Ich möchte jetzt eine Antwort auf meine Frage. Ich möchte in meiner Reise buchen. Ich möchte jetzt dieses Lied hören. Ich möchte jetzt genau diesen Film schauen. Das Bedürfnis entsteht und kann sofort befriedigt werden. Das ist einer der Haupttreiber der digitalen Transformation.

Sehr, sehr Kulturbegriff. Sofort, wenn man vielleicht irgendwie so ein bisschen abstrakter, eine Ebene drüber zieht. Warum findet überhaupt eine digitale Transformation statt oder sollte oder was hat das in Gang gesetzt? Es ist in meinen Augen einmal die Menge der Daten, die zur Verfügung steht, über viele, viele verschiedene Channels hinweg, sei es jetzt Web, sei es mobil, sei es Booty, sei es über Kunden. Telefone im Call-Center da entstehen überall Daten. In einer sehr hohen Geschwindigkeit ist das eine, das andere ist die Konnektivität all dieser Komponenten und die massive.

Die dritte Komponente ist für mich die Massive Processing Power, die zur Verfügung steht, um all das auszuwerten, auszuwerten, um auf gewisse Dinge oder Marktgeschehen zu reagieren. Das heißt, diese Datensammelei stu, um abzuschalten. Was will der Markt? Wie hat der Markt auf diesem jedes reagiert? Bei mir, beim Konkurrenten darauf, schnell reagieren zu können, sei es von den Entscheidungsprozessen her, sei es von der Technologie, eher sei es von allgemeinen Prozessen, die in so einem Unternehmen laufen.

Diese drei so auszulegen, dass sie schnell reagieren kann. Das macht es für mich insgesamt aus. Was sind die drei Komponenten?

Nochmal sagen Sie nochmal nacheinander? Ja, die eine Komponente ist, dass Daten global zur Verfügung stehen über verschiedene Channels. Es werden sehr an sehr vielen Kontaktpunkte Daten generiert. Das zweite ist die Konnektivität, dass man viele dieser Channels miteinander verbinden kann, um so Korrelationen herzustellen. Die massive Rechenpower quasi auf haben wir zur Verfügung stehen. Damit erreiche ich im Saids mit diesen drei Komponenten oder generieren um mag es schnell mitzubekommen und darauf reagieren zu können. Um darauf reagieren zu können, muss ich natürlich den digitalen Wandel in meinem Unternehmen vollzogen haben.

Einmal nämlich meine Leute abgeholt haben. Geändert haben, die Prozesse umgestellt haben und natürlich die Technologie am Start haben.

Die drei Komponenten, die du benanntes, führen ja schon dazu zur Entwicklung gegebenenfalls neuer Geschäftsmodelle. Ich finde, es gibt es einen unterschiedlichen Reifegrad von digitalen Unternehmen, digital transformierten Unternehmen. Das kann man ganz gut erklären. Zum Beispiel? Nehmen wir mal ein Unternehmen wie die Bahn oder auch eine Airline. Und da sieht man okey, die gibt es seit vielen, vielen Jahren, und die digitalisieren sich. Angefangen, sich zu digitalisieren. OK. Man kann jetzt Tickets online kaufen.

Also früher bist du in den Shop gegangen, hast ein Ticket gekauft, heute kannst du die Tickets online kaufen. Das ist für mich der erste Schritt zur digitalen Transformation. Dass man einfach sagt, ein Prozess, den es bisher gibt, den verlagere ich ins Digitale, weil dann ist mein Ticketschalter 24 Stunden auf. Die Leute können das von jedem Fleck der Erde zu einem Ticketschalter kommen, müssen nicht anstehen und klicken sich quasi selber durch die Masken und bestellen ihr Ticket selber.

Das ist der erste Schritt, den ich sehe. Ein weiterer Schritt ist Wenn du wirklich aus diesen Daten, die ansprichst, selber wieder neue Geschäftsmodelle baust. Also wenn die Bahn zum Beispiel sagen würde Dein Zug fährt um viertel nach. Aber wir wissen, dass es um die Zeit immer so voll ist, immer fünf Minuten verspätet oder so was, dass Sie das quasi mit berücksichtigen würden. Das wäre so der nächste Schritt. Und der dritte Schritt oder die voll digitalen Unternehmen, das sind wirklich die Champions heute.

Das ist eigentlich total verrückt. Das vermitteln eigentlich nur noch z.B. Booking.com besitzt kein einziges Hotel, und die bringen einfach nur diese Nachfrage von Kunden und Hotels, bringen sie zusammen und stehen in der Mitte. Uber besitzt vermutlich besitzen ein paar Autos, aber wenige keine Taxis. Aber sie sind der größte Taxi Dienstleister. Airbnb besitzt keine Wohnungen, aber auch eine gewagte These vermieten wahrscheinlich mehr Wohnungen, wenn darüber abgewickelt als eine kleinere Stadt oder Ferrando nimmt. Die z.B. haben kein Restaurant und beschäftigen keinen Fahrer fest.

Aber die bringen halt Restaurants und die Leute, die gerne essen wollen, aber sich nicht aus dem Haus bewegen möchten, zusammen. Das ist für mich ein weiteres. Es ist so krass. Ich habe heute einen Unterbreche, habe heute erfahren, dass, liebe Ferrando, 30 Prozent von dem Umsatz kriegt, eine Pizza für sieben Euro bestellt kriegt, die zwei Euro zehn. Das finde ich unfassbar.

Ich dachte, dass es pro Bestellung gibts. So eine Fixkosten drauf kommen 30 Prozent.

Ich habe mich heute mit dem Restaurant unterhalten. Der Restaurantbesitzer bezahlt.

Ich dachte, der Endkunde bezahlt die Lieferung gewissermaßen.

Nein, bezahlte er, bezahlt der Restaurantbesitzer 30 Prozent. Aber das Verrückte ist Diese digitale Transformation führt auch dazu. Du siehst es schon. Die Wertschöpfung wird quasi an anderer Stelle abgegriffen. Das Essen muss irgendwie zum Mund, und je nach Themen, wo der Mund ist, muss es da hinkommen. Und das Essen zuzubereiten ist nur noch zwei Drittel, und das Essen auszuliefern ist dann schon ein Drittel der Wertschöpfung. Wenn man so möchte, ja, auch diese Abo-Modell, die heute, die es heute überall gibt, die würden ja gar nicht funktionieren.

Die mobile Apps für die e-roller, die hier rumstehen oder es gibt es, heißt das da für 20 Euro im Monat. Wenn du die App stellst, stellen sie dir ein Fahrrad hin. Wenn was kaputt ist, reparieren die das Fahrrad, und du hast quasi ein funktionsfähiges Fahrrad im Abo. Wenn du so möchtest. Ich merke das, wenn ich mit älteren Semestern spreche, die sagen Hey, ich will das Fahrrad besitzen. Und warum sollte ich ein Fahrrad mieten und Salzkonsum jetzt einen Monat irgendwo sind in einer anderen großen Stadt.

Und wo das angeboten wird, wäre das ja ein super System. Oder auch für Leute, die ihr Fahrrad sehr viel nutzen und sehr viel für die Reparatur kaufen. Klar ist das auch im System, was lobenswert ist, dass man quasi sagt Eigentlich das Fahrrad ist. Ich zahle für den Service, ein Fahrrad zu haben und nicht mehr für das physikalische Ding. Man zahlt für das Erlebnis oder für den Nutzen beim Streaming. Du kriegst keine CD mehr oder keine DVD mehr.

Aber du siehst in Filmen oder beim Carsharing Du bezahlst für den Nutzen, von A nach B zu kommen mit dem Auto und nicht für das Auto. Ja, ja, die Anforderungen der Kunden, seien es jetzt Endkunden und natürlich auch Businesskunden. Das verschiebt sich schon ganz erheblich. Und jetzt kommen wir zu dem Punkt Warum ist das für Unternehmen ein großes Problem? Die digitale Transformation dazu gesagt?

Das fand ich sehr wichtig. Deswegen will ich nun mal gern herausstellen, dass. Was du gesagt hast, ist, dass ich bestehende Prozesse in meinem Unternehmen digitalisieren. Das heißt, ich gucke mir an definieren oder oder identifiziere Prozesse, die von A nach B nach C D laufen und gucke. Was kann ich davon automatisieren? Digitalisieren, um es schneller zu machen und effektiver zu machen? Ein ganz einfaches Beispiel Ich muss Daten, die ich von einem Lieferanten bekomme, in mein System reingehen.

Kein Witz, ganz oft gesehen. Da steht ein Faxgerät, da kommt ein Fax rein. Dann nimmt sich irgendeiner das Fax, setzt sich einen Rechner und gibt die Daten in SAP ein. Gibt’s. Ganz aktuell habe ich sogar den Fall. Mein Vater ist jetzt in Pflege, und ich musste diese Pflege beantragen. Das sind fünf Parteien involviert. Das ist einmal die Krankenkasse, die Rehaklinik, der Hausarzt, der Pflegedienst. Und die müssen sich alle miteinander irgendwie austauschen.

Und alles offline, alles mehr oder weniger offline. Eine muss oder will oder kann nur das Ding per Post verschicken, der andere kann nur Fax, der andere kann das per E-Mail machen. Das ist furchtbar. Da gibt es so viele Reibungsverluste innerhalb dieses Prozesses. Du kriegst das terminlich nie hin, weil der eine muss das dem anderen kommunizieren. Dann ist mein Vater zu Hause. Da gibt’s die Geräte noch nicht, weil der andere das nur per Post verschicken muss.

Und, und, und. Man sieht da dran, wie ich sage, mal ganz, ganz, ganz einfache Mittel schon solche Abläufe voll digitalisiert und automatisiert werden können, um einfach effektiver und effizienter zu werden. Das ist das einender, das ich in meinem Unternehmen oder in so einem gesamtprozess mit Lieferanten und Kunden und so weiter Wege digitalisieren, automatisieren. Das andere ist ein Begriff. Muss ich dazu noch einführen, nämlich die Value Proposition, das heißt, das Werte versprechen?

Was du als Unternehmen dem Kunden gegenüber gibst, sei es jetzt zum Beispiel das Produkt oder eine Dienstleistung. Eine gewisse Eigenschaft hat eine gewisse Haltbarkeit. Wenn man grundsätzlich diese value proposition zu verbessern. Das ist erst einmal der erste Ansatz der digitalen Transformation. Indem ich, wenn ich zum Beispiel als Kunde Ja sage, mal so ein Pflegefall habt, dann kann ich das Werbeversprechen als Krankenversicherung erhöhen, indem ich solche Prozesse automatisieren.

Das heißt, es ist so witzig, ist doch günstiger für alle Seiten besser?

Ich habe fünf Mal von der Krankenversicherung den selben Antrag bekommen. Ich weiß nicht, wie der Prozess gelaufen ist. Wahrscheinlich tatsächlich einmal per E-Mail, einmal per Post und fünfmal. Ich habe eine Stunde gebraucht, um allein herauszufinden, dass diese fünf Anträge eigentlich alle die gleichen sind. Damit kannst du schon mal gegenüber dem Kunden. Das ist nur ein Beispiel, wenn du effizienter bist und schneller bist. Bei der eigenen Kosten senken und das Kunden Erlebnis verbessern?

Absolut. Das andere ist, wie du dein Werbeversprechen noch verbessern kannst, du neue Angebote schaffst, wie digital unterstützte. Nehmen wir als Beispiel Amazon. Wir haben am Anfang 94 angefangen mit dem Buchhandel, und zwar per Mail. Das heißt, du hast eine Mail geschrieben und hast gesagt Ich will das und das Buch. Und dann ging das ein paarmal hin und her per Mail. Und dann hast du ein Buch bekommen, als es losging, das mehr und mehr Menschen Browser adaptiert haben, benutzt haben.

Hat Amazon sich gedacht, das wäre doch cool, wenn wir diese Kette irgendwie verkürzen würden und nutzen jetzt den Browser damit für die Bestellungen online abgeben können und noch halten können. Und so eine Kommunikation über die Weboberfläche. Was im Prozess mega beschleunigt hat, mederer vereinfacht für beide Seiten. Als die Robotik stärker wurde und die Technologie besser wurde, hat Amazon einer der ersten, der seine Lager effizienter gestaltet hat, mit Robotern. Was Roboter liefern jetzt diese Ware zu dem Menschen, der da vorne steht und das verpackt.

Das ist durch und durch ein digitales Unternehmen. Der guckt sich an Welche Technologien sind Murchison und nutzt das, um einfach das kum Erlebnis dieses Superposition einfach zu ölen, zu verbessern für den Kunden.

Es geht ja noch weiter. Dann hat er gesagt Für das Weihnachtsgeschäft oder für Peace-Zeichen haben wir so viel Rechenkapazität übrig. Können wir wiederum anderen anbieten, eine einheitliche Schnittstelle darüber ziehen und daraus das A-WM?

Exakt genau so funktioniert das also für mich ein Musterbeispiel einer durch und durch digital nativen Firma?

Absolut. Aber hier geht es natürlich auch darum, dass wir Unternehmen in Deutschland vielleicht doch nicht so Großunternehmen zeigen wollen, wie sie auch selber die digitale Transformation gestalten können. Oftmals stehen ja auch gerade kleinere Unternehmen vor der Herausforderung. Die digitale Transformation erhöht ja erst einmal den Grad an Komplexität im Unternehmen, weil ich mit dieser Technik Sicht durchgehen muss, alle Prozesse beleuchten muss. In vielen Unternehmen sind Prozesse gar nicht dokumentiert, sondern die haben sich so eingebürgert. Ich brauche neue tech Experten.

Ich kann vielleicht nicht einschätzen. Sind Sie wirklich gut oder sind die nicht gut? Damit geht natürlich auch Kontrollverlust einher. Digitale Prozesse sind. Nicht mehr Wenn du kein Techniker bist, verstehen sie nicht mehr analoge Prozesse. Hast du halt in der Hand oder haben die Leute in der Hand und die sind einfach leichter verständlich. Dennoch, da bin ich ganz bei dir, gehe ich davon aus, dass es diese ganzen STANDARD Prozesse der Unternehmen, die nur Geld kosten.

Ich weiß nicht, wieviel Versicherungen generell billiger werden könnten, wenn man diese ganze Verwaltung runter dampft, auf die wirklich schwierigen Fälle und die ganzen Standart Fälle einfach mit Software abwickeln kann. Das ist ja heute auch schon. Es gibt Versicherungen, die Kasse monatlich ein und ausschalten zum so eine Reiseversicherung. Die buche ich nur, wenn ich eine Reise mache und schaltet einen Monat danach wieder aus.

Und das sind so einfach cool, dass man das machen kann.

Warum das so schwierig ist? In deutschen Unternehmen ist meines Erachtens, weil man noch sehr in Strukturen denken. Das heißt, du ziehst Strukturen in deinen Unternehmen ein mit Abteilungsleitern und Bereichsleiter, mit einer eigenen Profit, Lein, eigenen Reporting und so weiter und so fort. Das führt dazu, dass Silos entstehen und die vielleicht vielleicht ein Anführungsstrichen für sich effizient und effektiv arbeiten. Aber wir wissen nun alle, dass im Prinzip so ein Unternehmen nicht nur in Silos funktioniert, sondern kurz funktional sein muss, wo viele Menschen miteinander Abteilungs, Grenzen, arbeiten müssen, kommunizieren müssen.

Und da vergeht halt extrem viel Energie darauf, allein schon Entscheidungsprozesse. Wenn du im Entwickler-Team bist und irgendwas machen willst oder brauchen willst, dann musst du das nach oben kommunizieren. Dann von einem Teamleiter, dann geht so ein Abteilungsleiter vielleicht sogar irgendwo in den Vorstand, bis es wieder zurück kommuniziert ist all diese Wege, diese Entscheidungsfindungen, die funktionieren in einem digitalen Unternehmen nicht. Das heißt, du musst schnell Entscheidungen treffen.

Das zum einen und zum anderen glaube ich auch die Unternehmen. Das hängt mit der digitalen Transformation zusammen, ist aber nicht eine ausschließliche Folge. Davon müssen sich wieder mehr auf den Kundennutzen konzentrieren, weil dem Kunden nutzt das überhaupt nichts. Ob da fünf Abteilungen miteinander sprechen oder eine, das ist dem Kunden auch vollkommen egal. Er möchte seine Leistungen haben, das Herz der Geschäftskunden oder der Privatkunde. Er möchte einfach sein, seinen Job erledigt haben, und ich glaube, es ist Aufgabe der Unternehmensführung, eine große Herausforderung.

Jetzt haben mehr über die Probleme der digitalen Transformation gesprochen. Jetzt kommen wir mal zu den Herausforderungen für die Unternehmen. Ich glaube, die Aufgabe, die digitale Transformation voranzutreiben, ist ganz klar eine Aufgabe der Unternehmensführung. Schafft ein Unternehmen die digitale Transformation nicht, liegt das in der Verantwortung der Führung. Ganz klar für mich. Weil die Führung muss verstehen Okay, wir müssen uns wandeln. Sie müssen das tragen müssen. Meiner Ansicht nach funktionieren auch diese klassischen Hierarchiestufen nur noch bedingt, sondern sie müssen quasi lernen, Verantwortung abzugeben in einzelne Fachbereiche, die dann autark Entscheidungen treffen können, um eben schnell reagieren zu können.

Das haben mir auch manche mitbekommen, dass sie quasi Verantwortung für ein Projekt, für ein Produkt komplett abgeben. In Anführungsstrichen Startup Team Cross funktional besetzt ist und selber entscheiden kann, also schnell mit einem gewissen Budget ausgestattet ist. Und man sieht das schon mal hier und da, aber leider viel zu selten.

Dieses Abgeben von Verantwortung bedingt natürlich auch eine offene Fehlerkultur. Natürlich werden Fehler passieren, und natürlich ärgert sich der Vorstand darüber. Aber in der digitalen Welt ist es oftmals wichtiger, schnell zu sein, an Stelle fehlerfrei zu sein. Mir fällt jetzt ein großer amerikanischer Zahlungsdienstleister ein. Wenn er schon Jahre am Markt ist, dann überlegen sich die europäischen Banken Mensch, so was machen wir auch. Und wir haben auch schon drei Banken, die mitmachen. Also für mich als Digital Native ist völlig klar Das kann so nicht funktionieren.

Entweder müssen alle mitmachen, und das am besten auch schon schnell. Wenn der amerikanische Dienstleister sozusagen gerade auf ploppt oder du kannst es gleich sein lassen, dann hast du diesen Markt einfach verloren. Und dann Post oder gar nicht mehr anfangen. Wenn ein digitaler Player laufen ist und Erfolg hat. Und jetzt kommen die anderen auf die Idee Mensch, das mache ich auch. Dann ist der Drops gelutscht, weil durch diese Netzwerke Effekte in der digitalen Welt ist es unmöglich oder nur mit extremen Ressourceneinsatz möglich, diesen Weg gelaufenen schon einzuholen?

Das beste Beispiel ist WhatsApp auf dem Handy. Du könntest jetzt einen Messenger rausbringen, der doppelt so gut ist, schöner, schneller, bunter auf mehr Handys läuft. Den würde keiner mehr laden, weil das einfach verloren ist, weil es keinen Bedarf mehr gibt. Und der Bedarf wird von einer vorhandenen Lösung zu hundert Prozent erfüllt. Und damit bist du da raus. Also offenes Mainstadt? Offene Fehlerkultur ist ganz, ganz wichtig und meiner Ansicht nach die größte Herausforderung auch für den Vorstand oder für die Leitung eines Unternehmens.

Und es reicht nicht, einfach nur Coaches zu beauftragen.

Da spricht ja ich weiß frei. Die sagen Okay, wir machen alles agil, und damit wird das schon. Man muss sich wirklich als. Die harten, ehrlichen Unternehmer fragen stellen Können wir unsere Mitarbeiter schulen? Auf diese neue Denke können und wollen diese Menschen diesen Transformationsprozess gestalten. Es gibt, wenn man sich ehrlich fragt, auch Branchen. Da muss man mit Nein antworten. Da ist die Frage Was machen wir hier? Weil die digitale Transformation wird jedes Unternehmen betreffen, unabhängig davon, auch wenn man in der Industrie tätig ist und Werk Teile herstellt.

Das ist ganz klar, dass man davon betroffen sein wird. Und die Antwort ist Nein, wir schaffen das nicht mit diesen Menschen. Dann muss man auch daraus Konsequenzen ziehen. Auch das haben Unternehmen gemacht, dass sie sagen Okay, die Firmen Bereiche, die noch laufen, die verkaufen. Wir nehmen dieses Geld und investieren in digitale Unternehmen, um sozusagen über die, wenn man so will, über die Kreditkarte oder übers Bankkonto die digitale Transformation zu gestalten. Man verkauft die Unternehmensteile, die eben nicht sich nicht digitalisieren wollen oder wo man den Aufwand als zu groß vermutet, und beteiligt sich dann an Digital Unternehmen, also auch die Mitarbeiter mitnehmen.

Welche ängste haben die Mitarbeiter? Wie können wir diese abbauen und sich wirklich hart fragen Kriegt man das mit der Mannschaft hin? Ich glaube, das muss man, muss man sich eingestehen, wenn es so ist. Und wenn auch nicht so ist.

Dazu muss man sagen Was mich auch nur ein bisschen irritiert, ist grundsätzlich die Angst Schüren der Medien. Datenschützer Katastrophen heraufbeschwören, jede aufkommende Technologie erst einmal hinterfragen und schlecht reden und immer nur die Seite herausstellen. Was als Gefahr gesehen? Bestes Beispiel künstliche Intelligenz. Wir haben für die meisten Deutschen Dawid nicht den Vorteil, dass diese Technologie alles bewirken kann, egal, ob es mein Leben physikalisch, finanziell oder so verbessern kann. Was für ein Potenzial dahinter steckt? Darüber reden wir nicht.

Wir fangen sofort an mit den Bedenken und was das alles kaputt machen könnte. Oh Gott, ich habe mir einen normalen Deutschen. Künstliche Intelligenz würde sagen, ich habe Angst um meinen Job. Aber das Einzige, was hauptsächlich hörst, dass dein Job zerstört. Ja, das ist ein Aspekt. Aber könnte ich zehn andere Aspekte aufzeigen, wie es wieder neue Jobs schaffen, wie es dein Leben vereinfacht? So, und das ist jetzt ein Bumerang. Genauso wie mit dem Internet.

Das böse Internet. Und jeder ist eine böse Datenkrake. Wir müssen jetzt wie auf den Straßen überall Schilder hochhalten Achtung, Achtung, JavaScript! Achtung! Das ist schon fast absurd. Aber was das bewirkt, ist, dass es bei den Menschen subtil Angst heraufbeschwört vor diesen Technologien. Und wenn du all das, ohne zu hinterfragen, jahrelang praktiziert, dann darfst du dich nicht wundern. Wenn die Menschen Angst vor der Technologie haben, dann ist es schwierig, Menschen abzuholen, Mitarbeiter abzuholen, weil sie schon eine subjektive Meinung gebildet haben über die Zeit.

Genau das meinte ich mit Mitarbeiter mitnehmen. Es ist natürlich die Berichterstattung, und die Medienberichterstattung ist so, wie du sagst, dass man da sehr ängstlich, aber auch Politik Cumbia das Einzige.

Das Einzige, was uns zum Thema einfällt. Alle sind sich bewusst künstliche Intelligenz. Wir müssen da mehr tun. Wir müssen fördern bla, bla, bla, bla, bla. Die erste Amtshandlung ist doch tatsächlich ein Vorschlag. Wir müssen in alle Unternehmen einen Algorithmus Beauftragten installieren, so ähnlich wie der Datenschutzbeauftragte. Das ist in Absurdität gar nicht mehr zu überbieten.

Die deutsche Angst German Angst ist natürlich auch legendär. Ich glaube, das einzige, wo digitale Transformation wirklich ein Dämon ist, ist, wenn du Angst vor Veränderung hast. Es wird sich was verändern. Das ist jedem klar. Aber Veränderung Nummer ist das kann man gestalten, und das kann man zum Positiven und zum Negativen gestalten. Die KI ist ja nur ein Vehikel, wie ein Flugzeug ein Vehikel ist oder ein Auto ein Vehikel. Und viele Menschen fahren mit dem Auto zur Arbeit, und ein paar Verrückte fahren mit dem Auto, verletzten andere Menschen.

So und genau so ist das auch mit neuen Technologien. Die sind nicht per se gut oder per se schlecht, sondern es kommt darauf an, was man daraus macht. Ich meine jetzt, wir sitzen hier in der Mitte der Coruna, Pandemie, viele Leute, die überwiegend am Bildschirm arbeiten oder digitale Arbeitsplätze haben, die konnten normal weiterarbeiten. Man stelle sich nur mal vor, diese Pandemie hätte uns Mitte der 80er erreicht, wo das Internet noch überhaupt nicht ausgebaut war.

Das wäre einfach Hetze, die Volkswirtschaft komplett gestoppt.

Da wäre keiner zur Arbeit gegangen oder hätte keiner seine Arbeit erledigen können von zuhause, außer vielleicht mit dem Telefon. Aber das ist schon ein riesengroßes Glück, dass das Internet so gut ausgebaut ist. Zu der Zeit, wo das passiert war, definitiv. Und ich glaube, auch das ist ein absoluter Beschleuniger. Jetzt auch. Covert 19 hat so viel zur digitalen Transformation beigetragen, mit zehn Regierungen das nicht leisten können. Für mich als Technologie begeisterten. Ich kann das nicht so ganz nachvollziehen, wie man immer vor allem Angst hat.

Ich versuche immer Okay, das hat Risiken. Wenn man den Führerschein macht ja, natürlich hat ein großes Auto, was man bewegt, irgendwie Risiken, aber man lernt, damit umzugehen. Dann kann man eben auch damit sehr schöne Strecken fahren und Mobilität genießen. Aber man muss eben lernen, damit umzugehen. Und das ist auch ganz wichtig. Oder die Botschaft an die Menschen und draußen lernt und die Unternehmen lernt, damit umzugehen, und beschäftigt euch damit, weil die digitale Transformation wird euch früher oder später auf jeden Fall betreffen.

Egal, welches Geschäft ihr heute habt.

Vielleicht haben wir auch darauf ein, was die wirklich wichtigen Entscheidungen für Unternehmen sind, die von der digitalen Transformation stehen oder diese gerne aktiv gestalten wollen. Das ist ja ganz wichtig, um wie wir dabei helfen können. Wir haben ja schon mal so einen Prozess skizziert, wie wir Big Data Projekte durchführen. Um bei der digitalen Transformation ist es auch wichtig, dass man am Anfang erst einmal eine Bestandsaufnahme macht. Wo steht die Firma heute? Welche Prozesse sind überhaupt wertvoll und wer welche überhaupt nicht digitalisiert werden und schon rausfallen, weil man sie eigentlich nicht braucht?

Welche Prozesse sollen digitalisiert werden? Also hier. Die Strecke für zur Pflege wäre hier ein super Beispiel. Dafür Geld sparen können, wenn das einmal implementiert ist und der Service sogar noch besser würde für die Endkunden. Was wir als Gilbert machen ist, dass wir erst einmal eine Digitalisierung Landkarte erstellen und gucken. Wo sind denn deine Potenziale als Unternehmen und die mit den strategischen Zielen des Unternehmens? Im Prinzip übereinanderliegenden zu gucken. Was ist im ersten Schritt notwendig, um die digitale Transformation zu gestalten?

Und welche Technologien können wir verwenden, um dich dahin zu bringen? Das ist ganz wichtig. Digitale Transformation steht schon. Der Name sagt es schon, hat immer auch mit Technologien zu tun. Und wir konzentrieren uns am Anfang immer darauf, dass wir den Unternehmen erst einmal. Ich sage mal die einfachen Punkte zeigen, die schnell erreicht werden können. Auch dass man so ein Motivationsschub mitnehmen kann, um dann eben in weiteren Schritten dann die Ausbaustufe 2 und drei der Komponenten anzugehen.

Also wir gucken schon Welche digitalen Lösungen gibt es heute oder welche können wir entwickeln, um die aktuellen Unternehmensziele zu unterstützen? Und während dieser Brainstorming Session oder dieser Planung fallen oftmals auch Ideen für neue Geschäftsmodelle ab, die man dann erproben kann mit der WP Methode. Andreas von Valeo Salopp gesprochen Genau da geht es ja. Darum geht es ja darum zu prüfen. Hat das Perlet für die Kunden vielleicht, sagen wir, als Gilbert helfen können. Also einmal bei der Enterprise Softwareentwicklung.

Wir können gerne zeigen, wie man agile Lösungen entwickelt im eigenen Unternehmen also. Agil heißt für uns, dass man kurze Zyklus Zeiten hat und dabei das Unternehmen die volle Kostenkontrolle besitzt, quasi eine fortwährende Ost und Leistungskontrolle sehen kann, ob sich die digitalen Prozesse in die richtige Richtung entwickeln. Ein ganz zentraler Punkt ist das Aufsetzen von Pipelines, also Continuous Integration, Continuous Delivery. Da geht es darum, dass im Grunde die Artefakte oder die Software Komponenten, an denen die Entwickler bauen, dass sie jeden Tag ausgerollt werden können, an Borten Feature.

Man testet das Feature, und es kann. Die Zeit von Coding zu Produktions Release ist relativ gering. Was wir auch machen, ist Enterprise Softwareentwicklung, vorzugsweise mit Java und Micro Services, wo wir dann eben die in der Identifikationen Phase ausgeschriebenen Anforderungen umsetzen.

Genau. Wir konzentrieren uns auf den Technologiepark in der digitalen Transformation, können aber natürlich, weil wir das in mehreren Unternehmen schon gemacht und gesehen haben, sehr, sehr gut einschätzen, was die Schiedsstellen dazu sind, wie die Kommunikationsprozesse zu den Mitwirkenden sein müssen, wie die Entscheidungsprozesse sein müssen, also nicht nur die reine Technologie. Wir setzen sein Programmieren, sondern können dem Kunden gegenüber auch sehr gut kommunizieren, wie das bei einer digitalen Transformation auch die Technologie implementiert sein muss, kommuniziert werden muss, um zu den anderen Schnittstellen zu funktionieren.

Meistens ist es ja so, dass man es eingangs als ersten Grad bezeichnet, dass man im Prinzip vorhandene Prozesse digitalisiert, also eine Bestell schrecken. Dann zum Beispiel auf eine API Strecke, also eine Schnittstellen Strecke umbaut, das Thema automatisch Bestellungen auslösen können anhand gewisser Parameter, und dass man im Zuge dessen dann weitere Potenziale identifiziert. Dass man dann auch strategisch den Unternehmen unterstützt und sagt hier das und das und das sind Potenziale als Entscheidungs Vorschlag im Prinzip für den Vorstand, dass er schauen kann, ob das auch noch Projekte sind, die interessant sind und die strategisch zum Unternehmen passen.

Gerade im Bereich der Dobbs kann man Unternehmen ja sehr stark unterstützen, was die digitale Transformation angeht. Vielleicht möchtest du dazu etwas sagen.

Das Thema, was unten drunter schwingt, ist, wie du gesagt hast, sofort ein ganz einfaches Beispiel ein Konkurrent, ein Feature eingeführt, und das funktioniert super. Du brauchst das auch.

Wie lang will sie jetzt warten und diskutieren implementieren und die Pleuel bis zu dieses Feature am Start? Vielleicht bist du auch selber der Innovator und sagt Ich möchte verschiedene Interaktionsmöglichkeiten ausprobieren. Mit dem Kunden, um zu gucken und messen natürlich, was am besten funktioniert, um zu sagen Okay, wir schlagen jetzt diesen Weg weiter ein. Und das ist das, wobei es hilft. Das heißt, es nimmt hier in der gesamten Software-Entwicklung Sketche gefegt, dass die Entwickler Operations und die Infrastruktur schnell zu sein, wenn es sein muss, mehrmals am Tag in Produktion.

Eine änderung in der Webseite zu bringen, kennen die meisten, die diese digitale Transformation noch nicht haben, wenn sie Software bauen wollen oder lesen wollen. Selbst ins Web dauert das monatelang. Und wenn du etwas machst, dann machst du etwas anderes kaputt. Fürs neue Batz ein und, und, und, und. Das wollen wir mit der Woolfs Movement, mit den Tools und Prozesse auch. Da geht es nicht nur um Technologie, sondern auch um ein Meint.

Es geht auch um Daten getriebenes Handeln. Ich messe, wie oft ich am Tag die Pleuel vielleicht eingeführt habe, um mich dann verbessern zu können. Das heißt, dieser ganze Zyklus geschieht auch innerhalb des Webs für sich allein, um den Prozess kontinuierlich zu verbessern und Software immer schneller und Qualitätssicherung an Bord zu kriegen. Da gibt es neue Bewegungen wie Check ups. Oft ist es so, dass du, wenn du entwickelst, dann hast du noch die Security Abteilungen, die ein Strich durch die Rechnung macht.

Die verlangen dann Stadtmodell. Wie wollen, wie compliance-abteilung sagen Wir müssen aufpassen, dass da keine Third Party Lizenzen verletzt werden? Beispiel Lycée von Oracle oder bestimmte Compliance-Regeln Policies eingehalten werden. Das ist alles, was diesen Zyklus behindert. Und das führt Tools ein Voodoo. Stichwort Policy Code.

Dass du quasi diese Firmenpolitik genauso wie Infrastruktur Code als Code signiert hast und Tools automatisiert checken können, ob du Compliance bist. Das verhindert einmal Fehler, teure Fehler. Wenn du mal mit so einem Ding durchgeht, weil der Mensch vielleicht einen Fehler gemacht hat. Das macht ein Tool nicht, wenn es automatisiert ist und man dementsprechend gefüttert hat. Da wird jetzt immer mehr automatisiert, um so einfach Geschwindigkeit aufzunehmen. Und es ist ganz einfach der, der das macht, der ist schneller.

Werde es nicht mal langsamer und geht die Gefahr ein, irgendwann obsolet zu werden, weil die anderen an ihnen vorbeiziehen?

Das eine ist Geschwindigkeit beim Ausrollen neuer Funktionen, das andere ist natürlich auch Geschwindigkeit in der Skalierung selber. Also wenn eine Anwendung dann gefordert wird. Ich sehe das bei unseren Kunden. Die starten ein Service oder auf einer Webseite integriert. Dann funktioniert es ganz gut aus dem Datenblatt. Ich spreche jetzt mal und dann sag mal okay, wir möchten das in allen unseren Webseiten drin haben, haben aber dann pro Monat 4 Milliarden Requests. Von heute auf morgen explodieren die Zugriffszahlen, und das kriegt man natürlich auch hin mit dieser DVB-S Entwicklungsmodell, das man auch sagt.

Okay, die Infrastruktur beschreiben wir heute als Code und das läuft im eigenen Rechenzentrum oder in der Cloud. In der Cloud können wir dann raus skalieren. Heute machen wir es auf zwei Servern, übermorgen machen wir es dann auf 200, ohne was zu bestellen. Sehr schnell. Vielleicht funktioniert die Anwendung auch nicht. Dann melden wir die 200 Server wieder ab und können dann weitermachen. Mir kann dann aber sehr schnell verloben und sehr schnell neue, werthaltige Geschäftsführer des Unternehmens finden.

Das, was wir eingangs gesagt haben Geschwindigkeit, ist oftmals wichtiger als fehlerfreiheit, um eben natürlich auch in Grenzen. Wenn man eine Steuerung fürs Atomkraftwerks sollte man vielleicht dann doch anders priorisieren. Aber gerade im Bereich Web muss man einfach schauen, dass man schnell neue Dinge ausprobieren kann.

Ich will hier mal ein Beispiel nennen, was ich anfangs sagte dass dieses Silo, Denken und Kommunikation mit dazugehört. Ich habe mal einen Kunden gehabt im konsumgüterbereich, der mit vielen filial, da die Marketingabteilung eine Werbung geplant und geschaltet, wo plötzlich dann natürlich über Nacht die Zugriffszahlen, genau wie eben gesagt, in die Höhe geschnellt sind. Dementsprechend der Schopp nicht mehr funktioniert hat. Das heißt, man hat irgendwie künstlich Service selber eingeführt. In einem Unternehmen, das die digitale Transformation durchmacht, gilt es, diese Kommunikationswege so zu vereinfachen, so agil zu gestalten, dass man voneinander weiß und dann zum Beispiel für die Skalierung sorgen, für die automatische Skalierung mit Autos gelingt oder was auch immer.

Wozu das dann führt, wenn man das nicht macht, sieht man halt.

Das Unternehmen ist gewissermaßen Opfer seines eigenen Erfolgs geworden. Ich kann auch aus dem Nähkästchen erzählen. Das war nicht mein Projekt. Aber ein befreundeter Berater hat mir mal erzählt Eine Bank wollte ein Online-Konten beworben, zur Prime Time während eines Bocks Kampfes. Da sind auch die Call-Center, und die Webseite dieser Bank war überlastet, weil so viele Leute sich dann anmelden wollten. Und das war der beste Tag für die Konkurrenz, die dann alle verstehen. Oh ja, bei A kann ich das jetzt nicht abschließen.

Aber B hat doch auch ein Online-Konten. Und genau da ist der Schuss. Nach hinten losgegangen. Okay, das war jetzt Softwareentwicklung und warum ist das wichtig? Du hast ja schon die Datentypen angesprochen. Wir bei unserer Big Data Abteilung gehen so vor. Wir brauchen eine eigene podcaster Episode, wo wir genau zeigen, wie der Prozess ist. Aber ich fasse ihn hier noch mal kurz zusammen. Dass wir anfangs eine Daten Anamnese machen bei den Unternehmen, die Unterstützung im Bereich digitaler Transformation anfragen, dass wir sagen Welche Daten hat das Unternehmen, welche Möglichkeiten ergeben sich aus diesen Daten?

Dass wir neue Daten, Produkte, proben. Das haben wir ja auch letztes Jahr schon mal für den Kunden gemacht. Ich glaube, einen Monat oder zwei Monate haben wir ausprobiert, ob das so funktioniert, wie wir uns das vorstellen. Und dass man dann sehr schnell sagt Okay, die Daten sind hinreichend. Man kann das neue Produkt bauen, oder man muss noch hier und da mehr Daten einsammeln oder die vorhandenen Daten bereinigen, um dann die gewünschte Leistung herauszubekommen.

Das ist natürlich sehr charmant, dass man da sehr schnell einsteigen kann. Oftmals ist es auch so, dass unsere Kunden möchten, dass wir die Daten mittlerweile in Echtzeit bereitstellen oder in Echtzeit ein sammeln, damit die Software Komponenten in Echtzeit Entscheidungen treffen können und letztlich damit auch die Unternehmen in Echtzeit Entscheidungen treffen können. Und wir hatten jetzt eine Anfrage Anfang des Jahres, wo es darum ging, Daten Markt zu konzipieren. Also, wenn du dich daran erinnerst, aber ein großes Unternehmen, was von vielen, vielen Kunden Verbraucherinformation sammelt und eben diese Informationen in anonymisierter Form dann wiederum weiteren Geschäftskunden bereitstellen möchte und im Grunde mit diesen Daten handelt, zum datenblöcke wird.

Großes Potenzial liegt auch an der Vereinheitlichung von Daten Strecken innerhalb der Unternehmen, sodass man mal dokumentiert Welche Daten habt ihr eigentlich und was geht wohin und was kommt von b&o? dashboards und Reports stehen auch einmal ganz vorne, gerade damit die Unternehmensführung oder das Controlling weiß. Wo steht die Firma gerade? Es gibt oft regulatorische Anforderungen von Börsen gelisteten Unternehmen, die quasi zu jedem Zeitpunkt sagen müssen, wie viel, wie viel Geld es in der Kasse. Sag ich mal vereinfacht Um welche Verbindlichkeiten haben wir sie im Prime STANDARD richten können?

Immer mehr. In der jüngsten Vergangenheit werden Produktion Modelle angepackt. Wann fällt welche Maschine aus? Welche Kunden werden vermutlich kündigen? Welche Reichweiten haben wir mit diesen und jenen Kampagnen? Voraussichtlich nehmen wir die Kampagne so und so gestalten. Welche demografischen Daten füllen die Nutzer, die diese Kampagne vermutlich konsumieren werden, sodass man quasi im Vorfeld schon so eine Art Erfolgs Abschätzung macht? Bei all diesen Punkten unterstützen wir natürlich gerne, um den Unternehmen zu helfen und sie nach vorne zu bringen.

Also Angst haben muss niemand. Man muss sich nur vor der digitalen Transformation Angst haben, muss niemand zu dem Punkt stehen eine Chance? Auf jeden Fall. Man muss sich eben nur mit dieser Thematik beschäftigen und auch den Mut haben zu sagen Hey, wir gehen das an. Wir gestalten das aktiv. Lidl hat jetzt die Schwarz-Gruppe. Muss man sagen. Die Familie hinter Lidl hat jetzt vor einer Woche bekannt gegeben, dass Sie ein eigenes Klout Angebot aus dem Boden stampfen möchten.

Ich bin gespannt, wie sich das entwickelt. Meiner Ansicht nach 15 Jahre zu spät, aber beste. Die werden auch nicht dumm sein und werden sich genau überlegt haben, was sie tun. Sie haben eine Menge Innovationskraft und Finanzkraft, um da was auf die Beine zu stellen. Da bin ich ganz gespannt. Hast du noch einen Punkt? Eine wirklich wichtige Entscheidung, der sich ein Unternehmen stellen muss, welches über digitale Transformation nachdenkt.

Was wir machen können. Ich finde, das Thema lässt sich noch ein bisschen länger diskutieren. Und was hältst du davon, wenn wir so eine Serie mit vielleicht noch zwei oder drei weiteren Podcast machen, um dieses Thema dann die nächsten, vielleicht etwas praktischen Tipps, wie man, wenn man diese Dinge angehen kann, sehr gerne.

Wenn man mal cool, wenn unsere Zuhörer Fragen haben oder Feedback. Können Sie uns gerne eine E-Mail schreiben? An Podcast bei T. Wir freuen uns, wenn ihr den Podcast abonniert oder eine externe Bewertung da lasst und für weitere Technologien Themen. Schaut gerne auf www. Skill bei slash blog vorbei. Wunderbar.

Ich wünsche dir noch einen schönen Abend, dein gewöhnlich gut, du auch.

Maurice KnoppSkillbyte Podcast #22: Digitale Transformation ist eins der Härtesten
Mehr

Skillbyte Podcast #14: Big Data und Machine Learning Projekte richtig angehen

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Big Data und Machine Learning Projekte richtig angehen

// Inhalt //
01:15 – Definition & Beispiele: Was ist ein Big Data Projekt?
01:59 – Ist das wirklich ein Big Data Projekt und erfüllt es 2 der 3Vs?
03:58 – Big Data Maturity Model für Technologie und Unternehmen
05:41 – Anamnese – Wo steht der Kunde heute?
07:26 – Agile Task Force für kleine Projekte statt Big Bang
08:51 – Big Data Projekte im Business Development
10:54 – Fokus durch Minimal Viable Product
13:54 – Kategorien von Big Data Projekten
17:54 – Big Data Beispielprojekt
20:27 – Warum die schelle Entwicklung eine Proof of Concept wichtig ist!
22:18 – Schritt 1: Welche aktuellen Big Data Technologien gibt es?
23:54 – Schritt 2: Wo steht der Kunde heute?
25:13 – Orchestrierung der richtigen Technologie Komponenten ist die Kunst
27:02 – Das CAP Theorem
29:14 – Datenhoheiten in der Organisation
30:20 – Schritt 3: Zielbild – Was möchte der Kunde erreichen?
31:35 – Schritt 4: Umsetzung / Proof of Concept
32:18 – Ideen-Backlog
33:17 – Continuous Improvement
37:42 – Beispiele für Big Data Projekte
40:00 – Große Daten, Kleine Daten

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #14: Big Data und Machine Learning Projekte richtig angehen
Mehr

Skillbyte Podcast #13: CoreMedia CMS – Entwicklung und Betrieb

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: CoreMedia CMS – Entwicklung und Betrieb

// Inhalt //
00:57 -> Definition: CoreMedia CMS – was ist das?
04:03 -> CoreMedia vs. WordPress
05:45 -> Mächtigkeit und Flexibilität
08:26 -> CoreMedia Government Site Builder
09:33 -> Zusammenfassung: Was ist CoreMedia
10:02 -> CoreMedia Komponenten
12:24 -> Deployment und Komponentenverwaltung
13:43 -> CoreMedia Content Cloud
14:05 -> CoreMedia Continuous Deployment
14:55 -> Docker + Kubernetes Erleichterungen für die CoreMedia Entwicklung
18:37 -> CoreMedia Dokumentation
19:39 -> Was ist im CoreMedia Paket? (Dokumentation, Blueprint)
22:10 -> CoreMedia Customizing richtig gemacht / Upgradeability bewahren
25:56 -> Gute Releasestrategie, Schlechte Releasestrategie
27:27 -> So gehen moderne CoreMedia Releases
31:13 -> Synchronisierung von Code und Content
33:32 -> Wo geht die CoreMedia Reise hin?
36:57 -> CoreMedia als Headless CMS
38:35 -> Die Geschichte des CoreMedia Studio
41:37 -> CoreMedia, was können wir besser machen?
43:18 -> Der Blick in die Glaskugel

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #13: CoreMedia CMS – Entwicklung und Betrieb
Mehr

Podcast #8: Must-have Skills, Technologien und Weiterbildung für DevOps

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Must-have Skills, Technologien und Weiterbildung für DevOps

// Inhalt //
1. Was ist ein DevOps Engineer?
2. Welche Skills hat ein DevOps Engineer?
3. Welche Technologien setzen DevOps Engineers ein?
4. Welche Erfahrungen hat Skillbyte mit DevOps / Kubernetes gemacht?

Link zum Podcast: Devops – Was ist DevOps und das DevOps Mindest?
https://soundcloud.com/skillbyte/skillbyte-podcast-2-devops

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppPodcast #8: Must-have Skills, Technologien und Weiterbildung für DevOps
Mehr

Skillbyte Podcast #6: Must-have Skills, Technologien und Weiterbildung für Full-Stack Entwickler

In diesem Podcast geht es um das Thema: Must-have Skills, Technologien und Weiterbildung für Full-Stack Entwickler

// Inhalt //
1. Was ist ein Full-Stack Entwickler?
2. Welche Skills hat ein Full-Stack Entwickler?
3. Welche Technologien setzt ein Full-Stack Entwickler ein?
4. Wie bildet sich ein Full-Stack Entwickler weiter?
5. Skillbyte als Full-Stack Experten

Wir freuen uns wenn Sie unseren Podcast abonnieren! Besuchen Sie uns auch genre auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

Maurice KnoppSkillbyte Podcast #6: Must-have Skills, Technologien und Weiterbildung für Full-Stack Entwickler
Mehr