All posts tagged: cicd

Skillbyte Podcast #45: Das Spring Boot Framework

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Das Spring Boot Framework

// Inhalt //
02:35 – Was ist Spring Boot?
03:26 – Erfahrungsbericht: Spring Boot Anwendungsentwicklung
14:43 – Spring Boot Paradigma: Convention over Configuration
15:16 – Lohnt sich der Einsatz von Spring Boot? Lernkurve?
16:39 – Ein kleiner Vergleich mit der Pyhton Welt
18:16 – Features von Spring Boot
22:31 – Spring initilizr auf start.spring.io
23:45 – Spring Support von IntelliJ IDEA
26:41 – Spring Boot Banner
27:44 – Dokumentation der Spring Boot Anwendung
29:00 – Fallstricke & Tipps
33:02 – Fazit: Ist Spring Boot empfehlenswert?

Show Notes:

Podcast #29: Die Zwölf Faktoren des Cloud Native Development (Teil 1)
-> https://soundcloud.com/skillbyte/podcast-29-die-zwolf-faktoren-des-cloud-native-development-teil-1

Podcast #30: Die Zwölf Faktoren des Cloud Native Development (Teil 2)
-> https://soundcloud.com/skillbyte/podcast-30-die-zwolf-faktoren-des-cloud-native-development-teil-2

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Ich denke auch, dass sich das als Blaupause und Grundlage für die voll regelrecht für Java Anwendungsentwicklung nehmen würde, weil die meisten Anforderungen aus Umgebungen kommen, wo man das eben gut umsetzen kann. Ich meine missis in den letzten Jahren nichts untergekommen, wo man jetzt auf einen klassischen ein Maschienen Server oder einen großen Mainframe irgendwas hätte entwickeln müssen, sondern man kommt eben immer eigentlich gerade wenn es Java sein soll in diese Microservices Richtung bzw. kann seine Anwendung zum Lösen eines Problems so designen, dass sie auch sinnvoll so umzusetzen ist.

Und dann ist Spring Boot wirklich ein Top Tool.

Herzlich willkommen zu unserer Skill bei Podcast Episode Nummer fünfundvierzig Das Spring Boot Framework abonniert unseren Kanal für mehr spannende Themen aus dem Technologie Umfeld. Wenn ihr die Entscheider oder die Fachkraft seid, wenn ihr eine höhrer Frage habt im Verlauf der Episode sendet uns gerne eine E-Mail an Podcast Skill Bild.de:. Wir freuen uns immer über Bewertungen und weitere Empfehlungen dieses Podcasts an eure Freunde und Kollegen, die sich ebenfalls für diese Themen interessieren.

Wenn ihr aktuell in der IT-Branche auf Jobsuche seid, schaut auch auf Skill weite Isles Jobs vorbei. Ich bin heute hier mit den beiden Skill BYD Data Ingenieurs Oliver und Andreas.

Hallo ihr zwei Callboys. Schön wieder dabei zu sein. Hallo Moritz Fela, endlich mal dabei zu sein.

Oli kennen ja schon einige Zuhörer, Andreas. Für dich ist es heute ein Novum. Aber ich freue mich wirklich, euch beide dabei zu haben, weil ihr euch sehr intensiv jetzt in dem letzten halben Jahr bzw. kann man so sagen die zweite Jahreshälfte 2000 und 20 mit dem Spring Boot Framework beschäftigt habt und auch eine recht komplexe Anwendung darauf entwickelt hat.

Genau. Wir haben als Projekt. Ich glaube, so ab August letzten Jahres bis Ende des Kalenderjahres genau haben wir eine Spring gut basierte Anwendung für den Kunden gebaut, was für uns ein völlig neuer Text steckt. Zu dem Zeitpunkt war uns aber die Möglichkeit gegeben hat, da sehr, sehr schnell production ready zu werden und eine Anwendung zu haben, mit der wir sehr schnell weiterentwickeln und testen können. Das war eine ziemlich coole Sache. Da kann Andreas aber auch noch was zu sagen, weil auch für den war das glaube ich ein neuer Einstieg.

Ja, genau. Also für mich war das eigentlich alles Komplettem, weil sowohl Java als auch Bimbos und bin tatsächlich erstaunlich schnell reingegangen. Das hat mich auch ein bisschen überrascht. Sobald man sich einmal an die Annotationen gewöhnt hat, ist man eigentlich sofort dran.

Genau das ist ja auch das Kernziel des Spring Boot Frameworks. Vielleicht kennt der ein oder andere Zuhörer ist noch nicht so oder kann auch nicht genau was damit anfangen. Deshalb würde ich kurz sagen, dass es sich um einen Quell offenes Framework für die Java Plattform handelt, welches meist genutzt wird, um eben Webanwendung zu implementieren, Microservices zu implementieren. Und das Ziel dieses Frameworks ist es eben möglichst schnell komplett Laufwege Anwendung erzeugen zu können, weil die default Einstellung der Konfiguration im Grunde sinnvoll sind.

Das ist der Anspruch, den dieses Projekt hat. Und wie das so ist z.B. beim Schachner im Menace to learn alive to Master, so ist das auch ein bisschen bei Spring Boot gestartet ist man sehr schnell, kann dann aber die Anwendung nach und nach um weitere Komponenten erweitern und eine sehr komplexe Anwendung bauen, was er ja auch gemacht hat.

Auf die genauen Inhalte müssen wir ja jetzt gar nicht eingehen, aber die Anwendung sollte als System von mehreren kleinen Microservices ineinander greifen. Wir brauchten unter anderem einen einfach zu nutzen. Das Web frommt und wir brauchten den eigentlichen Controller dahinter. Wir brauchten eine Datenbank Anbindung. Wir mussten die Möglichkeit haben, Daten im lokalen Dateisystem zu paar sistieren und und und. Das waren viele einzelne Komponenten, die wir dann entsprechend damit strukturieren konnten. Und das hat dem Ganzen wirklich einen hervorragenden Rahmen gegeben, wo man dann die Arbeit auch de facto gut aufteilen konnte, um eben das Ganze schön gekapselt zu haben.

Das hatte auch ganz viele Aspekte von der Pull-Faktor App, über die wir ja schon mal zusammen gesprochen haben, wie wir das dann Gebaute nachher auch die PEUT haben.

Andreas War das für dich? Hattest du das Gefühl, dass man es gut aufteilen kann und dass du dann so einzelne Häppchen abarbeiten konntest?

Ja, das ging eigentlich Duterte als ich zu dem Projekt dazugekommenen, was aber nur zwei Wochen war, nachdem Oliver auch damit angefangen hat, war quasi schon ein bisschen ein Grundgerüst da und werden dann aber recht schnell gemerkt. Wir brauchen jetzt noch zusätzliche Rest API Endpunkte von quasi zusätzliche Microservices. Und da hat es mich überrascht, wie einfach es war, da dann zusätzliche Sachen zu schreiben. Dann hat man einfach einen zusätzlichen Controller hochgefahren und dem Endpunkte gegeben und die konnten unabhängig voneinander dann bearbeiten.

Das hat einfach sofort funktioniert.

Das Gute ist halt bei dem Spring Framework und Spring Boot ist ja letztlich nur eine Geschmacksrichtung des großen vollumfänglichen Spring Frameworks, dass man diese Inversion of Control eben nutzen kann. Also Andreas hat es eben schon angesprochen per Annotation. Also Edin Denkakt oder Auto wiederholt sich dann die einzelnen Komponenten in die Klasse durch den Container oder durch das Framework Injektor lassen kann. Das deutsche Wort wäre glaub ich verdrahten lassen kann und dann eben diese Komponente vollumfänglich zu nutzen. Habt ihr das so Komponenten Weise aufgeteilt?

Die Arbeit oder jeder hat so ein bisschen Überblick über den gesamten Code gehabt.

Das werden glaub ich beide einen ganz guten Überblick über alles. Aber gut, wenn man zu zweit arbeitet, dann teilt man sich schon ein bisschen die Arbeit auf und Alianza ein bisschen mehr Erfahrung mit Docker Containern schon an denen, die. Deswegen hat er sich da mehr darum gekümmert und ein bisschen mehr um die Rest API selber, dann würde ich auch genau so unterschreiben und es war wirklich praktisch, dass man die ganzen Dependency es, die man ansonsten berücksichtigen müsste, dass man diese ganzen Weg gekapselt module dann sich einfach über dieses Auto via O-Ring direkter reinholen kann.

Da kann man vielleicht später nochmal kurz drüber sprechen, aber so angeteasert. Das hat es für uns dann eben auch super gemacht, das ganze mit Unit Test Abdeckung nachher zu versehen. Also diese modularer Bauweise, die hat uns da das Leben in vielerlei Hinsicht vereinfacht.

D. h. ihr habt dann wirklich Komponente für Komponente g Unit testet im Rahmen der Zeit, die wir zur Verfügung hatten.

Ja, also die war von Anfang an begrenzt. Das waren die letzten paar Wochen im Projekt Scope. Und wir haben mit den Kern Komponenten, die für den Betrieb nötig waren, entsprechend angefangen und haben entsprechend dann doch noch ein sehr akzeptables Level an Test Abdeckung für die ganze Applikation geschafft. Am Ende ja. Und das haben wir genauso gemacht.

Er war auch ein bisschen überrascht, dass wir dann doch noch so eine hohe Testa Abdeckung hingekriegt haben, weil dadurch das ganze zeitlich limitiert war. Haben wir jetzt nicht Testpiloten Development von Anfang an gemacht, da vor allem auch vieles zum Anfang noch nicht klar war, wie es am Ende aussehen würde, aber zumindest Järvi alle gesagt hat. Die Kernidee Teile der App und mit der nachträglich ziemlich einfach noch mit Tests versehen.

Das heißt, die Anwendung wurde zuerst entwickelt. Ich glaube, das kann man sagen. Es handelte sich um eine Brücke, einen Exporteur und einen Importeur von zwei verschiedenen Systemen, der einfach Daten transformiert hat zwischen diesen Systemen. So, und da waren wahrscheinlich die Schnittstellen nicht ganz klar und es hat sich erst im Verlaufe des Projektes herausgestellt und dann am Ende, als die Schnittstellen klar waren und die schon bespielt werden konnten. Habt ihr das dann nochmal getestet? Richtig. Also das Ganze war, wenn man es drastisch formuliert, wirklich als One-Shot Anwendung konzipiert.

Man hätte das natürlich dadurch, dass sowohl das Quelle als auch das Zielsystem weitverbreitet sind in der Branche, in der der aktuelle Kunde da unterwegs ist. Aber die Systeme waren jeweils so spezifiziert und an die Bedürfnisse des Kunden angepasst, dass es viel mehr Aufwand gewesen wäre, das deutlich generischer zu machen, um es als Produkt dann auszuarbeiten, sodass wir da wirklich eine maßgeschneiderte, schnell entwickelte Lösung gebaut haben.

K Perfekt. Jetzt habt ihr diese Anwendung gebaut. Wenn ich das richtig verstanden habe, Oliver, du hast dich so ein bisschen um die Pakete gekümmert. Docker Den Betrieb oder die DevOps Komponente. Andreas Du hast vielleicht etwas mehr an der Anwendungs Logik gearbeitet. Hattet ihr das Gefühl, dass euch springender Gut unterstützt, also dass ihr euch wirklich auf eure Kernthemen konzentrieren könnt Infrastruktur oder Anwendungs Logik? Oder hattet ihr oft das Gefühl oh ich schreib hier Boiler Pleite Code um die x te Datenbank Verbindung aufzumachen oder sowas?

Das muss doch einfacher gehen.

Er sei ein bisschen hatte ich schon den Eindruck, dass man ein bisschen Boiler Plaid Code schreibt. Gleichzeitig hatte ich aber auch den Eindruck, dass es weniger ist als meine Java sonst machen müsste. Da ich wohl noch nicht so Java Erfahrung hatte, war mir bewusst, dass ich da mehr bei der Palette Code schreiben muss, als z.B. ein Payton war. Das hat sich dadurch ein bisschen in Grenzen gehalten.

Hast du ein Beispiel für Boiler Plaid er gut alle Geta an CETA hat man einen Partner z.B. einfach nicht. In Ada kann man vieles umgehen in der Stelle.

Für mich hats massiv Code gespart. Du hast das Stichwort Datenbank Anbindung gerade genannt. Da ist durch JPY zu den technischen Feinheiten kannst du vielleicht gleich noch kurz etwas sagen ist uns extrem viel Arbeit abgenommen worden. Also da bringt Spring Boot von Hause aus die Möglichkeit mit, das sehr elegant zu nutzen, in dem nicht nur einfach die Gredenko sieals und die Konnektivität Informationen zu einer Datenbank übergeben werden, sondern man hat auch über vordefinierte Funktionen hat man die Möglichkeit, die Tabellen selber direkt anzulegen.

Also die Schemata. Das wird alles von Springflut über sehr viele einzelne Komponenten ermöglicht, ohne viel Aufwand an der Datenbank selber betreiben zu müssen. Das ist wirklich schön gemacht.

Ja, das stimmt. Also ein sehr komplexes Datenbank Schema, wie wir dann letztendlich doch eigentlich hatten, halte ich glaube ich hier. Wenn ich die hätte selber schreiben müssen ich in der Zeit hinbekommen. Auf jeden Fall.

Vor allem wenn man noch die SQL Schnittstelle selber in irgendeiner Form hätte bauen oder mit kleine SQL Code hätte bedienen müssen. Und da nimmt einem JPC dann eben schon extrem viel Arbeit ab. Und das hat dann auch def abseitig viel gespart, weil man einfach die Datenbank zur Verfügung gestellt hat, die Konfiguration in JPL mit ein paar Zeilen schnell gemacht hat und dann lief das. Das muss man einfach dazusagen. Das war wirklich einfach die JPL. Hier steht ja für die java persistent api die eben genau.

Für. Daten bank. anbindungen. Da ist. Oder persistenz. Schicht anbindungen da ist. Und das schöne hier ist. Dass man im grunde. Das es gerade gesagt. Diese tabellen relationen. Oder das datenbank schema. Das kann man einmal anlegen. Und jpl kümmert sich dann darum. Je nach dem ob du eine postgresql datenbank hast. Maisie. Soldaten. Bank. Oracle. Datenbank. Den. Richtigen exkl. Dialekt nenne ich es mal zu generieren, so dass das konkrete Backend dann eben unterstützt wird.

Und das macht natürlich auf Migration sehr einfacher. Der eine Kunde setzt die Datenbank Technologie ein, der andere Kunde setzt die Datenbank Technologie ein. Da möchte man kein Wenn du Login haben, sondern die JPL benutzt, läuft es überall oder auf allen Datenbank Plattform, die eben JPY Unterstützung erfahren, was die meisten sein dürfen.

Ja, das Thema Parketts hierum hast du eben angesprochen. Hass hat für mich auch nochmal leicht gemacht. Das war dann die Zusammenarbeit von Spring bzw. Spring gut und eben Maven als Paket Manager dies mir extrem leicht gemacht hat. Die Anwendung dann einfacher dem Docker Container zu betreiben, also sowohl schon für Entwicklungs Zwecke wirklich jeder auf seinem Entwickler Laptop was auch praktisch war war. In Docker waren wir dann eben auch völlig unabhängig davon, weil ich habe es offene Meek gemacht Andreas glaube ich auf einem Linux System.

Das lief dann alles sofort und auch der Roll outs beim Kunden war dadurch viel einfacher, weil der Ebene Container Umgebung zur Verfügung gestellt hat und wir dann nur noch da rein diplomen mussten und dann eben mit dessen, der vom Team geklärt wurde, wie dann der Betrieb abläuft. Aber dadurch, dass wir eben die Pakete hierum über Maven und Spring buht dann eben hatten und das ganze schon im Docker Container betriebsbereit zur Verfügung stellen konnten. Sehr einfach war das ein Kinderspiel und schnell gemacht.

Das war echt toll. Da habt ihr direkt eine Stärke von Spring Boot voll ausgespielt in Kombination mit Docker, weil ich sag euch das früher war das nicht so, dass man eine Java Anwendung direkt ausführen konnte oder es war ganz ungewöhnlich, sondern es gab einen sogenannten Application Server an Tomcat aus dem freien Bereich oder auch verschiedene proprietäre Produkte. Von RedHat hieß es z.B. J. Bors und das war ein sehr schwergewichtige Server, die also teilweise mehrere Minuten benötigt haben um zu starten.

Und da wurde dann die Anwendung alzu war fail oder eher fail wurde die Anwendung rein die bloed und rein geladen und die wurde dann auf diesem Server ausgeführt. Das ist natürlich heute in der kybernetisch Umgebung Microservices Umgebung ist das überhaupt nicht praktikabel, dass man da einen Server hat, der sehr viele Ressourcen braucht und der mehrere Minuten zum Starten braucht, sondern da möchte man eine kleine ausführbare Code Einheit haben, die ihre dedizierte Aufgabe übernimmt. Und da bietet sich natürlich das selbst laufende Spring Boot Programm an oder die selbst laufende Applikation ist es ja ein derFall was man direkt starten kann.

Wir haben in dem Zusammenhang genau das bekommen, nämlich ein Zerfall, was schon alle Dependency es enthielt. Man musste da keine Libraries mehr installieren und gar nichts. Man konnte mit einem minimalistischen Docker Image anfangen. Es musste nur Java installiert sein. Dann hat man das ja ausgeführt. Wenn man wollte noch ein paar Laufzeit Parameter mitgegeben und dann lief die Anwendung und die ethical schon eben diese Webserver Komponente. Zum Beispiel wenn ich mich erinnere an meiner Anfangszeit in dem Projekt, wo ich noch nicht so vertraut war.

Damit hab ich noch einen extra Docker Container hochgefahren, wo ich in Engine X Webserver drin betrieben habe, damit ich diese Rest API überhaupt irgendwie ansprechen konnte. Und irgendwann haben wir dann verstanden, dass Springflut das schon von Hause aus mitbringt. Aber da hat Andreas viel mehr mitarbeitet als ich.

Ja, da kam dann aber nochmal die zweite Erkenntnis. Also erstmal wie obligat gesagt hat, des Rest Framework selber. Aber man habe dann festgestellt, dass es ja wirklich war, seinen kompletten Webserver der auf Heilberufe mitliefert. Wir hatten dann nämlich doch nochmal eine Endings dazu, die Plots, um einfach statisch ein paar Fails für das Frontend können und das fand ein selber und dann feststellte Wir können das einfach direkt staatlich mit einbinden. Wir nennen einfach einen Ordner Public und dann passiert alles automatisch.

Das war dann nochmal so ein Aha-Erlebnis.

Das ist diese Opinio Nahtod Konfiguration. Also bring but leg dir schon so die Fold Ordner an oder bzw. die kannst du anlegen, wo dann Settings drin liegen können für die Anwendung oder eben statische HTML Falz, wo man sich dann nicht weiter kümmern muss, wenn man sich an diese die Fold Konfiguration hält. Man kann auch alles konfigurieren, aber das Ziel von Spring Boot ist es zu sagen Hammer, wir geben dir einen vernünftigen Grundstock auf dem kannst du aufsetzen und du kannst alles konfigurieren.

Aber so wie wir es dir liefern, ist es erst einmal in Ordnung für die meisten Anwendungen. Also könnt ihr bestätigen Spring Boot hat euch fÃr eure Entwicklung doch ordentlich unter die Arme gegriffen. Ihr seid schnell zu Rande gekommen, habt wenig kämpfen müssen. Leute, die um die Millennium Wende Java entwickelt haben, die kennen noch, wie schwerfällig das alles war. Habt euch gut in der STANDARD Konfiguration zurecht gefunden und wenn ihr Zusatz Komponenten eingebaut habt. Ich weiß jetzt nicht ob ihr den Spring Logger benutzt habt oder wahrscheinlich die Spring Datenbank Anbindung und so, dann war das wahrscheinlich mit 20.

Mal googeln. Bildung ist natürlich hier die Website, die sofort auf ploppt, war das relativ schnell eingebunden. Ja, würde ich genau so unterschreiben. Es war zunächst mal intuitiv ziemlich viel verständlich, muss ich sagen. Nun muss ich dazu gestehen, dass ich zumindest Java schon mal vorher gemacht hatte und auch Maven vorher schon mal gesehen hatte. Das hat mir die Grundlage ein bisschen bereitet, aber nachdem ich dann in die einzelnen Sachen besser reingekommen war, lief das sehr schnell.

Die Lernkurve war sehr steil und auch einfachste Internet-Recherche. Meistens kann man eben bei Bildung raus, hat da schon geholfen, weils eben auch so viel genutzt wird und so viele Leute sich damit beschäftigen und damit arbeiten.

Für mich war da die Lernkurve noch ein bisschen Tayler, weil ich hatte tatsächlich vorher noch keine einzige Zeile Java Code geschrieben. Aber selbst damit war das ohne Probleme machen. Also mit den Web Ressourcen kann man dann schnell zu Rande Andreas. Gibt es denn in der Python Welt ein mit Spring Boot vergleichbares Framework? Also was ähnliche Features anbietet oder was die vielleicht immer wieder aufgefallen ist, dass du gedacht hast oh stimmt, das ist so wie bei Falcon oder so.. Also mir geht es ganz häufig so Wenn ich mich in einer Welt relativ gut auskenne und dann mich in neue Themen einarbeitet, dann stelle ich fest Ah, okay.

Die NPD ist eine neue Form von Maven oder Gretl oder dass man quasi diese queer Referenzen herstellen kann.

Ich würde sagen, es gibt nicht so ein monolithischer Ding, was es alles kann. Ein bisschen. Also es gibt gute Respawn Frameworks, dem Rass ähnlich komfortabel auch eine Rest API aufziehen kann. Aber dann muss man halt nochmal einen Webserver dazu machen, was man zwar auch leicht geht, aber es halt erst ein anderes Projekt. Dependency Injection ist nochmal komplett anders. Man braucht es einmal in Payton nicht ganz so viel, da man in der Laufzeit natürlich viel austauschen kann.

Dynamisch auch, aber wenn man es wirklich vollständig benutzen will, dann muss man zu anderen Paketen gehen. Also es gibt nichts, was das alles miteinander verbindet und einem von Anfang an was funktionierendes gibt. Man muss das ein bisschen zusammensuchen, mehr und auch Entscheidungen treffen, welches man dann von mehreren Möglichkeiten wählt. Swing gibt’s ja auch Alternativen.

Genau, aber Spring Boot muss man schon sagen. Ich will nicht vom de facto STANDARD sprechen, aber das ist für Berat, also Rapid Application Development in der Java Welt so über die letzten Jahre ist das ein sehr, sehr großer Player geworden und man startet meistens damit, dass ganz viele große Applikationen, die man kennt, bestehen ja heutzutage aus vielen, vielen kleinen Microservices. Und diese Microservices, die die Arbeit im Hintergrund verrichten, die sind sehr oft mit Springflut geschrieben.

Welche Features von Spring Boot habt ihr denn verwendet? Also wir haben eben schon über ETT Auto Wired gesprochen. Andreas hatte die Notationen erwähnt. Das ist natürlich das Ding, oder? Diese Inversion of Control ist das Konzept, mit dem Spring damals bekannt wurde, Anfang der 2000er Jahre, dass man eben nicht mehr New Klassisch schreibt und damit eine harte Kopplung hat, sondern man sich über ET Auto Wired z.B. einen Logger in Jack tat, eine Datenbank in Jack That oder ein Transaction Manager in Jack That und dieser Transaktion Manager ist quasi entkoppelt davon, solang der ein gewisses Interface implementiert.

Bleiben wir mal beim Logger ist es egal, ob das ein Festplatten Logger ist, ein Screen Logger, ein Netzwerk Logger oder ein Logger auf einem ganz anderen Medium. Ein na Logger, der einfach nur alle Log Zeilen wegschmeißt oder ein Rauchzeichen lagert. Zur Not. Das Konzept ist ja ganz zentral und ich denke, das hat euch auch relativ früh. Habt ihr das bemerkt?

Ja also die Cernko Komponente für uns war, würde ich jetzt für mich sagen das Auto, wir O-Ring, dass man eben nicht jedes mal neue Instanzen von Klassen erzeugen muss, sondern wirklich diese Benes hat. Und wir haben die auch meistens eben als Singleton benutzt. Das war wirklich etwas, wo wir uns dann auch sukzessive beim Design der Anwendungen Gedanken drum gemacht haben. Also wir haben dann wirklich versucht, wo wir eigentlich zuerst intuitiv gesagt hätten Okay, wir brauchen mehrere Instanzen davon von der gleichen Klasse, dann haben wir trotzdem versucht, unser Design Pattern so umzubauen, auch gedanklich, dass wir eben diese Singleton Auto Viri Funktionalität benutzen können.

Und es hat uns halt auch beim Testing dann begleitet. Entsprechend ja eben das Logging. Andreas Was kann ich mir, wie haben wir das gemacht? Haben wir das von Spring genutzt?

Das Logging ist es auch per Annotation. Das war der SL vor J. Logger lassen hab der Franz Spring Boot selber ist oder?

Meistens sind das externe Libraries, die du einfach in Jackets. Beim Logging kippt es mehrere Standards. Es gibt Lock vor J, dann in CV. JJ Logger. Da gibt’s noch zwei, drei andere. Ich benutze den, der in der Anwendung schon drin ist, weil ich da kaum Unterschiede feststelle oder zumindest mit allen leben kann.

Sagen wir so. Was mir noch einfällt, das ist relativ gegen Ende gekommen, als es darum ging, die Anwendung beim Kunden in den Container Cluster. Zwar Masons zu Diplomen ging es darum, wie wir Health Checks unserer Anwendung im Betrieb machen können. Und weil das vom Dev OPs Team des Kunden angefragt wurde, wie man sicherstellen kann, dass die Anwendung auch vernünftig läuft und ich meine, da hättest bring uns die Funktionalität intrinsisch zur Verfügung gestellt. No Matrix Ja, genau, dass wir da nicht noch selber Health Brookes verschreiben mussten mit dedizierten Endpunkten in der API.

Genau. Wenn ihr das Micro Service Profil benutzt habt, haben wir glaube ich Letz endlich nämlich nicht.

Aber wir haben dann letztendlich die eigenen Endpunkte geschrieben gehabt und dann festgestellt, dass es bringt uns eigentlich frei Haus geliefert hätte. Aber da war es in dem Fall schon zu spät. Das lag dann eher daran, dass wir uns nicht genug damit auskannten. Okay, gut.

Aber das heißt im Grunde jetzt wisst ihr, dass es das gibt. Beim nächsten Service könnte man sich diese STANDARD Matrix also hier RAM verbraucht CPU Jukic, Disk Space könnte man sich auch sparen, sondern einfach die vordefinierten nutzen und die dann eben entsprechend erweitern. Wenn man das braucht.

Ja, was Oleh mir auch gesagt hat. Wir hatten dann ganz viele Klassen mit Autoritären, was am Ende darauf hinausgelaufen, dass wir ganz viele einzelne Klassen hatten, die quasi ein Objekt aus der einen Umgebung der neuen Umgebung übersetzen konnte. Und all diese Übersetzer waren dann letztendlich Singleton Wins, die dann an einer entsprechenden Stelle, wo sie benötigt wurden, einfach nur initiiert worden.

Genauso macht man es auch auch. Ich nehme an, als sie dann die einzelnen Komponenten getestet habt, dann injektor dir dann einfach Mock Objekte statt der realen Instanzen um dann die Kernfunktion einer Klasse zu testen. Richtig, genau so haben wir es dann gemacht.

Genau das war immer der Punkt. Wir haben versucht, das, was wir als Bian eben dann Jack Thot haben, vorher getestet zu haben, um es dann eben an einer anderen Stelle als fertigen Mock benutzen zu können.

Habt ihr bei Projektstart ich glaube es gab schon im Template Oleh Wanne. Ihr habt nicht den Spring Finisher Leisure, also auf Startpunkt Spring dort AIO gibt es den, den habt ihr nicht benutzen müssen, oder?

Nee, tatsächlich nicht. Da hatte ein Kollege schon was vorbereitet, um so eine grobe Projekt Struktur auch mal in Form von Place holder Klassen angelegt und eine grobe Funktionalität war auch schon gegeben. Also ich glaube man hat die Möglichkeit eine Liste zu migrieren oder Objekte einzulesen aus einem Testfall. Und es gab schon eine Anbindung an eine Postkarte oder Mail SQL Datenbank. Genau das war so unser Startpunkt zu dem Zeitpunkt und entsprechend gab es dann eben auch schon ein POM Fall mit dem ganzen Maven Setup A okay war.

Es gibt auch Startpunkt Spring Punkt Видео gibt es diesen Spring in leiser und da kann man dann sagen ich möchte eine Springflut Anwendung schreiben mit Datenbank Zugriff mit Maven oder Greendale Build System und man klickt so ein paar Sachen zusammen und am Ende fällt ein Zipfel raus, was quasi so die Basis Anwendung mit den getroffenen Einstellungen schon enthält. Quasi dieses schlachte schnell und kümmert sich um die Anwendungs Logik auf die Spitze getrieben. Jetzt habt ihr beide ja intelligent Diaa benutzt. Für das Projekt hat euch die Idee gut unterstützt.

Bei Spring Boot Anwendungen ist der Support dafür reif.

Der Support der war super. Tatsächlich. So war von den Socken. Wie einfach es doch ist, damit all die Sachen, die man sonst sehr manuell nachschauen muss in Variablennamen merken und dann ins Java natürlicher nach ner typisierte Sprache, d. h. das kommt noch dazu. All das. Da nimmt es einem ziemlich viel Arbeit ab.

Und auch die Kenntnis der Fidi über die Projekt Struktur. Also was kann ich überhaupt per Auto via O-Ring einbinden? Also was hab ich zur Verfügung? Oder wenn ich jetzt gerade nochmal an das Pom fail zurückdenke. Wenn ich da versuche in Versions takk von etwas einzubinden, was in der Form so nicht existiert, werde ich darauf hingewiesen oder dass ich das dann erst runterladen muss, damit es zur Verfügung steht. Für mich jetzt lokal all solche Sachen, um die man sich ansonsten zu einem späteren Zeitpunkt Gedanken machen müsste, um dann wieder zurückzugehen, um es zu fixen.

Das war schon klasse und natürlich die Möglichkeit, selbst in Module reinspringen zu können, die man nicht selber geschrieben hat, sondern die aus externen Libraries stammen und im Zweifelsfall dann eben de kompilierte Code vor sich zu haben. Was aber immer noch besser ist, als nicht zu wissen, was passiert.

Ja, das stimmt. Du hast Andreas hat eben auch gesagt die Gather und Zeta. Das stimmt, dass man die schreiben muss, das ist schon. Da entsteht diese riesen Text Tapete. Ich mache mal mit ALD einfügen generiere ich die einfach und habt ihr dann für alle Properties. Deshalb stört mich das gar nicht so sehr. Obwohl das eigentlich natürlich schöner geht, hat Andreas vollkommen recht. Was ich bei der Springflut Unterstützung ganz klasse finde ist Du kriegst ja dieses Blättchen, dieses Ahornblatt oder so wird dann angezeigt und dann siehst du die einzelnen Pins, dann kannst du bei den Autor via Pins kannst du so dadurch springen oder er schlägt dir dann schon die Methoden der Pins vor, wenn du da unten arbeitest.

Meistens läuft es da so hinaus. Du was hat deine Klasse, die die Anwendungs Logik enthält und du? Historiker Klassen, die dir halt zuarbeiten, also z.B. Du hast deine Anwendungs Logik und hast ein Database Worker, der Objekte aus der Datenbank holt, Objekte in die Datenbank speichert usw.. Kannst du die dann sehr einfach in deine aktuelle Klasse rein? Metten?

Ja, die Funktionalität hab ich zumindest auch hin und wieder mal benutzt. Was mir noch als Randnotiz positiv im Gedächtnis geblieben ist, ist die Tatsache, dass sehr intuitive Nomenklatur vorgeschlagen wird von der Idee. Also wenn ich das schreibe oder was haben möchte an möglicherweise vordefinierten Strukturen innerhalb meiner Klasse, dann ist die Nomenklatur entsprechend schon an das angepasst, was die tun soll. In dem Zusammenhang wies für mich jetzt gerade notwendig ist, auch wenn dann das schon mal sehr lange Methoden Namen bei rauskommen.

Aber es ist sehr gut. Human Redtube möchte ich mal sagen, was die Idee da einem vorschlägt. Also sie unterstützt da auch schon den menschlich intuitiven Zugang sehr.

Habt ihr eigentlich? Fällt mir gerade ein, bei Convention over Configuration habt ihr auch ein eigenes Banner erzeugt vor einer Anwendung.

Ja, ich hab das sogar in zwei erzeigt.

Wäre ja, ich hab zwischendurch mal gewechselt. Das ist richtig. Am Anfang habe ich ein Corporate Identity ähnliches Banner aus Asti Artzt da hinzugefügt. Genau Asgard Generatoren gibt’s ja genug online frei verfügbar und danach hab ich mir ein Zitat aus einem Musikstück, was ich sehr schätze da eingebaut, was in den Zusammenhang von dieser ganzen Worker Struktur ganz gut reinpasst. Richtig, das war so ein bisschen Selbstverwirklichung, muss ich zugeben. Aber ja. Haben wir gemacht.

Vielleicht für unsere Zuhörer. Kurz. Es gibt eine Band TX t, die kann man auch auf einem standardisierten Pfad ablegen. Und wenn die Anwendung gestartet wird, wird automatisch diese Textdatei quasi ins Lock Fail übertragen. Also normalerweise steht an Spring Boot Version 5.1 Delete, aber man kann das halt mit seiner eigenen SII Banner Punkt txt überschreiben. Was immer ganz interessant ist, was die Leute sich da ausdenken, weil das so ein Freitagnachmittag Task ist. Habt ihr denn auch die einzelnen Methoden dokumentieren müssen oder viel Dokumentation schreiben müssen?

Hat euch das bringt Boot irgendwie unterstützt?

Also da gibt es ja Bild Targets Chewie Java Doc die Dokumentation extrahieren. Da gibt es auch so Spring Boot Plug-Ins das ist alles ein bisschen schöner aussieht. Da purzelt dann diese Java STANDARD Dokumentation raus. Ich weiß nicht, ob das in dem Projekt gefordert war.

Das war nicht in Förderturm manuell dokumentiert, was zu dokumentieren war. Aber zwischendurch hatte ich mir tatsächlich auch diese automatischen Tools angeschaut. Die sind teils sehr umfangreich im Sinne von, dass sie natürlich automatisch alles dokumentieren, was in dem Fall einfach mehr war, als wir brauchten. Dann hätte man sich da dann nur die Teile rausziehen müssen, die man braucht. Von daher war es quasi. Es hat einem zu viel schon gegeben, mehr als von den Verbrauchter.

Zumindest war das mein Eindruck, was aber definitiv am Projekt Scope lag. Das war einfach nicht immer Anforderungsprofil der Aufgabe enthalten. Da ging es mehr um eine Übersicht Dokumentation und weniger in die Tiefe einzelner Methoden rein Dokumentation zu schreiben nach dem Festlegen vorgelegten Schema, sodass wir dann da eher eine Markdown Read Me geschrieben haben, die auch eher kurz ausgefallen ist und auf die Punkte eingegangen ist, die wirklich nötig waren. Deswegen konnten wir das Feature nicht nutzen. Sinnvoll.

Gab es denn bei dem Projekt irgendwie Fallstricke, die mit Spring Boot zusammenhängen, wo ihr sagen würdet Oh, wenn ich das nochmal machen würde, da hab ich viel Zeit gelassen, das würde ich anders machen. Also so Tipps, die im Grunde euch selber geben würdet, wenn ihr das Projekt nochmal durchführen würdet.

Ich weiß nicht, ob ich sie anders machen würde, aber auf jeden Fall Fallstricke, über die man wegkommen muss. Schon an seinem bisschen. Vor allem wann etwas ein Singleton Objekt ist und wann es kein Singleton Objekt mehr ist bzw. wenn du mal kein Singleton Objekt haben willst, musst du einfach ein bisschen mehr Arbeit machen oder muss überlegen ob du es wirklich nicht Singleton brauchst oder haben Singleton nicht auch ausreicht, weil einige Teile der Anwendung Wandern nachher ermutigt werdet. Da musste man dann ganz genau nachdenken, dass man da jetzt nicht dem Singleton irgendwie einen State verleiht, der dann von zwei setzt, sich gegenseitig überschreibt oder solche Dinge.

Da kann man perfekt wie Pattern einzelne Instanzen pro Thread Instance Ihren oder eben das ist ja fast schon dein generische Inversion of Control Anwendungs Design. Was du beschreibst.

Genau. Aber da fehlt ein bisschen die Zeit, dann auch für irgendwann. Aber ich würde sagen, dass das der wichtigste Punkt war, weil das einfach ein Konzept ist, was keiner von uns beiden zu dem Zeitpunkt wirklich angewandt hatte. Mal im Alltag, in der Programmierung und wenn man sich damit mal ein bisschen intensiver auseinandergesetzt hat, vielleicht auch auf einer theoretischen Ebene und an einfachen Beispielen angefangen, dann erleichtert das den Einstieg vor allem ins Design von so einer Anwendung, weil wenn man ständig wieder drei Schritte zurückgehen muss, um dann den Ansatz für eine Problemlösung doch nochmal komplett auf links zu drehen, weil man eben genau bei dieser Inversion of Control irgendwie das konzeptionell dann doch nicht richtig gemacht hat für den eigenen Anwendungsfall Gespartes schon.

Zeit, wenn man da einfach von vornherein das bei seinem Design Pattern berücksichtigt, als sie die Anwendung designt habt. Ich meine, wir haben eben schon kurz drüber gesprochen, habt ihr genug Beispiele für Spring gut Problem im Internet gefunden, also Bildung. Die Seite haben wir erwähnt und auch sonst bei Stack Overflow hattet ihr Immi Probleme für euern Fall was zu finden oder war das eigentlich immer gut? Wie würdet ihr die Dokumentation Situation einschätzen?

Ich würde sagen, Bildung war da sehr umfangreich. Es kam ein paar Mal vor, dass ich nach dem hin. Das reicht mir jetzt nicht nochmal einen halben Tag auf die Suche im Internet gegangen, nur um dann am Ende beim gleichen Bildung Artikel wieder zu landen und zu sehen. Okay, eigentlich stimmt es ja doch, was hier steht. Und wenn man es richtig liest und einen mit ein bisschen Abstand nochmal liest, dann steht da eigentlich alles drin.

Ich glaube, bei sehr spezifischen Problemen kommt es dann wie eigentlich immer ein bisschen aufwändiger werden zu recherchieren. So grundsätzlich war das Vorhandensein von Documentation ja schon gut ausgeprägt, aber ich erinnere mich, dass wir bei dem Thema Parallelisierung und dann eben Multi Reading unserer Anwendung doch die eine oder andere technische Hürde hatten, die ein bisschen schwieriger zu überwinden war, sowohl vom Design als auch von der technischen Umsetzung nachher, was dann auch ein bisschen mehr Recherche und Refactoring bei uns dann eben auch nötig gemacht hat.

Aber das sind dann schon sehr spezifisch die Themen der parallele Entwicklung oder?

Neben läufige Entwicklung ist natürlich immer noch ein Komplexität Stufe höher, einfach weil man eine ganze Menge bedenken muss, damit das auch funktioniert.

Ich hatte noch einen zweiten Fallstrick. Vielleicht hat mir eben am Anfang schon über das dpa gesprochen und wie Einfaches zu sagen gemacht hat, die Datenbank aufzubauen. Man hat dann aber am Ende schon gemerkt, wenn man relativ komplexe Abhängigkeiten mit mehreren von Civey, Strands und auch Manitoba Bennie Relationships. Irgendwann kommt man dann halt auch da ans Ende dieses Modells und kommt dann halt an Stellen, wo es dann noch mal her sich herausstellt. Okay, wenn ich das jetzt aber von der Seite aufziehe, funktioniert es perfekt und von der anderen Seite generiert es mir dann halt ganz ineffizienten ASCII Code.

Da muss man dann halt ein bisschen aufpassen, wenn man da angelangt ist.

Also einfach ein bisschen Augen offenhalten und vielleicht nicht nur eine Doku Stelle im Internet aufsuchen, sondern 2 3, um dann eben das für sich passende da rauszusuchen.

Genau da braucht ein bisschen mehr Recherche und muss sagen ein bisschen auch selber mehr ausprobieren, was dann da der beste Ansatzes würde.

Dir den Spring Boot als Plattform weiter empfehlen oder nochmal verwenden, wenn ihr eine weitere Java Anwendung in sagen wir mal im Kybernetisch Cluster betreiben wollen würdet oder auch einfach so auf dem Server betreiben wollen würdet.

Auf jeden Fall. Also ich würd mit nichts anderem anfangen wollen in Java.

Ich denke auch, dass sich das als Blaupause und Grundlage für, ja als die Fall regelrecht für Java Anwendungsentwicklung nehmen würde, weil die meisten Anforderungen aus Umgebungen kommen, wo man das eben gut umsetzen kann. Ich meine missis in den letzten Jahren nichts untergekommen, wo man jetzt auf einen klassischen ein Maschienen Server oder einen großen Mainframe irgendwas hätte entwickeln müssen, sondern man kommt eben immer eigentlich gerade wenn es Java sein soll in diese Microservices Richtung bzw. kann seine Anwendung zum Lösen eines Problems so Design, dass sie auch sinnvoll so umzusetzen ist.

Und dann ist Spring Boot wirklich ein Top Tool würde ich jetzt sagen. Und das ist doch glaube ich für den Einstieg gut. Also wenn man sagt, man kann bisschen programmieren, man kann objektorientierte programmieren, dann steigt man in Java ein, dann kann man mit Spring Boot auch sehr zufriedenstellend schnell ein Ergebnis erzielen, was wirklich Produktions reif. Innerhalb kurzer Zeit ist das eine tolle Sache.

Da kommt glaube ich dieses Opinio Native was du meintest Magix gut durch es. Es hat halt an vielen Stellen einfach sinnvoller die Falz und außer wenn du weißt, dass das unbedingt anders haben willst, ist halt anders. Aber der Default ist erstmal sinnvoll.

Ja genau. Also diese Opinio native Settings spielen eine Rolle. Deshalb läuft die Anwendung sofort, weil man im Grunde alles hat, was eine Anwendung benötigt. Der Webserver oder der Tomcat in dem Fall ist eingebaut, Matrix sind eingebaut, Health Checks sind eingebaut. Externe Konfiguration, also das Laden von Settings aus Properties. Falls wenn man zum Beispiel einen Dart Mac anbinden möchte und da ein Username Passwort und Connection String hinterlegen muss, ist dabei. Also ja, es funktioniert direkt und man kann dann anpassen, was man braucht.

Ich fand euer Beispiel sehr schön, weil ihr eigentlich ein Micros Service der Daten Transformationen hauptsächlich Macht implementiert habe, dann aber gesehen hat. Oh wir müssen noch irgendwie eine Web Komponente nachrüsten, weil wir statische Dateien aus liefern möchten oder Web Dateien ausliefern möchten. Ist das wirklich für eine Web Oberfläche gedacht gewesen, als wo jemand auf diesen Service springt und im Browser etwas machen kann? Oder war das einfach nur um Dateien auszulagern, die für diese Transformation notwendig sind?

Das war tatsächlich dann eine Oberfläche. Einfach weil sonst der Zustand der App ein bisschen schwierig zu monitoren waren. Brauchten wir da etwas, um den Überblick der dem Garzón in dem Fall zu behalten? Einfach weil ja da mehrere Zehntausend. Datenpunkte migriert werden mussten und das durch verschiedene Snakes durch. Erstmal exportiert werden musste, im neuen System importiert. Nebenbei noch Sachen hochgeladen werden mussten und da den Überblick zu behalten. Damals hat man ja im Frontend für gebastelt. Okay.

Und das Frontend ist nur für euch gewesen. Oder guckt der Kunde das auch an, wenn er diese Software einsetzt?

Das war jetzt in dem Fall für uns mehr als die Person, die dann die eigentliche Migration macht. Was in dem Fall ein Kollege von uns ist. Also nicht ganz für uns selber, aber der Kunde benutzt es in dem Fall nicht.

Er könnte es aber benutzen, wenn er wollte. Wenn die Anwendung in unserem Fall, auf dem wir entwickelt haben und er unser Benchmark Punkt war Björn ist gerade gesagt, ein paar 10 000 Datenpunkte, um die es ging, da war die Laufzeit für den kompletten Migrations Prozess im Bereich von Stunden. Das ist was, was man theoretisch morgens starten. Und wenn man es Büro verlässt, ist die Anwendung fertig betreiben kann.

Nicht nur theoretisch, sondern praktisch, ja sogar richtig.

Das wird sich dann hoffentlich bald zeigen. Aber es gab auch den Use Case. Ein bisschen mehr in der Zukunft, dass wir über mehrere 100 000 Datenpunkte vergleichbare Einzel Größe reden. Und dann würde die Anwendung halt schon deutlich länger laufen und man möchte vielleicht aktives Monitoring davon haben. Und das wäre eben darüber möglich gewesen, dass man dann eben mal reinschaut, wie es gerade der Stand der Dinge.

Und insbesondere hat dieses Webforen dann letztendlich nichts anderes getan, als gewisse Endpunkte unserer App anzusprechen. Und mit diesen Endpunkten hätte man dann auch ein beliebiges anderes Monitoring aufziehen können.

Na okay, ater sind die nachgerüstet von Matrix, die ihr eingebaut hat.

Unter anderem genau Azawad. Einige Standards, Sachen wie ihr Herzschlag und Memory Konsumption. Aber dann halt auch einfach wie viele sind schon prozessiert?

Wie viele sind in den unterschiedlichen Stages der Migration solche Sachen? Den letzten Fallstrick hatte ich noch als beiten Entwickler. Man muss sich an die Annotationen gewöhnen, dass sie einfach was ganz anderes sind als Payton Annotationen. Wenn man damit dem momentanen Modell sich einmal umgedacht hat, dann funktioniert es. Also das ist halt wirklich nur Annotation. Sind also zusätzliche Informationen, die dann irgendwie interpretiert wird, nicht Code, der ausgeführt wird.

Die Annotationen gibt es auch in neueren Pfeifen Versionen, zum Beispiel bei den Data Classes und ich hatte das so verstanden, dass die was ähnliches machen wie auch in der Java Welt oder ich hab sie so benutzt.

Sie sehen ähnlich aus, aber letztendlich sind sie nichts anderes als Haja oder Functions. Also die Funktionen als Argumente nehmen und dir deine modifizierte Funktion zurückgeben. Während Java Annotationen ja eigentlich nur ein Hinweis an ein Paket sind, jetzt irgend eine Magie zu verführen, aber nicht an den Annotation selber gekoppelt ist. Klar, man kann Annotation auch selber schreiben, aber es ist schon so, dass die Annotation so eine Art Auszeichnung sind, um die nachfolgende Funktion oder so eben zu Parameter visieren oder das nachfolgende Objekt genau innehabe.

Das eigentlich paar Interesieren passiert in Java soweit ich es verstanden hab, ja nochmal einfach anders. Also irgendetwas anderes nimmt dir Annotation und macht dann etwas damit Sphären in Python. Es ist die Annotation selber, die etwas macht.

Genau das Spring Framework werte die Annotationen aus und sagt Ach guck mal, hier ist ein Auto Wired, da muss ich ja diese Biene reinstecken, die ich hier initialisiert hab. Also das kann man vielleicht noch sagen, das Spring Framework geht hin, wenn die Anwendung gestartet wird, guckt das alle Bins also also eine Java Klassen hier als Service definiert habt oder als Controller definiert habt, guckt es an, instanziiert diese Klassen und dann erst guckt es in die einzelnen Klassen rein.

Wo steht dein Auto Wired und stöpseln jetzt diese initialisiert Klassen eben zusammen, damit die Anwendung loslaufen kann? Das passiert sozusagen alles im Vorfeld von dem Framework selber. Wenn ihr Fragen habt oder Feedback, sendet uns gerne eine E-Mail an Podcast Skill bei Tee. Wir freuen uns immer über Bewertungen und wenn ihr den Podcast an Freunde und Kollegen weiterempfehlen, die sich für ähnliche Themen interessieren. Wenn ihr aktuell im IT-Bereich auf Jobsuche seid, schaut gerne auf das G.H. Die Slash Job Seite vorbei.

Weitere spannende Technologien Themen findet ihr auch im Skill Bait Blog. Oli Andreas, ich danke euch ganz herzlich, dass ihr heute Abend meine Gäste wart.

Danke Maurice. Es war mir eine Freude. Ich wünsche euch beiden noch einen schönen Abend. Danke dir auch.

Maurice KnoppSkillbyte Podcast #45: Das Spring Boot Framework
Mehr

Skillbyte Podcast #28: Cloud als Strategie, nicht als Technologie!

Willkommen zum Skillbyte-Podcast! Skillbyte ist ihr Partner für digitale Exzellenz.

In diesem Podcast geht es um das Thema: Cloud als Strategie, nicht als Technologie!

// Inhalt //
01:20 – Intro Maurice Kemmann von Cloud-Mates.de
02:22 – Kosten von Cloudlösungen
03:09 – Möglichkeiten der Cloud-Migration
14:18 – Herausforderungen für Kunden bei der Cloud Migration
18:11 – Positive und negative Beispiele für Cloud Strategien aus echten Projekten
23:46 – Keine Angst vor Releases!
25:28 – Die Applikation als Basis für die Strategie / Cloud hat eine Lernkurve
27:29 – Retain und Retire inkl. Beispielen zum Datenschutz
34:26 – Prozesse, Betrieb und Monitoring
41:23 – Ausblick für zukünftige Cloud Strategien

Cloud Mates: https://www.cloud-mates.de/

Abonnieren Sie diesen Podcast und besuchen Sie uns auf https://www.skillbyte.de

Feedback und Fragen gerne an podcast@skillbyte.de

// AUTOMATISCH GENERIERTES TRANSKRIPT //

Wir haben bei einem Kunden, der auch noch aktuell in der Betreuung ist. Da kamen wir an, und die waren überzeugt Ja. Cloud Das ist das Meine, das wollen wir machen, da wollen wir hin. Aber es ist noch keine Strategie entwickelt worden. Wir sagen ja ganz klar Strategie, da hinzugehen. Ich glaube, da war eher mehr die Technik, das Interessante. Und von daher ist wenig Fokus darauf. Und wie bei allen Projekten, und da kann man jetzt in die allgemeine Projektsteuerung gehen, wenn ich keinen Fokus hab.

Wenn ich mir keine Ziele setze, wenn das eher so schwammig ist. Das geht schief. Herzlich willkommen zu unserer Podcast Episode Nr. 28 Cloud als Strategie, nicht als Technologie abonniert unseren Podcast. Wenn Ihr mehr spannende Themen aus dem Technologie Umfeld hören, möchtet ihr eine höhere Frage habt. Wir freuen uns immer sehr über eure Fragen, schreibt uns eine E-Mail an Podcasts D. Lasst uns eine positive Bewertung da und empfehlen weiter, wenn er euch gefällt. Das ist ganz, ganz wichtig für uns.

Ich freue mich ganz besonders auf meinen Studiogast, der ebenfalls Maurice heißt. Maurice Kemmann von Cloud Mates. Hallo Maurice, hallo schönen Abend.

Ich freue mich sehr auf dieses Gespräch, weil mit ihr habe ich ja wirklich ein Veteran in der Rechenzentrums. Planung, Durchführung im Betrieb heute hier mit ganz, ganz viel Erfahrung.

Ja, das kommt daher in 2000, angefangen mit Rechenzentren und ähnlichem. Uns darüber ja 16 Jahre, 17 Jahre bewegt. Dann halt später auch nochmal. Allerdings dann noch mehr. Also 13 Rechenzentren betreut und dabei so meinen Ausstieg gefunden. Und neuerdings sage ich Rechenzentrum adé zumindest im physischen Sinne und widme mich in den Clouds dieser Welt und vor allen Dingen aber dabei, das ja auch in einem Rechenzentrum betrieben wird.

Das ist ja ganz klar, das Cloud auch Rechenzentrum ist. Nur eben nicht das eigene dennauch.

Es ist kein Henson mehr, und ich muss keine Server mehr bestellen. Ich schreib ein bisschen Kohle und hab dann plötzlich eine VM oder sowas ist schon schon interessante Entwicklung. Ich sage mal generell auch von der ganzen Automatisierung her, ich hätte das gerne früher in meinen eigenen Rechenzentren gehabt. Aber naja, wir waren halt immer etwas kleiner als jetzt eine aways oder eine Microsoft oder Google.

Ich glaube, das gilt für die meisten Rechenzentrums Betreiber. Du hast ja dann direkten Einblick. Wie ist das denn von den Kosten für dich als Betreiber oder auch für die Endkunden, für die ihr ja Anwendungen oder Server gehostet habt, wird zu sagen Das ist überhaupt keine Frage, die Cloud ist immer günstiger, oder muss man da abwägen?

Also wenn man auf die Kosten schaut, da muss man schon sehr differenziert reinschauen. Okay, ich sag mal, wenn ich jetzt sehr weit bin, auf dem Weg in die Cloud zu gehen, so sehr alle Technologien alles, was es nutze, habe ich ein sehr großes Einsparungspotenzial. Aber letzten Endes ist das ja nicht die Welt, in der wir uns bewegen. Außerdem sind es Dadaab. Wir machen alles direkt für die Cloud. Wenn ich ein eigenes Rechenzentrum habe oder irgendwo was in Kolonisation hat, dann sieht die Welt natürlich ein bisschen anders aus.

Da ist nicht alles direkt klar.

Das heißt, eure Kunden sind sowieso so unterwegs, dass sie ein Rechenzentrum haben und neue Services neue Cloud Services nach und nach dazunehmen? Genau.

Also eigentlich sind es tatsächlich Migrations Kunden, die schon Vorteile sehen, für sich Benefiz herausgearbeitet haben, aber eigentlich nicht so genau wissen Wo fangen wir jetzt an, weil einfach das Thema auch sehr vielschichtig ist. Ich sage mal Ich persönlich bin jetzt mehr in der Arbeitswelt. Aber A-WM bietet 170, 180 Services an noch nicht aufsetzen kann. Da den überblick zu behalten, ist nicht so ganz einfach. Und den idealen Weg zu finden, ist auch nicht einfach ein Prozess.

Und das ist so der Bereich, in dem wir uns dann tummeln, wo wir dann reinkommen, wo wir unterstützen, unterstützen und diese Migration letztendlich mit den Kunden angehen. Was uns auch so ein bisschen zu dem Thema des heutigen Gesprächs führt. Weil wir ja gesagt haben, es ist eine Strategie weniger Technologie. Es ist natürlich auch eine Technologie.

Aber für den Kunden, den Endkunden in die Cloud gehen will, ist es eher eine strategische Entscheidung, weil es eben nicht nur um Outsourcing von Server Hardware geht, sondern viel mehr durch dieses Service Netzwerk, was ja um die einzelnen Cloud Komponenten entsteht.

Genau den größten Fehler, den man eigentlich machen kann, ist, dass man versucht ein klassisches Rechenzentrum eins zu eins abzubilden. Das ist die klassische Lyft. Entschlüpft, sagt man da neudeutsch zu. Und ja, das heißt, ich habe da eine VM, und ich habe Server. Bildet das genau so mit dem gleichen Aspekts auch wieder in der Cloud ab, und da muss man sagen Oder komme ich wieder zurück auf die Kosten? Das ist in aller Regel teurer, weil ich ja in der Cloud so Vorteile habe wie Pay as you go.

Also ich zahl das, was ich nutze. Aber im Rechenzentrum hab ich ja immer so eine 24 Stunden Nutzung auf die ganzen Specks nicht reserviert. Habe möchte das eins zu eins in der Cloud mache. Dann wird es einfach teurer, weil dafür, das ist nicht der Sinn hinter den klassischen klar.

Ja, das hab ich bei der Anwendungsentwicklung auch schon bemerkt, dass man im Grunde, das sie dieses Paradigma etwas verschiebt. Früher hat man gesagt Okay, die Datenbank ist eh da. Da kann man Abfragen machen ohne Ende. Und jetzt ist es schon so, dass man überlegt Wie mache ich deine Such Query? Oder schwanke ich sozusagen fünf Sekunden an Daten, macht dann einen Badge und schiebt das einmal durch? Statt 5000 Query mache ich dann eine. Anwendungen, die viel Datendurchsatz haben, kann es schon ein Unterschied machen für den Betrieb?

Genau. Es ist halt ein leichtes Umdenken. Es ist ja nicht so, dass ein technisch versierter Entwickler oder Administrator das alles komplett neue Geschichten sind. Aber wenn ich mich halt auch auf klauer stürze, dann hab ich einfach gewisse Möglichkeiten und Optimierungsmöglichkeiten. Und die nutzt man aber nicht nur bei Datenbanken. Das geht ja wirklich in alle Bereiche.

Also nochmal als Cloud maatz hilft Kunden und begleitet Kunden auch Henson bei dem Weg aus dem eigenen Rechenzentrum in die Cloud. Plus der Erstellung der Strategie. Was für Cloud Services machen denn in deinem Rechenzentrums so anwendungs zu Sinn? Und wie kannst du die optimal einsetzen? Genau.

Wir haben so eine Framework. Man kann es doch einfach ein Beratungs Ansatz nennen, wie wir halt vorgehen. Wir schauen uns natürlich erst mal an Was haben wir da für den Kunden? Was hat er an T. Das brechen wir halt runter. In aller Regel durchaus auf Applikationen, um zu schauen Okay. Was setzt dir ein? Wir versuchen, den Applications Runa ausfindig zu machen. Also hat die Hoheit über die Applikation Wer kann uns am meisten erzählen, um erst einmal zu sehen Okay, wie wird sie genutzt?

Welche Lernprozesse werden unterstützt? überhAUPT Welche Prozesse im Unternehmen werden durch die Software unterstützt? Welche Risiken existieren auch, wenn ich eine Applikation überfuhr? Als Beispiel, wenn ich ein Bin ich sehr Vertriebsleute ich bin, dann habe ich häufig ein crm-system, das sehr wichtig ist für meinen ganzen Vertrieb. Da sind alle Informationen drin, und hier hätte man sicherlich ein hohes Risiko bei einer Migration, wenn es denn schief gehen würde. Und das wird halt entsprechend beurteilt, wird festgehalten und auf Grund des Consulting im Vorfeld haben, wird dann letztendlich ein Plan entwickelt, wie man da vorgehen kann.

Das heißt, die Herausforderungen für eure Kunden sind an dieser Stelle ganz klar. Kritische Anwendungen dürfen während der Migration nicht ausfallen.

Genau, oder es muss ein sehr geringer Ausfall sein, also ein Gering. Man hat immer einen Ausfall, also spätestens dann, wenn ich halt umschalten von der bestehenden Applikation auf die neue Halts in der Cloud Umgebung. Aber sowas kann man natürlich gering halten. Man macht es entweder nachts oder am Wochenende, sodass man auch noch immer ein bisschen Zeit habe. Das Schöne ist aber dadurch, dass eine Migration ist, können wir den Hogg, eigentlich den Plouffe of Konzept, parallel zur bestehenden Umgebung aufbauen, und somit lässt sich das eigentlich ausgiebig testen.

Und wenn die Kunden dann einmal die Anwendungen in die Cloud verlagert haben, dann kann man ja mehrere Umgebungen hochfahren. Und ab dann sind die Deployment relativ einfach nachvollziehbar oder durchführbar. Ohne Ausfall?

Genau. Wir versuchen natürlich immer So sehen, ja können wir Sie hier wirklich automatisch wieder wie Staaten? Welche Abhängigkeiten sind dahinter? Das ist immer Teil der Planung und der Analyse. Wir haben letztendlich vom Ansatz her es wurde immer Six Artz genannt, also die 6, wonach so ein bisschen wie die Applikationen und Hosts eingeteilt werden. Das eine ist ein Request, dass es diesen Lyft in Shift Ich mache erst mal eine Eins zu eins übertragung. Das machen wir nicht besonders gerne, weil der Quick Win eigentlich nicht sehr hoch ist.

Also im Zweifelsfall habe ich vielleicht sogar noch höhere Kosten. Macht dann Sinn, wenn man einer eine Applikation oder eine Architektur erst mal kennenlernen muss und viele andere Systeme aber durchaus schon umziehen können, um dann alles umzuziehen. Da macht man halt ein Haus, aber es ist nicht der optimale Fall. Dann gibt es das, die Plattform an der Stelle, das sehr häufig bei Datenbanken stattfindet. Wir hatten eben schon mal das Thema Datenbank. Ich habe zum Beispiel ich sage jetzt mal meine Microsoft Scuol Datenbank, ich Aufsätze.

Ich musste mir da weiß nicht Enterprise Lizenz holen, aus welchen Gründen auch immer. Sie ist aber wenig belastet. Das ist ein Paradebeispiel dafür, dass ich dann zum Beispiel erst auf Aerts Datenbank Service umstellte, wo ich halt nicht mehr eine VM Map oder physischen Server, auf der die Datenbank mit der kompletten Lizenz, sondern ich hatte eine Datenbank Service und zahle per Transaktion. Und leider ist es häufig so, dass unsere Kunden nicht wissen, wieviel Transaktionen pro Sekunde oder so machen.

Da finden wir im Zweifelsfall für sie raus. Das ist dann in der Datenbank. Scuol wird über Scuol gemanagt, also steht auch da drin. Hat man eine Datenbank admin vor Ort, dann weiß er das. Und dann kann man schon mal entscheiden Ist das zum Beispiel eine Möglichkeit der Umstellung? Dafür gibts dann auch Migrations Tools. Sowas lässt sich sehr sehr gut machen und das ist etwas, was ich so als Cloud verstehe. Pay as you go. Ich zahl so viele Transaktionen wie ich habe.

Aber muss man natürlich schauen als Softwareentwickler. Wenn man dorthin geht, dann achtet man natürlich drauf, dass eine eine Suche oder das Abrufen von Daten einfach nicht so kostenintensiv ist.

Sprich Ich hab jetzt nicht so viele verschiedene Abfragen dahinter, um zu einem Ergebnis zu kommen oder das man crasht, das man wiederkehrende Abfragen crasht für einen gewissen Zeitraum das Genner mit zum Kiewel just z.B.. Und nicht jedes Mal die Datenbank abfragt. Genau das war schon bei hochbelasteten Datenbanken, vor allen Dingen bei größeren Firmen ist das auf jeden Fall zu empfehlen.

Ganz klar Per Datenbank ist ein eigener Themenkomplex Wahl. Es gibt ja, du hast es angesprochen Dorsts in einem Rechenzentrum hast du den Server mit der installierten Datenbank plus Lizenz vor oder hältst du vor meinetwegen auch mehrere Datenbanken. Und in der Cloud hast du jetzt unterschiedliche Möglichkeiten. Entweder du fährst da auf einer VM diese Software hoch. Lift ein Schiff, das ist sozusagen die einfachste Form. Aber da profitiert man am wenigsten von. Oder man nimmt so ein Scuol Service, der ja von den Cloud Providern schon angeboten wird.

Also wo man im Grunde eine global, also weltweit verteilte Datenbank erhält, die dann Scuol API davor hat, die man einfach ansprechen kann. Und man bezahlt pro Transaktion sehr, sehr wenig und die Volumina sind auch sehr groß. Das muss man dann gucken, wie sich das lohnt oder wie die Kosten sind. Und dann hast du nichts mehr zu tun mit Software Maintenance, also Updates installieren, das Betriebssystem aktuell zu halten, die Datenbank Software aktuell zu halten, mehr Speicherplatz irgendwann hinzuzufügen, weil die Datenbank wächst.

Einfach Es kostet zwar mehr Geld, aber man muss. Es muss keiner mehr rausfahren, um die Festplatte zu vergrößern, die die Datenbank zu stoppen, die Festplatte vergrößern, die Datenbank wieder zu starten und auf der vergrößerten Festplatte die Anwendung fortführen zu lassen, sondern das geht alles dynamisch. Man bezahlt einfach nur für den genutzten Speicherplatz für die Transaktionen und muss sich im Grunde nicht um die Wartung der Datenbank kümmern.

Genau das fällt tatsächlich fast komplett weg. Wir bieten hier über das reine Umstellen natürlich auch noch so Managed Services an, auch Datenbank Services reinfallen. Das ist immer dann die Frage, ob der Kunde einen eigenen DBA hat. Brauchen Sie das nicht zu machen? Der kann diese Aufgaben locker übernehmen. Aber die Erfahrung zeigt, dass selbst in relativ großen Firmen ist das Datenbanken Know how relativ gering, weil es vorher auch getanzt war. Oder man hat halt einfach gesagt Naja, gut, was sollen wir da schon großartig machen, sodass Parameter wie hydrazin oder sowas nicht beobachtet werden.

Wenn man das haben möchte, dann können wir das auch für Kunden übernehmen, das man einfach sagen kann. Bada. So stelle ich fest, ob die Software auch optimal arbeitet. Das ist zwar schön, dass ich eine Datenbank habe, die fast beliebig skaliert. Aber es entbindet natürlich nicht davon, vernünftige Software darauf zu entwickeln. Und absolut, da können wir natürlich noch unterstützen, was von den 6er gesprochen.

Ich glaube, drei hattest du schon genannt, aber es war das letzte Mal. Die Plattform hat diese Transformation in eine neue Plattform. Es gibt jetzt das Repertoire. Das ist letztendlich auch ein anderes lizenzmodell, also dass man einfach sagt, das passt auch zur Plattform. Bei einer Datenbank, welche Datenbank Lizenz vorhatte und jetzt offen, da hat man Service wie vielleicht auch das lizenzmodell. Letztendlich ja. Ich hab nämlich mit Lizenzen gar nichts mehr am Hut und muss nun nicht mehr alle paar Jahre erneuern und Support und sonstiges dazu holen.

Hat natürlich auch mal leichte Architektur änderungen, aber das betrachtet man halt auch nochmal. Das kann durchaus auch sein, dass es einfach das typische Beispiel auch immer mal wieder die originale Datenbank Oracle um ein anderes Produkt zu nennen. Meine lizensierung fällt auf, weil die auf Jahres basieren und jetzt die ich vor der Entscheidung Soll ich etwas Neues kaufen oder ändert? Irgendwie hat man diese Möglichkeiten natürlich auch in der Cloud. Das gleiche Geld mit fast allen Elitz oder wichtigen Dezenz Anbietern muss man aber gegebenenfalls einfach überprüfen.

Also es funktioniert nicht mit allem. Das ist nicht so die Lösung für alles. Aber da helfen wir natürlich.

Jetzt haben wir viel über Datenbanken gesprochen. Wer sind denn eure Kunden und was haben die für Herausforderungen? Gibt es da so? Muss da, wo du sagen kannst Ja, das ist ein schwerer Brocken für die meisten Kunden? Oder ist es hochgradig individuell?

Sowohl als auch individuell. Natürlich, weil alle Kunden haben unterschiedliche Schwerpunkte. Auch was risiko-management und so weiter angeht. Aber letztendlich Datenbank ist immer cih für die Anwendung. Aber die größte Herausforderung sind natürlich tatsächlich Anwendungen, die so gar nicht in die Cloud passen. Die, sagen wir mal, eher altbacken sind erp-systeme, die teilweise. Ich übertreibe mal gern ein bisschen noch mit dos Lückenfüller rüberkommen. Du hast es natürlich teilweise schwierig.

An der Stelle gibt es das Image ist auf aways gar nicht. Ich muss ehrlich sagen Prinzipiell würden wir das wahrscheinlich hinkriegen. Ich weiß es aber tatsächlich.

Auch für die an diese Kunden ist gedacht, wie das mit Security aussieht. Das mag ich mir gar nicht auszumalen.

Es wird auch weniger an der Stelle. Aber das sind so diese klassischen Kunden für ein Refektorium, das heißt neue Architektur. Ich such mir eine neue Plattform des software-plattform, denn, würde man sagen Pass auf, entweder man sucht. Ein Produkt am Markt, das existent ist, was unseren und seinen Belangen da hinreichendes, ist auch für die Cloud. Ich sag mal, aktuellere Produkte werden fast alle in Richtung Cloud entwickelt. Muss man ja nicht sagen, oder? Aber das ist natürlich dann der Idealfall.

Ich habe eine selbst entwickelte Software und suche mir halt eine Softwareschmiede meines Vertrauens, die mir das direkt laut Radi umsetzen. Das ist natürlich dann der höchste Benefit. Es gibt sehr, sehr gute Programmierer, schmieden dazu. Aber das hängt natürlich immer Kosten-Nutzen-Verhältnis in West. Also ich investiere natürlich dann wieder für die nächsten Jahre. Das muss dann gerade passen. Aber Factoring Ansatz ist der natürlich, der den höchsten Nutzwert eigentlich bringt, weil ich eine veraltete Architektur in aller Regel habe und die in eine komplett neue überführen und dort natürlich aus allen Vorteilen dann letztendlich profitieren kann.

Teichert Jetzt gedacht, das ist fast bei, wenn man hoffnungslos veraltete Software hat. Wie? Man muss eine Service Lösung nehmen, also eine Software as a Service Lösung, und dann irgendwie schauen, dass man die Daten da rein importiert bekommt, weil diesen Rückstand sehr schwer, dann aufzuholen.

Da geht es dann los mit der individuellen Betrachtung. Das kann sehr unterschiedlich sein. Auch ich sage mal eben Banken Umfeld trifft man häufig noch auf Termühlen Emulation im Frontend, komischerweise aber dann in einem Fensterchen mittlerweile drin sind und und, und, und und. Im Backend ist zwar auch häufig auf mainframe basieren, aber dennoch schon neuere Architektur zu finden. Das hat dann aber ich weiß nicht irgendwelche Cross Kompatibilität, die gehalten werden müssen. Da bin ich da manchmal auch überfragt.

Bankkunden Wer noch nicht überführt, muss ich auch der Ehrlichkeit sagen. Ich kenne halt nur, weil wir früher viel mit Banken Kunden zu tun hatten. Da gilt es dann zu überlegen Wie geht man vor? Aber hier mehr schriftlich vorgehen, denn so eine Entwicklung ist ja auch ein Prozess. Die sind dann eher ein, zwei Jahre, je nach Größe und Inhalt der Software. Das muss man sich halt wirklich genau angucken. Aber der Nutzwert ist tatsächlich der aus meiner Sicht höchste und ist natürlich ein optimaler Weg, den zu gehen, weil man es dann state of the art anfangen.

Das halte ich so raus. Eure Kunden sind Mittelständler, aber auch Großunternehmen in allen Lagen der Technik. So kann sein, dass sie 20 Jahre alte Technik haben. Es kann sein, dass sie relativ modern unterwegs sind.

Genau das ist wirklich ganz breitgefächert. Macht eigentlich auch den Spaß aus, weil man natürlich alles nur Nullen und Einsen, aber immer neu zusammengesetzt und dadurch natürlich interessanter, immer neue Herausforderungen. Die Kunst ist es natürlich, aus Kundensicht den besten Weg zu finden, was natürlich auch immer Kostenfaktor und so weiter.

Hast du ein Beispiel für ein Projekt, was du einfach mal ohne den kundennamen zu nennen, was besonders gut funktioniert hat? Oder vielleicht doch etwas, was nicht besonders gut funktioniert hat? Das ist ja auch immer ganz interessant für unsere Zuhörer, das man zeigt ok. Das hat überhaupt nicht geklappt. Wenn ihr in so einer Situation seid, überlegt nochmal, ob das richtige Weg ist und holt euch vorher Hilfe. Und ja, natürlich auch positive Beispiele, dass man sagt Okay, in deren Constellation lohnt sich das auf jeden Fall.

Und man hat sehr, sehr wenig Widerstände zu überwinden, vielleicht etwas Positives und ein negatives Beispiel.

Ich fange mal mit einem negativen an, weil sich daraus durchaus positive Ansätze zumindest definieren lassen. Wir haben bei einem Kunden, der auch noch aktuell in der Betreuung ist. Da kamen wir an und waren überzeugt Ja, Cloud, das ist das Meine, das wollen wir machen, das wollen wir hin. Aber es ist noch keine Strategie entwickelt worden. Wir sagen ja ganz klar Strategie, da hinzugehen. Ich glaube, da war eher mehr die Technik, das Interessante.

Und von daher ist wenig Fokus darauf. Und wie bei allen Projekten, und da kann man jetzt in die allgemeine Projektsteuerung gehen, wenn ich keinen Fokus hab, wenn ich mir keine Ziele setze. Wenn das eher so schwammig ist. Das geht schief, und hier sind wir aber auch uns an, weil wir am Anfang dachten Gut, ja, weil man vorgehen. Man will jetzt erst mal was kennenlernen, und dann gehts weiter. Aber vielleicht auch Coruna bedingt.

Ist das jetzt so ein bisschen aus dem Fokus geraten und ist jetzt so eine never ending story? Hier wird man nochmal neuen Anlauf brauchen, einen Plan aufstellen und einfach mal so sagen Okay, wie ist das? Fangen wir doch mal mit Applikationen an. Gerade wenn ich es kennenlernen will. Wie funktioniert? Klar? Welche Möglichkeiten sind da Applikationen mit wenig Risiko dabei, die ich parallel gut aufziehen kann? Und dann kann die IT-Abteilung des Kunden so wie wir. Man kann sich annähern, findet den Weg und findet halt auch die Rezepte, wie wir die Umsetzung machen wollen, die Migrationen machen wollen, sondern das ist so der negative Aspekt, der aber eigentlich wieder ganz klar vor Augen führt.

Bitte bleib bei diesen Frameworks, wie wir sie auch vorgeben.

Also Fokus und Fokus auf ein Projekt haben. Und auch ich sag mal ehrgeizige Ziele sich vornehmen und dann noch bei der Stange bleiben. Das ist ein ganz wichtiges Voraussetzung für ein erfolgreiches Projekt.

Definitiv. Da entgegen haben wir einen anderen Kunden. Die beiden kann man ganz gut vergleichen, weil erste Berührungspunkte mit der Cloud. Mittelständische Unternehmen, in Deutschland ansässig und hier? Um? Ja, anfangs um die Lösung für Back up Szenarien notfalls Szenarien unternehmen. Und die hatte man erstmal ein klares Ziel definiert, hat gesagt Okay, die anderen Dinge, die finden wir sexy. Aber mit dem wollen wir uns jetzt noch nicht beschäftigen. Wir haben jetzt ein Primärziel, und das haben wir dann umgesetzt.

Auch sehr, sehr schnell. Tatsächlich konnten wir denn den Plouffe auf Konzert machen. Da haben wir ihn dann innerhalb weniger Tage direkt in eine produktive Umgebung überführt und konnten eigentlich so den Kunden sofort zufriedenstellen. Und er sagt Ja, und so wollen wir weiter vorgehen. Wir möchten jetzt gerne, dass das Ablösen, wir neue Dinge identifiziert. Und das wandert jetzt auch in die Cloud. Und da hat einer meines Erachtens schon sehr viel Projekt Erfahrung einfach gehabt, sodass er eigentlich unsere Dinge direkt mit aufgenommen hat und auch so vorgeht.

Und für uns ist das Interessante Ja, wir wachsen mit dem Kunden. Und wir verstehen ihn immer mehr und können auch die Applikationen, die dahinter sind, besser verstehen und somit auch vielleicht Risiken aus unserer Sicht einschätzen. Es gibt auch immer Applikationen. Wo ich den Kunden empfehle, würde ich nicht machen. Also, wenn ich zum Beispiel nicht bereit, denn eine alte Software abzulösen, und wenn ich schlechte Bandbreiten habe, sind zig Faktoren erreichbar. Und noch weiß nicht eine funktionierende Abteilung.

Alles ist gut. Dann würde ich auch sagen Passt auf, dass es. Dieses partielle Bausteinen würde ich jetzt nicht überführen, zumindest jetzt noch nicht.

Never change running system.

Mehr ja. Erst wenn die Zeit gekommen ist, wenn man sagt Ja, ich will die Software jetzt ablösen, dann würde man natürlich wieder auf die neuen Technologien. Aber solange das System Apple Running ist und es keine weiteren Quicken oder Winds gibt, also Kosteneinsparung, Effizienzsteigerungen, was auch immer, dann muss man natürlich auch davon abraten. Und hier war es ganz einfach ein Kunde Mittelschiff, sehr bodenständig. Ich nenne sie immer Schnittchen, Kunden, weil da gibt’s mal Mittagessen, gibt’s immer Schnittchen drauf, und das meine ich auch gar nicht negativ.

Ich finde das. Die wissen genau, was sie wollen und sehen wollen und dass das sehr positiv verlaufen. Muss man sagen, da sagst du was.

Ich hab auch das Gefühl, dass beim mittelständischen Unternehmen der Fokus sehr hoch ist oder tendenziell höher ist, weil ich weiß nicht, weil die einfach mehr darauf angewiesen sind, dass ihre Kerne Prozesse funktionieren müssen, damit sie Geld verdienen und sie nicht so viel eher weiche Ziele haben, sondern meistens ist es ja ein Unternehmen, das genau um einen Zweck gebaut ist. Und alles, was nicht diesem Zweck dient, wird irgendwie rausgeschmissen. Und von daher ist immer sehr schnell klar, in welche Richtung es gehen muss.

Genau so kann ich so unterschreiben, wobei man immer noch eine Sache beobachten muss. Das ist die IT-Abteilung. Das ist immer schön, wenn der Chef oder so sagt Ja, das hört sich gut an, das wollen wir machen. Aber es ist ja eine ganze, ist eine Strategie. Und Strategie muss getragen werden von den Leuten, die sie hinterher auch umsetzen. Das ist dann in aller Regel ja die Abteilung, und die müssen natürlich auch mitziehen. Und wenn man hier neugierig ist, wenn man auch Spaß hat an Technik?

Adam begeistert auch klar und einfach die Automatisierung Unmöglichkeiten. Ich habe die Reporting Monitor. Ich habe so viele Daten nicht auswerten kann, wenn ich mir denn vernünftige kpis schaffe. Also, ich habe wirklich jede Menge Benefiz, aber das macht doch wirklich Spaß.

Das ist auch so eine, merke ich manchmal. Es gibt zum manche Hürden bei meinen Z. Gerade was Fury ließ es angeht, dass man sagt Ja, dann fährst du die Umgebung zweimal hoch und schalte ist um. Da brauchst du keine Angst mehr, families zu haben, und wenn das nicht klappt, nimmst du das alte Image. Das ist ne abschottet und fest, das hat wieder hoch. Und damit Kybernetische ist das ja noch dynamischer. Aber definitiv, dass man wirklich da.

Das freut mich immer ganz besonders, dass man dann diese Aha-Effekt sieht, wenn die Leute das es erst mal machen. Früher hatten wir ein Release alle drei Monate, weil dann mussten alle nachts in die Firma, oder die Leute mussten nachts in die Firma, und alle haben gebetet und sich bei ihren Familien abgemeldet für zwei Tage. Und dann wurde mit Biegen und Brechen das neue Relais ausgespielt. Und jetzt kann du einfach so machen und haßten viel geringeres Risiko, weil du zurückrollen kannst.

Wenn du merkst, das neue Feature braucht mehr CPU Power, kannst du dich einfach hinzu buchen, und man ist halt einfach flexibler.

Wo du es auch anspreche, sobald ich mich mit Thematiken die micro Service ist und so weiter beschäftige, was natürlich meistens bei diesem Refektorium Einsatz kommt. Ich mache etwas neu und ich gehe direkt in diese Welt. Taugt da wirklich ein A? Ich kann hier ganz modular abdecken. Ich muss nicht mehr dieses Jahres Mammut Update machen, wie du geschrieben hast. Alle gehen mit Essen und Trinken für zwei Tage ins Exil und in die Firmen. Quarantäne? Genau.

Ich war einfach Meine einzelne Micro Service tauscht die aus, die kommunizieren nur noch über Schnittstellen. Sie hatten einen hohen Grad von Testmarkt an einer Stelle, und alles wird doch deutlich entspannter oder planbarer und planbarer, was natürlich auch zur Entspannung beiträgt.

Was ich bei dir super finde, ist Du gehst von konkreten Nutzungs Szenarien aus oder von der Applikation. Und schaust Was kann die Cloud mir bieten im Bezug auf diese Applikation? Du schaust sie die Applikationen an, und du gehst nicht von diesem Cloud Hype aus. Also ganz oft in der Werbe, Literatur oder im Internet. Tanja Wie du gesagt hast. Cloud hat 170 Services, und Server lässt und man braucht sich um nichts mehr kümmern. Ja, ja, das ist schon wahr.

Aber man erkauft sich dadurch. Das sind sozusagen die positiven Sachen. Aber man erkauft sich dadurch andere Paradigmen, nach denen man entwickeln muss, die man erst mal lernen muss. Das Thema Stat ist bei Cloud net Anwendungen ganz anders. Da muss man das behandeln als mit Prammers Anwendungen und auch Parallelisierung von Entwicklung, was ja schon immer eine Herausforderung war. Also dass mehrere Freds parallel sich nicht in die Quere kommen und die Anwendung quasi horizontal skaliert. Da muss die Anwendung darauf vorbereitet sein.

Und das ist auch nicht trivial, so eine Architektur aufzusetzen. Und das ist sozusagen der Preis. Der Preis, den man bei einer Cloud Anwendung hat? Definitiv. Das ist nicht immer notwendig. Deswegen auch meine ganz klare Aussage Es ist eine Strategie. Die Services und die konkreten Dinge, das sind die Technologien, die man einsetzen kann, die man nutzen kann. Aber es ist eine Strategie, und wir sagen halt ja. Die Strategie kann durchaus auch beinhalten Ich gehe nicht zu 100 Prozent in die Cloud, sondern nur zu 70 Prozent, was auch immer.

Aber man legt sich da fest, zumindest für einen gewissen Zeitstrahl. Und ich sage man Darüber hinaus wird sowieso wieder was Neues entwickeln. Oder die ganzen Cloud-Anbieter sind so effektiv dabei neue Services erschaffen. In drei Jahren gibts vielleicht wieder doppelt so viel. Und vielleicht trifft dann etwas, was ich machen will, dann besser. Dann ist da ein Service. Ich jetzt zurzeit noch nicht oder unzureichend habe. Und deswegen ist das auch durchaus ein langwieriger Prozess, der immer immer wieder hinterfragt werden muss.

Ich bin nicht sicher, ob du schon alle 6 er gesprochen hast. Ich glaube ihr, wir haben noch zwei übrig. Wobei den einen haben wir ja schon so angeschnitten. Das sind Applikationen, die tatsächlich nicht im migriert werden können. Aus diversen Gründen sei es, dass man Applikationen auch so lang betreiben will, bis sie End of Life ist, und erst dann sich Gedanken macht, dass das Risiko der Migration ist zu hoch. Oder es gibt halt auch ganz einfach politische Compliance.

Wie auch immer Gründe, wo man sagt Nein, die sollen weiter hier und in unserem Rechenzentrum oder bei unserem Rechenzentrum stehen. Und ich sage Je größer eine Umgebung ist, eine IT-Landschaft, desto mehr hat man auch durchaus Applikationen, die darunter fallen. Mackensen Nützliches ist und was sehr häufig vergessen wird, das ist Retailer. Das heisst nicht oder kaum genutzte Applikationen, die einfach weggeschafft werden. Was ist das? Gibts sowas überhaupt? Natürlich, weil fast jeder hat in seinem Rechenzentrum plötzlich VMware oder einen anderen hypervisor laufen.

Schafft sich VMs ohne Ende? Und ja, dann wird halt noch ein Server hin zugestellt, wenn er nicht reicht. Und hier ein bisschen stolz, weil in Anführungszeichen. Kostja nichts. Es wird ja immer nur der Preis für eine Hardware oder für Festplatten gesehen. Wird ja weniger. Ich sag mal, das ganze Operations dahinter gesehen. Und wenn ich dann aber VMs habe, dieser ganze Park ist gewachsen, und ich nutze dann aber nichts davon. Und ich rede ja durchaus von 30 Prozent und manchmal mehr an Ressourcen, die nicht regelmäßig genutzt werden.

Dann Retailer zum Einsatz, und hier haben wir häufig auch ein Quick Win. Also einfach sagen, was? Man könnte ja einfach ausstellen. Wir finden keinen, der dafür verantwortlich ist, weil die läuft seit Jahren. Aber der eingerichtet ist nicht mehr da. Keiner kümmert sich drum. Es werden nur noch abdeckte gepflegt. Aber seit 18 Monaten hat sich niemand eingeloggt. Aber man hat tatsächlich diesen Fall, und da sagen wir ganz einfach abschalten. Das Risiko ist gering.

Und wenn, dann schreit einer. Aber dadurch ist das Risiko gering, dass es das nicht, und das ist durchaus ein Einsparungspotenzial. Und es ist auch einer der ersten ersten, die wir tatsächlich versuchen zu rauszufinden, weil alles, was ich retailer, muss ich nicht erst migrieren, weil das gehört natürlich auch dazu, jetzt nicht in unnötigen Olver zu schaffen.

Also erst mal den Papierkorb rausbringen, sozusagen, um dann zu sehen, was übrig bleibt.

Das ist aber ein klassisches Thema, was Virtualisierung angeht. Das sind meistens dann VMs und gerade auch in größeren Unternehmen, die ja Richtlinien haben. Die kennen dann nur drei Grössen von VM sag ich jetzt mal, die haben je die große, die mittlere und die kleine. Schaut man sich das mal statistisch an, irgendwie kaum kleiner dabei. Fast alles ist mittel und gross, weil irgendein Software-Hersteller mal gesagt hat Ja, wir brauchen aber mindestens so viel und so unser Programm.

Und Deutsch? Und ja, aber dann halt wirklich nicht mehr genutzt, sondern ist relativ viel IT Ressource da reingesteckt. Das ist wirklich einer der häufigsten Punkte in den Eitan, die nicht so gepflegt werden. Es gibt auch die anderen Beispiele. Wo eine Abteilung. Hinterher ist auch Ich sage mal Lebenszyklen für die VMs festlegt. Aber wenn ich es sehr positiv ausdrücken würde, hält sich das ungefähr die Waage. Aus dem Bauch heraus würde ich sagen, dass wir mehr irritieren, als dass da ordentlich gepflegt wird.

Das ist, glaube ich, nicht zu unterschätzen. Auch da fällt mir noch etwas ein. Denn ich habe bei einem aktuellen Kunden das Problem, dass er Daten in die Cloud migrieren möchte, aber er selber mit seinen Endkunden einen Vertrag hat. Steht das kein nicht EU Mitarbeiter diese Daten je anguckt? So, jetzt leite ich Daten in die Cloud und jetzt theoretisch der Cloud Provider oder plant dies zu tun. Der Cloud Provider könnte ja jetzt darauf zugreifen. Kann er nicht in jedem Fall.

Je nachdem, ob ich das verschlüsseln oder wie ich das verschlüsseln. Aber das ist natürlich auch ein Thema, das man sagt Ja, im Moment. Ich kann nicht einfach alles in die Cloud laden, weil der Cloud Provider mehr unter anderem nicht garantieren kann, dass nur EU-Bürger auf diese Daten Zugriff haben.

Genau das ist ein typisches Compliance Thema, was auch je nach Unternehmen relativ hoch aufgänge ist. Auch zu Recht. Da bin ich auch ein absoluter Befürworter, das zu durchleuchten. Man muss halt sehen, erst einmal. Generell kann man erst mal sagen So häufig ist gefordert Das muss auf europäischen oder auf deutschen Server liegen. Das kann ich einschränken. Also ich kann sagen meine, ich benutze nur Server in Frankfurt oder nutze Server in Europa. Das kann ich natürlich schon machen.

Ich kann die Festplatten verschlüsseln, ich kann alles Mögliche verschlüsseln. Ich kann mir Key Management Server buchen, aber das muss man klar sagen, je nach Schutz Bedarf, Feststellung. Auf meine Daten all diese Infrastrukturen kommen ja von dem Cloud Provider Provider sitzt in Amerika und ich sag mal, wenn man Böses denkt, kann man natürlich sagen Na gut, er hat immer eine Backdoor oder er hat die Festplatte verschlüsselt.

Aber der Schlüssel liegt ja auch irgendwo bei dem Provider. Genau, aber letztendlich das Einfachste für ihn wäre. Ich habe halt einfach sowieso den Super Master Ki, und das ist meine meine Backdoor an der Stelle. Da muss man sehr differenziert reingehen. Also, da komme ich so ein bisschen aus der Alten Welt, wo ich mich halt auch sehr viel mit alten grundschutz um IT-Sicherheit Compliance beschäftigt habe. Man macht ja tatsächlich schutzbedürftig Feststellung, wonach man guckt Was hab ich für Daten?

Wo liegen diese Daten? Also z.B. ich bleibe beim Beispiel. Abends hab ich zum Beispiel Account Daten, die liegen durchaus auch in den USA. Das lässt sich nicht verhindern. Das ist halt so eingestellt, wenn ich eine Datenbank in Deutschland suche. Da hat man Service oder eine Weinbuch. Da hat man die Daten liegen natürlich auf europäischen Server. Aber spätestens also Mitarbeiter hat nicht. Erst einmal hat kein Interesse daran, auf die Daten zuzugehen. Aber gerade in der Datenbank rufe ich mir eine Datenbank admin oder an Spezialisten von AVM.

Habe ich keinen Einfluss da drauf? Zumindest im ersten Schritt nicht. Woher der kommt? Die werden natürlich immer aus meiner Zeitzone holen. Es wird in aller Regel europäisch sein, aber hier sind sicherlich Dinge zu betrachten. Da muss man dann ja, das ist die differenzierte Betrachtung. Und wenn es da Zweifel gibt, dann würden wir auch eher sagen Pass auf, Meedia Das Risiko nicht. Man kann es natürlich auch umgehen, aber da muss Hellwege Software mitspielen. Nämlich nämlich eigene Verschlüsselung, Auslösung und Topliga.

Das ich sage jetzt mal das triviales Beispiel wäre jetzt eine Datei Server oder Server. Ich lebt halt nur genug Budget verschlüsselte Dateien ab. Die Schlüssel liegen hier bei mir in Deutschland. Dann ist es mit vertretbarem Aufwand selbst auch für Geheimdienste nach besten Wissen und Gewissen nicht möglich, darauf zuzugreifen. Und da hätte man Sicherheit. Aber man muss ja auch ehrlich sagen Welche Applikation schafft das durchgehend? Von daher ist hier ein kritischer Umgang damit. Ist auf jeden Fall auch von unserer Seite erwünscht, wird gefördert und sollte auf jeden Fall immer beibehalten werden.

Wie ist es denn, wenn die Anwendungen in die Cloud migriert sind und jetzt betrieben werden? Man hat ja sehr viele Möglichkeiten, eine Anwendung zu monitoren, entweder durch Shakes oder durch eingebaute ablösungen, einfach um die ganze Landschaft zu monitoren.

Unterstützt ja, dabei auch. Ja, das ist ein sehr wichtiger Aspekt, der häufig auch missverstanden. Zwar bieten die Provider jede Menge Services und so weiter an, und dann entsteht häufig der Eindruck Naja, das eigentliche Operations, der eigentliche Betrieb, läuft über den Cloud Weida oder wie auch immer, das ist tatsächlich nicht vollständig richtig. Also ich sage jetzt mal kleiner mittelständischer Betrieb fünf Arbeitsplätze, ruft bei KWS an und sagte Ich habe ein Problem, sagte er. Gut an, schmeiß mal hier ordentlich Geld ein, und dann schauen wir uns das ganze Thema mal an.

Bis das gelöst ist, haben hochrangige Spezialisten diesen supertoll. Aber der kennt den Kunden nicht, erkennt nichts von der Umgebung. Das heißt, die Wahrscheinlichkeit, dass er zielgerichtet schnell helfen kann, ist relativ gering. Da kommen wir natürlich ins Spiel. Wir richten zusammen mit den Kunden anhand seiner vorgegebenen kpis, oder? Wir vorschlagen Monitoring, ein Kontrolle und wir reagieren dann darauf. Das ist natürlich eine maschinenteilen aus Weggucken oder ein Service fällt aus. Wir gucken das dann wieder an, Staat kommt aber halt auch so Dinge aus der Datenbank sind schlechte Werte.

Wir gucken mal, woran es liegen könnte. Wir haben im Netz komisches Verhalten. Irgendwas ist hier langsam. Dann fällt das halt auf. Darum kümmern wir uns ihre Pforten natürlich auch. Wir sind also unsere Welt des Operations, des Betriebs. Hat sich schon etwas verändert? Wir müssen noch mehr Reportern, eigentlich, aber wir haben auch mehr Daten. Die Reporter können also deutlich mehr, als wir teilweise früher hatten, und können dem Kunden halt auf der Basis kennenlernen und können auf der Basis Vorschläge machen und optimieren.

Der Betrieb, die überführung in einen Betrieb, ist heute sehr, sehr wichtig für uns. Aber das kennen wir als Firma gar nicht anders. Das haben wir früher mit eigenen Rechenzentren genauso gemacht. Die Arbeit mit der IT-Abteilung des Kunden zusammen beschert Responsibility. Guck mal, wer ist für was zuständig? Und danach wird das aufgetrennt. Und das funktioniert eigentlich sehr, sehr gut und insbesondere, wenn sich das mal eingespielt hat. Das ist auch ein Prozess, der braucht von wenigen Tagen bis in einem Jahr von einer Größe ab, denn den ganzen Umgebung.

Da stimmt sich das ein, und ich glaube, am Ende des Tages hat man dann schon sehr, sehr guten an der Stelle. Genau.

Also in der Cloud. Ist es generell so, dass Hardware fehlt? Ja, sollten nicht mehr auftreten. Aber natürlich kann es immer noch in der Anwendung selber Probleme geben, auf die dann reagiert werden muss. Also Beispiel Irgendwas ist nicht richtig gesichert, und statt eines ein Megabit profil Bildes lädt irgendjemand 50 Megabit hoch oder so was dann zu einem Problem wird an anderen Stelle?

Ja, es gibt auch so klassische Szenarien. Ich habe im Auto Stellingen eingerichtet. Das heißt, ich. Meine Webseite braucht sonst nur zwei Webservices, um redundant zu sein. Und jetzt hab ich auf dem Heise Ticker gerade heute News gepostet, und schon werde ich mit.

Geht die Post, Gena? Und dann geht plötzlich mein mein Auto hoch. Aber ich war damals vorsichtig und hab gesagt Der mehr als 100 Webserver werde ich nie brauchen, um die Anfragen so zu erfüllen. Und dann? Plötzlich wird es auch langsam. Na, dann kann man halt sagen Okay, wir erhöhen jetzt mal gerade die Anzahl. Solange das andauert, können wir im Nachgang nochmal besprechen, wer diese Vata mag. Richtig. Oder andersherum Wir machen den Prozess daraus, dass wir benachrichtigt werden, wenn ihr solche Mitteilungen hat, die potenziell interessant sein können, dass wir im Zweifelsfall auch durchaus mal manuell eingreifen.

Also durchaus auch noch der Fall? Ja, man macht ja eine Begrenzung des Ganzen, malt auch nicht über gewisse Kosten Grenzen zu kommen, was immer Sinn macht. Und dann sagt man Okay, ich hab jetzt aber eine große Veranstaltung, große Pressemitteilung, wie immer. Jetzt muss ich sicher gehen, dass da nichts schief geht. Da macht man es manuell für eine Zeitspanne, und dann stellt man es wieder zurück.

Also dieses semi Automatische würde ich fast als Ideallösung sehen, weil wenn du einfach sagst, du setzt die Autos galligen Gruppe hoch. Statt 100 Maschinen stelle ich es einfach auf hundert. Und wenn mal der Heise Artikel kommt, dann bin ich safe. Kann es immer noch sein, dass man so eine Art DDoS Attacke bekommt? Einfach unfassbar viele Anfragen auf ein Webdienst abgegeben werden und dann würde man ja das Geld bezahlen für diese 1000 Server und wenn man das einfach blind einstellen würde.

Also ich bin sowieso immer ein Freund davon, dass Automatisierung ist toll. Es erleichtert Unmengen, insbesondere heute bei Google, und man entwirft eine Plattform, schiebt sie raus. Oder doch nicht? Man wirft sie wieder weg. Also alles ist sehr easy, sehr schnell. Aber ich bin immer ein Freund davon, dass halt auch noch ein Mensch drauf guckt, bei der im Endeffekt besser entscheiden kann bei gewissen Szenarien. Was ist das jetzt? Gerade wenn etwas häufig Vorfeld greifen, auch Maschinen, löning ki, Algorithmen an anderer Stelle, die haben dann gelernt irgendwelche Relationen, Information, Relation.

Und dann? Dann kann ich darauf auch reagieren. Aber bei so spontanen, erstmalig auftretenden Fällen, wie auch immer da ist ein Mensch, denke ich, noch eine ganz gute Alternative.

Mir fällt ein Projekt von mir selber ein. Da hatte ich in mehreren Wochen Anwendungen entschlackt und hat dann ungefähr eine 30 prozentige Steigerung in der Arbeitsgeschwindigkeit erzielt. Es war eine interaktive Anwendung, das heißt, die Nutzer waren so zwei, 300 Leute gleichzeitig immer auf der Anbindung aktiv, haben halt gespürt, dass die Anwendung besser reagiert und das zügig ihres Arbeiten möglich ist. Und dann hab ich mal vor ein Nachrichten unternehmen, dann hab ich die neue Version abends online gestellt oder liest, und ich komme am nächsten Morgen rein ins Büro und gucke ok.

Wie sieht es denn aus? Sondern hab ich genau die gleiche alte Last wieder, als hätte ich diese Optimierung nie gemacht. Ich hab mich gefragt Also wirklich Einzelstunden? Wie kann es sein, den Fehler gesucht? Was ist das Problem? Und dann habe ich herausgefunden, dass genau an diesem Morgen ein Flugzeugabsturz stattgefunden hat. Und das statt 200! Auf einmal 5500 Leute gleichzeitig die Anwendung benutzt haben Ich habe das gleiche lãst profil hatte wie Vortags, wo die alte Software noch lief.

Was dann wiederum sehr gut war. Aber ich hab zuerst nicht verstanden, warum. Warum die Zahlen nicht deutlich besser sind oder die Performance deutlich besser ist.

Aber du hast für eine Firma gearbeitet, du kãnntest du es mit Eckdaten, dann hinter der Entscheidung. Daran könnte es liegen. Man das jetzt bei nem Dienstleister, der so gar keinen Bezug zu einem hat, der käme ja nicht da drauf, weil er gar nicht weiß, was man macht. Ich glaube, da war, was du als Mensch dann in dem Moment fast unbezahlbar.

Ich möchte einfach sagen Manchmal ist menschliche Intelligenz halt wichtig, um zu verstehen Warum ist der Effekt so, wie er ist? Und das hätte jetzt ein automatisiertes System nicht unter Umständen so erkennen können. Was glaubst du denn in Zukunft? Wohin geht die Reise noch? Was sagt eine Glaskugel?

Kann ich ja sagen. Ich fang einfach mal in der Vergangenheit an, wo ich gesagt, habe ich viele sehr skeptisch gegenüber. Klar, die ersten klar, Anfänge. Was aber daran lag, dass vieles noch im Unklaren war. Es war ein gewisser Hype. Für viele war allerdings Cloud mehr Storage Anbieter. Da konnte ich meine Bilder hochladen und meine Dateien. Viel mehr war da nicht. Wenn ich mir anschaue, wie schnell sich hier eine neue IT-Landschaft entwickelt hat und wie gut ist, funktioniert bei durchaus Kritik würdigen Aspekten.

Aber, muss ich ganz ehrlich sagen, glaube ich schon, dass es jetzt ein halbmayr ist. Man sieht, es ist ein Geschäftsmodell. Es entstehen immer mehr Firmen, so wie wir auch in diesem Umfeld. Ich glaube, es ist noch ein längerer Prozess, bis hohe Prozentsätze der Wortlauts gewandert sind. Aber es wird passieren. Man wird sehr, sehr viele Birkenholz. Wird man in die Cloud wandern? Das klassische kleine Rechenzentrum wird aussterben. In meinen Augen aus.

Es hat eine Nische, in der Claudia mich jetzt nicht tätig sind. Es wird es immer noch etwas geben. Aber das sind dann wirklich reine Nischenanbieter.

Oder man braucht Kerth Spezial Anforderungen, besonders viele GPUs, die in der Cloud halt teuer sind, weil sie mich massenweise eingekauft werden. Und wenn ich sie 24 Stunden am Tag brauche, lohnt sich das einfach wieder die Sachen selber zu kaufen.

Genau das sind natürlich so Punkte, aber das meine ich auch so mit einer Nische. Aber was die beiden Wortlauts angeht im Markt ist. Ich denke, da geht der Trend absolut hin. Das wird immer mehr kommen. Die Software geht über die Applikation, wie wir ja auch schon heute viel gesprochen haben. Und die Applikation ist heute schon schwierig, individual Entwickler zu finden, die noch so Oldschool entwickeln. Sicherlich, aber ich habe mit großen Software-Hersteller gesprochen, alle mindestens 1000, 200, 300 Mitarbeiter, Softwareentwickler.

Und da wird kein Oldschool mehr entwickelt. Die machen alles nur noch Clouds und von daher ist es gar nicht so eine große Glaskugel. Das ist einfach auf der Zeitachse die Glaskugel. Wie schnell passiert ist. Also ich denke nicht, dass das von heute auf morgen geht, ist halt ein Prozess. Aber es wird passieren, was ich auch beobachte.

Bei unseren Kunden ist das. Man tastet sich manchmal ran an die neuen Anwendungen werden in so eine kubanisches Umgebung zum Beispiel. Und da ist es ja dann wiederum ein sehr kleiner Schritt zu sagen Okay. Diese Copernicus Umgebung läuft bei mir im Rechenzentrum oder läuft in der Cloud A oder B oder C. Gerade wenn man noch nicht weiß, welcher Anbieter macht das Rennen? Wobei ich glaube, das kann man schon ein bisschen antizipieren, dass da zwei ganz besonders hervor stechen werden die nächsten Jahre, oder ist jedenfalls mein Tipp.

Es wird so sein, und man muss sich einfach mal die gängigen Marktanalysen anschauen. Es ist schon sehr erstaunlich der Unterschied zwischen Platz 1 und Platz 2 noch erstaunlicher ist, wenn man reingeschaut. Unterschied zwischen 2 und 3, denn plötzlich ist mit Google am Platz drei. Und ich sage mal Ich weiß nicht, was für ein Bild du von Google hast, aber für mich so ein absoluter tech Riese. Aber die spielen da halt nur den dritten Platz und müssen aufpassen, dass Chinesen wie Alibaba oder Soda nicht aufholen, weil die drängen jetzt auch in den europäischen Markt, und die sind ja auch sehr teuer.

Aber die Big Player bieten schon hervorragende Services an, insbesondere für die Welt, die du gerade beschrieben hast. Und hier kann ich dann als Entwickler oder auch als Kunde sagen Pass auf, ich schaue mir einfach am Ende des Tages an, wenn alles servas ist. Soweit nicht leicht migrieren kann. Wo hab ich meine besten Kosten nutzen? Structure an der Stelle, und dann kommt da auch mehr Konkurrenzkampf noch in Markt. Im Moment ist noch nicht so viel Konkurrenzkampf im Markt, teilt sich gut auf.

Aber ich glaube, in Zukunft wird es da mehr Konkurrenzkampf geben. Und das wird im Zweifelsfall in niedrigeren Preisen oder durchsichtige und Preismodell gipfeln als mein absolut subjektiver Eindruck.

Der Cloud Provider ist Technologieführer dafür preislich etwas teurer. Wer aways? Ganz klar. Wobei man da ja auch deutliche Rabatte bekommt, wenn man gewisse Ressourcen fest für ein Jahr bucht oder gar für drei Jahre bucht. Ich glaube, dann gibts 60 Prozent Rabatt. hws waren die ersten, die profitieren. Das haben auch meiner Ansicht nach das. Angebot und die Profitierenden nach wie vor von auf dem zweiten Platz im absoluten Sauseschritt. In den letzten ein, zwei Jahren hat Microsoft aufgeholt.

Ich glaube, das kommt durch die. Microsoft ist in den Firmen groß, die mittleren und kleinen Firmen natürlich schon super präsent durch die Office Lösungen, durch die Windows Lösung. Und da ist dieses Cloud Ding ein cheek Punkt mehr im Vertrag. Haben Sie da schon guten Kontakt zu den Unternehmen und an dritter Stelle Google? Ich finde die Google Cloud ziemlich gut, muss ich sagen. Ich habe auch schon mit der gearbeitet. Aber ich glaube, Google ist ein Teck Konzern, der supergut Technologie macht.

Aber ich glaube Marketing mäßig zumindest im Cloud Bereich. Da ist nicht so viel Platz. Dort sind auf der einen Seite den Technologieführer, auf der anderen Seite den mit den Unternehmenskunden. So, wer bleibt da noch? Der Cloud macht?

Das ist meiner Ansicht nach die blöde dritte Position von Google, das sie nicht so richtig klar positioniert sind. Und diese Oracle, IBM Cloud eben. Mir ist noch niemand über den Weg gelaufen, der die wirklich produktiv einsetzt. Ich denke, das sind die haben ihre Daseinsberechtigung in irgendwelchen Nischen oder vielleicht in anderen Märkten. Könnte mir vorstellen, dass im Mittleren Osten Nahen Osten das Orakel noch ganz stark ist, aber auch nicht da sind, glaube ich, eher ueberall, wo ich diese klassischen hybride Ansätze habe.

Oder wenn ich mit IBM ein absoluter Technoide ist, mit Unmengen an Angeboten, und das ich in Bestandskunden dann noch ein bisschen Cloud lief. Also ungefähr so okey wird auch weiter wohl existieren, aber nicht Weltmarkt relevant sein. Oracle hat halt ein wesentliches Produkt, bietet ein bisschen was drumherum. Aber ich glaube, er hat auch ein bisschen ein Imageproblem. Aber das muss jeder für sich entscheiden. Und tatsächlich Um wieder an den Anfang zu springen, versuchen es mit weit über 40 Prozent absolut Marktführer, weil sie am längsten am Markt sind, die meisten Services haben und sich halt auch nichts verbauen.

Also ich kann von komplett Microsoft Umgebung bis hin zu komplett Unix oder was auch immer. Ich kann alles entsprechend umsetzen. Asea empfinde ich, ohne dass ich jetzt ein echter Experte bin, als sehr stark. Sind auch stark im Wachstum. Und genau wie du sagst es die Unternehmenskunden die reine Microsoft Umgebung haben, die keine Hybrid oder sonstigen Technologien verwenden, was ihr kleiner eine Firma ist, also kleiner mittlerer Mittelstand durchaus der Fall sein kann. Ich sage mal so schon aus dem Bauch heraus würde ich da wahrscheinlich eher in diese Richtung gehen.

Aber man muss sagen, viele Kunden haben dann doch noch hier bisschen, da etwas. Und wenn man dann einfach sieht Okay, ich will halt wirklich Cloud Ansatz wählen. Ich will diese Strategie ganz konsequent verfolgen. Und ich versuche dann eher, klassische Mittel abzulösen durch Service. Dann landet bei Aretz, weil die Menge an Service ist. Die Innovation, die dahintersteht. Das, muss man wirklich sagen, ist momentan noch out. Und da wird selbst Microsoft noch etwas brauchen, um da in diese Richtung zu kommen.

Aber wie gesagt, es gibt immer überraschungen. Das sind alles sehr große Konzerne, und ich fände es ja auch spannend, wenn da noch mal irgendwelche überraschungen eintreten.

Auf jeden Fall. Für den Endkunden kann es ja nur positiv sein, entweder durch den Preis oder durch die Innovation, die er dann nutzen kann.

Genau. Der Endkunde wird der Sieger sein. Definitiv. Wenn unsere Zuhörer Fragen haben oder Feedback zu der aktuellen Folge hat, können Sie uns gerne eine E-Mail an Podcast senden. Bitte bewertet diese Podcast Episode und lasst uns einen Kommentar dafür. Weitere spannende Technologie Themen schaut gerne auf Skill bei Slash Blog vorbei Bries. Ich bedanke mich ganz ganz herzlich bei dir.

Ich danke dir Maurice.

Maurice KnoppSkillbyte Podcast #28: Cloud als Strategie, nicht als Technologie!
Mehr