Agile Infrastruktur und Continuous Delivery in CoreMedia – Self Healing – Teil5

In dem Film Terminator gibt es diese Super Humanoiden, die einfach nicht kaputt zu kriegen sind. Egal was man auf sie abfeuert, man kann zusehen wie das „Ding“ sich selbst heilt und dem Protagonisten weiter nachstellt. In dem Falle würde man sich natürlich wünschen, dass der Humanoid irgendwann kaputt geht, aber im Falle unserer CoreMedia Dienste wünscht man sich eher Terminator Fähigkeiten. Genau das wollen wir hier im Artikel an hand unseres Clusters zeigen.

In den vorherigen Artikeln haben wir gezeigt wie wir den Cluster aufgesetzt haben. In diesem Artikel werde ich demonstrieren wie ich einen Dienst manuell „kille“ und das Cluster selbständig für die Heilung des Dienstes sorgt. Am Anfang sieht der Dienst noch gut aus und der Health Status ist auf grün.

Nachdem die CoreMedia Dienste im Cluster provisioniert sind kann man sich per SSH auf einen Node aufschalten und mit

[bash]docker ps[/bash]

sich die dort laufenden Container anschauen. Wir wollen man demonstrativ das Studio „killen“. Dazu merken wir und die ID des Containers und loggen uns in diesen ein:

[bash]docker exec -it ContainerID /bin/bash[/bash]

[bash]sudo ps[/bash]

zeigt uns die Liste der dort laufenden Prozesse und wir merken uns die Prozess ID des Studio Tomcats. Jetzt kille ich den Dienst:

Es dauert wenige Momente und Marathon merkt anhand der definierten Healthchecks, dass der Dienst nicht mehr läuft, wie man anhand des Status in Marathon sieht:

Man kann einstellen, ab wann Marathon den Dienst als „Unhealthy“ ansieht. Wieviele versuche, wie lange usw. Ist der Dienst als Unhealthy identifiziert wird Marathon den Dienst neu deployen. Unter Umständen auch auf einen anderen Node. Dies geschieht jedoch völlig transparent und braucht keinen manuellen Eingriff. Nach wenigen Momenten ist der Dienst wieder „Healthy“:

Et Voilá – Ein selbst heilendes System für CoreMedia  á la Terminator.

Wenn Sie mehr wissen möchten über die Container Technologie, DevOps, Agile Infrastrukturen im CoreMedia Umfeld dann melden Sich sich zu einem unverbindlichen WebEx Meeting an oder vereinbaren einen Termin bei Ihnen vor Ort. Wir führen Ihnen die Vorteile und enormen Zeitgewinne gerne live und in Farbe vor.

Teilen:

Relevante Artikel

Wie können Large Language Modelle wie GPT-4 Geschäftsprozesse optimieren?

Wie können Large Language Modelle wie GPT-4 Geschäftsprozesse optimieren?

Wussten Sie, dass KI-Modelle wie GPT-4, Gemini, LLama2, Mistral & Co. dabei helfen können, die Leistungsfähigkeit Ihres Unternehmens zu steigern? Diese großen Sprachmodelle sind revolutionäre

Parameter in LLM Modellen (12)

Parameter in LLM Modellen (12)

Die quantitativen Angaben in den Bezeichnungen von Large Language Models (LLMs) wie „LLama2 70B“ beziehen sich in der Regel auf die Anzahl der Parameter, über

Backpropagation: Das Herzstück des maschinellen Lernens (11)

Backpropagation: Das Herzstück des maschinellen Lernens (11)

In der Welt des maschinellen Lernens ist Backpropagation ein zentrales Konzept, das den Kern vieler moderner KI-Anwendungen bildet. Dieser Artikel bietet einen tiefgehenden Einblick in