Ausführen und Bereitstellen von Elasticsearch auf Kubernetes

Blog

Ausführen und Bereitstellen von Elasticsearch auf Kubernetes

Ausführen und Bereitstellen von Elasticsearch auf Kubernetes

Big Data, KI und maschinelles Lernen sind Schlagworte, die wir in den letzten Jahren scheinbar leichtfertig herumgeworfen haben. Auch wenn sie sich stark voneinander unterscheiden, haben sie doch alle eines gemeinsam: Daten! Riesige Datenmengen, die verwaltet werden müssen.

Der Nachteil dabei ist, dass je mehr Daten Sie haben, desto mehr Kopfschmerzen müssen gespeichert, abgefragt und ausgewertet werden.

Die Ausführung von Elasticsearch auf Kubernetes kann Ihnen jedoch eine Menge Ärger ersparen. Elasticsearch übernimmt das Speichern und Abfragen von Daten, während Kubernetes die zugrunde liegende Infrastruktur übernimmt.

Am Ende dieses Tutorials verfügen Sie über einen laufenden Elasticsearch-Cluster auf Kubernetes, lernen Best Practices kennen, um die Stärken der Plattformen zu nutzen, und erhalten einige Tipps zu Arbeitsspeicheranforderungen und Speicher.

Was ist Elasticsearch?

Elasticsearch ist ein Datenspeicher, der Daten in Indizes speichert. Es ist auch eine verteilte und skalierbare Echtzeit-Suchmaschine, die Volltext- und strukturierte Suche sowie Analysen ermöglicht. Es eignet sich hervorragend zum Speichern und Durchsuchen großer Textdatenmengen wie Protokolle, kann aber auch zum Durchsuchen vieler verschiedener Arten von Dokumenten verwendet werden.

Was ist Kubernetes?

Gouverneure ist der De-facto-Standard-Container-Orchestrator und bei weitem die einfachste Möglichkeit, Cluster in der Cloud oder lokal auszuführen und zu verwalten. Aber was ist ein Container-Orchestrator? Um Kubernetes zu verstehen, müssen Sie zunächst Docker verstehen.

Docker ist eine Container-Engine, mit der Sie kurzlebige Container erstellen können, um Ihre Anwendungen auszuführen. Diese Container sind zustandslos und werden vom Rest Ihres Systems isoliert ausgeführt.

Das Ausführen von Docker-Containern ist auf allen Betriebssystemen gleich, solange sich die Hosts in einem Kubernetes-Cluster befinden. Sie müssen sich überhaupt nicht um die zugrunde liegende Infrastruktur kümmern. Dies macht das Verpacken und Versenden von Apps an die Produktion einfach.

Container sind jedoch ohne einen Cluster und einen Orchestrator nutzlos, um sie auszuführen und zu verwalten. Kubernetes verwaltet all dies und übernimmt die schwere Arbeit, damit Sie es nicht müssen. Sie müssen Kubernetes über |_+_| . mitteilen, was zu tun ist Kommandozeile und mit |_+_| Ressourcendateien.

Wo kann man Heliummünzen kaufen?

Warum Elasticsearch auf Kubernetes ausführen?

Elasticsearch kann riesige Mengen an Textdaten speichern und bei Bedarf schnell durchsuchen. Es wird in Clustern bereitgestellt, die mindestens aus drei Knoten bestehen. Diese Knoten waren im Laufe der Jahre oft VMs, die Sie hochfahren und dann Verbindungen zwischen ihnen herstellen. Aber das ist mühsam und schwer zu handhaben.

Gouverneure ist eingetreten, um dieses Problem zu lösen. Es hat sich zum De-facto-Standard für den Betrieb von hochverfügbaren und zuverlässigen Systemen in der Cloud und vor Ort entwickelt. Obwohl Kubernetes darauf ausgelegt ist, kurzlebige, zustandslose Anwendungen und keine Datenbanken auszuführen, hat die Ausführung eines Elasticsearch-Clusters auf Kubernetes Vorteile. Sie sollten im Allgemeinen keine Datenbanken auf Kubernetes ausführen, aber Sie können. Die Handhabung persistenter Daten ist durch die Verwendung von persistenten Volume-Ansprüchen und zustandsbehafteten Sets einfach.

Mit Kubernetes erhalten Sie einen Cluster, der sich einfacher konfigurieren, verwalten und skalieren lässt. Sobald Sie Ihren Elasticsearch-Cluster auf Kubernetes konfiguriert haben, ist die Bereitstellung bei einem anderen Cloud-Anbieter oder lokal denkbar einfach.

Kubernetes ist auch sehr entwicklerfreundlich. Sie verlassen sich auf die Infrastruktur als Codekonfigurationen und nicht auf das manuelle Einrichten und Konfigurieren der Infrastruktur. Für viele ist dies möglicherweise die einzige Möglichkeit, einen großen Cluster bereitzustellen. Da viele Teams keine dedizierten DevOps-Ingenieure haben und sich bei der Verwaltung der Infrastruktur auf ihre Entwickler verlassen müssen, ersparen Sie sich möglicherweise große Kopfschmerzen, wenn Sie den Cluster von Kubernetes verwalten lassen.

Sehen wir uns die Architektur hinter der Ausführung von Kubernetes und Elasticsearch an.

Kubernetes-Architektur: Grundkonzepte

Kubernetes verwaltet Ihre Anwendung mit mehreren verschiedenen Ressourcentypen. Zuerst wird Ihre Anwendung erstellt und in ein Paket gepackt Container . Diese containerisierte Anwendung wird in Kubernetes bereitgestellt und innerhalb eines Unter .

Kubernetes-Pods werden in einem Deployment gruppiert. EIN Einsatz ist ein Schlüsselkonzept in Kubernetes, das Pods und ihre Eigenschaften verwaltet, z. B. wie viele Replikate jedes Pods ausgeführt werden sollen.

ZU Service wird dann verwendet, um die Bereitstellung im Internet bereitzustellen. Wenn es vom Typ LoadBalancer ist, werden auch Anforderungen gleichmäßig auf alle Pods in der Bereitstellung verteilt. Einfach ausgedrückt erstellt ein Dienst eine einzelne IP-Adresse, die für den Zugriff auf die Container verwendet wird. Dienste können Pods auch anderen Pods innerhalb des Kubernetes-Clusters zugänglich machen.

Zeichnung ohne Titel 28129

Kubernetes-Knoten sind die virtuellen Maschinen, auf denen der Kubernetes-Cluster ausgeführt wird, einschließlich aller Pods. Pods werden immer zufällig über die Knoten hinweg angeordnet. Mithilfe von Affinitäts- und Anti-Affinitätsregeln können Sie Kubernetes mitteilen, wie die ausgeführten Pods auf die Knoten verteilt werden sollen. Vielleicht möchten Sie, dass Elasticsearch Pods nur auf bestimmten Kubernetes-Knoten ausgeführt werden.

Bereitstellungen behalten den Status in ihren Pods nicht bei. Es wird davon ausgegangen, dass die Anwendung zustandslos ist. Wenn Ihre Anwendung den Status beibehalten soll, wie in unserem Fall bei Elasticsearch, müssen Sie ein StatefulSet verwenden.

statefulsetwithpvcpv 1

ZU StatefulSet ist eine Bereitstellung, die den Status beibehalten kann. Macht vom Namen her Sinn, oder?

Wenn Sie StatefulSets verwenden, müssen Sie auch PersistentVolumes und PersistentVolumeClaims verwenden. Ein StatefulSet stellt sicher, dass derselbe PersistentVolumeClaim während seiner gesamten Lebensdauer an denselben Pod gebunden bleibt. Im Gegensatz zu einem Deployment, das sicherstellt, dass die Gruppe von Pods innerhalb des Deployments an einen PersistentVolumeClaim gebunden bleibt.

ZU PersistentVolume (PV) ist eine Kubernetes-Abstraktion zur Speicherung auf der bereitgestellten Hardware. Dies können AWS EBS, DigitalOcean Volumes usw. sein.

ZU PersistentVolumeClaim (PVC) ist jedoch eine Möglichkeit für ein Deployment oder StatefulSet, Speicherplatz von einem PersistentVolume anzufordern. Dieser zugewiesene Speicher wird auch dann beibehalten, wenn Pods und Knoten neu gestartet werden.

Neben StatefulSets gibt es Headless Services, die zur Erkennung von StatefulSet Pods verwendet werden.

ZU Kopfloser Dienst ist ein Dienst, wenn Sie keinen Lastausgleich und eine einzelne Dienst-IP benötigen. Anstelle eines Load-Balancing werden die IPs der zugehörigen Pods zurückgegeben. Headless Services ist keine Cluster-IP zugewiesen. Sie werden nicht von kube-proxy weitergeleitet. Stattdessen übernimmt Elasticsearch die Service-Erkennung.

Elasticsearch-Bereitstellung: Clustertopologie

Elasticsearch sollte immer in Clustern bereitgestellt werden. Jede im Cluster ausgeführte Instanz von Elasticsearch wird als Knoten bezeichnet. In Kubernetes entspricht ein Elasticsearch-Knoten einem Elasticsearch-Pod. Verwechseln Sie es nicht mit einem Kubernetes-Knoten, der eine der virtuellen Maschinen ist, auf denen Kubernetes ausgeführt wird. Für den Rest dieses Elasticsearch Kubernetes-Tutorials verwende ich den Begriff Elasticsearch Pod, um die Verwirrung zwischen den beiden zu minimieren.

Zeichnung ohne Titel 28429

nick.com/aktivieren

Wenn Sie einen Elasticsearch-Cluster bereitstellen, haben standardmäßig alle Elasticsearch-Pods alle Rollen. Die Rollen können sein Meister , Daten , und Klient . Der Auftraggeber wird oft auch als Koordinator bezeichnet. Master-Pods sind für die Verwaltung des Clusters, die Verwaltung von Indizes und die Auswahl eines neuen Masters bei Bedarf verantwortlich. Daten-Pods dienen der Speicherung von Daten, während Client-Pods keinerlei Rolle spielen, außer den eingehenden Datenverkehr an den Rest der Pods weiterzuleiten.

Sie benötigen mindestens drei für Master geeignete Pods, um Split-Brain zu vermeiden, wenn ein neuer Master ernannt werden muss. Sie legen diese Rolle für einen Knoten fest, indem Sie diese Rollenkombination haben.

kubectl

Für Daten-Pods benötigen Sie mindestens zwei. Sie speichern Daten, empfangen Abfragen und Indexanforderungen. Im Grunde erledigen sie die ganze schwere Arbeit. Sie stellen diese Rolle so ein.

YAML

Client-Pods werden auch als koordinierende Pods bezeichnet. Sie sollten auch zwei davon haben. Diese Pods werden den Nutzern der Clusterdaten zugänglich gemacht und dienen als HTTP-Proxys. Wenn sie nicht bereitgestellt werden, dienen Daten-Pods als koordinierende Pods. Vermeiden Sie dies bei größeren Clustern. Sie legen einen Pod als Client fest, indem Sie alle Rollen auf 'false' setzen.

roles: master: 'true' ingest: 'false' data: 'false'

Diese Einrichtung gilt als bewährte Methode und eine Hochskalierung ist nur erforderlich, wenn die aktuelle Knotenanzahl nicht ausreicht. Glücklicherweise ist das Hochskalieren eines Elasticsearch-Clusters auf Kubernetes so einfach wie das Ausführen eines Befehls.

So sieht die endgültige Clustertopologie aus.

Kopie der Zeichnung ohne Titel 28129

Daten-Pods werden als StatefulSets mit PersistentVolumes und PersistentVolumeClaims bereitgestellt. Sie behalten die Daten zwischen den Neustarts bei, was Sie wollen.

Master-Pods können entweder als Deployments oder StatefulSets bereitgestellt werden.

Für jedes StatefulSet wird ein Headless-Dienst erstellt und für die Inter-Cluster-Erkennung verwendet.

Client-Pods sind vollständig zustandslos und können als einfache Kubernetes-Bereitstellung bereitgestellt werden.

Ein Kubernetes LoadBalancer Service wird verwendet, um eingehenden Datenverkehr an die Client-Pods weiterzuleiten. Alle Ihre Apps sowie Kibana werden für den LoadBalancer-Dienst konfiguriert.

Bereitstellen von Elasticsearch auf Kubernetes: Speicheranforderungen

Wenn Sie für sich selbst einen Elasticsearch-Cluster auf Kubernetes einrichten, denken Sie daran, mindestens zuzuweisen 4 GB Arbeitsspeicher zu Ihren Kubernetes-Knoten. Du brauchst mindestens 7 Knoten um dieses Setup ohne Probleme auszuführen. Die Standardgröße der PersistentVolumeClaims für jeden Elasticsearch-Pod beträgt 30 GB. Auf diese Weise können Sie bestimmen, wie viel Blockspeicher Sie benötigen.

Die Pods befinden sich in einem StatefulSet, daher müssen Sie beim Erstellen neuer Pods sicherstellen, dass Sie 30 GB Speicherplatz pro zusätzlichem Pod haben, den Sie erstellen möchten. Die Arbeit mit PVCs ist kompliziert, da Sie diese selbst löschen müssen. Noch komplizierter wird es, wenn Sie keinen Cloud-Dienst verwenden und Ihre eigenen StorageClasses konfigurieren müssen. Pods starten oft nicht, und dies liegt höchstwahrscheinlich an fehlendem Speicherplatz oder alten PVCs, die noch bestehen, obwohl Sie sie nicht benötigen.

Im nächsten Abschnitt zeige ich Ihnen, wie Sie sowohl ein 7-Pod-Produktions-Setup mit konfigurieren Helm , sondern auch, wie Sie mit einem 3-Pod-Master-Setup, bei dem jeder der Pods alle Rollen hat, schnell einsatzbereit sind.

So stellen Sie Elasticsearch auf Kubernetes bereit

Die Bereitstellung von Elasticsearch auf Kubernetes kann mühsam sein, wenn Sie dies selbst mit benutzerdefinierten Ressourcendateien und |_+_| tun. Es ist viel einfacher, Helm, den Kubernetes-Paketmanager, zu verwenden. Mit Hilfe von Helm können Sie ein vorgefertigtes Diagramm installieren, das alle erforderlichen Ressourcen durch Ausführen eines einfachen Befehls konfiguriert. Machen wir uns die Hände schmutzig und beginnen mit der Erstellung des Elasticsearch-Clusters auf Kubernetes.

Voraussetzungen

Um diesem Tutorial zu folgen, benötigen Sie zunächst ein paar Dinge:

  • Ein Kubernetes-Cluster mit aktivierter rollenbasierter Zugriffssteuerung (RBAC).
  • Stellen Sie sicher, dass Ihrem Cluster genügend Ressourcen zur Verfügung stehen, und skalieren Sie Ihren Cluster andernfalls, indem Sie weitere Kubernetes-Knoten hinzufügen. Sie stellen einen 3-Pod-Elasticsearch-Cluster mit 3 Master-Pods und einen 7-Pod-Elasticsearch-Cluster mit 3 Master-Pods, 2 Daten-Pods und 2 Client-Pods bereit. Ich würde vorschlagen, dass Sie 7 Kubernetes-Knoten mit mindestens 4 GB RAM und 50 GB Speicher haben.
  • Die |_+_| Befehlszeilentool, das auf Ihrem lokalen Computer installiert ist, der für die Verbindung mit Ihrem Cluster konfiguriert ist. Lesen Sie mehr über die Installation von |_+_| in der offiziellen Dokumentation .
  • Der Kubernetes-Paketmanager Helm ist installiert. Sie können lernen, wie Sie Helm installieren in die offizielle Dokumentation .

Bereitstellen eines 3-Pod-Elasticsearch-Clusters auf Kubernetes mit Helm: Beispiele und Best Practices

In erster Linie müssen Sie Helm auf Ihrem Kubernetes-Cluster initialisieren. Dies geschieht mit dem Befehl init.

roles: master: 'false' ingest: 'false' data: 'true'

Notiz : Helm benötigt oft die Installation von Tiller. Wenn die |_+_| Wenn der Befehl nicht funktioniert, führen Sie diese Befehle aus, um Tiller zu installieren, wenn Sie ihn nicht installiert und konfiguriert haben.

roles: master: 'false' ingest: 'false' data: 'false'

Sobald Sie Helm initialisiert haben, können Sie mit dem Hinzufügen von Diagrammen beginnen. Fügen Sie zunächst das elastische Repository hinzu und installieren Sie das Elasticsearch-Diagramm.

kubectl

Sie fügen den Parameter –set service.type=LoadBalancer hinzu, um anzugeben, dass der Dienst eine LoadBalancer-IP für das Internet verfügbar machen soll. Überprüfen Sie, ob die Ressourcen ausgeführt werden.

kubectl

Dadurch werden alle Ressourcen aufgelistet, die das Diagramm erstellt hat.

kubectl

Auf Ihrem Kubernetes-Cluster laufen jetzt drei Elasticsearch-Master-Pods. Diese Pods haben jetzt alle drei verfügbaren Rollen. Um sie gesund zu halten, stellen Sie sicher, dass Ihnen genügend Ressourcen zugewiesen sind. Wenn Sie hochskalieren müssen, können Sie einen Pod-Autoscaler konfigurieren. Um zu überprüfen, ob alles wie gewünscht läuft, schlagen Sie mit curl auf den Elasticsearch-Zustandsendpunkt.

helm init

Dieses Setup eignet sich hervorragend für kleinere Cluster, in denen Sie keine großen Datenmengen haben. Einige Probleme, auf die Sie möglicherweise stoßen, sind Ausnahmen wegen Speichermangels, wenn Ihre Indizes zu wachsen beginnen. In diesem Fall sollten Sie |_+_| . erhöhen |_+_|. Hier ist ein schöner Thread es erklären.

Tutorial zur Python-Bildbibliothek

Wenn Sie jedoch die Best Practices von Elasticsearch befolgen möchten, sollten Sie neben Master-Pods auch dedizierte Daten- und Client-Pods konfigurieren. Genau das machen wir im nächsten Abschnitt.

Bereitstellen eines 7-Pod Elasticsearch-Clusters auf Kubernetes mit Helm

Lassen Sie uns einen Moment ernst werden und den Cluster unter Berücksichtigung der Best Practices konfigurieren. Die 7 Pods bestehen aus 3 Master-Pods, 2 Daten-Pods und 2 Client-Pods.

Dieses bevorzugte Setup wird auf ähnliche Weise installiert. Führen Sie zuerst den Befehl Helm install aus, diesmal jedoch ohne zusätzliche Parameter.

helm init

Jetzt müssen Sie den Upgrade-Befehl ausführen, um die Elasticsearch-Pods zu aktualisieren. Sie möchten die Anzahl der Pods erhöhen, ihnen aber auch benutzerdefinierte Rollen zuweisen.

Erstellen Sie dazu drei |_+_| config-Dateien. Zuerst die |_+_| um die für den Master geeigneten Pods zu konfigurieren.

kubectl create serviceaccount -n kube-system tiller kubectl create clusterrolebinding tiller-cluster-admin --clusterrole=cluster-admin --serviceaccount=kube-system:tiller helm init --service-account tiller --override spec.selector.matchLabels.'name'='tiller',spec.selector.matchLabels.'app'='helm' --output yaml | sed '[email protected]: extensions/[email protected]: apps/[email protected]' | kubectl apply -f -

Dann die |_+_| für die Daten-Pods.

helm repo add elastic https://helm.elastic.co helm install --name elasticsearch elastic/elasticsearch --set service.type=LoadBalancer

Schließlich die |_+_| für die Client-Pods.

kubectl get all

Jetzt können Sie den Upgrade-Befehl dreimal mit jeweils unterschiedlichen |_+_| . ausführen config-Datei in dem Verzeichnis, in dem Sie die Dateien erstellt haben.

[output] NAME READY STATUS RESTARTS AGE pod/elasticsearch-master-0 1/1 Running 0 2m8s pod/elasticsearch-master-1 1/1 Running 0 2m8s pod/elasticsearch-master-2 1/1 Running 0 2m8s NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service/elasticsearch-master LoadBalancer 10.98.90.94 9200:31812/TCP,9300:31635/TCP 2m8s service/elasticsearch-master-headless ClusterIP None 9200/TCP,9300/TCP 2m9s service/kubernetes ClusterIP 10.96.0.1 443/TCP 5d5h NAME READY AGE statefulset.apps/elasticsearch-master 3/3 2m8s

Es wird eine Weile dauern, das Helm-Diagramm zu aktualisieren. Wenn jedoch alle das Upgrade abgeschlossen sind, können Sie überprüfen, ob Ihre Ressourcen aktualisiert wurden.

curl http:///_cluster/state?pretty

Hier ist die Ausgabe, die Sie suchen.

sysctl

Führen Sie curl erneut gegen den Elasticsearch-Endpunkt aus, um zu überprüfen, ob es funktioniert.

max_map_count

So ist es richtig! Bereit zum rocken!

Notiz : Wenn Sie Probleme mit der Konfiguration größerer Cluster haben, müssen Sie möglicherweise die Einrichtung überprüfen Bereitschaftssonden . Sie können überprüfen, ob Ihre Elasticsearch-Pods bereit sind, Traffic zu akzeptieren.

Bonus: Vorgefertigtes Elasticsearch Helm-Diagramm mit Best Practices im Hinterkopf

Die gucken bei Bitnami haben ein tolles geschaffen Diagramm mit vorkonfigurierten Einstellungen für Elasticsearch-Master-, Daten- und Client-Pods. Sie müssen lediglich zwei Befehle ausführen.

helm install --name elasticsearch elastic/elasticsearch

Überprüfen Sie die |_+_| noch einmal ausgeben, um sicherzustellen, dass alles in Ordnung ist.

YAML

Jetzt müssen Sie nur noch Kibana im Kubernetes-Cluster bereitstellen, um Ihre Daten zu visualisieren.

So stellen Sie Kibana auf Kubernetes bereit

Sobald Ihr Elasticsearch-Cluster auf Kubernetes eingerichtet ist und ausgeführt wird, können Sie ihn mit Kibana verwalten und überwachen.

Kibana ist ein einfaches Tool zur Visualisierung von Elasticsearch-Daten. Um Kibana auszuführen, müssen Sie den Namen des Elasticsearch-Client-Dienstes als Umgebungsvariable angeben, damit der Kibana-Pod weiß, wohin er sich verbinden soll.

Sie verwenden einen LoadBalancer-Dienst, um auf die Kibana-Bereitstellung zuzugreifen. Wenn Sie möchten, können Sie es stattdessen nur intern freigeben.

Um Kibana hinzuzufügen, verwenden Sie die offizielle Helmkarte . Fahren Sie fort und führen Sie den Helm-Installationsbefehl aus.

Stellen Sie sicher, dass Sie den Platzhalter durch den Servicenamen Ihres Kunden ersetzen. Der Standardwert wäre |_+_| Wenn Sie der 3-Pod-Anleitung gefolgt sind, |_+_| wenn Sie der 7-Pod-Anleitung gefolgt sind, oder |_+_| wenn Sie das Bitnami-Helm-Diagramm installiert haben.

Mikro-Bitcoin zu Bitcoin
master.yaml

Überprüfen Sie wie immer, ob Kibana ausgeführt wird, nachdem Sie das Helm-Diagramm installiert haben.

# master.yaml --- clusterName: 'elasticsearch' nodeGroup: 'master' roles: master: 'true' ingest: 'false' data: 'false' replicas: 3

Damit sind Sie fertig! Öffne |_+_| und Sie können Kibana laufen sehen.

206.189.250.242 5601 App-Kibana 28129

Einpacken

In diesem Tutorial haben Sie etwas über Elasticsearch- und Kubernetes-Cluster erfahren und erfahren, wie Sie Elasticsearch auf Kubernetes ausführen und bereitstellen. Jetzt kennen Sie Best Practices, Hardwareanforderungen sowie Tipps und Tricks zur Wartung eines zustandsbehafteten Elasticsearch-Clusters auf Kubernetes.

Sie haben drei Setups mit unterschiedlicher Anzahl von Pods mit unterschiedlichen Rollen erstellt, während Sie den Status mit persistenten Volumes verwalten. Inzwischen kennen Sie den Architekturüberblick sowohl zum Erstellen eines soliden Elasticsearch-Clusters als auch zum Organisieren von Ressourcen in einem Kubernetes-Cluster.

Sie haben auch Kibana installiert, damit Sie mit den in Elasticsearch gespeicherten Daten interagieren und mit curl mit der Elasticsearch-REST-API interagieren können. Wenn Sie mehr über Kubernetes und Elasticsearch erfahren möchten, wechseln Sie zu einem unserer Führer und lesen Sie weiter.

Ich hoffe, euch hat es genauso viel Spaß gemacht, dies zu lesen, wie ich es genossen habe, es zu schreiben. Wenn es Ihnen gefallen hat, können Sie gerne auf die Schaltfläche 'Teilen' klicken, damit mehr Leute dieses Tutorial sehen. Bis zum nächsten Mal, seid neugierig und habt Spaß.

Die Post Ausführen und Bereitstellen von Elasticsearch auf Kubernetes erschien zuerst auf Sematext .

#Kubernetes #DevOps