CentOS - Etherape installieren

In diesem Artikel möchte ich kurz die Schritte aufzeigen, die es braucht um etherape auf einem CentOS 7 zum laufen zu bringen.

Zunächst installieren wir das EPEL release.
EPEL steht für Extra Packages on Enterprise Linux und ist ein Repository, welches vom Fedora Projekt maintained wird und unter Enterprise Linux Distributionen wie CentOS hochwertige Softwarepakete bereitstellt.

yum install epel-release

Anschließend aktualisieren wir die Paketquellen mit yum update.

Etherape selbst ist nicht in dem EPEL repo enthalten, allerdings einige Pakete, die wir benötigen um es selbst zu kompilieren. Diese installieren wir jetzt.

yum install spice-glib-devel.x86_64 goocanvas2-devel.x86_64 libpcap-devel.x86_64 itstool popt-devel.x86_64

Jetzt geht es an die Installation von Etherape selbst.
Die Sourcefiles laden wir mit wget herunter.

wget https://sourceforge.net/projects/etherape/files/latest/download

Die heruntergeladene Datei "download" ist ein tar Archiv.
Dieses entpacken wir.

tar -xzf download

Navigiert jetzt in den entpackten Ordner und startet das Konfigurationsscript.

cd etherape-0.9.14
./configure

Hierbei sollten keine Probleme auftreten.
Falls doch, versucht es mit erhöhten Rechten.

Jetzt erstellen wir mit make das makefile und mit make install installieren wir etherape.

sudo make && sudo make install

Standartmäßig wird etherape unter /usr/local/bin installiert.
Da sudo unter CentOS 7 im default nur befehle in /usr/bin und /usr/sbin sucht, müsste etherape jetzt mit /usr/local/bin/etherape gestartet werden.

Um das zu fixen rufen wir mit sudo visudo die datei /etc/sudoers auf und erweitern secure_path= um :/usr/local/bin/

Jetzt kann etherape vom Terminal aus gestartet werden.
Der Parameter -i definiert, welches Interface Ihr euch anschauen wollt.

sudo etherape -i eth0

Cheers,
Ori


Nextcloud mit OCC updaten

In diesem Artikel möchte ich kurz zeigen, wie man eine NextCloud mit OCC updaten kann.
Ich möchte natürlich zunächst mal auf den Update Atikel und den OCC Artikel von NextCloud verweisen.

OCC hat im Namen noch den Ursprung von Nextcloud und steht für Own Cloud Console.
Es ist ein PHP Script welches euch ermöglicht auf der Kommandozeile diverse Aktionen in der Nextcloud auszuführen.

So auch das einspielen von Updates.
Zunächst solltet Ihr schauen wo sich euer occ script befindet, es sollte in eurem Nextcloud base directory sein.

Bei mir liegt es unter /var/www/nextcloud/

Schauen wir erstmal auf welcher Version wir uns aktuell befinden.
Mit sudo -u führen wir php aus und starten mit php das script /var/www/nextcloud/occ mit dem Parameter -V

sudo -u www-data php /var/www/nextcloud/occ -V

Eine man page gibt es leider nicht, aber mit occ -h bekommt ihr einen help dialog angezeigt.
occ list gibt euch eine liste der verfügbaren befehle.

Da diese liste ziemlich lang ist, spare ich mir hier mal einen ai

Hier sehen wir, dass die Nextcloud "Begleitschafe" auf der Version 14.0.0 läuft.
Als nächstes wollen wir die Nextcloud in den maintenance mode versetzen.
Dies stoppt alle Apps die auf der Nextcloud laufen und bereitet sie für ein update vor.

Jetzt ladet mit wget das die aktuelle Version von Nextcloud herunter.
Aktuell ist das bei mir Nexcloud 15.0.5. Das könnt ihr einfach prüfen, wenn Ihr schaut, welches file euch Nextcloud grade als Server Image zum Download anbietet.

wget https://download.nextcloud.com/server/releases/nextcloud-15.0.5.zip

Komfortabler weise, könnt Ihr aber auch einfach ein wget auf das latest.zip file machen.

wget https://download.nextcloud.com/server/releases/latest.zip

Und wenn wir jetzt mal ein md5sum über beide files machen, sehen wir, dass sie identisch sind.

Entpackt das Verzeichnis jetzt irgendwohin, wo euer aktuelles nextcloud verzeichnis nicht liegt.

unzip nextcloud.zip

Stoppt jetzt euren Webserver.

Apache
sudo service apache2 stop

Nginx
sudo service nginx stop

Anschließend benennt ihr euer aktuelles nextcloud Verzeichnis um.

sudo mv /var/www/nextcloud/ /var/www/nextcloud-old

Kopiert anschließend das entpackte nextcloud Verzeichnis an die Stelle des alten.

sudo mv /home/ori/nextcloud /var/www/nextcloud

Jetzt kopieren wir die config.php aus dem alten Verzeichnis in das neue.

sudo cp /var/www/nextcloud-old/config/config.php /var/www/nextcloud/config/config.php

Schaut euch jetzt in dieser config.php datei an, was bei der variable datadirectory geschrieben steht.
Falls sie sich in dem umbenannten Verzeichnis befand, verschiebt sie von /nextcloud-old nach /nextcloud.

Jetzt passen wir noch die Dateiberechtigungen an, so dass www-data (euer webserver) wieder mit /var/www/nextcloud arbeiten kann.

sudo chown -R www-data:www-data /var/www/nextcloud
sudo find /var/www/nextcloud/ -type d -exec chmod 750 {} \;
sudo find /var/www/nextcloud/ -type f -exec chmod 640 {} \;

Startet jetzt euren Webserver.

Apache
sudo service apache2 start

Nginx
sudo service nginx start

Jetzt könnt Ihr den eigentlichen Upgrade Prozess starten.

sudo -u www-data php /var/www/nextcloud/occ upgrade

Und anschließend sollte die Version auf dem aktuellen Stand sein.

Jetzt könnt Ihr euch wieder in der Cloud anmelden.

Einige Apps werden fehlen, diese müsst ihr erneut runterladen und aktivieren.

Cheers,
Ori

 


Nextcloud Freigaben auf SQL Ebene

In diesem Artikel möchte ich ein bisschen eintauchen in die Frage, wie Nextcloud die Informationen wer was mit wem geteilt hat auf Datenbankebene speichert.

Zunächst schauen wir uns erstmal an, auf welche Datenbank die Nextcloud schreibt.
Hierzu schauen wir in die Datei config.php im Nextcloud Verzeichnis an.
Uns interessiert dbname und dbhost.

Da dbhost localhost ist, die Datenbank also direkt auf meinem Server läuft verbinde ich mich ohne Angabe eines Servers.
mysql -p

Anschließend lasse ich mir mit show databases die existierenden Datenbanken anzeigen.
show databases;

Wie erwartet gibt es die Datenbank nextcloud_db, zu der ich mich verbinde.
connect nextcloud_db;

Ein Blick in show tables zeigt einiges an SQL Tables.
Uns interessieren vor allem die Tables oc_share und oc_filecache.

(Es kann sein, dass eure Tables anders heißen. Zum Beispiel nc_share und nc_filecache.
Zuständig dafür ist, wie oben in der config.php zu sehen, das dbtableprefix)

Sehen wir uns ein Beispiel an.
Der Benutzer Felix hat den Ordner /Privat/Podcast/CoreUtils mit dem Benutzer beegeees geteilt.
In folgendem screenshot sehen wir, wie das im Webinterface der Nextcloud aussieht.

 

Schauen wir uns an was in der Datenbank passiert.
Nextcloud Freigaben werden in oc_share verwaltet.

Mit describe können wir uns anschauen, wie oc share aufgebaut ist.

describe oc_share;

Es gibt einen Primärschlüssel "id", welche die Freigabe eindeutig identifiziert.
Dann gibt es noch die interessanten Felder:

  • file_target = was wird geteilt
  • share_with = mit wem wird etwas geteilt
  • share_name = unter welchem namen wird es angezeigt
  • file source = verweis auf die Datenbank oc_filecache

Schauen wir uns jetzt mal den grade erzeugten Datenbankeintrag an.
Wir wissen, dass share_with beegeees sein muss und das file_target irgendwas mit Utils.
So kann man recht einfach eine SQL Abfrage bauen.

select * from oc_share where share_with = "beegeees" and file_target like "%Utils%";

Die Formatierung macht das lesen aufgrund der Menge an Informationen etwas unübersichtlich aber es ist alles enthalten.
Wer (uid_owner=felix) hat was (item_type=folder, file_target=/CoreUtils) mit wem (share_with=beegeees) geteilt.

Allerdings wird hieraus noch nicht wirklich klar, was /CoreUtils jetzt eigentlich ist und wo es liegt.
Also schauen wir uns oc_filecache an.

describe oc_filecache;

Hier gibt es wieder einen Primärschlüssel, der Files im Chache identifiziert.
Schauen wir jetzt mal, was hier an Infos zu fileid 20774 existieren auf den item_source referenziert hat.

Sie an, hier ist der Pfad mit dem die Nextcloud arbeitet.
Schauen wir uns jetzt nochmal genau an, was in der config.php vom Anfang stand.

Hier war datadirectory als /var/nextcloud_data definiert.
Dann war in oc_share der uidowner als Felix angegeben.
Und in oc_filecache ist der path der referenzierten file_source als files/Privat/Podcast/CoreUtils angegeben.

Wenn wir diese Informationen jetzt zusammennehmen, müssten wir die Datei bzw. den Ordner im Dateisystem vom Server finden können.

Cheers,
Ori

 


Wordpress, Nginx und Multisites

In diesem Artikel versuche ich das Wissen von der NGINX Website zu Wordpress in einem einfacher verständlichem How-To zusammenzufassen.
Das Ausgangssetup ist eine Bestehende Wordpress Installation auf Nginx Basis mit frisch aktivierter Multisite unter Ubuntu 16.04.

Backup anlegen

Zunächst würde ich euch bitten alle Konfigurationsdateien zu sichern.
Ich lege dazu das Verzeichnis /home/USER/nginxbackup an.

mkdir ~/nginxbackup

Sichert jetzt den Inhalt von /etc/nginx in den neu angelegten Ordner.

sudo cp -R /etc/nginx/ ~/nginxbackup/

Anschließend nochmal überprüfen, dass alles da ist.

ls -al ~/nginxbackup/nginx

Generelles zum Setup

Damit uns nicht langweilig wird müssen wir die normale Konfiguration von Nginx nun in fünf verschiedene Konfigurationsdateien aufspalten.

Diese sind:

    • /etc/nginx/nginx.confDiese Datei sollte es in eurem aktuellen Setup bereits geben.
      Anpassen musste ich hier nichts weiter.
      Wichtig im neuen Setup ist, dass /etc/nginx/sites-enabled/ im include Teil am ende des http Teils der config enthalten ist.
      Dies sagt eurem Nginx, wo er nach Konfigurationsdateien für Sites suchen soll.Z.b.:http {
      ...
      include /etc/nginx/conf.d/*.conf;
      include /etc/nginx/sites-enabled/*;
      }
    • /etc/nginx/conf.d/SITENAME.conf
      oder /etc/nginx/sites-available/SITENAME
      oder /etc/nginx/sites-enabled/SITENAMEWenn Ihr mit Apache vertraut seid, kommt euch das bekannt vor.
      Falls nicht möchte ich es euch kurz erklären.In /etc/nginx/sites-available liegen die tatsächlichen Konfigurationsdateien der einzelnen Seiten, die Nginx Ausliefert.
      In /etc/nginx/sites-enabled liegen symbolische Verknüpfungen, auch symlinks genannt, die auf die jeweiligen Dateien in /etc/nginx/sites-available liegen
      Ihr könnt aber auch einfach conf.d verwenden.
      Schauen wir uns an, ob das in unserem Fall auch so aussieht.
      ls -al /etc/nginx/sites-enabled/

      Es gibt also in /etc/nginx/sites-available den Symlink wordpress, welcher auf /etc/nginx/sites-available/wordpress zeigt.
      So weit so gut, diese müssen wir editieren. Öffnet diese Konfigurationsdatei in einem Editor eurer Wahl.Wir redirecten allen Traffic zu der Main seite.
      Fügt dafür eine weiteres server Statement der Datei hinzu.

      server {
              server_name  _;
              return 302 $scheme://example.com$request_uri;
      }

      Tragt bei server_name und example.com jeweils die URL eurer Seite ein.
      Z.b. so:

      server {
      server_name kabelsalat.it;
      return 302 $scheme://kabelsalat.it$request_uri;
      }

      Fügt dann noch in der selben Datei in dem darauffolgenden Server Statement vor der schließenden Klammer folgende Zeilen hinzu und speichert die Datei anschließend.

      Bei einer Wordpress Single Site:
      include global/restrictions.conf;
      include global/wordpress.conf;

      Bei einer Subdomain Multisite (seite1.kabelsalat.it, seite2.kabelsalat.it usw.):

      include global/restrictions.conf;
      include global/wordpress-ms-subdomain.conf;

      Bei einer Subdirectory Multisite (kabelsalat.it/seite1, kabelsalat.it/seite2 usw.):

      include global/restrictions.conf;
      include global/wordpress-ms-subdir.conf;

      Dem aufmerksamen Leser wird aufgefallen sein, dass es die Dateien noch nicht gibt, auf die wir hier referenzieren.

    • /etc/nginx/global/restrictions.conf
      Zunächst müssen wir das global Verzeichnis anlegen.
      sudo mkdir /etc/nginx/global

      Anschließend erstellen wir mit einem Editor unserer Wahl die Datei /etc/nginx/global/restrictions.
      Ich nutze dazu vim.
      vim /etc/nginx/global/restrictions.conf

      Diese habe ich Copy & Paste einfach von codex.wordpress.org übernommen.
      Siehe dort global restrictions file.

    • /etc/nginx/global/wordpress-ms-subdir.conf

      Kopiert euch von codex.wordpress.com die WordPress Multisite Subdirectory rules Datei und passt jeweils server_name und die /var/www/ url an.
      Bei mir ist das /var/www/html/wordpress

      Auf unserem netten Diagram sieht das jetzt also folgendermaßen aus.

 


PodCatcher

[HIER ENTSTEHT DER PODCATCHER ARTIKEL]


Ultraschall: N-1 Schalte mit Jackaudio und StudioLink

#################### UNDER CONSTRUCTION #############################

 

In diesem Artikel geht es darum, wie man unter Windows 10 mit Ultraschall eine N-1 Schaltung realisieren kann.
Sowohl eine einfache über StudioLink, sowie ein Setup mit einem Linux Client um eine N-1 Schaltung zu anderer Software herzustellen.

Hierzu erstmal ein paar dinge erklärt.
Was ist eigentlich:

Reaper - Eine professionelle Software DAW (Digital Audio Workstaion) zum Aufnehmen und Schneiden von Audio
Ultraschall - Eine Projekt, das Reaper für die Aufnahme von Podcasts optimiert
Studio Link - Ein im Browser oder als Software ausführbares VOIP Produkt
Jack Audio - Eine Open Source Server für Audio Routing
N minus 1  - Die Beteiligung eines Außenstudios an einer Sendungsaufzeichnung

N-1 Schalte mit Stuidolink in Ultraschall

Ultraschall bringt seit der Versio 2.2 die Möglichkeit mit eine Studio Link Audiospur hinzuzufügen.
Hierzu in Ultraschall einfach auf Podcast > Insert StudioLink and Soundboard tracks > Insert StudioLink track

Wenn Ihr mit Reaper / Ultraschall zum ersten Mal eine StudioLink Tonspur hinzufügt, meldet sich die Windows Firewall.
Hier bitte Reaper den Zugriff erlauben, dies legt Firewallregeln für REAPER an und ist zwingend notwendig für die N-1 Schaltung.

Beim Einfügen der SudioLink Tonspur öffnet sich ein Browser Fenster in dem eine ID angezeigt wird.
Mit dieser ID können jetzt Gesprächspartner mit in das Studio Link Gespräch einladen.

Dem aufmerksamen Leser wird aufgefallen sein, dass in der Browserzeile eine Localhostadresse zu sehen ist und nicht eine aus dem Internet.

Das wäre jetzt eine N-1 (N zu Eins) Schalte mit Studio Link.

N-1 Schalte zu anderer Software

Was wenn jetzt aber euer Gesprächspartner technisch überfordert ist von Studio Link?
Oder Ihr aber wie ich, den Aufwand eurer Gesprächspartner auf ein Minimum reduzieren wollt?

Du benutzt?

  • Mumble
  • Team Speak
  • Skype
  • Discord

Kein Problem, hier kommt Jack ins Spiel!Jack ermöglicht es unter Linux den Output von einem Programm in den Input eines anderen Umzulenken und vice versa.
Moment Linux? Du sagtest doch Windows!

Ja, Linux. Wir werden es auf dem Windows Host virtualisieren.
(Ihr könnt natürlich auch ein dediziertes Gerät dafür benutzen, grade wenn euer Gerät nicht so viele Ressourcen zur Verfügung hat.)

Das ganze wird am Ende so aussehen:

  • Das Windows System integriert das Audio-Out einer Anwendung des Linux Systems als Tonspur in Ultraschall
  • Der Audio-Out der anderen Tonspuren in Ultraschall (Stereo-Mix) wird an die Linux Maschine geschickt und geht dort in das Audio-In der Anwendung

Womit bauen wir uns also diese Linux Maschine unter Windows?

Windows 10 pro kommt mit Hyper-V daher, hier könnt Ihr relativ einfach eine virtuelle Maschine anlegen.
Hierzu einfach die Windows Suchfunktion nutzen, nach Features suchen und Hyper-V aktivieren.

 

Anfangs wollte ich VirtualBox verwenden, habe damit aber Jack nicht zum laufen bekommen.
Aktiviert also Hyper-V und startet den Rechner neu.

Erfolgreich getestet habe ich auch VMware Workstation.
Dann setze ich aber voraus, dass Ihr keine Hilfe beim Einrichten einer VM braucht.

 

 

Vorbereiten der VM

Startet jetzt den Hyper-V-Manager.

Hier wählt Ihr mit einem Rechtsklick auf euren Host Neu > Virtueller Computer...

Hier definieren wir jetzt die VM

  • Ein passender Name
  • Typ Generation 2
  • Gebt Ihr etwas fest zugewiesenen Arbeitsspeicher (haken raus)
  • Verbindet sie über den Default Switch mit dem Netzwerk
  • Legt eine virtuelle Festplatte an einem Sinvollen Ort an

Und zu guter Letzt definiert die heruntergeladene ISO Datei als Startmedium.

Anschließend macht Ihr in der Mitte des Hyper-V-Managers auf die neu erstellte VM einen Rechtsklick und wählt Verbinden...

Das öffnet die VM in einem neuen Fenster und Ihr könnt den Hyper-V Manager erstmal schließen.
Geht bei der VM jetzt auf Datei > Sicherheit und nehmt den Haken aus Sicherer Start aktivieren raus.
"Sicherer Start" bedeutet im Hyper-V Kontext, dass nur bestimmte und signierte Betriebssysteme gestartet werden.
Das würde den Start von Ubuntu verhindern.

Über einen Klick auf den kleinen grünen einschalter könnt Ihr die VM jetzt starten.

Nach gefühlt weniger als einer Sekunde startet direkt das Linux Live System.
Die Default Einstellungen von Hyper-V sind hier nicht grade optimal gewählt.
Startet die Installation von Ubuntu über das Desktop Icon.

Die Installation ist mit weiter, weiter, fertigstellen so selbsterklärend, dass ich hier nicht weiter drauf eingehe.
Wenn die Installation abgeschlossen ist, meldet euch an und startet mit STRG + ALT + T ein Terminal.
Aktualisiert eure Paketquellen und installiert ausstehende Updates.
Wir wollen ja mit einem sauberen System starten.
sudo apt update -y && sudo apt upgrade -y

Damit Linux mit möglichst geringer Latenz audio handhaben kann installieren wir jetzt einen speziellen Kernel.
Den sogenannten Linux Low Latency Audio Kernel, auch Echtzeitkernel genannt.
sudo apt install linux-lowlatency -y

Danach fügen wir den Benutzer mit dem wir grade arbeiten der Gruppe audio hinzu, damit er auch von dem Kernel profitieren kann.
Wenn ihr das Setup auf einem wichtigen System fahrt, bedenkt folgendes:

  • Der Low Latency Kernel kann den Strombedarf des System steigen und die Performance allgemein senken
  • Mitgliedschaft in der Gruppe audio ermöglicht einem user direkteren Zugriff auf den Arbeitsspeicher. Das ist potentiell ein Risiko.

sudo adduser <BENUTZER> audio

Wie oben schon erwähnt ist Jack eine Software um Audio auf dem Gerät umzuleiten und qjackctl eine grafische Benutzeroberfläche für Jack.

Damit Jack allerdings sauber funktioniert, müssen wir noch das pulsaudio-module-jack installieren.
sudo apt install pulsaudio-module-jack

Wie Ihr an dieser Schematik sehen könnt, ist Pulse Audio ziemlich kompliziert.
Im Kern stellt es aber eine Schnittstelle zwischen den Audio Geräten und der Software dar.
Quasi:

  • Quelle -> Pulse -> Ziel
  • Ziel -> Pulse -> Quelle

Wir mit Jack jetzt genau definieren, wohin das Audio geschickt wird.
Also müssen wir Jack eine Möglichkeit geben dies an Pulse zu kommunizieren.

Wir wollen:

  • Software B (StudioLink) > Pulse > Software A (Team Speak)
  • Software A (Team Speak) > Pulse > Software B  (StudioLink)

Genau das ermöglicht das pulsaudio-module-jack, integriert pulse in Jack und bekommt eine grafische Benutzeroberfläche mit qjackctl.
Jetzt (endlich) installieren wir also Jack und qjackctl.
sudo apt install -y jack qjackctl

Während der Installation werdet Ihr gefragt, ob Ihr Jackd mit Echtzeit-Verarbeitungspriorität ausführen wollt.
Bestätigt das.

Ruft jetzt qjackctl auf.
qjackctl &

Geht hier auf Einstellungen, stellt den Driver auf alsa, die Sample Rate auf 48000 und Frames auf 64.
Damit solltet Ihr eine Latency von 4msec erreichen.

Zu guter letzt installieren wir noch Studio Link.
Geht hierzu auf die Webseite und ladet das .deb Paket herunter.

Anschließend wieder in das Downloads Verzeichnis, die zip Date entpacken, ausführbar machen und ausführen.
cd ~/Downloads
unzip studio-link-standalone-linux.zip
sudo chmod +x studio-link-standalone
./studio-link-standalone

Es sollte dann ein Browserfenster mit Studiolink geöffnet werden.

Damit steht jetzt erstmal das Grundkonzept.
Als nächstes installieren wir Software und testen das Setup damit.

 

Zu verbindende Software Installieren

Ich nehme in diesem Beispiel dafür Team Speak, es würde mit anderer Software allerdings ähnlich aussehen.
Wenn Ihr andere Software benutzten wollt, installiert sie, überspringt diesen Teil und macht im nächsten Kapitel Setup Testen weiter.

Ladet also den Linux Client für Team Speak herunter.

Gebt jetzt folgendes in ein Terminal ein.

cd ~/Downloads
chmod u+x TeamSpeak3-Client-linux_ARCHITEKTUR-VERSION.run
./TeamSpeak3-Client-linux_ARCHITEKTUR-VERSION.run

Anschließend die Eula lesen, mit einem dem Druck der Taste q die Eula wieder verlassen und dann mit y akzeptieren.

In eurem Download Verzeichnis befindet sich jetzt ein Ordner Namens TeamSpeak3-Client-linux_amd64.
Wechselt in dieses.
cd TeamSpeak3-Client-linux_amd64

In diesem Verzeichnis befindet sich das script ts3client_runscript.sh
Dieses Script müssen wir jetzt noch Ausführbar (eXecutable) machen.
sudo chmod +x ./ts3client_runscript.sh

Jetzt können wir Team Speak starten.

 

Setup Testen

In der Ausgangssituation haben wir:

  • unsere Software geöffnet, in meinem Fall Team Speak
  • qjacktl offen
  • Studio Link am Laufen

Startet jetzt JACK und geht auf Connect.

 


Check MK Agent for Linux Troubleshooting

In diesem Artikel möchte ich einen Ansatz zeigen, wie man auf einem Linux Client Check_MK issues troubleshooten kann.
Sehen wir uns mal einen Check an, der nicht eindeutig ist und dem wir auf den Grund gehen wollen.

Dieser Check im WARN sagt aus, dass hier Updates der VMware Guest Tools ausstehen.
Aber wie überprüft Check_MK das eigentlich?

Wir erinnern uns, unter Linux werden die Daten für das Monitoring über check_mk_agent generiert.
Über whereis und file bekommen wir heraus, dass es sich hierbei um ein bash script handelt.

Schauen wir also mal rein.

Gleich in den ersten Zeilen fallen drei Verzeichnisse auf:

  • /usr/lib/check_mk_agent
  • /etc/check_mk
  • /var/lib/check_mk_agent

Leider findet sich weder in dem Script an sich, noch in diesen Verzeichnissen etwas zu diesem Check.
Schauen wir doch mal in den Blogartikel des Herstellers.

Die WATO Checks sind eine Interpretation der Daten die das Script liefert.
Man müsste jetzt also noch tiefer auf dem Check_MK Server graben um herauszufinden, welche in den vom check_mk_agent generierten Daten wie womit verglichen werden.

Darüber kann man dann wiederum darauf zu kommen, welche Funktion im check_mk_agent script diese Daten erhebt.
Das war jetzt zwar kein finales Ergebnis, sollte euch aber einen Ansatz geben, wie man solche Themen angehen kann.

My educated guess:
Vermutlich wird eine offentliche Ressource von VMware abgefragt und mit einem gelieferten string abgleichen.
Da die Fehlermeldung moniert, dass die tools "not handled by VMware" sind, wird das vermutlich bedeuten, dass der Check keine Werte zurückgeliefert hat.
Es sind keine VMware Tools installiert.

Cheers,
Ori


VxLAN

I want to present to you a nice YouTube series about VxLAN.

As you can find in my Juniper artikle V-Lan configuration the IEEE 802.1X standard enlarges the frame on Layer-2.
Even if at a first glance adding another 32Bit to every frame seems qute oversized, you will eventually run into its limits.
VxLAN is a way to wrap Layer-2 Traffic inside Layer-4 UDP traffic to surpass V-Lan's limitations.

https://www.youtube.com/watch?v=YNqKDI_bnPM

Ceers,
Ori


VxLAN

Ich möchte euch jetzt diese Tolle YouTube Serie zu VxLAN's ans Herz legen.

Wie Ihr in meinem Juniper Artikel V-Lan Konfiguration nachlesen könnt, wird mit dem Standard IEEE 802.1X das Frame auf Layer-2 erweitert.
Auch wenn eine Erweiterung um 32Bit erstmal stark überdimensioniert wirkt, erreicht man auch irgendwann dessen Limits.
VxLAN ist eine Möglichkeit, wie man Layer-2 Traffic in Layer-4 UDP Paketen Kapseln kann um diese Limitierungen von V-Lans zu umgehen.

https://www.youtube.com/watch?v=YNqKDI_bnPM

Viel Spaß damit,
Ori


Link Aggregation einrichten

Link Aggregation ist eine Technik, bei der Mehrere Interfaces zu einem Zusammengefasst werden.
Sie wird eingesetzt um den Datentransfer zwischen zwei Geräten zu erhöhen und für Redundanz zu sorgen.

!ACHTUNG, Terminologie-Fu! 
Hersteller von Netzwerkhardware nutzen nicht immer die Selbe Terminologie!
Zum Beispiel nennt HP das zusammenfassen von interfaces "Trunking" und zusammengefasste Interfaces einen "Trunk".
"Trunking" ist ein Begriff der von Cisco und Juniper im V-Lan (802.1q) Kontext genutzt wird um Interfaces zu beschreiben, über welche V-Lan Tagged Traffic ausgetauscht wird.
Ein solches Interface wird als "Trunk Port" bezeichnet, bei HP nennt es sich "Tagged Interface".
Wenn Ihr Netzwerkhardware mehrerer Hersteller in eurem Netzwerk habt und V-Lan tagged traffic über aggregated interfaces schickt müsst ihr auf eure Sprache achten!
(Vor allem, wenn mehrere Parteien involviert sind!)

Das geläufige Protokoll für diese Technik ist das Link aggregation control protocoll (LACP).

Einrichtung

In diesem Beispiel werde ich die Interfaces 13, 14 und 15 an einem Meraki MS225 - 24 Port Switch zu einem AE (Aggregated Interface) zusammenfassen und die V-Lan Config des AE anpassen.

Um die AE zu konfigurieren, wählt Switch > Monitor > Switch ports aus.

Hier wählt Ihr dann die Ports aus, die Ihr zu einer Portgruppe zusammenfassen wollt und klickt in der Kopfzeile auf Aggregate.

Diese AE wird in der Switchports Übersicht jetzt auch als ein Interface gelistet und kann wie eines konfiguriert werden.
Beispielsweise als Access Port für ein bestimmtes V-Lan.

 

Cheers,
Ori