Dans Shinken Entreprise, lorsque des éléments sont en supervision, des vérifications régulières sont effectuées sur les hôtes, clusters et checks.
Suite à ces vérifications, un statut (OK, Attention, Critique, Inconnu) ainsi que un ou plusieurs contextes (Flapping, Période de maintenance, Prise en compte) sont attribués à chaque élément.
Sans rétention, lorsque Shinken doit être redémarré (maintenance du serveur de supervision, ou bien mise à jour de Shinken), ces statuts et contextes sont perdus, et les éventuelles notifications déclenchées sur un état non voulu seront envoyées !
Activer la rétention permet de conserver les états des hôtes, clusters et checks entre les redémarrages de Shinken et ainsi bénéficier d'une vision claire de l'état des éléments supervisés à tout moment.
Cette rétention s'effectue au niveau du démon Scheduler qui est chargé d'ordonnancer la vérification des éléments et de récupérer et analyser les résultats de ces vérifications.
Pour chaque élément (hôte, check ou cluster) activé dans la configuration, les données suivantes sont sauvegardées:
| Type de donnée | Commentaire |
|---|---|
| Identifiant unique de l'élément | L'UUID est un champ interne à Shinken permettant d'identifier un élément (hôte, check ou cluster) de manière unique |
| Données d'ordonnancement | Date de la dernière et de la prochaine vérification |
| Statut actuel | Statut actuel de l'élément |
| Dernier changement de statut | Date du dernier changement de statut et statut précédent |
| Contexte | Indique si l'hôte est en Flapping, a une Prise en compte ou des périodes de maintenance. Dans le cas des Périodes de maintenance et des Prises en compte, l'auteur, date et commentaires sont également sauvegardées. |
| Résultat et résultat long | Résultat et résultat long de la dernière vérification |
| Contacts | Ensemble des contacts (identifiés par leur nom) qui ont reçu une notification concernant l'élément |
| Problèmes sources | Lorsque l'élément possède des liens avec d'autres éléments, lorsque cet élément est en erreur, l'identifiant unique des autres éléments affectés sont également sauvegardés. Aussi, si un élément en erreur a affecté l'élément actuel, l'identifiant unique de l'élément source du problème est sauvegardé |
Le module MongodbRetention se charge de sauvegarder la rétention dans une base de données Mongo. L'avantage de ce type de rétention est qu'il peut, contrairement à la rétention par fichiers plats, être utilisé dans un environnement distribué avec plusieurs Schedulers. Plus de détails sont disponibles sur les cas d'utilisations de ce type de rétention dans la page Configurer la rétention des données.
Pour l'utiliser, il faut activer ce module sur le Scheduler pour lequel on veut sauvegarder la rétention.
Cette configuration s'effectue dans le fichier de configuration du Scheduler concerné. Dans Shinken Entreprise, la définition des Schedulers se trouve /etc/shinken/schedulers/.
define scheduler {
...
...
...
#======== Modules to enable for this daemon =========
# Available:
# - PickleRetentionFile : (if you have only one scheduler into a realm) save retention data (element state and scheduling) into a file
# - MongodbRetention : (if you have more than one scheduler into a realm) save retention data (element state and scheduling) into a mongodb database
modules MongodbRetention
...
...
...
} |
Une fois la rétention Mongo activée sur les Schedulers concernés, il faut modifier l'URI de la base Mongo pour pointer vers l'adresse de la base de données qui hébergera les données de rétention.
L'installation de Shinken comporte une installation de Mongo. Il est donc possible d'utiliser un serveur Shinken comme serveur utilisé pour la rétention.
Un serveur externe peut également être utilisé pour sauvegarder la rétention.
Pour se connecter au serveur Mongo utilisé pour la rétention, 2 méthodes sont disponibles:
Par défaut, le module de rétention se connecte de manière directe au serveur Mongo pour y lire et écrire les données de rétention.
Dans la configuration du module de retention, on sait que la connexion se fait de manière directe lorsque le paramètre "use_ssh_tunnel" est à 0.
define module {
#======== Module identity =========
# Module name. Must be unique
module_name MongodbRetention
...
use_ssh_tunnel 0
...
} |
Cette méthode de connexion a pour avantage d'être facile à configurer au niveau de Shinken. Par contre, elle oblige à permettre l'accès à la base Mongo au monde extérieur, et donc s'exposer à des problèmes de sécurité.
La sécurisation de la base Mongo est bien sur toujours possible (voir Sécurisation des connexions aux bases MongoDB) mais bien plus complexe à mettre en place. La méthode de connexion par SSH est donc préférable pour des raisons pratiques et de sécurité.
Le module de rétention peut également se connecter par tunnel SSH au serveur Mongo, pour des raisons de sécurité.
bind_ip=127.0.0.1 |
root@serveur_shinken # su - shinken shinken@serveur_shinken $ ssh-keygen shinken@serveur_shinken $ ssh-copy-id user_distant@serveur_mongo [...] shinken@serveur_shinken $ ssh user_distant@serveur_mongo user_distant@serveur_mongo $ |
Si vous avez un serveur qui héberge à la fois le démon Scheduler et la base MongoDB, il vous faudra également appliquer ces commandes pour autoriser l'utilisateur shinken à se connecter automatiquement sur lui même en SSH |
define module {
#======== Module identity =========
# Module name. Must be unique
module_name MongodbRetention
# Module type (to load module code). Do not edit.
module_type mongodb_retention
#======== Mongodb connection =========
# uri: to connect the mongodb server
uri mongodb://ip_du_serveur/?safe=false
use_ssh_tunnel 1
use_ssh_retry_failure 1
ssh_user user_distant
ssh_keyfile /chemin/vers/cle/ssh (par defaut ~/.ssh/id_rsa)
# database: which mongodb database to use
database shinken
# Advanced option if you are running a cluster mongodb environnement
# replica_set
} |
Il se peut également que plusieurs royaumes veuillent définir une rétention Mongo sur un serveur différent pour chaque royaume. Dans ce cas, il faut faire plusieurs définitions de module de rétention.
Même si ce n'est pas obligatoire, nous vous conseillons de faire une fichier séparé par définition de module nommé du nom du module de rétention ( dans un but de clarté de votre configuration ) |
Ne pas utiliser "localhost" ou "127.0.0.1" comme URI de la base Mongo lorsqu'il y a plusieurs Schedulers dans le même royaume. Des explications détaillées sur ce problème sont présentes dans la page Configurer la rétention des données. |
Dans certains cas, il se peut que la connexion à mongo ai besoin de plusieurs tentatives (Ex. : coupures réseaux, sauvegarde externe de la base en cours, ...)
Afin de déterminer les options pour se reconnecter il faut utiliser les options suivantes :
define module {
#======== Module identity =========
# Module name. Must be unique
module_name MongodbRetention
# Module type (to load module code). Do not edit.
module_type mongodb_retention
...
# Number of retry if mongo is not acessible
# Default value : 3
mongo_max_connections_retry 3
# Delay before next retry
# Default value : 1s
mongo_wait_before_retry 1
...
} |
Si ces options ne sont pas précisées, les valeurs par défaut seront utilisées. |
La durée de la sauvegarde de la rétention ne peut excéder le délai d'extinction des démons (fixé à 120 secondes) quelque soit la valeur des options précédemment définies. |
Afin d'améliorer le temps d'envoi lors des sauvegardes de rétention, le module de rétention lance des sous-processus qui vont chacun calculer et envoyer une sous partie des données de retentions.
Afin de contrôler au mieux les sous-processus il faut utiliser les options suivantes :
define module {
#======== Module identity =========
# Module name. Must be unique
module_name MongodbRetention
# Module type (to load module code). Do not edit.
module_type mongodb_retention
...
# Worker timeout: Global time for your workers to work. If a worker still
# runs after worker_timeout seconds (and so numerous try)), then it will be killed and the error will
# be raised into your monitoring
# Default: 120
worker_timeout 120
# Worker try timeout: Time for a one try data save. If one worker process still runs after
# worker_one_try_timeout seconds, it will be killed and a new worker process will be spawn
# to replace it
# note: it must be lower than the worker_timeout
# Default: 30
worker_one_try_timeout 30
# Max number of workers: if you want to limit the number of workers launched, you can change this parameter
# By default the number of workers will be the number of CPUs but no more than max_number_of_workers (by default 4)
max_number_of_workers 4
...
} |
Si ces options ne sont pas indiquées, les valeurs par défaut seront utilisées. |
La durée de la sauvegarde de la rétention ne peut excéder le délai d'extinction des démons (fixé à 120 secondes) quelque soit la valeur des options précédemment définies. |
Les données de rétention via le module MongodbRetention sont donc sauvegardées via le moteur de base de données Mongodb.
La base utilisée pour la rétention est la base shinken.
Afin de distinguer les hôtes des checks, deux collections sont utilisées :
Voici la visualisation des collections via l'utilitaire RoboMongo permettant de se connecter aux bases Mongodb :