
Le véritable contrôle de votre parc informatique ne s’obtient pas par la simple identification des actifs, mais par l’élimination systématique du gaspillage financier et des risques opérationnels à chaque étape de leur cycle de vie.
- Les serveurs « zombies » non identifiés représentent un capital immobilisé important et une consommation d’énergie inutile, impactant directement vos résultats.
- Une virtualisation non gérée et une documentation médiocre créent des voies directes vers des échecs d’audit logiciel se chiffrant en millions de livres et une paralysie opérationnelle.
Recommandation : Mettez en œuvre une gouvernance rigoureuse du cycle de vie pour chaque actif, transformant votre inventaire d’une liste passive en un système contrôlé et fondé sur des preuves.
En tant que gestionnaire d’actifs informatiques (ITAM) dans une grande entreprise, vous êtes probablement familier avec ce sentiment persistant de perte de contrôle. Le parc informatique, autrefois un territoire bien défini, est devenu une carte tentaculaire et nébuleuse comportant des régions inexplorées. Des ordinateurs portables manquent à l’appel, des serveurs bourdonnent dans des baies sans servir à personne, et les licences logicielles existent dans un état d’incertitude quantique — à la fois utilisées et inutilisées, conformes et non conformes. Le conseil habituel est d’« acquérir un nouvel outil » ou de « réaliser un inventaire », mais ce sont des solutions temporaires, pas un système de contrôle durable. Elles traitent les symptômes d’un problème bien plus profond : l’absence d’un cadre de gouvernance structuré de bout en bout.
La réalité est que la visibilité n’est pas un projet ponctuel ; c’est un état continu de discipline opérationnelle. C’est là que de nombreuses stratégies ITAM échouent. Elles se concentrent sur la découverte mais négligent les processus tout aussi critiques de gestion du cycle de vie, d’intégrité de la configuration et de mise au rebut basée sur des preuves. La véritable clé pour reconquérir votre parc informatique n’est pas seulement de voir ce que vous avez, mais de construire un système d’enregistrement inébranlable qui dicte le cycle de vie de chaque actif, de son provisionnement automatisé à sa destruction conforme à la loi. Cette approche va au-delà du simple inventaire et établit un véritable commandement sur votre infrastructure.
Ce guide propose un plan ordonné et axé sur le contrôle pour y parvenir. Nous décortiquerons les points de défaillance les plus courants et les plus coûteux de la gestion des actifs informatiques et fournirons des cadres systématiques pour les corriger, vous permettant ainsi de bâtir un parc informatique résilient et auditable.
Sommaire : Un cadre pour un contrôle total des actifs informatiques
- Pourquoi 20 % de vos serveurs fonctionnent-ils sans absolument rien faire ?
- Comment planifier un cycle de renouvellement des PC portables sans pic de trésorerie massif ?
- Agents ou Scanners : Lequel trouve le plus d’actifs sur un réseau fragmenté ?
- L’erreur de virtualisation qui déclenche un audit Oracle d’un million de livres
- Quand appeler les déchiqueteurs : Le processus légal de destruction des disques durs
- Comment trouver les « serveurs zombies » inactifs depuis 6 mois ?
- Le déficit de documentation qui vous laisse avec des serveurs que personne ne comprend
- Comment détecter et corriger la dérive de configuration avant qu’elle ne cause une panne ?
Pourquoi 20 % de vos serveurs fonctionnent-ils sans absolument rien faire ?
Le terme « serveur zombie » ou « serveur comateux » désigne un serveur physique ou virtuel qui est sous tension mais n’a aucune communication ou visibilité externe et n’effectue aucun travail informatique utile. Il ne s’agit pas d’un problème mineur d’intendance ; c’est une hémorragie financière importante. Ces serveurs sont les fantômes de votre salle des machines, consommant de l’énergie, du refroidissement et de l’espace en rack tout en n’apportant aucune valeur commerciale. Le problème est bien plus répandu que ce que la plupart des organisations imaginent. En fait, des recherches approfondies révèlent que jusqu’à 30 % des serveurs dans les centres de données sont des zombies, représentant un montant étonnant de 30 milliards de dollars de capital inutilement immobilisé dans du matériel informatique à l’échelle mondiale.
Pour un gestionnaire d’actifs informatiques, l’impact financier de ce gaspillage est colossal. Chaque serveur inactif consomme entre 200 et 400 watts par heure. Cela se traduit par un coût annuel d’énergie et de refroidissement de 300 £ à 500 £ par serveur, avant même de prendre en compte les coûts associés aux licences logicielles, aux contrats de maintenance et aux frais généraux de sécurité. Dans une grande entreprise possédant des milliers de serveurs, ces dépenses cachées peuvent facilement s’accumuler pour atteindre des millions de livres de dépenses opérationnelles gaspillées chaque année. De plus, cette infrastructure inactive empêche votre centre de données de prendre en charge des charges de travail à haute valeur ajoutée, telles que l’IA et l’apprentissage automatique, qui nécessitent une puissance et une densité de calcul importantes.
La cause profonde est une rupture de la gouvernance du cycle de vie. Les serveurs sont souvent provisionnés pour des projets temporaires, des environnements de test ou par des employés sur le départ, mais aucun processus formel de déclassement n’est jamais déclenché. Sans un propriétaire pour justifier son existence et un système pour suivre son utilisation, le serveur reste simplement là, monument silencieux d’une tâche oubliée et drain constant sur votre budget. Pour remédier à cela, il faut passer d’une observation passive à un cadre de déclassement actif et basé sur des preuves.
Comment planifier un cycle de renouvellement des PC portables sans pic de trésorerie massif ?
La gestion du cycle de vie des points de terminaison est un équilibre délicat entre la productivité des utilisateurs, la posture de sécurité et la stabilité budgétaire. Une approche courante mais problématique est le renouvellement basé sur l’âge de type « big bang », où l’ensemble de la flotte d’ordinateurs portables est remplacé tous les trois ou quatre ans. Cette méthode, bien que simple à suivre, crée un pic de dépenses d’investissement (CapEx) massif que les départements financiers redoutent. Elle impose un projet d’approvisionnement et de déploiement énorme et perturbateur, aboutissant souvent à ce que des utilisateurs reçoivent du nouveau matériel dont ils n’ont pas encore besoin, tandis que d’autres luttent avec des appareils défaillants juste avant le cycle suivant. Une stratégie plus sophistiquée et axée sur le contrôle est nécessaire pour lisser les coûts et aligner les dépenses sur les besoins réels.
La solution consiste à passer d’un cycle de renouvellement monolithique à un modèle flexible et piloté par les données. Cela implique de segmenter votre base d’utilisateurs et d’adopter une stratégie qui mélange les modèles d’approvisionnement. Par exemple, les utilisateurs ayant besoin de hautes performances, comme les développeurs, pourraient bénéficier de renouvellements basés sur la performance, tandis que les utilisateurs de bureau standard pourraient passer à un modèle de Device-as-a-Service (DaaS). Le DaaS transforme le pic imprévisible de CapEx en une dépense opérationnelle mensuelle (OpEx) prévisible, simplifiant la budgétisation et garantissant que les appareils sont toujours à jour. L’illustration ci-dessous montre le concept d’un cycle de vie géré en continu, plutôt que d’un événement périodique.

En établissant différents niveaux de profils d’utilisateurs, vous pouvez optimiser les dépenses. Un cadre dirigeant pourrait recevoir un nouvel appareil haut de gamme tous les deux ans, tandis que l’appareil d’un agent de centre d’appels pourrait être sur un cycle de quatre ans ou géré via le DaaS. Cette approche hiérarchisée, combinée à une surveillance des performances, garantit que le budget est alloué là où il a le plus d’impact sur la productivité. L’objectif est de faire du renouvellement des actifs un processus proactif et stratégique qui s’aligne à la fois sur les besoins des utilisateurs et sur la gouvernance financière, plutôt qu’un événement réactif dicté par le calendrier.
Le tableau suivant, basé sur une analyse des stratégies de renouvellement modernes, compare les principaux modèles disponibles pour un gestionnaire d’actifs informatiques.
| Stratégie | Modèle de coût | Impact budgétaire | Idéal pour |
|---|---|---|---|
| Renouvellement basé sur l’âge | Pic de CapEx tous les 3-4 ans | Coût périodique élevé | Petites organisations |
| Renouvellement basé sur la performance | OpEx variable | Coûts lissés | Effectifs dynamiques |
| Device-as-a-Service (DaaS) | OpEx mensuel prévisible | Frais mensuels fixes | Entreprises soucieuses de leur budget |
| Profils d’utilisateurs hiérarchisés | Mixte CapEx/OpEx | Dépenses optimisées | Besoins d’utilisateurs divers |
Agents ou Scanners : Lequel trouve le plus d’actifs sur un réseau fragmenté ?
Atteindre une visibilité complète des actifs est le fondement de l’ITAM, mais aucune méthode de découverte unique n’est une solution miracle. Les deux approches principales, la découverte basée sur des agents et le balayage réseau, ont chacune des forces et des angles morts distincts. La découverte basée sur des agents consiste à installer un petit logiciel client sur chaque point de terminaison (ordinateurs portables, serveurs). Cet agent signale en continu des données de configuration détaillées, les installations logicielles et les mesures de performance à un serveur central. Son principal avantage est sa persistance ; il peut suivre des appareils itinérants comme les ordinateurs portables même lorsqu’ils sont hors du réseau de l’entreprise. Cependant, le déploiement et la maintenance d’agents sur des dizaines de milliers d’appareils peuvent représenter une charge opérationnelle importante, et ils ne peuvent pas découvrir les appareils où un agent ne peut pas être installé, tels que les imprimantes réseau, les capteurs IoT ou les appareils non autorisés (Shadow IT).
À l’inverse, le balayage réseau sonde les plages IP pour identifier les appareils actifs et les caractériser en fonction de leurs réponses réseau. Les scanners sont excellents pour cartographier rapidement l’infrastructure statique au sein du centre de données et identifier les appareils du « Shadow IT » qui n’ont pas d’agent. Leur faiblesse réside dans le manque de visibilité sur les appareils hors tension, connectés par intermittence ou situés sur des segments de réseau isolés. Pour les environnements sensibles tels que les technologies opérationnelles (OT) ou les systèmes de contrôle industriel (ICS), le balayage actif peut même provoquer des perturbations et est souvent interdit.
La stratégie la plus efficace et axée sur le contrôle est un « maillage de découverte » hybride qui superpose plusieurs techniques. Les organisations de pointe mettent en œuvre une approche à trois volets pour obtenir une visibilité complète :
- Surveillance passive : Utilisée dans les environnements OT/ICS sensibles, cette méthode écoute le trafic réseau pour identifier les actifs sans envoyer de sondes perturbatrices.
- Découverte basée sur des agents : Déployée sur les serveurs critiques et tous les points de terminaison de l’entreprise, en particulier les ordinateurs portables itinérants, pour un suivi continu et détaillé.
- Balayage réseau et analyse de flux : Utilisés pour les segments centraux du centre de données et pour analyser les données de flux réseau (comme NetFlow/sFlow) afin de détecter tout appareil manqué par les deux autres méthodes.
L’erreur de virtualisation qui déclenche un audit Oracle d’un million de livres
Dans le monde des licences logicielles, peu de noms inspirent autant de crainte qu’un audit Oracle. Une lettre d’audit formelle peut déclencher une course effrénée pour prouver la conformité, et l’échec se solde souvent par des demandes de règlement à sept ou huit chiffres. L’un des pièges les plus courants et les plus coûteux pour les grandes entreprises est une mauvaise compréhension des politiques de licence d’Oracle dans un environnement virtualisé, en particulier avec VMware. L’erreur provient d’une hypothèse simple, mais catastrophique : que vous n’avez besoin de licences que pour les hôtes spécifiques où le logiciel Oracle est activement exécuté. C’est dangereusement faux.
La politique d’Oracle sur le « partitionnement logiciel » (qui inclut des technologies comme VMware vSphere) est notoirement stricte. Ils soutiennent que parce qu’un outil comme vMotion permet à une machine virtuelle exécutant une base de données Oracle d’être déplacée vers *n’importe quel* hôte physique dans un cluster vCenter, vous devez acquérir une licence pour *chaque processeur physique* de l’ensemble de ce cluster pour ce produit Oracle. Imaginez un cluster de 20 serveurs avec 48 cœurs chacun, mais vous ne faites fonctionner votre base de données Oracle que sur une VM résidant sur l’un d’eux. Si cette VM *pouvait* être déplacée vers l’un des 19 autres hôtes, la position d’Oracle est que vous leur devez des licences pour les 960 cœurs du cluster. C’est ce mécanisme qui transforme un déploiement à petite échelle en un passif de plusieurs millions de livres du jour au lendemain.

Le stress que cela génère pour les équipes informatiques et les centres de données est immense, car elles sont chargées de démêler des années de décisions architecturales sous la pression intense d’un audit. La seule défense fiable est un cadre de contrôle proactif et méticuleusement documenté. Cela implique de créer des clusters Oracle dédiés et physiquement isolés avec leur propre instance vCenter, garantissant que les VM Oracle ne peuvent pas techniquement migrer en dehors d’un pool de matériel entièrement sous licence. De plus, le maintien d’une piste d’audit immuable des configurations de serveurs, des paramètres vCenter et des affectations d’hôtes physiques n’est pas négociable. Sans ces preuves tangibles, vous entamez une négociation d’audit sans aucun levier.
Quand appeler les déchiqueteurs : Le processus légal de destruction des disques durs
L’élimination des actifs est la phase finale, et peut-être la plus critique, du cycle de vie des actifs informatiques. Mal gérée, elle peut entraîner des violations de données catastrophiques et de lourdes sanctions pour non-conformité en vertu de réglementations telles que le RGPD. Le simple fait de supprimer des fichiers ou de reformater un disque dur est largement insuffisant. Les données peuvent souvent être récupérées. La décision de quand et comment détruire les actifs porteurs de données doit être régie par un processus formel et auditable, et non laissée au hasard. Faire appel à un service certifié de destruction de supports est une étape clé, mais elle doit faire partie d’un cadre de gouvernance plus large.
Le processus légal de destruction des disques durs commence bien avant l’arrivée du déchiqueteur. Il commence par la création d’une chaîne de responsabilité claire. Lorsqu’un actif est désigné pour être mis au rebut, son numéro de série doit être enregistré dans le système ITAM et un ticket d’élimination doit être généré. L’actif doit être stocké en toute sécurité jusqu’à ce qu’il puisse être remis au prestataire de destruction. Lors de la destruction, vous devez obtenir un Certificat de Destruction qui énumère les numéros de série de chaque disque détruit, la méthode utilisée, ainsi que la date et l’heure de la destruction. Ce certificat n’est pas qu’un simple reçu ; c’est votre preuve légale de conformité et il doit être archivé et lié à l’enregistrement de l’actif dans votre CMDB.
Une stratégie moderne de désinfection des actifs, comme le souligne une revue complète des exigences d’élimination, doit également tenir compte de la complexité du matériel moderne. Pour les disques durs traditionnels (HDD), le démagnétisage (utilisation d’un aimant puissant) suivi d’un déchiquetage physique est la règle d’or. Cependant, pour les disques SSD, le démagnétisage est inefficace en raison de leur architecture à base de flash. Les SSD nécessitent un effacement cryptographique ou l’utilisation de commandes d’effacement sécurisé basées sur le micrologiciel pour être correctement désinfectés. De plus, des restes de données peuvent persister dans le micrologiciel BIOS/UEFI, les puces de sécurité TPM et les configurations des périphériques réseau, autant d’éléments qui doivent être pris en compte dans votre politique d’élimination.
How to find « zombie servers » that have been idle for 6 months?
L’identification des serveurs zombies nécessite un processus de détection systématique et piloté par les données. Se fier à des preuves anecdotiques ou à des vérifications manuelles n’est ni fiable ni évolutif. Un cadre de détection efficace repose sur la corrélation de données provenant de sources multiples afin de constituer un dossier incontestable pour le déclassement. L’objectif est de passer du soupçon à la certitude, armé de preuves qu’un serveur est comateux depuis une période définie, généralement six mois. Cela fournit la justification nécessaire pour surmonter toute résistance interne à la mise hors tension du matériel.
Le processus commence par l’établissement d’une base de référence pour l’« inactivité ». Un serveur véritablement inactif aura une utilisation du processeur (CPU) faible et constante (généralement inférieure à 5 %) et des entrées/sorties réseau minimales sur une période prolongée. Plus important encore, sa consommation d’énergie sera plate. La consommation d’un serveur actif fluctue en fonction de sa charge de travail, tandis qu’un serveur inactif consomme une quantité d’énergie faible et stable — souvent seulement 25 à 40 % de son maximum. Cette signature énergétique est l’un des indicateurs les plus fiables d’un zombie. En exploitant des PDU en rack intelligents et des logiciels de gestion de l’infrastructure du centre de données (DCIM), vous pouvez suivre des relevés de puissance granulaires au fil du temps.
Une approche méthodique pour trouver ces serveurs implique plusieurs étapes clés :
- Surveiller les métriques de base : Suivez l’utilisation du processeur, les paquets réseau entrants/sortants et la consommation d’énergie (en watts) pour tous les serveurs sur une fenêtre glissante de six mois.
- Recouper avec les couches d’orchestration : Pour les serveurs virtuels, vérifiez les données de VMware vCenter ou de l’API de votre fournisseur de cloud pour voir si l’hyperviseur signale une exécution réelle de charge de travail. Une VM en cours d’exécution avec une demande CPU nulle est un candidat de premier choix.
- Vérifier les dépendances applicatives : Utilisez votre CMDB et vos outils de cartographie des dépendances applicatives pour vérifier qu’aucune application ou service actif ne dépend du serveur candidat.
- Mettre en œuvre le marquage (tagging) automatisé : Configurez vos systèmes de surveillance pour marquer automatiquement un serveur comme « candidat à l’inactivité » après quatre mois d’inactivité. Cela lance un processus de révision.
- Mettre en quarantaine et notifier : Au bout de six mois, déplacez le serveur vers un segment de réseau restreint (quarantaine) et générez un avis de déclassement automatisé au dernier propriétaire connu, incluant les économies de coûts calculées grâce à son élimination.
Le déficit de documentation qui vous laisse avec des serveurs que personne ne comprend
L’un des problèmes les plus insidieux dans un grand parc informatique est le « serveur orphelin » — une machine qui fonctionne, hébergeant souvent un service critique, mais qui n’a ni propriétaire, ni but, ni historique documenté. Ces serveurs sont des bombes à retardement. En cas de panne ou de découverte d’une vulnérabilité de sécurité, la précipitation pour identifier leur fonction et les responsables peut entraîner des pannes prolongées et des perturbations commerciales majeures. Ce manque de documentation n’est pas un défaut de prise de notes ; c’est un échec fondamental de gouvernance et de responsabilité.
Comme l’indiquent succinctement les experts de TeamDynamix, il s’agit d’un problème de responsabilité. Dans une note sur leur philosophie ITAM, ils plaident pour une ligne de responsabilité claire :
Le déficit de documentation est un déficit de propriété. Aucun serveur ou service ne peut être provisionné sans qu’un propriétaire principal et secondaire ne soit affecté dans la CMDB.
– Équipe IT Asset Management de TeamDynamix, The CIO’s Blueprint for Total Asset Visibility
Ce principe de responsabilité obligatoire du propriétaire doit être la pierre angulaire de votre processus de provisionnement. Aucune nouvelle demande de VM ou de serveur physique ne doit être satisfaite tant qu’un propriétaire commercial principal et un secondaire ne sont pas formellement désignés dans votre base de données de gestion de configuration (CMDB). Cela garantit que, dès le premier jour, il existe un point de contact clair pour chaque actif de votre parc. Pour les serveurs existants et non documentés, un processus d’« archéologie de la documentation » est nécessaire pour attribuer rétroactivement la propriété et documenter leur fonction.
La solution la plus résiliente consiste à s’orienter vers une « documentation vivante » via l’Infrastructure as Code (IaC). Lorsque toutes les définitions d’infrastructure sont stockées dans un code versionné (par exemple, Terraform, Ansible), la documentation devient une partie intrinsèque du système. Le code lui-même décrit la configuration du serveur, et en imposant des balises (tags) de propriétaire obligatoires dans les pipelines de provisionnement, vous pouvez automatiser le lien entre un actif et son propriétaire. Cette approche fait de la documentation un sous-produit d’un processus contrôlé et automatisé, plutôt qu’une tâche manuelle facilement oubliée.
Points Clés à Retenir
- La véritable visibilité des actifs informatiques n’est pas un audit ponctuel, mais un état continu de discipline opérationnelle fondé sur la gouvernance du cycle de vie.
- Les serveurs « zombies » inactifs et les points de terminaison non gérés représentent un gaspillage financier quantifiable et significatif qui impacte directement les résultats.
- Les échecs de contrôle, tels qu’une mauvaise documentation et une virtualisation mal configurée, ne sont pas seulement des risques opérationnels mais des voies directes vers de lourdes sanctions d’audit et des failles de sécurité.
Comment détecter et corriger la dérive de configuration avant qu’elle ne cause une panne ?
La dérive de configuration est l’écart lent et souvent inaperçu de la configuration réelle d’un système par rapport à sa base de référence prévue et documentée. Elle est généralement causée par des correctifs manuels « à chaud », des mises à jour sans versionnage et des modifications non autorisées effectuées pour résoudre des problèmes immédiats. Bien que semblant anodine, la dérive est une cause principale de pannes mystérieuses, d’échecs de déploiement et de vulnérabilités de sécurité critiques. Un serveur qui a dérivé de son état sécurisé peut avoir vu ses correctifs de sécurité annulés, ses chiffres TLS affaiblis ou des ports de pare-feu ouverts, créant ainsi une porte dérobée pour les attaquants. La détection et la correction de la dérive sont donc des fonctions essentielles du maintien du contrôle.
L’approche traditionnelle des audits périodiques est trop lente pour être efficace. Au moment où un audit détecte la dérive, le changement non approuvé peut avoir déjà causé un incident ou avoir été écrasé par un autre changement, rendant l’analyse de la cause profonde impossible. Une approche moderne, axée sur le contrôle, définit la dérive non pas comme un problème opérationnel, mais comme un échec de l’intégrité de la configuration. Ce recadrage aide souvent à obtenir le budget et l’adhésion des équipes InfoSec pour mettre en œuvre des solutions automatisées. L’objectif est d’atteindre un état de vérification continue où la configuration en direct est perpétuellement comparée à un « état de référence » (golden state) ou à une source unique de vérité.
La méthode la plus robuste pour cela est un flux de travail GitOps, où l’état souhaité de toute l’infrastructure est défini de manière déclarative dans un référentiel Git. Des agents automatisés comparent constamment l’état réel de chaque serveur à la configuration définie dans Git. Tout écart déclenche une action immédiate. Cela crée un système de contrôle en boucle fermée qui applique automatiquement la conformité. Ce n’est pas seulement un concept théorique ; c’est un cadre pratique pour maintenir une infrastructure auditable et résiliente.
Votre plan d’action : Mettre en œuvre un flux de travail GitOps « Golden State »
- Établir la source de vérité : Stockez l’état de configuration complet souhaité pour tous les systèmes dans un référentiel Git central. C’est votre base de référence non négociable.
- Mettre en œuvre la détection continue : Déployez des outils automatisés qui effectuent une opération de « diff » continue, comparant l’état du système en direct à l’état défini dans Git.
- Classifier la gravité de la dérive : Définissez des règles pour classifier la dérive. Une modification d’un fichier « message-of-the-day » présente un risque faible ; une modification d’une règle de pare-feu ou des autorisations d’utilisateurs présente un risque élevé.
- Configurer la remédiation automatisée : Pour les dérives à faible risque, configurez le système pour qu’il rétablisse automatiquement la modification afin qu’elle corresponde à l’état de référence et enregistre l’événement.
- Alerter en cas de dérive à haut risque : Pour les changements à haut risque, déclenchez une alerte immédiate auprès de l’ingénieur d’astreinte, en fournissant le contexte complet de la dérive et des options de restauration (rollback) en un clic.
Atteindre un contrôle total sur un parc informatique complexe est un parcours qui passe par la mise en œuvre de cadres systématiques basés sur des preuves. Cela nécessite de changer la mentalité de l’organisation, en passant d’une résolution de problèmes réactive à une gouvernance proactive. En traitant chaque actif comme une entité financière et opérationnelle dotée d’un cycle de vie défini, vous pouvez éliminer le gaspillage, atténuer les risques et transformer le parc informatique d’une source d’anxiété en un avantage stratégique bien gouverné pour l’entreprise. Commencez dès aujourd’hui à mettre en œuvre ces cadres de contrôle pour reprendre le plein commandement de votre infrastructure.
Questions fréquemment posées sur la visibilité et l’élimination des actifs informatiques
Quelle est la différence entre les méthodes de désinfection des HDD et des SSD ?
Les HDD peuvent être démagnétisés (exposés à un champ magnétique puissant) ou déchiquetés physiquement pour détruire les données. En raison de leurs mécanismes de stockage de données différents, les SSD sont insensibles au démagnétisage et nécessitent un effacement cryptographique ou l’utilisation de commandes d’effacement sécurisé basées sur le micrologiciel pour être correctement désinfectés.
Comment maintenir la conformité à travers différentes juridictions ?
Le moyen le plus efficace est de créer une matrice de politique d’élimination. Ce document doit faire correspondre les différents types d’actifs et les classifications de données aux exigences légales régionales spécifiques, vous aidant à équilibrer des mandats tels que le « droit à l’oubli » du RGPD avec les réglementations financières qui peuvent exiger une conservation des données à long terme.
Qu’est-ce qui constitue un certificat de destruction valide ?
Un certificat valide est un document juridique crucial. Il doit inclure les numéros de série uniques de tous les actifs détruits, une description de la méthode de destruction utilisée, la date de la destruction et les signatures du personnel autorisé. Crucialement, ce certificat doit être lié à vos dossiers ITAM ou CMDB pour créer une piste complète et auditable pour chaque actif.