Maison >Tutoriel système >Linux >Dix aspects pour renforcer la sécurité des conteneurs Linux

Dix aspects pour renforcer la sécurité des conteneurs Linux

PHPz
PHPzoriginal
2024-06-04 16:45:38508parcourir

Les solutions de sécurité des conteneurs doivent prendre en compte différentes piles technologiques et différentes étapes du cycle de vie des conteneurs. - 1. Système d'exploitation de conteneur et multilocation - 2. Contenu du conteneur (à l'aide de sources fiables) - 3. Enregistrement du conteneur (accès crypté aux images du conteneur) - 4. Construire la sécurité des processus - 5. Contrôler ce qui peut être déployé dans le cluster - 6. Orchestration des conteneurs : Renforcement de la sécurité de la plateforme de conteneurs - 7. Isolation du réseau - 8. Stockage - 9. Gestion des API, sécurité des points de terminaison et authentification unique (SSO) - 10. Gestion des rôles et du contrôle d'accès

Les conteneurs offrent un moyen simple de regrouper des applications et de les déployer de manière transparente depuis les environnements de développement et de test vers les environnements de production. Il permet d'assurer la cohérence dans une variété d'environnements, notamment les serveurs physiques, les machines virtuelles (VM) ou les cloud privés ou publics. Les grandes organisations adoptent rapidement des conteneurs basés sur ces avantages pour développer et gérer facilement des applications qui ajoutent de la valeur commerciale.

加强Linux 容器安全的十大方面

Les applications d'entreprise nécessitent une sécurité renforcée. Toute personne exécutant des services de base dans des conteneurs se demandera : « Les conteneurs sont-ils sécurisés ? », « Nos applications peuvent-elles faire confiance aux conteneurs ? »

La sécurisation d'un conteneur est très similaire à la sécurisation de tout processus en cours d'exécution. Avant de déployer et d'exécuter des conteneurs, vous devez prendre en compte la sécurité de l'ensemble de la pile technologique de votre solution. Vous devez également prendre en compte la sécurité tout au long du cycle de vie de votre application et de votre conteneur.

Veuillez essayer de renforcer la sécurité des conteneurs à différents niveaux, différentes piles technologiques et différentes étapes du cycle de vie dans ces 10 aspects.

1. Système d'exploitation de conteneur et multilocation
Pour les développeurs, les conteneurs facilitent la création et la mise à niveau d'applications, sur lesquelles on peut s'appuyer en tant qu'unité d'application, maximisant l'utilisation des ressources du serveur en déployant des applications multi-tenant sur des hôtes partagés. Les conteneurs facilitent le déploiement de plusieurs applications sur un seul hôte et activent et désactivent des conteneurs individuels selon les besoins. Afin de tirer pleinement parti de cette technologie de packaging et de déploiement, les équipes opérationnelles ont besoin d’un environnement de conteneur opérationnel approprié. Les opérateurs ont besoin d'un système d'exploitation capable de sécuriser les conteneurs au périmètre, d'isoler le noyau hôte des conteneurs et de protéger les conteneurs les uns des autres.

Les conteneurs sont des processus Linux qui isolent et limitent les ressources, vous permettant d'exécuter des applications en bac à sable au sein d'un noyau hôte partagé. Vous devez sécuriser vos conteneurs de la même manière que vous sécuriseriez n’importe quel processus en cours d’exécution sous Linux. Renoncer à des privilèges est important et reste une bonne pratique. Une meilleure approche consiste à créer des conteneurs avec le moins de privilèges possible. Les conteneurs doivent être exécutés en tant qu'utilisateur normal et non root. Ensuite, sécurisez vos conteneurs en profitant des multiples niveaux de fonctionnalités de sécurité disponibles sous Linux : espaces de noms Linux, Security Enhanced Linux (SELinux), groupes de contrôle, fonctionnalités et mode de calcul sécurisé (seccomp).

加强Linux 容器安全的十大方面

2. Contenu du conteneur (utilisez des sources fiables)
Quand il s'agit de sécurité, qu'est-ce que cela signifie pour le contenu des conteneurs ? . Depuis un certain temps, les applications et les infrastructures sont composées de composants disponibles dans le commerce. Beaucoup proviennent de logiciels open source, tels que le système d'exploitation Linux, le serveur Web Apache, Red Hat JBoss Enterprise Application Platform, PostgreSQL et Node.js. Des versions de divers packages basés sur des conteneurs sont désormais facilement disponibles, vous n'avez donc pas besoin de créer les vôtres. Cependant, comme pour tout code téléchargé à partir d’une source externe, vous devez connaître l’origine des packages, qui les a créés et s’ils contiennent du code malveillant.

3. Enregistrement du conteneur (accès crypté à l'image du conteneur)
Votre équipe crée des conteneurs basés sur des images de conteneurs publiques téléchargées. La gestion des accès et les téléchargements de mises à jour sont donc essentiels à la gestion. Les images de conteneurs, les images intégrées et les autres types de binaires doivent être gérés de la même manière. De nombreux registres de référentiels privés prennent en charge le stockage des images de conteneurs. Sélectionnez un serveur d'enregistrement privé qui stocke la stratégie d'automatisation d'image de conteneur utilisée.

4. Le processus de construction est sécuritaire

Dans un environnement conteneurisé, la construction de logiciels est une étape de tout le cycle de vie et le code de l'application doit être intégré au runtime. La gestion de ce processus de build est essentielle pour garantir la sécurité de votre pile logicielle. Adhérez au concept « construire une fois, déployer partout » pour garantir que les produits dans le processus de construction sont exactement les produits déployés en production. Ceci est également très important pour maintenir la stabilité continue des conteneurs. En d’autres termes, ne corrigez pas les conteneurs en cours d’exécution, mais reconstruisez-les et redéployez-les. Que vous travailliez dans un secteur hautement réglementé ou que vous souhaitiez simplement optimiser le travail de votre équipe, vous devez concevoir la gestion de vos images de conteneurs et créer des processus pour exploiter la couche conteneur afin d'obtenir une séparation des contrôles afin que :

L'équipe d'exploitation et de maintenance gère les images de base

L'équipe d'architecture gère le middleware, le runtime, la base de données et d'autres solutions

L'équipe de développement se concentre uniquement sur la couche application et le code

Enfin, signez vos conteneurs personnalisés pour vous assurer qu'ils ne sont pas altérés entre la construction et le déploiement.

加强Linux 容器安全的十大方面

5. Contrôlez ce qui peut être déployé dans le cluster

Si des problèmes surviennent pendant le processus de création ou si des vulnérabilités sont découvertes après le déploiement d'une image, ajoutez une autre couche de sécurité avec un déploiement automatisé basé sur des politiques.

Jetons un coup d'œil aux trois couches d'images de conteneur utilisées pour créer des applications : noyau, middleware et application. Si un problème est découvert dans l'image principale, l'image sera reconstruite. Une fois la construction terminée, l'image sera transmise au serveur d'enregistrement de la plateforme de conteneurs. La plateforme peut détecter les modifications apportées à l'image. Pour les builds qui dépendent de cette image et ont des déclencheurs définis, la plateforme reconstruira automatiquement l'application et intégrera les bibliothèques corrigées.

Une fois la construction terminée, l'image sera transmise au serveur d'enregistrement interne de la plateforme de conteneurs. Les modifications apportées à l'image sur le serveur d'enregistrement interne sont détectées immédiatement et les images mises à jour sont automatiquement déployées via des déclencheurs définis dans l'application, garantissant que le code exécuté en production est toujours le même que l'image la plus récemment mise à jour. Toutes ces fonctionnalités fonctionnent ensemble pour intégrer des fonctionnalités de sécurité dans votre processus d'intégration continue et de déploiement continu (CI/CD).

6. Orchestration des conteneurs : renforcer la sécurité de la plate-forme de conteneurs

Bien sûr, les candidatures sont rarement livrées dans un seul conteneur. Même les applications simples ont généralement un front-end, un back-end et une base de données. Le déploiement d'applications de microservices modernes dans des conteneurs signifie souvent le déploiement de plusieurs conteneurs, parfois sur le même hôte et parfois répartis sur plusieurs hôtes ou nœuds, comme le montre la figure.

Lorsque vous gérez des déploiements de conteneurs à grande échelle, vous devez prendre en compte :

Quels conteneurs doivent être déployés sur quel hôte ?

Quel hébergeur a la plus grande capacité ?

Quels conteneurs doivent accéder les uns aux autres ? Comment vont-ils se découvrir ?

Comment contrôler l'accès et la gestion des ressources partagées, telles que le réseau et le stockage ?

Comment surveiller l’état de santé des conteneurs ?

Comment étendre automatiquement les capacités des applications pour répondre à la demande ?

Comment permettre aux développeurs de répondre aux besoins de sécurité en libre-service ?

Compte tenu du large éventail de capacités que possèdent les développeurs et les opérateurs, un contrôle d'accès fort basé sur les rôles est un élément clé d'une plate-forme de conteneurs. Par exemple, le serveur de gestion d'orchestration est le point d'accès central et doit recevoir le plus haut niveau de contrôles de sécurité. Les API sont essentielles à la gestion automatisée des conteneurs à grande échelle, utilisées pour valider et configurer les données des conteneurs, des services et des contrôleurs de réplication ; effectuer la validation de projet sur les demandes entrantes et appeler des déclencheurs sur d'autres composants majeurs du système ;

加强Linux 容器安全的十大方面

7. Isolement du réseau

Le déploiement d'applications de microservices modernes dans des conteneurs signifie souvent le déploiement de plusieurs conteneurs répartis sur plusieurs nœuds. En gardant à l’esprit la défense du réseau, vous avez besoin d’un moyen d’isoler les applications au sein d’un cluster.

Un service de cloud public typique, tel que Google Container Engine (GKE), Azure Container Services ou Amazon Web Services (AWS) Container Service, est un service à locataire unique. Ils permettent d'exécuter des conteneurs sur un cluster de VM que vous lancez. Pour garantir la sécurité des conteneurs multi-locataires, vous avez besoin d'une plate-forme de conteneurs qui vous permet de sélectionner un seul cluster et de segmenter le trafic pour isoler différents utilisateurs, équipes, applications et environnements au sein de ce cluster.

Avec les espaces de noms réseau, chaque ensemble de conteneurs (appelé « POD ») obtient sa propre plage d'adresses IP et de liaison de port, isolant ainsi le réseau POD sur le nœud.

Par défaut, les POD de différents espaces de noms (projets) ne peuvent pas envoyer ou recevoir de paquets de POD ou de services de différents projets, sauf avec les options décrites ci-dessous. Vous pouvez utiliser ces fonctionnalités pour isoler les environnements de développement, de test et de production dans un cluster. Toutefois, cette expansion des adresses IP et des ports rend la mise en réseau plus complexe. Investissez dans des outils pour gérer cette complexité. L'outil préféré consiste à utiliser une plate-forme de conteneurs de réseau défini par logiciel (SDN), qui fournit un réseau de cluster unifié pour assurer la communication entre les conteneurs de l'ensemble du cluster.

8. Rangement

Les conteneurs sont très utiles pour les applications avec et sans état. La sécurisation du stockage est un élément clé pour garantir des services avec état. La plate-forme de conteneurs doit fournir une variété de plug-ins de stockage, notamment Network File System (NFS), AWS Elastic Block Stores (EBS, stockage de blocs élastiques), disque persistant GCE, GlusterFS, iSCSI, RADOS (CEPH), Cinder, etc.

Un volume persistant (PV) peut être monté sur n'importe quel hôte pris en charge par le fournisseur de ressources. Les fournisseurs auront des capacités différentes et le mode d'accès de chaque PV peut être défini sur un mode spécifique pris en charge par un volume spécifique. Par exemple, NFS peut prendre en charge plusieurs clients en lecture/écriture, mais un PV NFS particulier ne peut être exporté qu'en lecture seule sur le serveur. Chaque PV possède son propre ensemble de modes d'accès qui définissent des mesures de performances spécifiques au PV, telles que ReadWriteOnce, ReadOnlyMany et ReadWriteMany.

9. Gestion des API, sécurité des points de terminaison et authentification unique (SSO)

La sécurisation des applications comprend la gestion de l'authentification et de l'autorisation des applications et des API. La fonctionnalité Web SSO est un élément essentiel des applications modernes. Lorsque les développeurs créent leurs propres applications, la plate-forme de conteneurs peut leur fournir divers services de conteneurs.

L'API est un composant clé des applications de microservices. Les applications de microservices disposent de plusieurs services API indépendants, ce qui entraîne une prolifération de points de terminaison de service et nécessite donc davantage d'outils de gouvernance. Il est recommandé d'utiliser des outils de gestion d'API. Toutes les plates-formes API doivent fournir une variété d'options standard pour l'authentification et la sécurité des API, qui peuvent être utilisées seules ou en combinaison pour émettre des certificats et contrôler l'accès. Ces options incluent les clés API standard, les ID d'application, les paires de clés et OAuth 2.0.

10. Gestion des rôles et des contrôles d'accès (Fédération de Cluster)

En juillet 2016, Kubernetes 1.3 a introduit le cluster fédéré Kubernetes. Il s'agit d'une nouvelle fonctionnalité intéressante actuellement dans la version bêta de Kubernetes 1.6.

Dans les scénarios de cloud public ou de centre de données d'entreprise, la fédération est utile pour déployer et accéder aux services d'application sur plusieurs clusters. Le multicluster permet une haute disponibilité des applications, telles que plusieurs régions, plusieurs fournisseurs de cloud (tels qu'AWS, Google Cloud et Azure) pour parvenir à une gestion commune du déploiement ou de la migration.

Lors de la gestion de la fédération de cluster, vous devez vous assurer que l'outil d'orchestration fournit la sécurité requise sur les différentes instances de la plateforme de déploiement. Comme toujours, l'authentification et l'autorisation sont essentielles à la sécurité : pouvoir transmettre en toute sécurité des données aux applications, quel que soit l'endroit où elles s'exécutent, et gérer la multilocation des applications dans un cluster.

Kubernetes étend la fédération de cluster pour inclure la prise en charge du chiffrement fédéré, des espaces de noms fédérés et de la saisie d'objets.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn