La protection informatique des données et des applications est un enjeu majeur dans les PME. Avec 34’000 attaques informatiques déclarées en Suisse en 2022, le temps n’est plus à l’attentisme. Oui, mais par quel bout commencer ? Le maillon faible reste, et restera toujours, l’utilisateur final. Voici donc 5 technologies Microsoft qui renforcent ce point vulnérable de votre IT.

La numérisation à marche forcée, le Covid-19 ou encore l’explosion du Cloud : tout a concouru à renforcer le poids et l’usage de l’informatique dans les PME. Mais la sécurité n’a pas toujours suivi. Les hackers de tout poil s’en délectent : les attaques sur les entreprises helvètes ont été multipliées par trois en l’espace de deux d’années.

Social engineering, phishing, ou encore rançongiciels : la majorité des tentatives de piratage vise les utilisateurs. Le développement des technologies de protection les concernent donc aussi en priorité. Petit florilège de solutions dont vous pourriez avoir du mal à vous passer prochainement.

Autopatch, les mises à jour Windows contrôlées

La protection informatique des appareils passe en priorité par leur mise à jour. Les constructeurs et les éditeurs de logiciels l’ont bien compris, qui ont développé des stratégies de déploiement en ligne de leurs correctifs de sécurité très efficaces. Pour autant, il n’est pas rare de voir des machines qui, malgré les rappels répétés aux utilisateurs, ne sont pas maintenues à jour. Pensez, il faut tout de même redémarrer…

Tant que la mise à jour est laissée à l’appréciation de l’utilisateur, le risque existe

Dans le monde des PME, qui externalisent la gestion de leur informatique, il est d’autant plus crucial de pouvoir piloter ces mises à jour à distance. C’est pour cela que Microsoft a lancé Windows Autopatch, un écosystème qui permet non seulement d’identifier et de suivre les PC qui ne sont pas à jour, mais aussi de programmer le déploiement des correctifs, de manière graduée et progressive, et de prévenir les utilisateurs directement depuis leur bureau. Pour qu’il n’y ait plus d’excuse possible.

Number matching, l’authentification MFA renforcée

Nous vous en avions parlé dans un article précédent, l’authentification à facteurs multiples (MFA, Muli Factor Authentication) peut présenter des failles. Cette technique, qui consiste à combiner un mot de passe avec un second moyen d’authentification, peut être contournée par des attaques dites de fatigue. Elles consistent à voler le mot de passe de l’utilisateur dans un premier temps, et dans un second à le harceler de demandes de validation d’authentification (par exemple, via une notification sur mobile ou un appel téléphonique). Objectif : faire craquer l’utilisateur et le forcer à approuver la connexion par dépit.

Les attaques de fatigue nécessitent d’avoir le mot de passe de l’utilisateur. Mais une fois cette barrière franchie, elles sont très efficaces.

L’émergence récente de ces attaques est suffisamment sérieuse et conséquente pour que Microsoft décide, depuis le 27 mars dernier, de généraliser le Number Matching. Cette technique vise à ne plus pouvoir simplement approuver une connexion, mais corréler cette approbation avec un nombre généré aléatoirement et présenté par l’application à laquelle vous vous connectez. Sans entrer ce nombre, la connexion est simplement impossible. Et si jamais vous receviez une demande d’approbation illégitime, vous pouvez aussi déclarer une attaque, ce qui verrouillera instantanément votre compte.

Passwordless, les mots de passe simplifiés

Pierre angulaire de l’authentification des utilisateurs, les mots de passent restent un cauchemar pour tout le monde. Avec la multiplication des comptes et des accès en ligne, le nombre de codes de sécurité que nous devons gérer a tout simplement explosé. A tel point qu’il est d’ailleurs désormais impossible de les retenir tous. La tentation est grande d’avoir un mot de passe unique pour tous ses comptes. Ce qui renforce encore la probabilité d’être piraté. Car même complexe, une fois découvert, votre mot de passe super costaud exposera tous vos comptes…

Longtemps resté la protection unique des comptes, le mot de passe est le caillou dans la chaussure de chaque utilisateur

Si des solutions de gestion de mots de passe existent (LastPass, Dashlane, 1Password), l’idéal serait de pouvoir s’en passer pour s’authentifier. Attention, il n’est pas question de supprimer les mots de passe, mais de les générer de manière aléatoire, les stocker de manière sécurisée dans un gestionnaire, et de n’avoir à s’en servir qu’en ultime recours. Au quotidien, votre authentification passera par deux facteurs dont aucun ne sera le mot de passe. Par exemple : un facteur biométrique et une approbation Number Matching sur votre appareil mobile. Disponible maintenant depuis quelques semaines chez Microsoft, cette technique s’avère redoutable d’efficacité.

Authentification sans mot de passe avec Microsoft 365

Authentification sans mot de passe avec Microsoft 365

Autopilot, la protection informatique automatisée

Pour disposer d’un environnement informatique sécurisé, il faut partir du bon pied. Autrement dit : assurer que les conditions de sécurité soient optimales sur tout le cycle de vie de la machine de chaque utilisateur, y compris dès sa mise en service. Cela implique un certain nombre de paramétrages : cryptage des disques, mise en place d’un mot de passe fort sur le PC, déploiement d’une authentification MFA, ou encore désactivation de l’utilisation des clés USB.

L’automatisation et la standardisation sont cruciales pour assurer une cohérence dans la configuration des appareils d’entreprise

Avec Autopilot, les ordinateurs sous Windows 10/11 (version Pro tout de même, celle des PME) peuvent être gérés entièrement à distance en limitant l’intervention de l’utilisateur, et ceci tout au long de son utilisation. A la mise en service, l’utilisateur se connecte avec son compte, la machine est automatiquement identifiée et paramétrée selon les standards de l’entreprise, et les critères de protection informatique son appliqués. Et l’autre bout de la chaîne, lors du démantèlement, Autopilot permet de revenir automatiquement à l’état initial de machine. Que ce soit pour la recycler ou faire tout simplement un reset en cas de dysfonctionnement. Mieux : les PC neufs peuvent être commandés et inscrits dans Autopilot chez les fabricants, avant même d’être livrés.

Accès conditionnel, le cerbère de la porte

Sécuriser les machines d’entreprise de manière uniforme, avec Autopilot par exemple, c’est bien. Mais comment gérer les appareils personnels lorsqu’il est nécessaire qu’ils accèdent aux données et aux services d’entreprise, tels que les fichiers ou la messagerie ? Et comment faire si une machine était tout de même attaquée et devait ne plus respecter les critères de sécurité de votre organisation ?

L’état des machines qui se connectent à vos infrastructures doit être évalué en continu, pour déterminer ce que vous les autorisez à faire. Et ce que vous n’autorisez pas.

L’accès conditionnel est une technologie qui répond à cette problématique. Comme son nom l’indique, elle évalue en temps réel différents critères d’un appareil pour lui laisser accès à plus ou moins grande échelle à votre infrastructure. Ces critères sont groupés dans différentes règles, évaluées en séquence, qui définissent les scénarios d’accès. Un compte n’a pas MFA activé ? Aucun accès possible. Une machine personnelle essaie de se connecter ? L’utilisateur ne pourra passer que par un navigateur, afin de ne pas télécharger de données. Un smartphone n’est plus jugé conforme aux règles de sécurité ? L’accès aux données est limité à un navigateur, les applications ne sont plus autorisées à se connecter. Autrement dit, l’accès conditionnel vous demande de montrer patte blanche et détermine ce que vous aurez le droit de faire.

Et maintenant ? Tout cela nécessite probablement des explications plus poussées. Ou même une démonstration, histoire de vous rendre compte. Si votre protection informatique est gérée par un prestataire tiers, ça n’est évidemment pas vous qui devrez mettre en place ces technologies. Et s’il ne vous les a pas encore proposées, prenez contact avec nous : nos machines de test frétillent d’avance de vous montrer de quoi elles sont capables !

Emmanuel Dardaine

emmanuel dardaine expert cloud

Pour demander une démonstration de nos outils de sécurité, il suffit de cliquer ci-dessous !

Vous n’y connaissez rien en informatique ? Vous trouvez ça complexe et rébarbatif ? Et pourtant vous ne pourriez pas vous en passer au quotidien, car sans outils digitaux, point de salut. Pas de panique : la majorité des PME font face à ce dilemme. Alors pour résoudre cette quadrature du cercle, un seul mot d’ordre : les services managés. Présentation.

C’est un fait : l’informatique est de plus en plus complexe. Le risque cyber n’arrange rien, et participe de manière non négligeable à cette complexification. Pour une PME, cela ressemble à un effet ciseau : la numérisation des activités renforce leur usage de l’informatique, mais elles ne peuvent pour autant pas se permettre d’employer un informaticien à temps plein. Evidemment, il se trouve toujours un collaborateur un peu plus débrouillard, qui officiera comme « celui qui sait ». Pour le reste, les PME n’ont pas d’autre choix que d’externaliser.

Par externalisation, on sous-entend que la gestion de l’informatique est confiée à un tiers. Mais qu’est-ce que ce terme recouvre exactement ? Dans la liste des activités informatiques, on distingue évidemment les projets de l’exploitation. Et dans l’exploitation, on comprend la maintenance et le support. La maintenance consiste à conserver le système informatique en conditions opérationnelles : elle peut être préventive, ou corrective. Le support consiste, lui, à fournir une assistance aux utilisateurs et à résoudre les incidents.

Afin de couvrir ces activités – maintenance, support – les PME les confient donc généralement à un prestataire spécialisé. Cette délégation peut prendre différents aspects, définis par le niveau d’intervention, le budget et le caractère proactif, ou pas, des travaux. Intervenir sur une infrastructure informatique sous-entend que le prestataire la connaît déjà. Il a donc en général participé à sa mise en place – les projets de déploiement évoqués plus haut.

Le carnet d’heures, et ses contradictions

Historiquement, le moyen le plus simple de faire intervenir un prestataire consistait à réserver de la main d’œuvre, utilisable à la demande. On parle ici du fameux carnet d’heures, que tout le monde connaît. Il peut être utilisé aussi bien pour de la maintenance que du support. Mais comme il s’agit de prestations à la demande, il s’avère que peu de carnets d’heures donnent lieu à des maintenances préventives. C’est d’ailleurs toute la faiblesse de ce modèle.

Si vous achetez un certain nombre d’heures de service, mais que le prestataire décide de les utiliser pour procéder à de telles maintenances proactives, c’est finalement lui qui décide du rythme de sa consommation. Et donc de son épuisement, et à terme de son renouvellement. Côté support, ça n’est pas vraiment mieux : le décompte d’heures est d’autant plus vite consommé que le prestataire prend du temps à résoudre les problèmes. Résultat : moins ça sera efficace, plus ça vous coûtera cher. Sorte de double peine en sorte. Ah ! non, elle est triple en fait : vous avez payé à l’avance…

Pour résumer, le carnet d’heures n’engage pas assez le prestataire IT

Dans le pire des cas, une informatique gérée par le biais d’un carnet d’heures sera moyennement ou pas maintenue, tombera donc plus facilement en panne, et induira des interventions plus nombreuses. Et donc plus coûteuses. Inutile de vous faire un dessin : le carnet d’heures peut représenter un gouffre financier. En tout cas, il ne permet pas de contrôler votre budget informatique. Ni d’assurer un maintien à niveau optimal de votre infrastructure.

Un modèle de vertu

A l’opposé de ce modèle, les services managés sont bien plus vertueux. Pour simplifier, ils vous permettent de transmettre l’entier de la gestion de votre infrastructure informatique – support et maintenance – à un infogérant. Pas une personne en particulier, mais bel et bien une organisation. Imaginez que vous disposiez de plusieurs informaticiens, à temps partiel, qui assurent l’entretien de vos machines avec le même niveau de qualité, indépendamment des individus.

Leur intérêt est double pour le client. D’une part, le périmètre des activités réalisées en services managés est défini à l’avance, si bien que vous savez exactement quel service vous recevrez. Vous l’aurez compris, il s’agit de support et de maintenance. Mais dans les détails, cela peut couvrir les modifications de configuration, les mises à jour, la supervision des infrastructures, le traitement des alarmes, ou encore la documentation ou le reporting mensuel des activités.

Les services managés couvrent la gestion complète de l’infrastructure, y compris les incidents

D’autre part, le coût est connu à l’avance. Si bien que, pour une infrastructure donnée, les risques de débordement des frais d’exploitation sont nuls. Et que vous savez au 1er janvier combien vous aura coûté votre informatique au 31 décembre. On est donc loin des budgets à géométrie variables liés aux carnets d’heures, qui ne font que constater le temps passé.

Services managés : infrastructure comprise

Vous en voulez plus ? Si les services managés ont été historiquement délivrés sur des infrastructures informatiques appartenant aux clients, le Cloud a changé la donne. Et il est désormais naturel d’envisager de souscrire un service managé regroupant la location de l’infrastructure et les services y relatifs. Quel intérêt ? Votre fournisseur s’appuie alors sur les technologies qu’il connaît, afin de vous garantir un niveau de service optimal et une certaine excellence opérationnelle.

Louer l’infrastructure et le service managé qui va avec engage encore plus le prestataire IT

Mais, au-delà de la maîtrise des coûts, avantage non négligeable, la vraie force des services managés se trouve ailleurs, dans la vertu même de ce modèle. Le fournisseur est engagé par ses niveaux de services d’une part, et le périmètre des opérations qu’il doit mener. Si certaines tâches sont incompressibles, comme les mises à jour ou la supervision, la part variable du service réside essentiellement dans le support et la gestion des incidents.

L’intérêt du fournisseur de services managés consistera donc à la limiter, en s’assurant en permanence, et de façon proactive, que les infrastructures informatiques fonctionneront sans hoquet. Leur maîtrise complète et leur suivi permanent lui permettent de s’acquitter encore plus efficacement de ces tâches. Et ceci afin de limiter les actions de maintenance curative et de support. Tout cela, au bénéfice du client.

Ce dernier tire en effet avantage de cette façon de procéder, puisque son intérêt converge avec celui de son prestataire informatique. Une infrastructure IT en bonne santé fait gagner du temps. A tout le monde. Et accessoirement permet d’en remonter le niveau de sécurité. Selon l’adage bien connu, qui préconise de prévenir plutôt que de guérir. Même si l’expression a été suremployée, il s’agit réellement d’une relation gagnant-gagnant. Celle qui fait le sel même des services managés.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Pour découvrir notre catalogue complet de services informatiques managés, contactez-nous en un clic !

Le Home Office, et le télétravail plus largement, s’est généralisé ces dernières années. Poussant les PME à composer avec le niveau de souplesse exigé par ce nouveau mode de fonctionnement. Au détriment d’autres facteurs ? Probablement, car travailler à distance ne s’improvise pas. Et impose un savant mélange de 3 qualités dont votre informatique doit faire preuve. Passage en revue.

Le Home Office n’a pas attendu la pandémie de Covid-19 pour se développer. Depuis longtemps – probablement depuis qu’Internet existe – les collaborateurs des PME avaient pris l’habitude de travailler depuis la maison. Mais cette forme de télétravail, en tout cas dans les petites entreprises, se limitait à des choses assez simples : consultation des email, lecture et rédaction de documents bureautiques.

Ces tâches étaient réalisées en général en dehors des heures de bureau. Qui n’avait jusqu’alors jamais comblé un peu de retard en consultant des documents professionnels au fond de son canapé ? Les moyens nécessaires étaient alors simples : un logiciel de messagerie connecté au serveur d’entreprise, ou une simple clé USB contenant les fichiers à valider. Dans le meilleur des cas, l’entreprise avait mis à disposition un ordinateur portable, et les données ne se dispersaient pas trop.

Oui, mais voilà : travailler en débordement pendant quelques heures sur des tâches ciblées n’a rien à voir avec l’exécution d’une journée travail complète à distance. Et encore moins de semaines entières. Dans ce cas, chaque télétravailleur doit accéder à l’entier des ressources informatiques qui sont nécessaires à son quotidien professionnel. Et pas seulement à quelques emails ou fichiers Office extraits tant bien que mal des systèmes de l’entreprise.

Home Office : la flexibilité en priorité

Pour le dire autrement, l’accès aux systèmes informatiques doit être indifférent au lieu de connexion. L’IT doit alors faire preuve d’une flexibilité qui se résume facilement : le bureau ne doit plus être qu’un point d’accès aux données et aux programmes comme un autre. Cela concerne évidemment les fichiers professionnels, mais aussi tous les programmes dont l’accès était jusqu’alors restreint aux murs de l’entreprise.

Pour faire simple, deux solutions s’offrent à vous. Soit vous mettez en place une infrastructure qui permette de vous connecter depuis la maison au réseau du bureau : c’est ce qui était généralement pratiqué jusque dans les années 2000, sous le vocable VPN (Virtual Private Network). Soit vous externalisez données et programmes, si bien que l’expérience de connexion est la même depuis les locaux d’entreprise ou la maison. Avec l’avènement des technologies Cloud, cette seconde tendance a évidemment le vent en poupe.

Pour que le Home Office soit transparent, le bureau ne doit plus être qu’un point d’accès aux données comme un autre

Un exemple ? Les fichiers étaient traditionnellement stockés sur des serveurs centraux, dont l’accès depuis Internet n’était pas possible. Pour y accéder en Home Office, Il fallait tout d’abord se connecter en VPN dans le réseau professionnel, et ensuite se connecter au serveur, en croisant les doigts pour que toutes les conditions soient réunies : identification correcte du serveur ou authentification de l’utilisateur, pour ne citer qu’eux.

Maintenant que les systèmes de stockage de fichiers dans le Cloud sont fiables et efficaces, ces difficultés font partie du passé. Vos fichiers sont toujours à distance, que vous soyez au bureau ou à la maison. Y accéder n’est donc pas différent dans un cas comme dans l’autre. Mieux : alors qu’utiliser un VPN et parcourir un serveur de fichiers depuis un smartphone relevait du défi, ouvrir un fichier Cloud depuis un natel est un jeu d’enfant. Vous pouvez retourner au canapé…

Une sécurité plus complexe à assurer

Evidemment, mettre ses fichiers dans le Cloud peut encore en faire frémir certains. Ceux.-là même qui exposent sans sourciller des données personnelles à longueur de journée sur les réseaux sociaux ? Passons… Le surcroît de sécurité nécessaire à la protection des fichiers hébergés dans les nuages est en tout cas une réalité qu’on ne peut pas ignorer. Mais les progrès réalisés ces dernières années permettent désormais une protection de haute volée. Qui ferait rougir votre bon vieux VPN. De honte.

Si le stockage Cloud, pour reprendre cet exemple, facilite le Home Office, il exige des barrières plus hautes et plus nombreuses. Car les données et les programmes sont accessibles depuis Internet, et donc naturellement plus exposés. Pour remédier à ce risque, différentes technologies ont fait leur apparition. Faisant de la sécurité un sujet majeur. Et complexe à gérer.

Je ne reviendrai pas sur la double authentification (MFA, Multi Factor Authentication) qui fait partie de notre quotidien. D’autre techniques sont venues renforcer l’arsenal de protection nécessaire au Home Office. Citons l’accès conditionnel, qui évalue au moment de chaque connexion un ensemble de critères que tout appareil ou compte doit remplir pour que l’accès soit autorisé, tels que la présence d’un antivirus ou l’utilisation obligatoire du MFA justement.

L’accès conditionnel a un impact direct sur la sécurité lorsqu’on parle de Home Office

Ce renforcement sécuritaire est d’autant plus nécessaire que les appareils qui se connectent ne sont plus tout sous le contrôle de l’entreprise. Pour des raisons pratiques ou budgétaires, il faut pouvoir laisser les collaborateurs se connecter avec leurs appareils privés. Et gérer cette exception, qui n’en est plus une. Dans les faits, données privées et d’entreprise cohabitent sur la même machine. Et doivent être ségréguées et isolées les unes des autres. Avec à la clé une complexité accrue, il faut l’admettre.

Usage des appareils et des réseaux privés, extension du réseau d’entreprise, Isolation et ségrégation des données. Accès des données en ligne signifie exposition sur Internet. Fuite des données. Les données viennent à vous et plus l’inverse. Gestion des identités. Conformité. Ne pas laisser de traces gestion des arrivées et des départs). Prouver qui ont est, d’où on se connecte, avec quel appareil.

La simplicité en ligne de mire

Sécurité et simplicité ne font malheureusement pas souvent bon ménage. Et pourtant, assurer un environnement de Home Office efficace requiert de faciliter l’accès aux systèmes informatiques. Sous peine de décourager les utilisateurs. Ou de les voir contourner vos systèmes, et la sécurité qui va avec.

Heureusement, les solutions Cloud ont là aussi assuré un rôle majeur dans la simplification des accès à distance. On l‘a vu, il est dont de moins en moins nécessaire de disposer d’un VPN pour faire du télétravail. Ceux qui en ont déjà configurés savent de quoi on parle. Surtout, il est devenu presqu’inutile d’installer le moindre programme.

Le Home Office en mode Cloud signe la fin du VPN, en faisant venir les données à vous, et plus l’inverse

Applications et données sont maintenant accessibles depuis n’importe quel navigateur. Et avec une expérience d’utilisation qui est un peu plus proche chaque jour de l’accès natif via une application dédiée. Un exemple ? Si Word ou Excel en ligne n’étaient pas des solutions recommandables il y a encore 3 ou 4 années en arrière, leur utilisation dans un navigateur comme Edge est aujourd’hui assez bluffante. Et permet d’envisager une journée de travail sans souci.

Les applications, support ou métier, se déplacent aussi progressivement vers le Cloud et en ligne. On parle alors de mode SaaS – Software as a Service : l’accès se fait au travers d’un navigateur, rendant le déploiement simplissime et l’accès uniforme, que ce soit au bureau ou à la maison. Surtout, ces programmes sont peu intrusifs, et ne requièrent donc pas la sécurisation outre mesure d’un PC personnel par exemple, puisque tout reste en ligne.

Reste maintenant à savoir comment ça se passe chez vous. Le plus simple est de représenter ces trois axes d’évaluation de votre environnement de Home Office – simplicité, sécurité, flexibilité – sous la forme d’un triangle. Et de les évaluer afin d’y placer votre propre curseur. Et si jamais vous n’y arrivez pas, ou que vous vous faites peur, vous pouvez évidemment compter sur nous.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Vous souhaitez mettre en place le Home Office en tout sécurité et simplicité ? Contactez-nous en un clic !