Dans la clientèle des PME, il n’est pas rare de croiser des infrastructures vieillissantes. Ou plutôt, qui exploitent des technologies d’un autre temps. Et ceci, bien qu’elles aient été installées récemment. Par réflexe, par souci de rentabilité ou par retard technologique, les prestataires de ces entreprises ont fait des choix peu pérennes. Au détriment de celles-ci. Mais alors, comment identifier une informatique moderne ? C’est ce que nous allons voir.

Tout d’abord, commençons par éviter de tomber dans le fantasme. Il n’y a ni solution technologique ultime, ni informatique qui serait une panacée. Chaque entreprise voit sa solution IT sous le prisme de ses besoins. Loin de moi l’idée de vous orienter vers tel ou tel fournisseur qui serait un choix évident et inévitable. D’ailleurs, Steel Blue n’est pas revendeur de produits, mais fournisseur de ses propres solutions, dont les composants évoluent au fil du temps.

La preuve ? Notre produit Steel Workgroup est notre fer de lance. Il s’agit d’un service managé, regroupant des outils collaboratifs (messagerie d’entreprise, stockage et partage de fichiers, collaboration d’entreprise) et des services professionnels associés. Ces prestations couvrent le support, la maintenance, les mises à jour, la gestion des modifications, la documentation, le reporting mensuel. Si ce produit se base aujourd’hui sur Microsoft 365, il a longtemps exploité les services d’Amazon Web Services. Avant que ceux-ci ne deviennent moins compétitifs pour nos clients.

Les besoins, et rien d’autre

Non, l’objectif ici consiste plutôt à vous donner les clés pour identifier les choix à éviter. Toujours du point de vue d’une PME/TPE suisse, pour une taille oscillant entre 5 et 50 utilisateurs. La question du fournisseur technologique ou de l’éditeur importe peu en la matière. C’est le principe que nous cherchons à expliquer. Celui-ci peut être influencé en fonction de critères tels que l’évolution du marché, les changements technologiques, le budget ou encore la flexibilité, la fiabilité ou la simplicité.

Pour obtenir une vue d’ensemble assez complète, il convient de définir ce qu’une PME fait de son informatique. Et en quelque sorte, ses besoins. Pour une entreprise de petite taille, c’est assez simple : on parle de bureautique (emails et fichiers), et d’applications de base (métier et/ou support, regroupant devis, facturation, comptabilité). Autrement dit : il s’agit de stocker et partager des documents, d’échanger des messages et de faire tourner quelques programmes spécifiques.

Ces dix dernières années ont vu l’émergence des solutions SaaS (Software-as-a-Service), c’est-à-dire des programmes hébergés en dehors des murs, centralisés et mutualisés, et souscrits « à la demande » via des abonnements annuels ou mensuels. Ceci a particulièrement affecté les applications support de base, au premier rang desquelles se trouvent la comptabilité et la paie, voire la facturation. Il est vrai qu’acquérir un serveur (et le maintenir) pour faire tourner WinBiz et les faibles volumes de données dont il a besoin n’a plus vraiment de sens.

Applications et informatique moderne

Pour les applications métier, c’est une autre histoire. Comme elles sont bien plus spécifiques, leur marché est plus restreint. Ce qui n’incite pas les hébergeurs ou les éditeurs à proposer une solution externalisée, en tout cas à des tarifs raisonnables. Dans ce cas précis, disposer de son propre serveur peut faire du sens. Mais il y a serveur et serveur. C’est le critère budgétaire qui va prendre le pas ici. Car acheter une machine pour la mettre dans ses bureaux et la dorloter ne serait pas raisonnable.

Pourquoi donc ? Les infrastructures Cloud sont devenues hyper-matures. Alors que de votre côté, vous vous échinerez à héberger une machine dans vos locaux, à assurer son alimentation et sa protection électriques, à prendre soin de la température de l’air. Et surtout, à la maintenir en état de marche. Entre achat, mise en service et maintien en conditions opérationnelles, les coûts de possession d’un serveur ne sont pas négligeables. Et surtout, bien plus élevés qu’une machine virtuelle louée via un prestataire d’infogérance. On parle ici de plusieurs dizaines de milliers de francs sur la période d’amortissement de ce matériel.

Côté bureautique, c’est un peu le même constat. L’hébergement sur site de documents et d’emails n’est plus vraiment d’actualité. Et pourtant, il n’est pas rare non plus de croiser des serveurs de fichiers ou Exchange sur des serveurs surpuissants. Maintenir cette machinerie en état est une peine quotidienne coûteuse, qui génère insatisfaction et frustration. Tout en creusant le budget des PME qui s’y accrochent. Et je ne parle pas seulement du matériel, mais également de la configuration logicielle et de la sécurisation. Un serveur de messagerie requiert une exposition à Internet dont les pirates se délectent, au gré d’attaques et d’exploitation de failles de sécurité.

Les fichiers, le pilier de l’IT des PME

Quant aux fichiers, le COVID a mis en évidence la difficulté d’y accéder à distance lorsqu’ils se trouvent sur des disques sur site. Le VPN peut contrebalancer cela, mais c’est évidemment ajouter une couche de service, qu’il faut, là encore, entretenir et sécuriser. Et ceci sans compter avec les difficultés d’accès depuis la maison. Les solutions de stockage et d’hébergement Cloud se sont progressivement imposées, car plus flexibles, plus sécurisées, et plus simples à mettre en œuvre pour des PME qui doivent, de facto, externaliser la gestion de leur informatique par manque de compétences et de connaissances.

Au premier rang de celles-ci se trouve Microsoft 365, qui a le bon goût d’intégrer tous les outils dans une seule suite. Mais d’autre acteurs, tels que Dropbox pour les fichiers ou Slack pour la collaboration, ont aussi fait leur trou. Toutes sont accessibles depuis une simple connexion Internet, si bien que le bureau n’est plus un endroit privilégié pour les exploiter, mais un point d’accès aux données comme un autre. Tout en apportant un niveau de sécurité inaccessible pour une PME avec des ressources hébergées en son sein. Cryptage au repos comme en transit, double authentification, redondance locale et géographique : autant de propriétés qui viennent de facto avec les outils d’une informatique moderne.

Ces tendances sont celles du moment. Et peut-être pas celles de demain. Car l’évolution permanente de l’informatique rebat les cartes des choix possibles à intervalles réguliers. La modernité n’est donc qu’un concept, qui évolue au fil du temps et qui doit être remis en question en permanence. Ce qui implique de devoir se maintenir à niveau. Reste à savoir dans quel état se trouve votre informatique et si elle coche déjà quelques critères de modernité actuels. Histoire de garder une longueur d’avance en termes de flexibilité, de contrôle des budgets et de mobilité.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Et si on inspectait votre informatique pour savoir si elle coche les cases de la modernité ?

Peignons le diable sur la muraille : votre système d’information est attaqué, et tout s’arrête. Les plus téméraires s’en remettront à leur chance, en croisant les doigts. Mais les plus prévenants auront anticipé les choses. En mettant en place un plan de continuité d’activité informatique, qui leur permettra de vivre cet événement plus sereinement. Voire de survivre. Voyons comment.

Notre esprit est ainsi fait : il éloigne inconsciemment les événements qui nous effraient, en nous évitant de les préparer comme il le faut. Les cyberattaques d’entreprise n’échappent pas à cette règle. Vous savez, celles qui risquent de paralyser votre activité, et de mettre à mal votre PME. Les raisons de mettre en place un plan de continuité sont pourtant nombreuses, et bien réelles.

Alors, même si votre cerveau vous incite à remettre ce dossier à plus tard, voici quelques éléments pour vous montrer que les choses ne sont pas insurmontables. Et que quelques initiatives bien senties pourraient vous épargner bien du tracas. Exemples à la clé.

Etape 1 : évaluer les risques

Votre PME reste une petite entreprise. Cela signifie qu’elle doit garder de la flexibilité dans son activité de tous les jours. Et qu’elle ne dispose pas de moyens illimités (mais si c’est le cas, tant mieux). La phase d’évaluation est donc essentielle : elle vise à déterminer vos besoins informatiques vitaux pour continuer à travailler, même en mode dégradé.

Cette étape a pour objectif de cartographier l’ensemble de vos ressources IT, et à leur donner un poids. Cette identification des ressources suffisantes et nécessaires pour reprendre une activité – presque – normale est vitale pour la suite des opérations, car elle définira les axes de priorité pour mettre en place des contre-mesures en cas d’attaque informatique.

Un exemple ? Votre réseau d’entreprise n’est probablement pas une ressource critique. S’il était attaqué, il vous suffirait de l’arrêter – pour contrer tout propagation – et de renvoyer tous les collaborateurs à la maison pour qu’ils retrouvent une connexion Internet. Cela implique évidemment qu’ils soient capables de télétravailler. En revanche, votre application métier ou votre messagerie trouveront difficilement un remplaçant. Vous ne voulez pas basculer tout le monde sur des comptes Gmail gratuits tout de même ?

Etape 2 : décider des moyens à mettre en place

A l’issue de cette première phase, vous aurez pu déterminer vos prérequis a minima pour poursuivre votre activité. Ce qui n’est pas essentiel sera tout simplement ignoré. Afin que vous vous concentriez sur les éléments critiques pour votre survie informatique. A ce stade, vous progresserez sur deux axes distincts : les améliorations d’une part, et la remédiation d’autre part.

Comme il sera toujours plus simple de prévenir que de guérir, attelez vous à vérifier si vos services essentiels disposent du meilleur niveau de protection possible. Si ça n’est pas le cas, assurez-vous de mettre en œuvre les mises à niveau nécessaires. Prenons un exemple : si votre messagerie d’entreprise n’est pas protégée par une double authentification MFA, mettez la en place, tout en garantissant que tout nouveau compte n’échappera pas à cette règle. Cela permettra probablement d’éviter le pire dans certains cas.

En parallèle, décidez quelles alternatives vous mettrez en place pour vos services critiques. Là encore, vous procéderez en deux phases : identification des scénarios, et couverture des risques de chacun d’entre eux. Et avant même que vous le demandiez, voici un nouvel exemple : si vous perdez le contrôle de votre messagerie, il conviendra d’en préparer une de secours, prête à accueillir d’éventuelles sauvegardes de vos boîtes email. Autre cas : la perte de votre nom de domaine. Si votre outil de gestion de DNS est piraté, vos emails pourront être détournés. Vous devrez donc vous rabattre sur votre messagerie de secours, mais avec un nom de domaine alternatif.

Etape 3 : déployer votre plan de continuité d’activité

Bien, maintenant que vous savez quoi faire, il n’y a plus qu’à mettre les mains dans le cambouis. Et déployer les différents éléments de votre plan de continuité d’activité. Mais pas n’importe comment. Si cette étape paraît simple, elle ne doit cependant pas être prise à la légère. Il vous revient en effet de ne pas déplacer les risques et donc de bien séparer les différents environnements, production et plan de continuité respectivement.

Cela passe donc par une mixité de fournisseurs et de solutions techniques, le but étant de ne pas se faire pirater aussi votre environnement de continuité. Imaginons que Microsoft 365 soit attaqué demain, et que votre messagerie soit chez le géant du logiciel. Si vous avez opté pour une sauvegarde Cloud de vos boîtes chez le même fournisseur et que celui-ci se trouve sous le feu d’une attaque, vous risquez de tout perdre en une fois, boîtes et sauvegardes.

C’est un peu comme si vous disposiez d’une connexion Internet de secours mais que celle-ci passe par le même chemin que la connexion primaire : la pelleteuse, au moment de tout sectionner, ne fera pas la différence. Vous prendrez donc de soin de bien évaluer les solutions de secours avant de les mettre en œuvre.

Etape 4 : tester, encore et toujours

Maintenant que tout est prêt et opérationnel, vous pouvez dormir sur vos deux oreilles, pensez-vous. Pas tout à fait, en fait… Une bonne solution de secours est une solution que vous testez régulièrement. Faute de quoi elle pourrait s’avérer inutile ou inopérante le jour J. Nous avons pour habitude de dire que ce jour-là, vous ne pourrez plus être dans la réflexion, mais bel et bien dans l’action.

Cela implique de savoir exactement quoi faire pour traiter les scénarios que vous avez préalablement définis. Mais aussi de connaître le résultat exact de la mise en œuvre de vos outils de secours. Parce vous les avez expérimentés à blanc par le passé.

Une des techniques classiques consiste à mettre en place des éléments témoins dans votre infrastructure, qui ne sont pas utilisés au quotidien par les collaborateurs mais dont vous connaissez l’état. Ils vous permettront de juger par exemple de l’efficacité de votre plan de backup d’email : puis-je récupérer le message témoin reçu il y a deux jours ? puis-je revenir suffisamment en arrière dans l’historique de mes fichiers pour contrer un ransomware actif depuis 3 jours ?

Ces tests devront être planifiés à intervalles réguliers, ce qui garantira la fiabilité de votre plan de continuité d’activité. Il ne vous restera alors plus qu’à organiser les choses. Car basculer sur un plan de continuité d’activité est une décision lourde, que seuls les responsables de l’entreprise pourront prendre. En évaluant le bénéfice et le risque, sur la base d‘indicateurs factuels et non pas sur des critères émotionnels. Ils n’auront pas leur place dans ce moment particulièrement critique.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Les plans B ne sont pas réservés aux grandes entreprises. Contactez-nous pour définir le vôtre… et dormir tranquille.

Avez-vous encore des machines sous Windows 10 dans votre parc informatique ? Après 10 années de bons et loyaux services, le système star de Microsoft tirera sa révérence le 14 octobre prochain. Quels impacts pour votre PME ? Et quels risques pour votre sécurité informatique ? Quelles sont les solutions qui s’offrent à vous ? Eléments de réponse.

Avec une base installée de près de 60% des postes de travail dans le monde, Windows 10 reste le système le plus utilisé sur le globe. Raison de plus pour Microsoft d’anticiper cette fin de carrière, qui a été annoncée 1 année à l’avance. Pour le géant du logiciel, il s’agit aussi de forcer le passage à Windows 11, qui n’a pas été aussi rapide qu’espéré. Et aussi de faire plaisir aux constructeurs de matériel, qui se frottent déjà les mains.

Un risque de piratage avéré

Commençons par le commencement : que signifie cet arrêt de Windows 10 ? Les postes sous cette version ne s’arrêteront évidemment pas de fonctionner du jour au lendemain. La fin de vie de ce produit correspond en fait à l’arrêt des mises à jour fournies par Microsoft. Et notamment des mises à jour de sécurité. Autrement dit : s’il y a des failles de sécurité, elles ne seront plus comblées.

Les plus optimistes diront qu’après 10 ans, il ne doit plus en rester beaucoup, des failles. Ca serait évidemment trop beau. Petit retour en arrière : en 2015, Microsoft avait mis fin aux mises à jour d’un autre de ses systèmes, Windows Server 2003. Cette antique version était encore utilisée à l’époque dans de nombreuses entreprises. Et il n’aura pas fallu attendre 1 semaine après la fin du support du produit, pour que des brèches de sécurité soient révélées et exploitées, forçant Microsoft à déroger à son propre cycle de vie.

Dans le jeu du chat et de la souris, les pirates adorent ces phases d’arrêt de support, propices à leurs activités

On imagine facilement que Windows 10, dont le modèle de sécurité est plus faible que celui de son successeur Windows 11, n’échappera pas à cette destinée. En fonction de l’ampleur des dégâts, Microsoft pourra décider de réagir. Ou pas. En tout état de cause, on imagine facilement que s’il existe des failles, elles ne seront plus révélées avant la date butoir. Histoire de pouvoir les exploiter le moment venu et de profiter d’un moment de flottement de la part de l’éditeur.

Un inventaire de Windows 10 nécessaire

Quoi que vous décidiez de faire, vous devrez donc commencer par évaluer l’ampleur de votre exposition. Ce qui passe inévitablement par un inventaire complet de vos machines. Ce listing ne se limitera pas au nombre de machines qui font tourner Windows 10. Mais aussi à savoir quelles sont celles qui sont compatibles avec Windows 11. Car la mise à niveau, si c’est le choix que vous opérez, n’est pas systématique. Les prérequis liés au matériel sont assez stricts avec ce système. Ce qui explique en partie sont adoption lente.

Dès son lancement, Windows 11 a imposé la présence, sur les machines qui le faisaient tourner, d’une puce appelée TPM 2.0 (Trusted Platform Module). Ce composant est notamment en charge du traitement d’informations de sécurité sur lesquelles Windows 11 se base pour se protéger. Sans cette puce, pas de mise à jour possible. D’autres facteurs matériels sont imposés, dans une moindre mesure, comme l’espace disque, mais aussi, et surtout, la mémoire disponible.

Car chaque saut de génération exige un matériel toujours plus puissant. Cela reste donc vrai pour le passage de Windows 10 à Windows 11, ce dernier n’étant vraiment confortable qu’avec 16GB de mémoire. Pour vous aider dans votre inventaire, Microsoft à mis au point un outil d’évaluation que vous pouvez faire tourner sur vos postes.

Mise à niveau matérielle

Pour les postes qui ne passeront pas la rampe, vous pourrez donc choisir de vivre dangereusement. Ou de mettre à niveau votre parc informatique. Sur les appareils disposant du fameux module TPM, un ajout de mémoire (s’il est possible) peut s’avérer une option bon marché. Pour les autres, un remplacement pur et simple de la machine s’imposera.  En prenant les devants.

En effet, comme toujours dans ce genre de situation, et notamment s’agissant d’informatique, l’immobilisme est de mise. Jusqu’au moment où les utilisateurs se retrouvent au pied du mur. Ce qui pourrait être le cas en octobre prochain : non pas qu’une pénurie de matériel soit attendue, mais les PC ne sont pas seuls dans la chaîne. Il faut aussi compter sur le stock chez les distributeurs, l’acheminement, la disponibilité de votre prestataire IT pour faire la mise à niveau et transférer les données.

Remplacer un PC nécessite de le configurer et de déplacer des données. L’achat en tant que tel est l’étape la plus simple.

Le goulet d’étranglement est donc plus que probable à la rentrée prochaine, lorsque tout le monde aura reçu des notifications de fin de support sur son système. Il est donc nécessaire, voire vitale, de s’attaquer au sujet maintenant et d’anticiper. Voire de tirer bénéfice des quelques 6 mois à disposition pour aller un peu plus loin dans votre réflexion.

Vers un changement de modèle

Microsoft a tendance depuis plusieurs années à raccourcir le cycle de vie de ses produits. Car si nous parlons ici d’un passage à Windows 11, il faut savoir que Windows 12 est déjà dans les tuyaux. Et donc l’opération qui nous préoccupe ici pourrait se renouveler assez rapidement. Alors plutôt que de la subir, faites-en une opportunité de refonte complète de votre stratégie informatique. Comment ?

Commencez par privilégier une approche basée sur les usages et non pas sur le matériel. Comme nous le préconisons dans le cadre de notre modèle d’informatique hybride. Ce paradigme met en avant les besoins des utilisateurs, et permet de sélectionner le matériel en fonction. Avec une conséquence simple : si vous optez pour des laptops pour certains employés, vous devrez les remplacer plus souvent, du fait de leur moindre solidité. Et pour les tablettes, vous passerez sur Android ou iPadOS, ce qui vous évitera les mises à niveau Microsoft.

Mais cela ne s’arrête pas là. L’approche hybride vous permet de sélectionner des environnements virtuels – postes dédiés ou bureaux virtualisés – dont vous ne possédez pas le matériel, par définition. Avec un avantage de taille : la mise à niveau est possible en quelques clics, sans avoir à racheter la moindre pièce physique. Et donc sans investissement. Il s’agit probablement de la façon la plus simple de se maintenir à niveau. Pour Windows 10 comme pour les versions suivantes.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Venez faire le point avec nous sur votre parc informatique et son évolution. Contactez-nous pour une évaluation !

« Patience et longueur de temps » est certainement la devise de Microsoft. Car si le géant américain dispose de moyens sans limite, Rome ne peut pas toujours se faire en un jour. Il faut parfois laisser le marché maturer. Et plutôt utiliser ses ressources marketing et techniques pour se placer en position de force. Afin de dégainer le moment venu. Un exemple ? Utiliser Teams pour basculer la téléphonie d’entreprise des PME…

Il y a plus ou moins 5 années en arrière, le monde découvrait le Covid-19. Et une période d’incertitude comme l’histoire récente n’en avait pas connue s’ouvrait devant nous. Mais le grand public découvrait aussi par la même occasion Teams, l’outil de collaboration de Microsoft. Ce produit, issu du rachat de Skype for Business quelques années plus tôt, aura permis, entre autres, au monde professionnel de continuer à travailler. Et accessoirement aux particuliers d’organiser des soirées virtuelles.

Un peu d’histoire

Si cette émergence peut paraître anecdotique, il est utile de rappeler que Teams n’avait été lancé officiellement qu’en 2016, et qu’il remplaçait tout aussi officiellement Skype for Business en 2017. Soit environ 2 années avant que la pandémie ne frappe à notre porte. Si ces échelles de temps sont relativement longues dans le monde informatique, il en va autrement quand il s’agit d’imposer à un produit à l’échelle mondiale. Avec le recul, on peut dire que la percée de Teams a été rapide. Très rapide.

A peu près à la même époque, Teams avait été déclaré apte à traiter les appels téléphoniques. Après tout, quoi de plus normal : l’outil était capable, comme ses concurrents, de gérer des appels audio et vidéo sur Internet, entre plusieurs participants. Ajouter des fonctions de téléphone revenait à s’interfacer avec le réseau téléphonique public, que ce soit pour passer ou recevoir des appels. Ou autrement dit, il suffisait de faire le pont entre deux technologies existantes.

Si le service a eu peu de succès au début, les choses se sont accélérées depuis deux ou trois ans. Il faut dire que la qualité n’était pas forcément au rendez-vous pour les premiers clients à opter pour ce service. Et la difficulté apparente de porter ses numéros d’entreprise n’aidait pas non plus : Microsoft préférait proposer ses propres numéros, ce qui ne fait pas de sens pour une PME. Dernier écueil : les tarifs des communications n’étaient pas attractifs. Alors comment expliquer un tel revirement ?

Teams, ou la téléphonie d’entreprise réinventée

Ce sont les opérateurs téléphoniques eux-mêmes qui ont donné ses lettres de noblesse à Teams Phone. Tout autant attirés par un nouveau marché que par la crainte de voir leurs clients existants fuir vers d’autres horizons. Ils ont donc poussé progressivement cette alternative vers leur clientèle, afin de ne pas se faire déborder par une nouvelle concurrence. Quitte à y laisser quelques plumes : déplacer la téléphonie d’entreprise sur Teams revenait à abandonner la gestion de ce service à l’IT. Et à être réduit à faire le passe-plat des minutes de communication.

Car le marché de la téléphonie fixe professionnelle a toujours été très lucratif. Que ce soit pour les électriciens, qui ont longtemps sélectionné et installé le matériel sur site. Quitte à faire payer extrêmement cher le moindre changement de configuration. Ou pour les opérateurs, qui avaient développé des centraux téléphoniques virtuels dans le Cloud, regroupant ainsi les appels et l’intelligence dans leurs centres de données en remplacement des équipements déployés habituellement chez les clients.

Les clients eux-mêmes n’ont pas été étrangers à cette transition. Avec l’avènement de Teams en entreprise, ils ont progressivement exprimé le besoin de traiter leurs appels avec un outil de communication qu’ils connaissaient bien. Et surtout, avec un outil disponible sur une multitude d’appareil. A la clé : de la flexibilité pour les utilisateurs, qui pouvaient appliquer à la téléphonie le choix de leur appareil préféré (smartphone, PC). Et pour les entreprises, la perspective de ne pas remplacer des combinés téléphoniques vieillissants et coûteux.

Un développement à marche forcée

Reste la question des fonctionnalités. Et c’est là que la puissance de Microsoft évoquée en introduction a fait toute la différence. Car si des arguments financiers ou liés à la praticité pouvaient peser dans l’équation, les clients n’auraient pas fait le pas en cas de perte des fonctions rendues jusqu’à maintenant fidèlement par leur bon vieux PABX. Transferts d’appel, files d’attente, message d’accueil, gestion des plages horaires, distribution des appels entrants : l’absence des ces caractéristiques auraient constitué un frein indéniable au passage sur Teams.

Microsoft a donc progressivement enrichi son outil. Quitte à dépasser la concurrence. En tout cas sur le strict plan du rapport prix/prestation. Un exemple ? Il est possible désormais de mettre en place un message d’accueil textuel qui sera lu par une synthèse vocale tout à fait convaincante. Et ceci sans aucun surcoût. Avec la possibilité de gérer soi-même ces messages tout comme la configuration complète du central ou des lignes associées aux utilisateurs, le client a repris le contrôle de sa téléphonie. Et tout ceci pour le prix d’une licence mensuelle.

A partir de cet instant, la partie était plus ou moins pliée. La combinaison de coûts faibles, de fonctions avancées et d’une flexibilité extrême a amené les clients à avancer sur ce qui était désormais un terrain connu. Et à délaisser progressivement leur infrastructure téléphonique, qu’elle soit standard ou virtuelle. Microsoft, qui avait planté les graines de ce succès quelques années auparavant, n’avait désormais plus qu’à récolter les fruits de sa patience.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Et vous, êtes-vous prêt à passer sur Teams pour votre téléphonie d’entreprise ? Demandez-nous une démo pour finir de vous convaincre !

Petite entreprise rime généralement avec flexibilité et polyvalence. Chaque collaborateur y déploie de nombreuses compétences, en lien avec le métier. Mais pas en informatique, ou sinon à la marge. Alors que la majorité des fonctions est internalisée, l’IT reste un morceau trop gros à avaler. Surtout à l’heure où la cybersécurité doit se renforcer. Ce qui justifie le passage à l’infogérance. Un choix sensé par nature.

Mais que signifie au juste « infogérance » ? Il s’agit tout simplement de confier la gestion de son infrastructure à un prestataire tiers. Cette gestion recouvre différents modes de fonctionnement, nous y reviendrons. Car il y a gestion et gestion. Mais quel que soit le périmètre du mandat, externaliser cette fonction revient à confier les rênes à un professionnel. Qui aura pour mandat de maintenir à niveau votre parc informatique et la sécurité qui va avec. Voyons pourquoi cela reste la solution privilégiée des PME.

Parce que vous n’avez pas les compétences

L’informatique est devenue incroyablement compliquée. Multiplication des appareils et des applications, mais aussi mobilité et intrication avec les appareils privés : autant de facteurs qui rendent les choses complexes. Et c’est sans compter sur le facteur de la cybersécurité, devenu un enjeu majeur dans le monde des petites entreprises. Par définition, se maintenir à niveau est un travail à plein temps. Que les PME ne peuvent assumer, n’ayant en général pas la taille critique pour justifier un emploi dédié.

Il est donc plus que préférable de s’appuyer sur un professionnel, si possible spécialisé dans les petites entreprises. Il sera d’autant plus efficace qu’au contraire de vous, il ne fait que cela, et forme son personnel en continu. Et qu’il capitalise son expérience sur un parc de clients important, dans différents secteurs d’activité. Cette diversité est un atout car elle permet de multiplier les cas d’usage, et donc de valider des configurations standards dans différents environnements. Là où vous n’auriez tendance qu’à faire du sur-mesure en vous considérant comme un cas unique.

Avec le temps, les choses ne s’arrangeront pas. Et les petites entreprises qui auraient, malgré tout, fait le pari de l’internalisation seront rattrapées par la réalité du terrain. Ce qui leur vaudra finalement de confier les clés du camion à un tiers. Un mouvement d’externalisation qui n’est pas simple à effectuer. Et qui s’anticipe. Agir le plus tôt possible vous évitera de vous retrouver au pied du mur.

Parce que l’infogérance est un atout

S’appuyer sur un professionnel constitue surtout un avantage de taille pour votre PME. Comme je l’ai évoqué plus tôt, les petites entreprises se doivent d’être flexibles et polyvalentes par nature. Et cela vaut tout autant pour leur informatique. Un simple maintien en conditions opérationnelles n’est aujourd’hui pas suffisant. Dans notre quotidien, nous rencontrons des organisations qui, au mieux, ont un système vétuste, mais à jour. Et au pire, un système qui n’est pas maintenu.

L’IT est un pilier majeur du bon fonctionnement des PME. Leurs dirigeants se contentent pourtant de considérer que la fiabilité est un objectif suffisant. Ce qui aboutit à exploiter un système qui vieillit et finit par se scléroser. Autrement dit : tant que cela fonctionne, on ne touche à rien. Pourtant, les conditions du marché tout comme les besoins des collaborateurs évoluent. Comment y faire face avec une informatique statique ?

Opter pour l’infogérance, c’est aussi bénéficier des évolutions que pourra vous proposer votre prestataire. Sa connaissance du marché informatique et des évolutions technologiques vous permettra d’envisager des mises à niveau que vous n’auriez peut-être pas considérées par vous-même. Tout en gardant le choix d’aller de l’avant ou pas. Plutôt que de réagir en fonction des demandes internes ou des défis imposés par vos clients, vous capitalisez sur l’expérience de votre infogérant pour avoir déjà en tête les solutions aux problèmes qui ne vous ont pas encore été posés.

Parce que les services managés sont aussi de l’infogérance

Dans les faits, l’infogérance peut recouvrir plusieurs formes. Dans sa plus simple expression, l’externalisation peut se limiter à donner les accès sur votre infrastructure à votre prestataire, qui en prendra le contrôle mais se contentera d’intervenir à la demande. Autrement dit : sa gestion se limitera à réparer ce qui doit l’être lorsque vous signalerez des dysfonctionnements. Le paiement, lui, se fera à l’avance sous la forme de carnets d’heures.

Autant le dire tout de suite : ce type d’infogérance n’est ni avantageux, ni sérieux. Ne serait-ce que si l’on considère le rythme effréné des mises à jour – corrélé avec celui non moins effréné des découvertes de failles de sécurité. Par ailleurs, l’utilisation d’heures de service prépayées ne vous inscrit pas dans un cercle vertueux, puisque l’infogérant n’est pas incité à être efficace : si le système n’est pas maintenu de manière proactive, vous serez amené à consommer les heures. Et si le prestataire n’est pas assez efficace, vous les consommerez en masse. Ce qui rapprochera d’autant plus vite le moment d’en recommander.

A l’autre extrême du spectre, les services managés sont la forme d’infogérance la plus vertueuse. Souscrits sous la forme d’un forfait mensuel fixe, ils comprennent la maintenance proactive et réactive, mais aussi le support. Le prestataire assume alors le risque des pannes. Son intérêt consiste alors à s’assurer que les systèmes sont maintenus en conditions opérationnelles en permanence. Ce qui diminuera les risques de panne, et donc la charge d’exploitation (support, maintenance réactive), tout en apportant un niveau de satisfaction plus grand au client.

Cette forme de relation gagnant-gagnant constitue le meilleur de ce que vous pourrez obtenir de l’infogérance. Elle vous garantira que votre système sera à jour et sécurisé, tout en étant apte aux évolutions requises par votre marché et votre activité. Surtout, elle gardera sous contrôle votre budget, tout en vous évitant d’acquérir des compétences ou de devoir procéder à une veille technologique chronophage. Raisonnable, pour une PME, non ?

Emmanuel Dardaine

emmanuel dardaine expert cloud

Envie de savoir à quoi ressemble notre infogérance à base de services managés ? Contactez-nous pour une présentation complète.

SB SwissBusiness est une société fiduciaire basée à Bussigny. Active depuis 20 ans, elle accompagne les PME au long de leur existence en fournissant des prestations d’expertise fiscale, d’audit, de conseil stratégique, de comptabilité et de gestion financière. Pour la remise à niveau de son infrastructure de bureau virtuel d’entreprise, elle s’est tournée vers Steel Blue et Azure Virtual Desktop. Récit.

Jusqu’à maintenant, l’entreprise exploitait un serveur de sessions Windows distantes hébergé dans la région de Lausanne. La solution du bureau virtuel d’entreprise n’était donc pas une nouveauté pour SB SwissBusiness. Mais des difficultés d’exploitation, un serveur devenu obsolète et une dégradation du service du prestataire, notamment en termes d’assistance, ont forcé la fiduciaire à entamer un processus de migration. L’occasion non pas de simplement remplacer son serveur par un autre, mais de faire un vrai saut technologique, comme nous l’explique M. Moulin, Directeur et Associé :

« Nous exploitions dans l’entreprise un serveur de bureau virtuel depuis plusieurs années. SB SwissBusiness a toujours privilégié cette solution afin de centraliser les données, et éviter tout risque de fuite en cas de perte ou de vol d’un appareil. Nous ne gardons rien sur nos PC et nous nous efforçons de tout placer sur le serveur. La localisation du serveur en Suisse était aussi un enjeu pour nous, que ce soit pour des raisons réglementaires mais aussi pour rassurer nos clients. Le manque de réactivité du prestataire ainsi que des soucis de performance nous ont amenés à revoir notre copie et tenter de trouver un autre fournisseur. Steel Blue nous est apparu comme un candidat idéal, du fait de leur maîtrise des serveurs Cloud virtuels. »

Windows Server 2016, Office 2010 : autant de technologies dépassées qui justifiaient la remise à niveau de l’infrastructure. Mais les besoins ne s’arrêtaient pas là : le serveur existant ne permettait tout simplement pas de profiter de Teams pour réaliser des visioconférences depuis les bureaux virtuels. Si bien que ces séances virtuelles étaient réalisées depuis les PC eux-mêmes, remettant en cause le choix de la centralisation. Et la mise à niveau des applications de déclaration fiscale, souvent régulière en période de bouclement, nécessitait des temps de réaction que SB SwissBusiness ne pouvait pas espérer en l’état. Il était donc temps de devenir un peu innovant.

« Nous avions conscience de la vétusté de notre plateforme. Plutôt qu’une simple remise à niveau, Steel Blue nous a proposé un tout nouveau modèle. En passant sur Azure Virtual Desktop, nous avons pu basculer sur Windows 11, ce que ne peuvent pas proposer les autres technologies. Et pour ce qui est des mises à jour des logiciels, ils ont mis en place un système d’élévation de droits qui est parfait : avec une clé d’authentification physique FIDO2, je peux profiter pendant un court laps de temps des permissions nécessaires pour mettre à jour nos applications de déclaration comptable. Nous sommes donc autonomes et nous n’avons pas à attendre que Steel Blue fasse les modifications, sans mettre toutefois en péril la sécurité de la machine. Last but not least, notre serveur nous permet de lancer des séances audio et vidéo avec Teams directement depuis le bureau virtuel d’entreprise, en utilisant les périphériques du PC qui nous y connecte. Pour nous, c’est une révolution !”, confie M. Moulin.

Ainsi outillé, SB SwissBusiness pouvait donc aller de l’avant et reprendre sereinement l’exploitation de ses logiciels métier, tels que Crésus. La migration aura permis de récupérer l’entier des fichiers depuis l’ancien serveur. Mais aussi de migrer les emails vers Microsoft 365, ce qui n’était initialement pas prévu. Heureusement, les performances des machines Azure Virtual Desktop permettent de réaliser ces tâches dans des délais extrêmement courts, grâce aux débit disponibles. Débits qui ont aussi constitué une agréable surprise pour le client.

« Le transfert de nos boîtes email vers Microsoft 365 était prévu depuis longtemps, mais nous n’avions pas pu planifier ce projet. Steel Blue a donc intégré cette phase dans son planning, malgré des délais très courts. Nous bénéficions maintenant d’un environnement 100% Microsoft, entièrement fourni et géré par Steel Blue sous la forme d’un service managé, et dont les performances dépassent nos attentes. A titre d’exemple, nous atteignons des vitesses de 5Gbps en téléchargement, et à peine moins en téléversement, sur des sites de test classiques. Comme le dimensionnement du serveur est à l’unisson, les problèmes de lenteur sont maintenant derrière nous, et nous pouvons nous concentrer sur notre activité », conclut M. Moulin.

Et pour la suite ? SB SwissBusiness est maintenant à même de monter en puissance avec les outils Microsoft. Si le transfert des fichiers sur l’environnement Cloud SharePoint de Microsoft a été écarté au moment de la migration, il pourra être réévalué au bout de quelques mois. Notamment puisque les données des clients suisses restent hébergées sur le sol de la Confédération, et que les outils de contrôle de connexion permettent de garantir que les données ne seront utilisables que depuis le serveur de bureau virtuel d’entreprise. Surtout, la montée en puissance du client sur l’outil de collaboration d’entreprise Microsoft Teams apparaît comme la suite logique du renouvellement informatique de SB SwissBusiness. Tout comme la publication d’applications distantes en lieu et place de bureaux complets, afin que les clients de la fiduciaire puissent accéder aux programmes de gestion sans avoir à quitter leur propre session. Vous avez dit « moderne » ?

Emmanuel Dardaine

emmanuel dardaine expert cloud

Vous aussi vous recherchez une solution de bureau virtuel ? Contactez-nous pour une présentation complète.

Vous avez probablement croisé ses véhicules dans la région genevoise. Joseph Menu est une entreprise familiale basée à Plan-les-Ouates, spécialisée dans l’aménagement et l’entretien des espaces verts. Au moment de renouveler son informatique, elle a choisi l’externalisation Cloud complète chez Steel Blue. Histoire de se débarrasser de son vieux serveur. Un cas d’école, que nous relate sa directrice, Marie-Jeanne Febvay-Menu. 

Jusqu’à maintenant, l’entreprise exploitait une informatique qu’il n’est pas irrespectueux de qualifier de « classique ». Avec son serveur sur site, équipé d’une solution de virtualisation, elle disposait de plusieurs instances. Ceci afin d’assurer le stockage et le partage des fichiers. Mais aussi l’authentification des utilisateurs, la gestion des impressions et l’hébergement d’applications. Cette solution aurait pu perdurer dans le temps, comme c’est le cas pour nombre de PME du canton. Mais le Covid-19 et l’évolution des besoins sont passés par-là, comme nous l’explique Mme Febvay-Menu. 

« Lorsque les employés se sont retrouvés en télétravail pendant la pandémie, nous avons dû composer avec notre infrastructure informatique. Nous n’étions pas prêts à basculer dans un mode de travail majoritairement distant. En particulier, l’accès aux fichiers et aux applications était particulièrement peu pratique. Nous avons dû déployer en urgence des ressources pour faciliter les accès depuis la maison via un serveur de sessions. Mais malgré tout, la solution n’était pas satisfaisante. Le vieillissement de notre parc informatique, et l’absence de solutions efficaces de notre prestataire informatique ont fait le reste. Il était temps de tout revoir de fond en comble. »

Dans ce contexte, l’absence de réactivité et de propositions simples de l’assistance technique, tout comme le défaut d’entretien des infrastructures ont pesé lourd dans la balance ayant conduit au changement. Mais pas uniquement. L’obsolescence du matériel, que ce soit le serveur ou les postes, ont également contribué au mouvement. Dans ces conditions, Joseph Menu a pris contact avec Steel Blue sur les conseils d’un de nos partenaires. Et nous avons pu proposer notre modèle d’externalisation informatique complète, mêlant la fourniture des infrastructures Cloud et le service de gestion tout inclus.

« Dès nos premiers échanges avec Steel Blue, ils nous ont proposé un service informatique managé basé sur le Cloud Microsoft 365. Le stockage des fichiers tout comme la messagerie d’entreprise sont externalisés dans le Cloud. Nous avons saisi l’opportunité que représentait ce changement et la suppression de notre serveur, nous offrant ainsi une plus grande souplesse pour l’organisation de notre temps de travail. Mais surtout, la gestion, la maintenance et le support faisaient partie du même forfait que celui des services en ligne, sans limite de temps et sans risque de débordement. Ce qui nous donnait des garanties concernant le niveau de service, car en la matière, nous partions de loin. »

Evidemment, une telle remise à plat de son informatique a incité Joseph Menu à mettre à niveau son parc de PC. Quelques machines tournaient encore sur Windows 10, dont l’échéance est fixée à octobre 2025. D’autres machines étaient à bout de souffle ou incapables de faire la mise à niveau vers Windows 11. Surtout, le service d’externalisation informatique proposé incluait aussi la gestion et la protection des appareils, basées de préférence sur l’édition Pro de Windows. Joseph Menu se devait donc de disposer d’un parc homogène pour que les outils de supervision et de configuration à distance puissent fonctionner sans obstacle. Mme Febvay-Menu nous explique les bienfaits de ce choix : 

« L’externalisation de notre informatique, et son évolution vers plus de nomadisme, nous a fait opter majoritairement pour des ordinateurs portables. Et comme toutes les petites entreprises, nous accédons aux emails sur nos téléphones. Steel Blue nous a expliqué l’enjeu que constitue la protection de ces appareils. Logiquement, leur service managé de gestion inclut la configuration, la sécurisation et la supervision de tous les appareils. C’est d’ailleurs aussi vrai pour les postes fixes. Ce qui nous donne au final beaucoup de sérénité, puisque le choix du matériel se fait en fonction de nos besoins, et non pas du niveau de sécurité souhaité. Celui-ci est homogène à travers tous notre parc d’appareils. »

Et côté qualité de service ? Au-delà de la suppression du serveur et de la remise à niveau de ses ordinateurs, Joseph Menu nous attendait au tournant du service après-vente, que ce soit pendant la phase de migration mais aussi pendant les premières semaines d’utilisation, lorsque le client s’approprie sa nouvelle solution informatique et fait face au changement pendant lequel il doit être accompagné. Mme Febvay-Menu nous explique ce qui a fait la différence pendant ces phases cruciales, mais aussi après. 

« Le contrat avec notre prestataire précédent a imposé des délais de migration courts. Mais la gestion de projet solide de Steel Blue nous a permis de disposer d’un plan clair et d’un planning compatible avec cette exigence. La migration en tant que telle n’a duré qu’une grosse demi-journée, après laquelle nous avions retrouvé notre autonomie, nos fichiers, nos emails, nos ordinateurs et nos applications à disposition. Malgré l’appréhension naturelle due à ce type de transformation, nous avons trouvé rapidement nos marques. Malgré un changement de modèle informatique conséquent, il n’a finalement impacté que modérément notre utilisation au quotidien. La fiabilité des services a fini de nous rassurer, tout comme la réactivité du support Steel Blue, que nous louons au quotidien. Nous ne faisons pas souvent appel à eux, après quelques mois d’exploitation, mais il est important que nous ne restions pas coincés par des questions, mêmes basiques. »

Prochaine étape pour Joseph Menu ? La migration de leur outil de comptabilité et de gestion des devis et factures. Cette phase est déjà bien entamée et, même si elle ne concerne pas directement Steel Blue, elle aura un impact sur l’ancienne infrastructure qui pourra être définitivement et totalement arrêtée. Surtout, l’externalisation informatique ne s’arrête pas là, puisque c’est au réseau et au système d’impression d’être mis à niveau. Toujours en mode service managé pour PME, incluant infrastructures et service tout compris, et loués via des forfaits fixes mensuels. Histoire de ne pas changer une combinaison qui convient à Joseph Menu. 

Emmanuel Dardaine

emmanuel dardaine expert cloud

Envie d’en savoir plus sur notre services d’externalisation informatique ? Contactez-nous pour une présentation complète.

Dans le secteur des PME, gérer l’informatique s’apparente à un casse-tête. Entre volonté d’internaliser, et désir de s’en remettre à un spécialiste, le cœur des dirigeants balance. Car donner les clés du camion n’est pas une décision simple. Surtout quand elle s’accompagne d’une dématérialisation IT, où abandonner machines et compétences à un tiers peut effrayer. Pourtant, les services informatiques managés, en particulier dans le Cloud, apparaissent comme un choix gagnant pour les PME.

Nombreuses sont les petites entreprises qui s’en remettent encore à une informatique classique, basée sur des serveurs informatiques physiques hébergés dans leurs locaux. Dans l’inconscient des décideurs, cette solution reste la meilleure, puisqu’elle permet d’avoir matériel et données sous la main. Pourtant, la compétence de gestion est en général déjà externalisée, sous la forme de carnets d’heures. Pour le dire autrement, un prestataire intervient à la demande sur le matériel sur site, soit pour apporter des modifications de configuration spécifiques, soit pour corriger des dysfonctionnements. Et fait payer ces prestations à l’acte. Ou plutôt : au temps passé.

Les défauts d’une absence de proactivité

Ce fonctionnement engendre toutefois plusieurs biais. A commencer par la gestion du matériel. S’il est rassurant d’avoir physiquement son serveur sous les yeux, l’absence de personnel de maintenance sur site ne facilite ni le maintien en conditions des machines, ni même celui de l’environnement dans lequel elles tournent. Autrement dit, personne ne s’en soucie vraiment. Jusqu’au moment de la panne subite, puisque personne n’aura prêté attention à ce petit bruit suspect. Vous savez, celui qui annonce des jours pas vraiment meilleurs. L’absence de toute action préventive met donc l’informatique en péril. Et peut engendrer des pannes dont la résolution sera d’autant plus longue que le mal aura couvé longtemps.

Cette gestion uniquement réactive est en effet le deuxième effet néfaste de l’externalisation du service à coups de carnets d’heure. Puisque le prestataire n’a pas de mandat pour choyer vos serveurs régulièrement, il n’y a pour ainsi dire pas de suivi ou de gestion des infrastructures. Seules les pannes ou les demandes du client déclenchent des interventions. Avec plus ou moins de bonheur, puisque l’absence de suivi induit aussi une perte de connaissance sur les infrastructures en place. Et donc un manque flagrant d’efficacité au moment de l’intervention. Dommage, car les carnets d’heures, eux, sont payés à l’avance. Et ils n’incitent donc pas à l’efficacité : plus le temps passé sera long, et plus vous devrez repasser à la caisse rapidement.

Dernier écueil : le manque d’évolution. Une fois installé, le serveur informatique, en l’absence de service proactif, vit sa vie. Et vieillit. Ce qui finira par le rendre obsolète. Mais si personne n’assure de suivi régulier de la machine, qui vous indiquera que celle-ci est devenue vétuste ? Du point de vue de l’utilisateur, tant que tout fonctionne, ou que tout est réparé, la vie continue, et l’obsolescence du matériel n’est pas tangible. Ainsi, on découvre régulièrement dans le parc informatique de petites entreprises des versions de Windows Server plus maintenues depuis des années. Comprenez par-là : il n’y a plus de mises à jour, et les failles de sécurité restent sans correctif. Problématique, non ?

Services informatiques managés : une approche gagnante pour tous

Personne n’aurait l’idée de ne jamais faire le service de sa voiture. Et c’est cette approche que reproduisent les services informatiques managés. Il s’agit de la gestion intégrale de ressources informatiques, couvrant aussi bien la maintenance préventive et le suivi, que la réparation et le service aux utilisateurs. Et si possible sans limite de temps, afin que le cercle soit vertueux. En effet, si le prestataire assume de passer le temps nécessaire à la correction des dysfonctionnements, sans surcoût pour le client, il sera d’autant plus incité à les éviter. Et donc à s’assurer que les infrastructures soient en parfait état de fonctionnement.

Reste la question du matériel. Car si un tiers se charge de la gestion de informatique, le serveur sur site reste la propriété de l’entreprise. Qui doit alors en assurer les risques : panne, remplacement des pièces, intervention sur site, contrats de garantie, etc. C’est là que la combinaison d’un service externalisé avec une infrastructure dématérialisée prend tout son sens.

Non seulement, vous profitez d’une gestion proactive de qualité. Mais vous vous affranchissez des contraintes du matériel en l’externalisant dans le Cloud et en le louant avec le service de maintenance. C’est alors le prestataire qui vous fournit vos « machines », et assume ce risque. Risque minimisé dans le Cloud, puisqu’on y remplace un matériel défaillant par un autre en quelques clics. On est alors loin de la situation évoquée en préambule, celle du boîtier placé sous le bureau et des embêtements qui vont avec.

Les dirigeants d’entreprise qui optent pour cette solution perdent-ils pour autant le contrôle de leur informatique. Pas sûr… Si un tiers fournit maintenance et matériel dans le cadre de services informatiques managés, le client ne perd pour autant pas le principal : la propriété des données. Car, soyons honnêtes, les responsables qui ne jurent que pas l’informatique sur site sont avant tout inquiets de voir leurs données leur échapper. Pas leurs machines. La propriété des données et les conditions de leur restitution sont finalement les seuls points critiques qui devraient attirer votre attention lors de la souscription d’un contrat de service managé. Pour le reste, il n’y a pas de raison objective de s’en passer.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Contactez-nous pour connaître l’étendue de nos services informatiques managés pour PME, ou retrouvez-les en ligne sur notre site.

Si la technologie de bureau virtuel n’est pas nouvelle, elle n’a jamais eu autant le vent en poupe. Surtout au sein des PME de tout poil. Le Cloud est passé par-là, qui met à disposition cette solution sans nécessiter les capacités d’investissement d’une multinationale. La percée de la solution de Microsoft, Azure Virtual Desktop, en est un exemple flagrant. Pourquoi et comment ? C’est ce que nous allons voir.

Un bureau virtuel, Azure ou autre, répond toujours à la même définition. Il s’agit d’un environnement de travail informatique centralisé, généralement sous Windows, que les utilisateurs accèdent à distance. A l’opposé d’un ordinateur individuel, le bureau virtuel est donc éloigné et repose sur une infrastructure partagée. Centralisé, il est impossible à voler, et permet de concentrer les données et donc de les protéger.

Surtout, il partage aussi naturellement les ressources informatiques – mémoire et puissance de calcul, ce qui conduit à des économies d’échelle. Avec pas mal d’avantages à la clé. Dans le cadre d’Azure Virtual Desktop, ils sont encore plus nombreux, car Microsoft a su mitonner une solution aux petits oignons particulièrement moderne et adaptée aux petites structures.

Bureau virtuel : un concentré de la puissance de Microsoft et d’Azure

Si Citrix a été pendant longtemps la solution de référence dans le domaine des bureaux virtuels, la donne est en train de changer. Car Microsoft, éditeur de Windows, s’est octroyé un avantage majeur : la possibilité d’utiliser Windows 11 dans un environnement Cloud mutualisé. Là où les autres doivent se contenter de Windows Server, affublé d’une interface vieillissante, Microsoft est le seul autorisé à exploiter Windows 11, dans sa version « multisession ».

Et ça change quoi ? Tout ! Le bureau virtuel Azure devient donc un complément idéal d’un parc de PC, fixes ou portables. Pour l’utilisateur, il n’y a pas de différence entre les deux environnements, si bien que passer de l’un à l’autre se fait naturellement. Et sans changement d’habitude. Pour l’exploitant informatique, les mêmes outils de gestion et de protection des appareils informatiques s’appliquent, ce qui n’est là encore pas possible avec Windows Server.

Bureau virtuel - Session Azure Virtual Desktop sur un laptop Windows 11

Session Azure Virtual Desktop ouverte depuis un ordinateur Windows 11

Pour une PME, la flexibilité est sans égal. Elle peut choisir d’équiper ses commerciaux de laptops, mais orienter ses utilisateurs administratifs sur un bureau virtuel Azure Virtual Desktop. Et ceci sans avoir à démultiplier les outils de gestion, ou former les utilisateurs sur des environnements différents. Cerise sur le gâteau : les licences Microsoft 365 peuvent être utilisées indifféremment sur les ordinateurs physiques ou sur la solution virtuelle de Microsoft, sans sortir des clous. Basculer ses utilisateurs n’a jamais été aussi simple.

Des usages à tous les étages

Et côté finances ? Pour des usages simples, tels que la bureautique, le bureau virtuel est idéal, car il tire le maximum de bénéfice de la mutualisation des ressources. Dans les faits, vous faites tourner une seule machine partagée entre plusieurs utilisateurs. Le système en tant que tel n’est pas démultiplié, et seules les applications lancées par les utilisateurs viennent consommer des ressources supplémentaires. Assez logiquement, plus vous additionnez les sessions sur une machine, plus l’effet de mutualisation joue.

Mais Azure Virtual Desktop ne se limite pas aux usages basiques. Car Microsoft a encore su tirer avantage de sa maîtrise de Windows et des logiciels Office. Les observateurs les plus perspicaces auront remarqué l’arrivée récente d’optimisations VDI (Virtual Desktop Infrastructure) dans Teams. Ce qui signifie que le logiciel leader de la collaboration s’intègre parfaitement sur Azure Virtual Desktop. Et fait sauter une des limitations propres aux bureaux virtuels : l’impossibilité de faire des visio-conférences confortables.

La mise à disposition encore plus récente d’instances « GPU » (dotées de processeurs graphiques puissants) ouvre même la voie à des usages extrêmes, impensables il y a encore quelques années. A moins d’avoir un budget IT conséquent et des connaissances en rapport. Combinées à des performances réseau de premier ordre, avec des latences si faibles que la réactivité des bureaux se rapproche de celle de postes physiques, le champ des possibles semble sans limite.

Pour parachever ce tableau, Microsoft a produit un effort particulier pour améliorer la fameuse « expérience utilisateur ». Ceux d’entre vous qui ont déjà eu l’occasion de travailler avec ces technologies ont probablement expérimenté le logiciel Bureau à Distance de Windows. Vieillot, peu pratique, il fallait faire avec. Mais ça, c’était avant. Avec Windows App, l’accès à des bureaux virtuels devient simple et efficace. Et fonctionne de manière similaire sur toutes les plateformes : PC, Mac, Android, iPhone/iPad. Et avec la même protection.

Bureau virtuel - Windows App connecte Azure Virtual Desktop

L’application Windows App en action

Résistance, fiabilité et sécurité

C’est en effet le dernier point qui fait du bureau virtuel Azure un incontournable : la sécurité. Primo, la solution intègre de facto la double authentification MFA de Microsoft. Sans option, sans coût supplémentaire, et de façon uniforme. Vous fixez ainsi les mêmes prérequis de sécurité, peu importe que vous utilisiez un appareil physique ou un bureau virtuel. Deuzio, Azure Virtual Desktop est un service géré en partie par Microsoft. Ce qui fait que le point d’accès à ce service (là où votre application se connecte) est géré et surveillé par Microsoft. Avec l’armée d’ingénieurs et la puissance d’IA nécessaires pour cela.

Enfin, Azure Virtual Desktop ajoute une dose de fiabilité et de flexibilité sans égal. En particulier, vos serveurs de bureaux virtuels peuvent être répliqués automatiquement entre deux régions, vous mettant à l’abri d’une panne majeure dans un centre de données. Et si j’emploie le terme « vos serveurs », c’est à juste titre : la plateforme intègre aussi des mécanismes de mise à l’échelle, qui augmentent ou diminuent le nombre de serveurs nécessaires en fonction de la charge. Automatiquement. Ce genre de fonction est particulièrement attractive pour absorber des pics d’utilisateurs, dans l’événementiel par exemple.

On passera sur les facilités de gestion offertes par Azure Virtual Desktop, qui ne regardent finalement que l’exploitant et pas l’utilisateur final. Et qui pourtant font aussi la différence. Non, gardons plutôt en tête l’essentiel. Qu’on soit fan ou pas de Microsoft, il faut admettre leur capacité à développer des solutions qui ont du sens. Et in fine à orienter le marché vers celles-ci. Tout en redéfinissant les standards en termes d’usage, de sécurité, de flexibilité et de coûts. A ce titre, l’offre de bureau virtuel Azure Virtual Desktop est un exemple criant.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Les screenshots, c’est bien. Une vraie démo, c’est mieux. Contactez-nous pour en avoir le coeur net !

Depuis qu’Internet existe, ce réseau mondial exploite des noms de domaine pour faciliter la vie des utilisateurs. Les entreprises s’en sont progressivement emparées pour assoir leur présence sur la toile. E-mails, sites Web, commerce en ligne : toute l’activité numérique repose aujourd’hui sur les noms de domaine. Cette ressource semble donc cruciale. Alors qu’arriverait-il en cas de piratage ?

Avez-vous déjà rencontré le terme DNS au gré de vos lectures ou de conversations avec votre informaticien ? Ce terme (Domain Name System) désigne le système qui permet de répondre aux requêtes adressées à un nom de domaine. Il est présent à l’échelle mondiale, puisque tout nom de domaine doit pouvoir être accessible depuis n’importe quel point du globe : j’exclus ici quelques pays à l’Internet exotique, tels que la Chine ou la Corée du Nord.

Nom de domaine : le B-A-BA

Concrètement, lorsque vous choisissez un nom de domaine, vous commencez par vérifier qu’il est disponible. S’agissant d’un système global, chaque nom est unique. Puis vous le réservez, ce qui fait de vous son propriétaire. Il n’est alors plus réservable par qui que ce soit d’autre. Mais pour l’exploiter, vous devez alors le faire héberger. C’est à ce stade que le système sait que votre nom de domaine existe, et où il se trouve.

Cet hébergement sera en charge de répondre aux requêtes, par exemple pour atteindre votre site web sur www.monnomdedomaine.ch, en traduisant un nom intelligible en une adresse IP ou toute autre information technique. Evidemment, vous ne faites pas ces requêtes manuellement, les logiciels que vous utilisez le font pour vous, de manière transparente. Les informaticiens, eux, lancent parfois ces requêtes à la main pour des investigations techniques. Mais ces informations sont accessibles à tout le monde.

Sous Windows, la manipulation est simple : touches Windows + R, commande « cmd » puis Entrée, puis commande « nslookup www.steel-blue.ch » pour savoir où se trouve notre site Web !

L’hébergement d’un nom de domaine contient de nombreuses informations, en relation avec les services que vous exploitez sur Internet. On y trouve donc l’adresse de votre site Web, mais aussi la localisation de votre serveur de messagerie, ou des informations de protection des emails. Autrement dit, ce système est vital pour votre entreprise. Et en fait, il est vital pour tout Internet. En 2021, les serveurs DNS de Facebook sont devenus inaccessibles, provoquant une panne mondiale de cette application.

Un piratage aux conséquences lourdes

Si l’hébergement DNS de votre nom de domaine était lui aussi en panne, vous seriez probablement incapable de travailler. Cet hébergement est donc primordial pour la bonne marche de vos services numériques. Et la fiabilité de votre hébergeur est donc critique en la matière, Mais son piratage peut conduire à des conséquences encore plus graves. Car vos services, et donc les informations qui s’y trouvent, pourraient tout simplement être détournés. Comment ?

Imaginons que vous n’ayez pas protégé correctement le compte qui vous permet de gérer votre nom de domaine, chez Infomaniak ou tout autre hébergeur. En négligeant la mise en place d’un mot de passe fort ou d’une double authentification par exemple. Un pirate pourrait donc en prendre le contrôle facilement, et modifier votre nom de domaine. En redirigeant votre site Web ou vos e-mails, au moins temporairement.

Détourner un simple nom de domaine permet de s’emparer de tous vos services – site Web ou e-mails – et donc d’usurper l’identité de votre société et de vos utilisateurs

Quel intérêt ? Supposons que je prépare une attaque sur le détenteur de mononmdomaine.ch. Et que le but de cette attaque consiste à lancer des ordres de virement bancaires frauduleux. Je vais commencer par collecter le plus d’informations possibles sur ma cible, afin de rendre les ordres plausibles. Et le moment venu, le contrôle sur le nom de domaine me permettra de détourner les e-mails et le site Web là où je veux, en usurpant le propriétaire au moins temporairement. Et d’envoyer ou de recevoir des messages à son nom.

Une protection parfois oubliée

La prise de contrôle de l’hébergement d’un nom de domaine peut donc permettre la collecte frauduleuse de données ou l’exploitation illégale des services Internet d’une entreprise. Mais aussi servir de support à des attaques par hameçonnage, en les rendant d’autant plus crédibles que le véritable nom de domaine est utilisé. N’oublions pas que la meilleure façon d’identifier une attaque de phishing consiste à vérifier les adresses e-mail ou les liens contenus dans le message, qui s’appuient souvent sur des noms de domaine farfelus. Mais pas dans le cas qui nous intéresse, ce qui rend la détection plus complexe.

Pirater l’hébergement d’un nom de domaine apparaît clairement comme une porte d’entrée accessible et efficace pour attaquer une entreprise. Mais des parades existent. Evidemment, il faudra commencer par sécuriser le compte d’accès à votre hébergement : mot de passe unique et complexe, activation de la double authentification. Les hébergeurs mettent aussi en place des garde-fous, comme les messages de notification ou de validation des connexions à leur hébergement.

Si elle est souvent négligée, la sécurité des noms de domaine ne doit donc pourtant pas être prise à la légère. Un piratage peut non seulement perturber vos opérations, mais aussi nuire à la réputation de votre entreprise ou impliquer des conséquences financières sévères. En mettant en place des mesures de sécurité robustes et en surveillant régulièrement vos systèmes, vous pouvez protéger efficacement vos actifs numériques et maintenir la confiance de vos clients. Et éviter de perdre votre nom de domaine.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Faites le tri dans vos noms de domaine. Contactez-nous !