Autonomiser les développeurs à la pointe à l’ère de l’informatique décentralisée

Autonomiser les développeurs à la pointe à l’ère de l’informatique décentralisée

Ravi est SVP of Engineering et CTO chez Base de canapé, superviser le développement et la livraison de la base de données moderne de Couchbase pour les applications d’entreprise.

La décentralisation comporte une série d’avantages. La concentration de l’autorité en une seule entité tend à inhiber la prise de décision, l’innovation et la diversification. Viser plutôt l’approche opposée peut réduire le fardeau au sommet, en ouvrant davantage de voies de décision, en prévenant les goulots d’étranglement et, en fin de compte, en accélérant la prise de décision.

Lorsqu’elle est bien faite, la décentralisation peut stimuler la croissance et l’efficacité, il n’est donc peut-être pas surprenant que cela ait été la direction des systèmes informatiques pendant un certain temps.

La question est la suivante : comment garantir que les développeurs d’applications disposent des outils et de l’infrastructure dont ils ont besoin pour créer des expériences utilisateur de plus en plus sophistiquées ? Si la décentralisation ouvre de nouvelles opportunités, elle présente également certains défis. L’avenir de l’informatique exigera que les données soient gérées de manière transparente où qu’elles se trouvent, sur un serveur, dans le cloud ou à la périphérie.

L’histoire jusqu’ici

L’histoire de l’informatique est un voyage progressif vers la décentralisation. Dans les années 1960, le modèle dominant était l’informatique centrale. Ces machines monolithiques et centralisées étaient utilisées presque exclusivement par les relativement rares grandes organisations qui pouvaient se les offrir.

Puis vint l’ère du client/serveur, qui a démocratisé l’informatique à un plus grand nombre d’entreprises. Il a permis la distribution sur une flotte de machines plus petites et relativement peu coûteuses, qui pouvaient alors effectuer le travail informatique qui n’était autrefois possible que dans un ordinateur central centralisé.

Avancez encore une décennie ou deux, et nous obtenons le cloud computing qui a propulsé le modèle client/serveur dans le 21e siècle. Grâce à la puissance des connexions Internet haut débit et du haut débit mobile ultrarapide, les ressources informatiques hébergées dans des centres de données centralisés sont accessibles par des ordinateurs portables, des appareils mobiles, des postes de travail et d’autres machines situés à des centaines ou des milliers de kilomètres. La révolution du cloud a changé l’informatique pour toujours, et cela ne fera que continuer, les organisations mondiales devant investir plus de 494 milliards de dollars dans les services de cloud public cette année, en hausse de 21 % en 2021.

Même les applications elles-mêmes sont de plus en plus décentralisées grâce à la tendance à la composabilité. Les entreprises évitent de plus en plus les architectures monolithiques au profit de la création d’applications et d’infrastructures à partir de petits composants. L’idée est de favoriser une plus grande agilité et de faciliter la création d’applications et d’expériences, même pour les spécialistes non techniques, qui répondent aux demandes en évolution rapide du marché.

Quel chemin vers le bord ?

Malgré la tendance générale vers une informatique plus décentralisée, il existe des mises en garde importantes. Nous faisons peut-être un bon travail de décentralisation du matériel, mais le logiciel doit rattraper son retard.

Par exemple, les smartphones actuels ne sont pas utilisés à leur plein potentiel de calcul et de stockage, fonctionnant essentiellement comme des dispositifs de rendu d’interface utilisateur, toutes leurs applications étant généralement centralisées sur un serveur cloud. Cela apporte avec lui ses propres défis.

À mesure que les applications deviennent plus complexes, davantage de données sont centralisées pour piloter les fonctionnalités. Mais cela crée des problèmes de latence. Le cloud computing peut sembler magique pour de nombreux utilisateurs finaux, mais la vérité est qu’il doit toujours obéir aux lois de la physique. Cela signifie que plus la distance que les données doivent parcourir entre l’appareil utilisateur et le serveur est longue, plus le décalage potentiel est important.

Le voyage est encore plus lent car les données doivent passer par plusieurs passerelles de sécurité sur leur route vers le serveur cloud. Bien qu’ils soient essentiels à la gestion des risques liés à la cybersécurité, ils peuvent encore nuire à l’expérience utilisateur. C’est particulièrement remarquable sur les applications sensibles à la latence comme les jeux, le streaming et même le trading informatisé.

C’est la réalité pour laquelle l’informatique de pointe a été conçue. Les réseaux périphériques représenteront plus de 60 % de toutes les infrastructures cloud déployées d’ici 2023, selon IDC, et l’idée est très simple : pousser les capacités de calcul et de stockage de données vers la périphérie du réseau afin qu’elles soient plus proches des utilisateurs, des appareils et des applications. Combiné à la connectivité 5G, cela contribuera à réduire la latence et à prendre en charge des cas d’utilisation de bande passante plus élevés, tels que la conduite autonome et l’infrastructure de ville intelligente.

La continuité et le contrôle sont essentiels.

Le premier défi avec la périphérie est que la plupart des implémentations actuelles nécessitent toujours que les appareils se connectent à un serveur centralisé, ce qui compromet les principaux avantages associés à la technologie. Heureusement, “edge 2.0” apportera avec lui des appareils de périphérie plus puissants avec des bases de données intégrées capables de traiter et d’analyser les données localement et de fonctionner entièrement hors ligne. Cela aidera à piloter les applications innovantes que nous attendons tous de voir.

La même technologie de base de données doit également être en mesure d’atténuer les risques de conflit de données, qui augmentent dans les environnements distribués. Plus les données cloud sont dispersées, plus il est important qu’elles soient cohérentes. De cette façon, si plusieurs utilisateurs essaient d’accéder ou de modifier les mêmes données en même temps, tout est synchronisé.

La sécurité et la gouvernance sont également des considérations clés. Lorsque vous travaillez sur une grande surface de données, il est important de contrôler autant que possible où ces données sont stockées, afin qu’elles puissent être correctement sécurisées.

Le copier sur un système de streaming ou un entrepôt de données, par exemple, ne fera que multiplier ces données et les rendre plus difficiles à gérer. Mieux vaut apporter le calcul aux données et trouver un moyen de sécuriser ces données sur le fil, à la périphérie et dans la base de données, afin de pouvoir décentraliser sans perdre le contrôle.

Le voyage vers la décentralisation remonte déjà à plusieurs décennies, et cette dernière étape prendra encore plusieurs années pour se concrétiser. Il est important que les parties prenantes prennent leur temps pour bien faire les choses et mettent l’infrastructure en place pour atténuer ces défis avant que les développeurs ne se mettent au travail.

Pour y parvenir, une priorité à considérer est les investissements dans les systèmes de gestion des données qui fonctionnent dans le cloud, dans les centres de données en périphérie et éventuellement dans les appareils en périphérie. Cette continuité aidera finalement les développeurs à libérer leur énergie créative et nous propulsera dans une nouvelle ère de transformation numérique.


Forbes Technology Council est une communauté sur invitation uniquement pour les DSI, les CTO et les cadres technologiques de classe mondiale. Suis-je éligible ?


Leave a Reply

Your email address will not be published.