New Tech en détail

Big Data

Tout l’écosystème numérique peut se résumer à une seule chose : les données. Les données sont parfois aussi appelées l’or ou le pétrole du XXIe siècle.

Les progrès dans la société sont souvent graduels, à l’exception d’un catalyseur occasionnel qui déclenche une révolution. C’est ce qui s’est produit à la fin des années 1850, lorsque la découverte du pétrole brut a déclenché une réaction en chaîne en matière d’innovation, stimulant le développement de l’économie moderne dans les années 1900.

À partir des années 1940, une découverte tout aussi importante a été faite avec l’ordinateur électronique. En 1990, internet a vu le jour et a été le catalyseur de l’ère numérique.

L’expansion de la connectivité au cours de la dernière décennie a contribué à une accélération dans la création de données. Il fut un temps où les données étaient physiques : des dossiers étaient conservés dans des armoires et les feuilles de calcul étaient sauvegardées sur des disques durs. Puis vint le lancement de l’iPhone, exactement au moment où les médias sociaux étaient en plein essor et où les services cloud faisaient leur apparition. Ce trio d’événements a marqué le début de ce que nous voyons aujourd’hui : les individus sont connectés en permanence et joignables partout.

Aujourd’hui, le smartphone est devenu un outil de base dans les sociétés développées du monde entier et des tonnes de données sont créées. Il en existe de tous types et de toutes les formes : textes, e-mails, publications sur les médias sociaux... Plus le temps passe, plus on crée de points de données. Cette croissance est exponentielle et l’International Data Corporation (IDC), un bureau d’études de marché de renommée internationale, prévoit que d’ici 2025, la quantité de données mondiales aura quadruplé par rapport à 2020 et atteindra 175 zettaoctets (1 zettaoctet correspond à 1 000 milliards de gigaoctets).

Cette explosion des données s’accompagne toutefois de défis majeurs. D’un côté, l’adoption des médias sociaux, le cloud, la mobilité et l’Internet des objets (75 milliards d’appareils connectés en 2020) génèrent des données structurées, qui permettent de réaliser plus facilement des analyses. Mais d’un autre côté, la majeure partie des données est constituée de données non structurées (mails, tweets, posts Facebook,...), ce qui rend les analyses et les calculs d’intelligence artificielle beaucoup plus complexes. Sur la quantité totale de données, 80 % se situent dans la catégorie des données non structurées. 

Bron: IBM

Internet of Things (IoT)

Comme nous venons de l’expliquer, l’évolution vers l’IoT, à savoir un réseau d’objets physiques qui sont connectés entre eux et échangent des données via internet, contribue à une augmentation accélérée de la quantité de données. En 2020, 75 milliards d’appareils étaient connectés à internet. La technologie 5G (nous y reviendrons plus tard) va permettre de connecter un plus grand nombre d’appareils, ce qui entraînera une explosion des données. Ces appareils sont tous alimentés par les semi-conducteurs. Chaque IoT connecté ou IoT industriel (IIoT) contient des puces avancées qui peuvent connecter à distance des appareils avec une faible consommation d’énergie. Et comme le segment IoT est prêt pour une croissance rapide, l’industrie des semi-conducteurs suivra la même tendance. 

Semi-conducteurs

Outre les possibilités offertes par les données pour l’économie mondiale, il faut du matériel pour faciliter l’infrastructure autour des données et les calculs réalisés avec les données. Le segment de l’écosystème technologique qui y contribue est celui des semi-conducteurs.

Sans ces matières premières de l’évolution numérique, l’économie ne pourrait pas se développer. 

Opportunité

La plus grande opportunité pour l’industrie des semi-conducteurs réside dans les secteurs de la communication sans fil (bleu dans le graphique ci-dessous) et de l’informatique (calculs) (jaune dans ce même graphique). Comme le montre ce graphique, ces deux secteurs représentent aussi la part la plus importante du segment des semi-conducteurs et ont connu la plus forte croissance au cours de l’année dernière grâce à l’évolution de la 5G et du cloud computing. Nous pensons que cette tendance se poursuivra au cours des années à venir. Bien que le secteur des semi-conducteurs ait aujourd’hui le vent en poupe, ce segment reste cyclique par nature. C’est pourquoi il est important de limiter la cyclicité dans les investissements à long terme, en cherchant des sociétés qui n’y sont pas (ou moins) sensibles.

Les entreprises de puces à grande puissance de calcul (haute performance) et de communication sans fil vont pouvoir profiter.

Par ailleurs, le secteur automobile reste une industrie importante pour les puces, car l’électronique, dont les puces sont un élément essentiel, représente désormais 40 % du coût total de la voiture (voir la figure ci-dessous).

L’importance des semi-conducteurs dans l’écosystème numérique a connu une accélération avec la pandémie de coronavirus, vu que tout est de plus en plus connecté. Les trois tendances numériques qui doivent être alimentées par les puces sont le cloud computing, la 5G et l’intelligence artificielle (IA). Ces concepts permettent de franchir l’étape suivante dans l’évolution technologique, qui sera expliquée plus en détail dans les paragraphes suivants.

Cloud computing

Comme expliqué dans le chapitre sur le Big Data, les données sont devenues un atout majeur. Les entreprises sont parties à la recherche d’un moyen de stocker l’énorme quantité de données, de les rendre facilement accessibles et de pouvoir effectuer des calculs mathématiques avec ces données. Ces calculs nécessitent une grande puissance de calcul (computing). C’est ainsi qu’est né le concept de « cloud computing ».

Le cloud computing est un réseau mondial de serveurs externes (centres de données) qui fonctionnent comme un seul écosystème et offrent cette grande puissance de calcul. Il permet de stocker des données et d’accéder à des programmes et des applications via internet. Les exemples les plus connus du cloud computing sont Infrastructure as a Service (IaaS), Platform as a Service (PaaS) et Software as a Service (SaaS), où les entreprises (en tant que clients) peuvent choisir d’installer ces services via une option publique, hybride ou privée.

Types d’infrastructures

Il existe plusieurs manières de tirer parti des avantages infinis du cloud computing. L’infrastructure peut être classée en trois types :

  • Le cloud public (réseau de centres de données ou internet) : cloud computing qui est fourni par internet et partagé par des organisations du monde entier. Il offre un grand espace de stockage de données et une forte puissance de calcul.
  • Le cloud privé (centre de données privé) : cloud computing dédié exclusivement à une organisation. Ce concept offre un plus petit espace de stockage des données et une puissance de calcul inférieure à celle du cloud public, mais il est nécessaire pour franchir la prochaine étape du cycle numérique (voir le chapitre sur la 5G).
  • Le cloud hybride : il s’agit d’une combinaison du cloud public et privé. Les entreprises peuvent choisir le pourcentage à allouer au cloud public ou privé. Si elles ont besoin d’une grande puissance de calcul et de beaucoup d’espace de stockage, elles vont acheter davantage de services auprès de fournisseurs de cloud public.

Selon Gartner, 80 % des entreprises disposeront d’une infrastructure basée sur le cloud d’ici 2025, la moitié d’entre elles optant pour la solution du cloud public et l’autre moitié, pour la solution hybride.

Marché du cloud computing

Comme expliqué plus haut, le cloud met à disposition une base de données mondiale dans laquelle des données sont stockées et où des calculs peuvent être réalisés. Cet écosystème commence avec les entreprises de type IaaS (Infrastructure as a Service) qui fournissent la base, à savoir l’infrastructure informatique. Les entreprises de type PaaS (Platform as a Service), qui fournissent des plateformes et des outils de développement, peuvent bénéficier de ces services. Enfin, la plus grande opportunité réside dans les développeurs logiciels, car ils peuvent maintenir une structure de coûts minimale. Les entreprises de type SaaS (Software as a Service) utilisent les services de location des entreprises IaaS et PaaS.

Connexion internet mobile : 5G

Comme nous venons de le voir, la découverte du cloud computing a déjà provoqué une révolution technologique, mais pour que l’évolution numérique passe encore à la vitesse supérieure, le cloud computing doit être accompagné de la 5G. Ce concept veille à ce que tout soit connecté par internet, non seulement les personnes, mais aussi les appareils (Internet-of-Things). Il permet en outre à la numérisation dans des applications stratégiques, telles que les soins de santé, l’industrie et le secteur automobile, d’atteindre de nouveaux sommets.

Nous allons tout d’abord expliquer les points d’amélioration par rapport à la 4G et nous donnerons ensuite quelques explications sur la manière dont le cloud computing et la 5G sont liés.

La 5G par rapport à la 4G

Par rapport à la technologie 4G, la 5G offre une plus grande capacité de réseau, une vitesse plus élevée, une latence plus faible et une plus grande fiabilité.

Par capacité de réseau, on entend la bande passante. Pour mieux comprendre ce qu’est la bande passante, comparons-la à l’eau qui coule dans une canalisation. Des tuyaux plus larges peuvent laisser passer plus d’eau que des tuyaux plus étroits. Donc, plus de bande passante équivaut à plus de données qui peuvent être envoyées à un moment précis. La capacité du réseau 5G serait 100 fois supérieure, ce qui correspond à la connexion supplémentaire d’un million d’appareils par km².

La 5G garantirait aussi une vitesse d’internet 100 fois plus rapide qu’avec la 4G. Une autre vitesse qu’il convient par contre de maintenir aussi basse que possible est la latence. C’est le temps nécessaire pour qu’une demande soit transmise de l’expéditeur au destinataire et soit traitée par ce dernier. Avec la 5G, cela représente 1 milliseconde, soit 20 fois moins qu’avec la technologie 4G.

Un autre aspect très important de la technologie 5G est la fiabilité du réseau. À cette fin, un concept a vu le jour, appelé « network slicing ». Le mot parle de lui-même : l’ensemble du réseau est scindé en plusieurs réseaux distincts plus petits afin de mieux contrôler la vitesse (de latence) et la capacité. Ce qui rend la communication entre les personnes, mais aussi les objets (Internet of Things (IoT)) plus fiable.

Tous ces aspects revêtent une importance cruciale si l’on veut franchir la prochaine étape du cycle numérique, comme avec les voitures autonomes. En effet, ces dernières ne peuvent à aucun moment connaître une interruption de la connexion ou un retard de réaction.

Opportunités

La 5G est un concept beaucoup plus large que la 4G. La technologie 4G consistait pour l’essentiel à connecter des personnes entre elles au moyen des smartphones. La 5G, quant à elle, permet de tout connecter, non seulement les personnes, mais aussi les appareils, ce que l’on appelle aussi l’Internet des objets ou Internet-of-Things. D’une manière générale, nous nous trouvons dans un processus continu de numérisation dans tous les secteurs de l’économie, ce qui permet de passer à l’étape suivante : l’« Edge computing ». Un exemple spécifique permettra de clarifier la disruption technologique actuelle.

Dans la technologie 4G, tout se fait avec votre téléphone. Mais ce que la plupart des gens ignorent, c’est que tout le travail s’effectue derrière les écrans. Tous les calculs sont réalisés dans le cloud central (cloud computing). Mais l’un des grands avantages de la technologie 5G est sa faible latence. Tout le monde souhaite en effet une expérience encore plus en temps réel, ce qui signifie techniquement qu’il faut déplacer la charge de travail plus près de la périphérie du cloud (« edge »). De ce fait, tout, y compris les calculs, est rapproché des utilisateurs finaux. 

Edgecomputing

L’edge computing désigne la pratique qui consiste à amener la puissance de calcul et les sources de stockage des centres de données du cloud vers un appareil IoT ou un centre de données local plus petit (gateway) (voir image ci-dessous). Cela permet de traiter les données là où elles sont générées. L’appareil IoT peut être un smartphone, une caméra de sécurité, un thermostat, un robot ou une voiture autonome. La taille n’a pas d’importance. Tout peut être considéré comme un appareil périphérique (edge), à condition qu’une partie des calculs basés sur l’intelligence artificielle puisse être effectuée localement.

L’acheminement de la puissance de calcul à la périphérie (edge) a pour objectif principal de minimiser la vitesse de latence en réduisant le temps dont les données ont besoin pour se déplacer entre l’appareil IoT et le cloud. De nombreux secteurs stratégiques et critiques en termes de temps, tels que l’automobile, les soins de santé ou l’industrie, ne peuvent pas se fier à la connectivité avec le cloud pour des questions de sécurité. L’edge computing représente de ce fait une grande opportunité pour ces secteurs. Il offre en outre des avantages supplémentaires tels que la protection des données, la réduction des coûts opérationnels et la sécurité.

Intelligence artificielle (IA)

Tous les concepts de l’écosystème technologique que l’on vient de citer ont une chose en commun. Ils facilitent la plus grande opportunité pour l’économie mondiale : l’intelligence artificielle. Avec des consommateurs et des appareils de plus en plus connectés, des puces plus puissantes, un accès internet plus rapide et une infrastructure mondiale de cloud computing et 5G en pleine expansion, l’IA connaît une forte croissance. Ce concept contribue à une transformation technologique radicale qui va toucher tous les segments de l’économie mondiale.

Selon le cabinet de conseil international PwC, l’IA est considérée comme un « game changer ». Le PIB mondial pourrait par ce biais augmenter de 14 % supplémentaires d’ici à 2030, soit l’équivalent de 15 700 milliards de dollars supplémentaires. Cette valeur ajoutée est supérieure au PIB actuel de la Chine et de l’Inde réunies. De ce montant, 42 % proviendraient d’une augmentation de la productivité (industrie) et 58 % des biens et services liés à la consommation. Les consultants de Mckinsey & Company estiment eux aussi que les technologies de l’IA ont le potentiel de créer une valeur ajoutée de 3 500 à 5 800 milliards de dollars par an dans 19 industries. Par ailleurs, l’utilisation du « machine learning » dans le secteur des services financiers pourrait permettre de réaliser 1 000 milliards de dollars d’économies d’ici 2030.

En résumé, l’intelligence artificielle connaîtra une croissance sans précédent et les opportunités sont infinies. Nous allons à présent nous pencher sur la signification de l’IA, sur la manière dont fonctionne le machine learning (ML) / deep learning ainsi que sur l’évolution de cette technologie.

Qu’est-ce que l’intelligence artificielle (IA) ?

L’intelligence artificielle est un terme générique qui désigne le matériel et les logiciels qui imitent les fonctions cognitives de l’homme et prennent des décisions sur la base d’informations provenant de l’environnement. Elle est destinée aux applications pour lesquelles les modèles mathématiques traditionnels sont inefficaces. Les applications modernes d’IA ont conduit, d’une part, au développement du traitement du langage naturel, qui donne à une machine la capacité de comprendre le langage humain et de communiquer. D’autre part, la vision par ordinateur pourrait à terme conduire au développement de véhicules autonomes.

En outre, comme on peut le constater sur la figure ci-dessous, l’IA est basée sur des algorithmes de machine learning (ML) et de deep learning.

Le machine learning ou apprentissage automatique permet à l’ordinateur d’apprendre à effectuer lui-même une tâche et d’améliorer sa précision au fil du temps. Ce processus est facilité par des algorithmes mathématiques et de grands ensembles de données. En principe, le machine learning correspond au concept selon lequel les personnes apprennent en interagissant avec leur environnement sur la base des connaissances acquises et des expériences du passé.

Un peu plus loin dans la chaîne, on trouve le deep learning. Il s’agit d’une forme avancée de machine learning, qui utilise des réseaux neuronaux multicouches pour simuler les processus de pensée humains. Ces réseaux sont constitués de petits nœuds informatiques qui fonctionnent comme les synapses du cerveau humain. La reconnaissance vocale et d’images ainsi que le traitement du langage naturel sont des exemples d’applications de deep learning. 

Comment fonctionne le machine learning (ML) / deep learning ?

Il s’agit d’un processus en deux phases  :

  1. La phase d’entraînement : un modèle entraîné est créé dans le cloud en l’alimentant avec un grand ensemble de données à classer. Sur cet ensemble de données, on fait tourner un algorithme qui donne un premier résultat. Ce processus est affiné jusqu’à ce que les résultats souhaités soient atteints. La phase d’entraînement est une tâche de longue durée qui requiert une grande puissance de calcul.
  2. La phase d’inférence (« inference ») : le système de machine learning peut exécuter le modèle final entraîné comme une application pour analyser et classer de nouvelles données et en tirer un résultat encore mieux affiné. Cette étape nécessite beaucoup moins de puissance de traitement.

Aujourd’hui, la plupart des phases d’inférence et d’entraînement sont réalisées dans le cloud. Un exemple va permettre de clarifier tout ce processus. Lorsque l’utilisateur soumet une demande à Siri (modèle entraîné) sur l’iPhone, cette demande est envoyée à un centre de données (cloud public) où aura lieu l’inférence et, dans la seconde qui suit, la réponse correspondante sera renvoyée à l’appareil.

Évolution

Comme nous l’avons déjà expliqué, les technologies d’intelligence artificielle sont devenues un puissant moyen de créer de la valeur pour les entreprises. De nombreuses applications d’IA sont déjà utilisées à grande échelle. Parmi les exemples, on peut citer les analyses prédictives qui permettent d’afficher des recommandations sur les réseaux sociaux et les plateformes de streaming, ou la reconnaissance faciale et vocale dans les smartphones et les assistants vocaux. En 2017, 99 % du matériel semi-conducteur lié à l’IA était centralisé dans le cloud. Et ce marché représentait une valeur d’environ 5,5 milliards de dollars.

Mais comme les capteurs et les technologies informatiques continuent d’évoluer et deviennent plus abordables, l’intelligence artificielle se répand dans des secteurs tels que l’industrie automobile, l’automatisation industrielle et les soins de santé. Ces applications exigent une faible latence, une sécurité renforcée et une protection des données, ce que les architectures actuelles de cloud computing n’offrent pas. Par conséquent, nous allons évoluer vers un paysage plus décentralisé, où les possibilités de calcul de l’IA vont augmenter et seront transférées vers des centres de données locaux (cloud privé) et des nœuds de l’Internet-of-Things. Rappelez-vous le nouveau paradigme : « edge omputing » du chapitre 5G.

La conséquence de cette évolution est qu’il sera possible de créer de nouvelles applications et que de nouvelles technologies pourront se profiler à l’avenir. Il suffit de penser à la réalité virtuelle (VR), à la réalité augmentée (AR : une image en direct de la réalité à laquelle des éléments sont ajoutés par un ordinateur), aux jeux mobiles, à l’impression 3D, aux paiements numériques et aux voitures autonomes. Les voitures deviennent de plus en plus intelligentes. Elles doivent apprendre à reconnaître tout leur environnement, ce qui est facilité par le machine learning. Chaque nouveau point de données veille à rendre les voitures plus intelligentes. Par points de données, on entend la voiture qui se trouve à côté de vous, les feux de signalisation, les personnes marchant derrière ou devant la voiture et bien plus encore.