Sous-réseaux et VLAN

Lorsqu’une entreprise ou une société possède un parc ou un réseau informatique conséquent, très rapidement un besoin se fera sentir pour subdiviser ce grand réseau en petits réseaux séparés indépendants offrant une infrastructure plus gérable et plus organisée. Le besoin le plus évidant est bien sûr l’organisation et la simplification de gestion. Mais en plus de ça, ça va aussi aider à hausser le degré de confidentialité des données et de la sécurité du réseau. Ça va aussi améliorer les performances du réseau avec une réduction dans la collision des paquets. Faciliter le déploiement logiciel et l’intégration de services de stockage, impression, et backup. Et encore d’autres avantages.

Subnet vs LANs

Deux types de segmentation de réseaux locaux existes. La subdivision en Subnet. Une technique qui se base principalement sur la configuration des adresse IP des machines du sous-réseaux. De l’utilisation d’un Switch basique ou un hub pour chaque sous-réseau. Et l’utilisation des routeurs pour la communication inter-réseau. Le deuxième cas de figure sont les VLAN, ou les sous-réseaux virtuels. Dans ce cas, la configuration des adresses IP des machines est minimale, mais ça exige un Switch évolué. Le Switch est le principal responsable de la subdivision des sous-réseaux, et il doit être configuré en conséquence. 

La vidéo en haut est celle de l’excellente chaîne YouTube PowerCert Animated Videos, spécialisée dans la production de contenu éducatif concernant les réseaux informatiques

Adresse réseau MAC

Le fonctionnement des réseaux informatiques à un bas niveau, ça veut dire à un niveau proche de la transmission électrique, là où les protocoles essentiels et élémentaires formant l’infrastructure basique qui va construire cet immense réseau d’Internet. On trouve principalement 2 formes d’adresses pour distinguer une entité dans le réseau. La plus connue est sans doute l’adresse IP, c’est principalement l’adresse qui va distinguer votre ordinateur parmi des millions d’ordinateurs sur l’ensemble d’internet. C’est une adresse dite logique, parce qu’elle n’est pas fixe à la machine, et change souvent car elle est en général affectée par le fournisseur d’accès à Internet ISP. La 2e forme d’adresse est l’adresse MAC, et contrairement à l’adresse IP cette adresse est fixe à la machine et ne théoriquement pas être changée. Cette adresse est généralement appelée l’adresse physique, et plus précisément elle se trouve gravée sur la carte réseau (le NIC) de la machine. Contrairement à l’adresse IP, L’adresse MAC est normalement utilisée pour reconnaître les machines locales dans le même réseau, les machines qui ont une connexion physique directe, comme par exemple les ordinateurs, les téléphones, les tablettes connectés au même routeur dans la maison. Dans le réseau local, une machine doit avoir les 2 adresses en même temps, et c’est le protocole ARP qui permet de faire la liaison entre ces 2 adresses en détenant une base de données des adresses de toutes les machines sur le réseau. Sur la vidéo en bas de la chaîne PowerCert Animated Videos plus de détails sont donnés et la manière exacte d’utiliser ces adresses est bien expliquée.

L’adresse MAC

Le modèle OSI dans l’internet

Internet aujourd’hui est considéré comme un outil banal de communication. Mais sous cette forme de simplicité et de commodité se cache la forme la plus avancée et la plus sophistiquée de télécommunication que l’être humain n’a pu concevoir jusqu’à maintenant. L’internet d’aujourd’hui englobe des milliards de machines et d’appareils étalés sur toute la planète, Ils communiquent entre eux en utilisant des millions de kilomètres de fibre optique, des câbles en cuivre, des liaisons sans fil et satellitaires. Pour pouvoir organiser et structurer la communication dans cette structure hyper complexe et massivement connectée, les ingénieurs en songeaient à utiliser un modèle universel appelé OSI qui va garantir la connectivité, la fiabilité, et la sécurité pour la communication des différents nœuds de ce qu’on appelle aujourd’hui le web ou plus spécifiquement le WWW (World Wide Web).

Modèle OSI

La vidéo suivante de la chaîne ByteByteGo permet d’une manière simplifiée à faire comprendre le fonctionnement du modèle OSI. Le plus important dans la compréhension de ce modèle est de visualiser le processus d’encapsulation de l’information sur plusieurs couches, en sachant que l’idée globale de transmission de l’information sur internet est de découper l’information en plusieurs paquets (processus d’encapsulation), et de les déverser sur internet en les laissant libres de prendre le chemin qui jugent le plus optimal vers leurs destinations. C’est le plus simple moyen que Les ingénieurs ont trouvé pour faire transmettre l’information dans un réseau si complexe et si hétérogène. 

Chaque couche dans le modèle OSI est responsable d’une partie ou d’une fonctionnalité bien précise dans la communication à travers internet. Ainsi, la couche une est responsable d’encoder et de décoder les bits en signaux physiques, que ça soit en impulsions électriques, faisceaux photoniques, ou ondes électromagnétiques. La 2e couche est responsable de la communication point à point entre 2 nœuds sur le même médium physique de communication, que ça soit fil électrique, fibre optique, ou ondes radio. La 3e couche est responsable de la transmission des paquets d’un réseau à l’autre parcourant les réseaux hétérogènes à la recherche de la destination. La 4e couche est responsable de la reconstruction de l’ensemble du flux d’informations initial, à partir des paquets transmis. La 5e et la 6e et la 7e couche sont le plus souvent amalgamées pour représenter la partie lorsque 2 applications entrent en communication en utilisant un protocole bien précis, comme HTTP, FTP, SMTP…etc. 

La commande réseau Ping

Le réseau informatique fait désormais partie intégrante de notre vie quotidienne, qu’il soit utilisé avec PC, tablette, téléviseur, téléphone portable, console de jeux …etc. Parce qu’on a besoin que tous ces appareils soient connectés à internet. Malheureusement notre réseau informatique à domicile ou au travail n’est pas totalement protégé des pannes et de mal fonctionnement. La détection des erreurs dans les réseaux informatiques n’est pas une tâche aisée, dans la majorité des cas il faut effectuer plusieurs tests, et mener une sorte d’enquête en appliquant la déduction pour essayer de connaître la source exacte de l’erreur. Pour effectuer les tests sur les réseaux usuellement vous aurez à utiliser 2 types d’outils ; les outils matériels comme par exemple les testeurs câbles réseau, ou le Time Domain Reflectometer (dont on a déjà parlé dans cet article). Ou les outils logiciels, il y en a beaucoup, comme par exemple, ping, traceroute, ipconfig (ou ifconfig sur linux), nslookup, netstat. Dans la vidéo en bas de la chaîne PowerCert Animated Videos on va se concentrer sur le plus simple mais le premier à utiliser, c’est la commande Ping. Elle est très simple à utiliser et surtout très efficace pour trouver la source d’erreurs. 

La commande Ping

Adresse IP

Que vous soyez informaticien ou pas, à un moment ou un autre dans votre vie vous aurez à faire face à ce qu’on appelle les adresses IP. Les adresses IP impliquent le plus souvent votre réseau informatique à l’intérieur de la maison et la connexion à Internet. Ils sont généralement vus par le commun des mortels comme des nombres magiques et incompréhensibles. Mais en réalité c’est tout autre, il suffit de les représenter sous format binaire pour qu’ils deviennent très simples à utiliser.

Par définition une adresse IP est une adresse unique donnée à une machine dans un réseau informatique. Ils sont utilisés pour identifier les différentes machines et de pouvoir simplifier la communication entre elles. Ajouter à cela, le masque sous-réseau qui est un mécanisme qui permet de structurer, de hiérarchiser, et de subdiviser un grand réseau en plusieurs petits réseaux plus maniables et plus organisés. La vidéo en bas de la chaîne YouTube PowerCert est une excellente vidéo pédagogique pour faire comprendre la notion l’adresse IP pour un utilisateur lambda.

Adresses IP et masques sous-réseaux

Les plus importants protocoles sur Internet

Il est important pour tout informaticien d’avoir au minimum, un certain niveau de connaissance concernant les protocoles utilisés dans les réseaux informatiques. Les protocoles sont des mécanismes utilisés pour permettre la communication et le transfert d’information sur les réseaux informatiques et particulièrement sur Internet. La vidéo en bas traite exactement ce point en particulier, elle commence par donner une définition formelle et précise de c’est quoi un protocole réseau, et fait le parcours des principaux protocoles à absolument connaître sans autant être un spécialiste réseau.

Protocoles d’Internet.

Les protocoles abordés sont : l’ARP, le FTP, le SMTP, le HTTP, le SSL, le TLS, le HTTPS, le DNS et le DHCP, ces 9 protocoles forment le backbone ou la colonne vertébrale responsable du fonctionnement d’Internet, la vidéo fait une légère démonstration de comment ces protocoles fonctionnent et interagissent entre eux lors de l’utilisation d’Internet. Un dernier mot concernant la chaîne YouTube Practical Networking de cette vidéo, que j’estime de bonne qualité académique pour faire l’appréciation et la vulgarisation des concepts et technologies utilisées dans les réseaux informatiques.

Instruments de tests des réseaux informatiques

Il est bien connu qu’il existe une panoplie d’outils logiciels pour tester et diagnostiquer les réseaux informatiques, les outils logiciels à connaître et à plus ou moins maîtriser pour diagnostiquer un réseau sont ping, traceroute, ipconfig (ou ifconfig sur linux), nslookup, netstat, ça va vous aider à chercher et de trouver les problèmes logiques dans votre réseau, le plus commun des anomalies, c’est les mauvaises configurations sur l’une des couches TCP/IP, ou le mal fonctionnement de l’un des services réseaux. Par contre le problème devient plus difficile à détecter si ça vient du matériel, en l’occurrence, du câblage, des ports, des switchs, des routeurs, des hubs, des passerelles…etc, dans ce cas de figure, il faut utiliser les outils physiques matériels pour faire le diagnostic. Plusieurs instruments sont exposés sur la vidéo suivante, c’est une très bonne vidéo de la chaîne de PowerCert Animated, le fonctionnement des outils est très bien expliqué ainsi que leurs principes de fonctionnement.

Outil de tests réseaux

Un instrument qui m’a particulièrement attiré l’attention, et que je ne connaissais pas l’existence auparavant, est le TDR (Time Domain Reflectometer), c’est un outil apparemment très puissant par rapport autres, son principe de fonctionnement est d’envoyer un signal généré par l’instrument sur le câble, et ensuite d’écouter le reflet du signal sur le câble, le TDR en analysant le reflet il peut détecter les malfonctions sur le câble. Il faut savoir que les défauts physiques d’un câble sont parfois très difficiles à détecter, même si le câble fait passer le courant électrique normalement, il y a des cas où il va détériorer le signal pour une raison ou pour une autre, les autres outils ne permettent pas de faire la détection ce genre de défaut.

Réparation d’un réseau Wi-Fi

Une image pour représenter le flow chart ou l’organigramme qui permet de suivre les étapes pour une personne, et de lui permettre de réparer tout seul son réseau wifi local à la maison ou au travail, cette image était faite par un professionnel dans le domaine dans laquelle il a réussi à résumer son expertise de réparation sur un seul diagramme. La source de l’article d’où l’image en question a été empruntée est par ici. Pour pouvoir utiliser le diagramme il suffit juste d’analyser le type de panne dans le réseau en répondant aux questions sur le diagramme et en avançant étape par étape jusqu’à pouvoir discerner le problème dans le réseau.

Organigramme pour la réparation des réseaux Wi-Fi

Il vaut mieux télécharger l’image pour pouvoir la visualiser en entier.

Domain Name System

En réseau, DNS ou Domain Name System est littéralement un service qui fonctionne en parallèle avec le réseau web d’internet, il fonctionne suivant un protocole que vous allez voir son explication sur la vidéo en bas, qui assure le rôle de trouver l’adresse IP pour n’importe quel nom de domaine, les noms de domaines sont tout simplement les noms de sites web comme www.google.com, www.yahoo.com. www.el-kalam.com…etc.

Domain Name System

En pratique, je me rappelle il y a quelques années de cela que parfois les serveurs DNS d’Algérie Télécom défaillaient, ce qui causait une perte de la connexion internet. La solution pour ce genre de problème reste simple, il suffisait de changer dans les configurations de la carte réseau l’adresse du serveur DNS, à l’époque un serveur très connu était généralement très utilisé c’était openDNS, avec le temps les serveurs DNS de Google sont devenus plus performant et surtout plus facile à mémoriser, des adresses comme 8.8.8.8 et 8.8.4.4 en on peut difficilement faire plus simple.

Services cloud gratuits pour développement de jeux vidéo

Pour rappel le cloud computing est une récente technologie consistant à offrir aux entreprises des services sur internet en IT (Information Technology: technologies en informatique). Ça permet aux entreprises au-lieu d’acheter du matériel et du logiciel et d’installer leurs propres infrastructures informatiques en local, de louer des services en IT proposé par d’autres entreprises tierces spécialistes dans la construction et le maintien de ce genre d’infrastructure. Les services loués par les entreprises sont variers et peuvent être catégorisés en 3 modèles, ça peut être des services au niveau infrastructure (appelés IaaS) comme la mise à disposition de serveurs, datacenters, du stockage, un réseau, des machines virtuelles…etc. Ou au niveau plate-forme (appelés PaaS) et ça inclut les systèmes d’exploitation, les bases de données, les serveurs web, les middlewares, les API de développement, le monitoring…etc. Ou-bien au niveau application (appelés SaaS), ça permet aux entreprises d’installer leurs applications à distances et de les utiliser à distance, en assurant la gestion des bases de données et les backups (les sauvegardes) par l’entreprise tierce. Les entreprises offrants ce genres de services sont généralement appelés cloud computing service providers et sont généralement des filiales de célèbres firmes d’IT, parmi eux on peut nommer AWS (Amazon Web Services) d’Amazon, ou encore Microsoft Azure, Google Cloud Platform, IBM cloud…etc.

Image du jeu Fortnite

Les services offerts gratuitement pour le développement de jeux vidéo sont de la part de la société EPIC games, c’est exceptionnel dans le fait que les services sont généralement payants d’autant plus que les services pour jeux vidéo sont assez rare. EPIC games est une firme très ancienne et très connue dans le monde vidéoludique, actuellement elle est surtout connue pour le très célèbre jeu Fortnite (image en haut) ou de leurs moteur de jeu Unreal Engine réputé pour ça puissance graphique (image de son interface en bas). Mais le plus étonnant c’est les récentes actions très particulières de la firme, par exemple l’année dernière elle a offert 1,2 millions de dollars à la fondation open source Blender Fondation pour subventionner le logiciel de modélisation en 3d Blender (plus de détails sur l’article), ou la subvention aussi par 250 milles dollars du moteur de jeu open source Godot (plus de détails sur l’article) pratiquement un concurrent direct pour son moteur Unreal. Récemment aussi EPIC games sous période de confinement a eu l’idée d’agoniser plusieurs événements virtuels sur son jeu Fortnite, et le résultat est un nouveau record mondial de prêt de 28 millions de participants, c’est évident qu’il est impossible d’organiser des événement de cette envergure dans le monde réel, d’ailleurs d’après ce phénomène beaucoup de personne motionnaient les prémices du web 3.0, un web totalement virtuel dans lequel avec un avatar l’internaute peur évoluer. Sans oublier la récente mesure du moteur Unreal Engine entamée envers les développeurs indépendants (indie en Anglais, se sont des développeurs avec un revenu et un capital très faible, souvent c’est un unique développeur qui travail depuis sa maison), la mesure permet à ces développeurs d’utiliser gratuitement le moteur et de publier leurs jeux sans aucune redevance (royalties en Anglais) jusqu’à ce que le jeu dépasse en profit la bar d’un million de dollars.

L’interface du moteur de jeu Unreal

Concrètement les services d’EPIC games offrent aux développeurs le backend pour le déploiement en réseau des jeux en multijoueurs, ainsi ces services ne concernent réellement que les jeux en réseau et pas en local. Le backend est sous forme d’une API permettant la gestion de l’infrastructure réseau hébergeant le jeu, ces sévices facilitent grandement la vie des développeurs, parce que autrement le développeur devrait les gérer lui-même et ça implique beaucoup de travail de programmation, la location de serveurs et le maintien de ces derniers. En parcourant la page officielle des services sur le site d’EPIC games on peut énumérer quelques services proposés par le cloud d’EPIC, comme le matchmaking pour organiser des matches entre plusieurs joueurs, la création de Lobbies qui sont des zones virtuelles où les joueurs peuvent bavarder, s’inviter pour des matches, ou chercher d’autres joueurs, le suivi des statiques des joueurs, les services d’authentification et la gestion de la liste d’amis, sauvegarde, création de canaux peer-to-peer…etc. Sans oublier que cette API est accessible sur n’importe quel moteur de jeu et peut-être intégrer sur différentes plate-formes de jeu comme la plate-forme de PlayStation, Xbox ou Steam.