L’un des premiers séminaires a porté sur le langage de script informatique et sur les raisons pour lesquelles les entreprises et les pays devraient s’en préoccuper. Voici le court à emporter. Le vocabulaire des scripts informatiques est en réalité un langage informatique destiné à résoudre relativement peu de problèmes de programmation qui ne nécessitent pas la surcharge des déclarations d’informations ainsi que d’autres fonctions nécessaires pour rendre les grands programmes gérables. Les dialectes de script sont utilisés pour écrire les ressources du système d’exploitation, pour les programmes de manipulation de documents à objectif unique et, parce qu’ils sont simples à découvrir, parfois pour des programmes considérablement plus gros. Perl, l’un de ces langages, a été développé dans les années 1980, séminaire entreprise à l’origine pour être utilisé avec le système d’exploitation UNIX. Il était destiné à avoir toutes les capacités des langages de script précédemment. Perl a fourni de nombreuses manières différentes de conditionner des opérations typiques et a donc permis à un développeur d’adopter n’importe quelle conception pratique. Dans les années 1990, il est devenu populaire en tant qu’outil de programmation système, à la fois pour les petits programmes de puissance et pour les prototypes de plus gros. Avec d’autres dialectes, il est également devenu bien connu pour le codage de serveurs Web d’ordinateurs personnels. Le système d’exploitation (Système d’exploitation) est un système qui gère les sources d’un ordinateur, en particulier l’allocation de ces sources entre d’autres programmes. Les sources typiques sont le périphérique de traitement principal (unité centrale de traitement), la mémoire de l’ordinateur personnel, l’espace de stockage de fichiers, les gadgets d’entrée/sortie (E/S) et les contacts système. Les tâches de gestion incluent la planification de l’utilisation de la source pour éviter les conflits et les interférences entre les applications. Contrairement à la plupart des programmes, qui terminent une tâche et se terminent, un système d’exploitation s’exécute indéfiniment et ne se termine que lorsque votre ordinateur est éteint. Les systèmes de multitraitement modernes permettent à de nombreux processus d’être actifs, dans lesquels chaque procédure est en réalité un « fil » de calcul utilisé pour exécuter un programme. Une forme unique de multitraitement est connue sous le nom de temps partagé, qui permet à de nombreux clients de partager l’accessibilité d’un ordinateur personnel en passant rapidement de l’un à l’autre. La révélation du temps doit protéger contre les interférences entre les programmes des utilisateurs, et de nombreuses techniques utilisent la mémoire virtuelle, dans laquelle le souvenir, ou « salle d’adressage », utilisé par un programme peut résider dans une mémoire supplémentaire (comme sur la poussée du disque dur magnétique) si pas en utilisation immédiate, pour être remplacé pour occuper la mémoire de l’ordinateur principal plus rapide à la demande. Cette mémoire numérique augmente l’espace disponible pour un logiciel et aide à empêcher les programmes d’interférer les uns avec les autres, mais elle nécessite une gestion prudente du système d’exploitation et de certaines tables d’allocation pour suivre l’utilisation de la mémoire. La tâche la plus sensible et la plus essentielle pour un système d’exploitation contemporain est peut-être l’allocation à partir de l’unité centrale de traitement ; chaque processus est autorisé à utiliser le processeur pendant une courte période, qui peut être une petite fraction d’une autre, et après cela, il devrait quitter le contrôle et s’arrêter jusqu’à son tour suivant. Le passage d’un processus à l’autre doit utiliser seul le CPU tout en protégeant toutes les informations des procédures. Le principal avantage d’un ordinateur personnel multiprocesseur est sa rapidité, et donc sa capacité à gérer de plus grandes quantités d’informations. Étant donné que chaque puce de processeur d’un tel système est conçue pour exécuter une fonctionnalité spécifique, elle peut effectuer son travail, transmettre l’ensemble de coaching au processeur suivant et commencer à travailler sur un tout nouvel ensemble d’instructions. Par exemple, divers processeurs peuvent être utilisés pour gérer le stockage de souvenirs, les communications de données ou les fonctions arithmétiques. Ou un processeur plus gros pourrait utiliser des puces de processeur «esclaves» pour effectuer diverses tâches de nettoyage de la maison, comme la gestion de la mémoire. Les techniques multiprocesseurs sont apparues initialement dans les gros ordinateurs appelés mainframes, avant que leurs coûts ne baissent suffisamment pour justifier leur ajout dans les ordinateurs personnels (Ordinateurs). Il convient néanmoins d’observer que le simple fait d’inclure davantage de processeurs ne garantit pas des avantages substantiels en termes de puissance de traitement ; les problèmes de programme informatique restent. Alors que les développeurs et les dialectes de programmation informatique ont créé certaines compétences pour répartir les exécutions entre un petit nombre de processeurs, l’analyse des instructions au-delà de deux à huit puces de processeur est impraticable pour toutes les tâches, sauf les plus répétitives. (Heureusement, bon nombre des applications technologiques courantes des superordinateurs consistent à utiliser exactement la même formule ou le même calcul pour un large éventail d’informations, ce qui est un problème difficile mais traitable.)