Principales caractéristiques d'ibm pc i7 3000. Ordinateurs personnels de classe ibm pc. e et la sortie définitive du marché des PC

IBM est connu de beaucoup aujourd'hui. Elle a laissé une énorme empreinte dans l'histoire de l'informatique et aujourd'hui encore, son rythme dans ce métier difficile ne s'est pas ralenti. La chose la plus intéressante est que tout le monde ne sait pas pourquoi IBM est si célèbre. Oui, tout le monde a entendu parler du PC IBM, du fait qu'il fabriquait des ordinateurs portables, qu'il était autrefois une concurrence sérieuse avec Apple. Cependant, parmi les mérites du géant bleu, il y a un grand nombre de découvertes scientifiques, ainsi que l'introduction de diverses inventions dans la vie quotidienne. Parfois, beaucoup de gens se demandent d'où vient telle ou telle technologie. Et tout à partir de là vient d'IBM. Cinq lauréats du prix Nobel de physique ont reçu leurs prix pour des inventions réalisées dans les murs de cette entreprise.

Ce document est destiné à faire la lumière sur l'histoire de la formation et du développement d'IBM. Dans le même temps, nous parlerons de ses inventions clés, ainsi que des développements futurs.

Temps de formation

Les origines d'IBM remontent à 1896, lorsque, des décennies avant l'apparition des premiers calculateurs électroniques, l'éminent ingénieur et statisticien Herman Hollerith fonda une société de production de machines à calculer, baptisée TMC (Tabulating Machine Company). A cela, M. Hollerith, descendant d'émigrés allemands, qui était ouvertement fier de ses racines, fut poussé par le succès de ses premières machines à calculer de sa propre production. L'essence de l'invention du grand-père du « géant bleu » était qu'il a développé un interrupteur électrique qui permet de coder les données en chiffres. Dans ce cas, les supports d'informations étaient des cartes dans lesquelles des trous étaient percés dans un ordre spécial, après quoi les cartes perforées pouvaient être triées mécaniquement. Ce développement, breveté par Herman Hollerith en 1889, fit sensation, qui permit à l'inventeur de 39 ans de recevoir une commande pour la fourniture de ses machines uniques au département américain des statistiques, qui préparait le recensement de 1890.

Le succès est fulgurant : le traitement des données collectées n'a pris qu'un an, contre huit ans qu'il a fallu aux statisticiens du US Census Bureau pour obtenir les résultats du recensement de 1880. C'est alors que l'intérêt des mécanismes informatiques pour résoudre de tels problèmes a été démontré dans la pratique, ce qui a largement prédéterminé le futur "boom numérique". Les fonds gagnés et les contacts établis ont aidé M. Hollerith en 1896 à créer la société TMC. Au début, la société a essayé de produire des voitures commerciales, mais à la veille du recensement de 1900, elle a été repensée pour produire des machines de calcul et d'analyse pour le US Census Bureau. Cependant, trois ans plus tard, lorsque l'« auge » de l'État a été fermée, Herman Hollerith a de nouveau tourné son attention vers l'application commerciale de ses développements.

Bien que l'entreprise traverse une période de croissance explosive, la santé de son créateur et de son cerveau s'est progressivement détériorée. Cela l'a incité en 1911 à accepter l'offre du millionnaire Charles Flint (Charles Flint) d'acheter TMC. L'accord a été évalué à 2,3 millions de dollars, dont Hollerith a reçu 1,2 million de dollars. En fait, il ne s'agissait pas d'un simple achat d'actions, mais de la fusion de TMC avec ITRC (International Time Recording Company) et CSC (Computing Scale Corporation), à la suite de laquelle la société CTR (Computing Tabulating Recording) est née. . Elle est devenue le prototype d'IBM moderne. Et si Herman Hollerith est appelé par beaucoup le grand-père du « géant bleu », alors c'est Charles Flint qui est considéré comme son père.

M. Flint était indéniablement un génie financier avec le don d'anticiper de solides alliances d'entreprise, dont beaucoup ont survécu à leurs créateurs et continuent de jouer un rôle déterminant dans leurs domaines respectifs. Il a participé activement à la création du fabricant de caoutchouc panaméricain U.S. Rubber, l'un des premiers fabricants mondiaux de chewing-gum américain Chicle (depuis 2002, déjà appelé Adams, il fait partie de Cadbury Schweppes). Pour son succès dans la consolidation du pouvoir des entreprises américaines, il a été appelé le « père des fiducies ». Cependant, pour la même raison, l'appréciation de son rôle, du point de vue de l'impact positif ou négatif, mais jamais du point de vue de l'importance, est très ambiguë. Paradoxalement, les compétences organisationnelles de Charles Flint étaient très appréciées dans les ministères, et il se trouvait toujours là où les fonctionnaires ordinaires ne pouvaient pas agir ouvertement ou leur travail était moins efficace. En particulier, il est crédité d'avoir participé à un projet secret pour acheter des navires dans le monde entier et les convertir en navires de guerre pendant la guerre hispano-américaine de 1898.

Créée par Charles Flint, la CTR Corporation en 1911 a produit une large gamme d'équipements uniques, notamment des systèmes de suivi du temps, des balances, des coupe-viandes automatiques et, qui se sont avérés particulièrement importants pour la création d'un ordinateur, des équipements de cartes perforées. En 1914, Thomas J. Watson Sr. a pris la relève en tant que PDG, et en 1915, il est devenu président de CTR.

L'événement majeur suivant dans l'histoire de CTR a été le changement de nom en International Business Machines Co., Limited, ou IBM en abrégé. Cela s'est passé en deux étapes. Tout d'abord, en 1917, l'entreprise fait son entrée sur le marché canadien sous cette marque. Apparemment, par cela, elle voulait souligner le fait qu'elle est maintenant une véritable entreprise internationale. En 1924, IBM est devenu connu sous le nom de division américaine.

L'époque de la Grande Dépression et de la Seconde Guerre mondiale

Les 25 années suivantes dans l'histoire d'IBM ont été plus ou moins stables. Même pendant la Grande Dépression aux États-Unis, l'entreprise a poursuivi ses activités au même rythme, sans pratiquement aucun licenciement, ce qui ne peut être dit des autres entreprises.

Durant cette période, plusieurs événements importants peuvent être notés pour IBM. En 1928, la société a introduit un nouveau type de carte perforée à 80 colonnes. Elle s'appelait IBM Card et a été utilisée par les machines à calculer de l'entreprise au cours des dernières décennies, puis par ses ordinateurs. Un autre événement important pour IBM au cours de cette période a été une importante commande gouvernementale visant à systématiser les données sur les emplois de 26 millions de personnes. La société elle-même la rappelle comme "la plus grande transaction de règlement de tous les temps". Elle a également ouvert les portes du géant bleu à d'autres commandes gouvernementales, tout comme aux débuts de TMC.

Livre "IBM et l'Holocauste"

Il y a plusieurs références à la collaboration d'IBM avec le régime nazi en Allemagne. La source des données ici est le livre "IBM and the Holocaust" d'Edwin Black. Son nom indique sans ambiguïté à quelles fins les machines à calculer du géant bleu ont été utilisées. Ils tenaient des statistiques sur les Juifs emprisonnés. Il y a même des codes qui ont été utilisés pour organiser les données : Code 8 - Juifs, Code 11 - Tsiganes, Code 001 - Auschwitz, Code 001 - Buchenwald, etc.

Cependant, selon la direction d'IBM, la société n'a vendu du matériel qu'au Troisième Reich, et la façon dont il a été utilisé ne les concerne pas. C'est d'ailleurs la pratique de nombreuses entreprises américaines. IBM a même ouvert une usine à Berlin en 1933, lorsque Hitler est arrivé au pouvoir. Cependant, il y a aussi un inconvénient à l'utilisation d'équipements IBM par les nazis. Après la défaite de l'Allemagne, grâce aux machines du géant bleu, il a été possible de retracer le sort de nombreuses personnes. Bien que cela n'ait pas empêché divers groupes de personnes affectées par la guerre et l'Holocauste en particulier, d'exiger des excuses officielles d'IBM. L'entreprise a refusé de les amener. Même en dépit du fait que pendant la guerre ses employés, restés en Allemagne, ont continué leur travail, communiquant même avec la direction de l'entreprise via Genève. Cependant, IBM elle-même a décliné toute responsabilité pour les activités de ses entreprises en Allemagne pendant la guerre de 1941 à 1945.

Aux États-Unis, pendant la période de guerre, IBM travaillait pour le gouvernement et pas toujours dans son secteur d'activité direct. Ses installations de production et ses ouvriers étaient occupés à produire des fusils (en particulier le fusil automatique Browning et la carabine M1), des lunettes de visée, des pièces de moteur, etc. Thomas Watson, qui était toujours à la tête de l'entreprise, a fixé une marge bénéficiaire nominale pour ce produit à 1%. Et même ce minuscule a été envoyé non pas à la tirelire du géant bleu, mais à la fondation d'un fonds d'aide aux veuves et aux orphelins qui ont perdu leurs proches à la guerre.

Il était également utilisé pour les machines à calculer situées aux États-Unis. Ils ont été utilisés pour divers calculs mathématiques, logistiques et autres besoins de la guerre. Ils n'ont pas été moins activement utilisés lors des travaux sur le projet Manhattan, dans le cadre duquel la bombe atomique a été créée.

Temps des gros mainframes

Le début de la seconde moitié du siècle dernier a été d'une grande importance pour le monde moderne. Puis les premiers ordinateurs numériques ont commencé à apparaître. Et IBM a participé activement à leur création. Le tout premier ordinateur programmable américain était le Mark I (nom complet Aiken-IBM Automatic Sequence Controlled Calculator Mark I). Le plus étonnant, c'est qu'il était basé sur les idées de Charles Babbage, l'inventeur de la première machine informatique. D'ailleurs, il n'a jamais fini de le construire. Mais au 19ème siècle, c'était difficile à faire. IBM a profité de ses calculs, les a déplacés vers les technologies de l'époque et le Mark I a vu le jour. Il a été construit en 1943 et un an plus tard, il a été officiellement mis en service. L'histoire de "Markov" n'a pas duré longtemps. Au total, quatre modifications ont été publiées, dont la dernière, la Mark IV, a été introduite en 1952.

Dans les années 1950, IBM a reçu une autre commande importante du gouvernement pour développer des ordinateurs pour le système SAGE (Semi Automatic Ground Environment). Il s'agit d'un système militaire conçu pour suivre et intercepter les bombardiers ennemis potentiels. Ce projet a permis au géant bleu d'accéder à la recherche au Massachusetts Institute of Technology. Puis il a travaillé sur le premier ordinateur, qui pourrait facilement servir de prototypes de systèmes modernes. Il comprenait donc un écran intégré, une matrice de mémoire magnétique, prenait en charge les conversions numérique-analogique et analogique-numérique, possédait une sorte de réseau informatique, pouvait transmettre des données numériques sur une ligne téléphonique et prenait en charge le multitraitement. De plus, il était possible d'y connecter les soi-disant "pistolets légers", qui étaient auparavant largement utilisés comme alternative au joystick pour les consoles et les machines à sous. Il y avait même un support pour le premier langage informatique algébrique.

IBM a construit 56 ordinateurs pour le projet SAGE. Chacun valait 30 millions de dollars au prix des années 50. 7000 employés de l'entreprise y travaillaient, ce qui représentait à l'époque 20% de l'ensemble du personnel de l'entreprise. En plus d'importants bénéfices, le géant bleu a pu acquérir une expérience inestimable, ainsi que l'accès aux développements militaires. Plus tard, tout cela a été appliqué à la création d'ordinateurs des générations suivantes.

La prochaine étape importante pour IBM a été la sortie de l'ordinateur System / 360. Il est associé à presque le changement de toute une époque. Avant lui, le géant bleu produisait des systèmes à base de tubes à vide. Par exemple, après le Mark I susmentionné en 1948, le calculateur électronique à séquence sélective (SSEC) a été introduit, composé de 21 400 relais et 12 500 tubes à vide, capables d'effectuer plusieurs milliers d'opérations par seconde.

En plus des ordinateurs, SAGE IBM a travaillé sur d'autres projets pour l'armée. Ainsi, la guerre de Corée a nécessité l'utilisation de moyens de calcul plus rapides qu'une grosse calculatrice programmable. Ainsi, un ordinateur entièrement électronique a été développé (pas à partir de relais, mais à partir de lampes) IBM 701, qui fonctionnait 25 fois plus vite que SSEC et prenait en même temps quatre fois moins de place. Au cours des années suivantes, la modernisation des ordinateurs à lampes s'est poursuivie. Par exemple, l'IBM 650 est devenu célèbre, qui a produit environ 2000 unités.

Non moins importante pour la technologie informatique d'aujourd'hui a été l'invention en 1956 d'un appareil appelé RAMAC 305. Il est devenu le prototype de ce qui porte aujourd'hui l'abréviation HDD ou simplement un disque dur. Le premier disque dur pesait environ 900 kilogrammes et sa capacité n'était que de 5 Mo. La principale innovation consistait en l'utilisation de 50 plaques circulaires en aluminium à rotation constante, sur lesquelles les supports d'information étaient des éléments magnétisés. Cela a permis de fournir un accès aléatoire aux fichiers, ce qui a du même coup considérablement augmenté la vitesse de traitement des données. Mais ce plaisir n'était pas bon marché - il coûtait 50 000 $ aux prix de l'époque. Depuis 50 ans, les progrès ont permis de réduire le coût d'un mégaoctet de données sur un disque dur de 10 000 $ à 0,00013 $, si l'on prend le coût moyen d'un disque dur de 1 To.

Le milieu du siècle dernier a également été marqué par l'arrivée des transistors pour remplacer les lampes. Le géant bleu a commencé ses premières tentatives d'utilisation de ces éléments en 1958 avec l'annonce du système IBM 7070. Un peu plus tard, les ordinateurs des modèles 1401 et 1620 sont apparus. Le premier était destiné à effectuer diverses tâches commerciales, et le second était un petit ordinateur scientifique utilisé pour développer la conception des autoroutes et des ponts. C'est-à-dire que des ordinateurs spécialisés plus compacts et plus encombrants, mais avec une vitesse beaucoup plus élevée du système, ont été créés. Un exemple du premier est le modèle 1440, développé en 1962 pour les petites et moyennes entreprises, et un exemple du second est le 7094, qui est en fait un supercalculateur du début des années 60, utilisé dans l'industrie aérospatiale.

Un autre élément constitutif de la création de System / 360 a été la création de systèmes de terminaux. Les utilisateurs se sont vu attribuer un moniteur et un clavier séparés, qui étaient connectés à un ordinateur central. Voici un prototype d'architecture client/serveur couplé à un système d'exploitation multi-utilisateurs.

Comme c'est souvent le cas pour l'utilisation la plus efficace des innovations, il faut prendre tous les développements précédents, trouver leurs points de contact, puis concevoir un nouveau système qui utilise les meilleurs aspects des nouvelles technologies. L'IBM System / 360, introduit en 1964, est devenu un tel ordinateur.

Cela rappelle un peu les ordinateurs modernes, qui, si nécessaire, peuvent être mis à jour et auxquels divers périphériques externes peuvent être connectés. Une nouvelle gamme de 40 périphériques a été développée pour le System/360. Ceux-ci comprenaient les disques durs IBM 2311 et IBM 2314, les lecteurs de bande IBM 2401 et 2405, l'équipement de cartes perforées, les dispositifs de reconnaissance de texte et diverses interfaces de communication.

Une autre innovation importante est l'espace virtuel illimité. Avant System / 360, ce genre de chose coûtait beaucoup d'argent. Bien sûr, pour cette innovation, il a fallu reprogrammer quelque chose, mais le résultat en valait la peine.

Ci-dessus, nous avons parlé des ordinateurs spécialisés pour la science et les affaires. D'accord, c'est quelque peu gênant pour l'utilisateur et le développeur. System / 360 est devenu un système polyvalent qui pouvait être utilisé pour la plupart des tâches. De plus, un nombre beaucoup plus important de personnes pouvait désormais l'utiliser - il supportait la connexion simultanée de jusqu'à 248 terminaux.

Construire le système IBM / 360 n'était pas si bon marché. L'ordinateur n'a été conçu que pour les trois quarts, pour lesquels environ un milliard de dollars ont été dépensés. 4,5 milliards de dollars supplémentaires ont été dépensés en investissements dans des usines, de nouveaux équipements pour elles. Au total, cinq usines ont été ouvertes et 60 000 employés ont été embauchés. Thomas Watson Jr., qui a succédé à son père en tant que président en 1956, a qualifié le projet de "projet commercial privé le plus cher de l'histoire".

Les années 70 et l'ère du système IBM / 370

La décennie suivante dans l'histoire d'IBM n'a pas été si révolutionnaire, mais plusieurs événements importants ont eu lieu. Les années 70 s'ouvrent avec la sortie du System/370. Après plusieurs modifications du System / 360, ce système est devenu une refonte plus complexe et plus sérieuse du mainframe d'origine.

L'innovation la plus importante du System / 370 est la prise en charge de la mémoire virtuelle, c'est-à-dire en fait, il s'agit d'une extension de la RAM au détriment de la mémoire permanente. Aujourd'hui, ce principe est activement utilisé dans les systèmes d'exploitation modernes des familles Windows et Unix. Cependant, dans les premières versions du System/370, son support n'était pas inclus. IBM a rendu la mémoire virtuelle largement disponible en 1972 avec l'introduction de la fonction avancée System / 370.

Bien entendu, la liste des innovations ne s'arrête pas là. La série d'ordinateurs centraux System / 370 prenait en charge l'adressage 31 bits au lieu de 24 bits. Par défaut, la prise en charge du double processeur était prise en charge, et il y avait également une compatibilité avec l'arithmétique fractionnaire 128 bits. Une autre caractéristique importante de System / 370 est la rétrocompatibilité totale avec System / 360. Le logiciel, bien sûr.

Le prochain mainframe de la société était le System / 390 (ou S / 390), introduit en 1990. Il s'agissait d'un système 32 bits, bien qu'il conserve la compatibilité avec l'adressage System/360 24 bits et l'adressage System/370 31 bits. En 1994, il est devenu possible de combiner plusieurs mainframes System / 390 en un seul cluster. Cette technologie est appelée Parallel Sysplex.

Après System/390, IBM a introduit le z/Architecture. Sa principale innovation est la prise en charge de l'espace d'adressage 64 bits. Dans le même temps, de nouveaux mainframes sont sortis avec un grand nombre de processeurs (d'abord 32, puis 54). Z / Architecture a été introduit en 2000, ce qui signifie que ce développement est complètement nouveau. Aujourd'hui, System z9 et System z10 sont disponibles dans ce cadre et continuent de bénéficier d'une popularité soutenue. De plus, ils continuent de maintenir une compatibilité descendante avec les systèmes système / 360 et les ordinateurs centraux ultérieurs, ce qui est un record du genre.

C'est là que nous clôturons le sujet des gros mainframes, pour lesquels nous avons évoqué leur histoire jusqu'à nos jours.

Pendant ce temps, IBM est confronté à un conflit avec les autorités. Elle a été précédée par le départ des principaux concurrents du géant bleu du marché des grands systèmes informatiques. En particulier, NCR et Honeywall ont décidé de se concentrer sur des segments de marché de niche plus rentables. Et System / 360 a eu un tel succès que personne ne pouvait rivaliser avec lui. En conséquence, IBM est effectivement devenu un monopole sur le marché des mainframes.

Tout cela, le 19 janvier 1969, déborda sur des poursuites judiciaires. Comme prévu, IBM a été accusé d'avoir violé l'article 2 de la loi Sherman, qui prévoit une responsabilité en cas de monopolisation, ou une tentative de monopoliser le marché des systèmes informatiques électroniques, en particulier les systèmes destinés à être utilisés dans les affaires. Le litige a duré jusqu'en 1983 et s'est terminé pour IBM avec le fait qu'elle a sérieusement reconsidéré sa façon de faire des affaires.

Il est possible que la procédure antitrust ait influencé le "Future Systems project", dans lequel il était censé une fois de plus combiner toutes les connaissances et l'expérience des projets passés (comme à l'époque de System / 360) et créer un nouveau type d'ordinateur qui surpassera encore une fois tout ce qui a été fait auparavant. Des travaux y ont été réalisés entre 1971 et 1975. Les raisons de sa fermeture sont appelées inopportunité économique - selon les analystes, cela n'aurait pas riposté comme cela s'est produit avec System / 360. Ou peut-être qu'IBM a vraiment décidé de se retenir un peu à cause du litige en cours.

Un autre événement très important dans le monde informatique est crédité à la même décennie, bien qu'il se soit produit en 1969. IBM a commencé à vendre des services de fabrication de logiciels et des logiciels séparément du matériel. Aujourd'hui, cela ne surprend plus personne - même la génération moderne d'utilisateurs domestiques de logiciels piratés est habituée au fait que les programmes doivent être payés. Mais alors de nombreuses plaintes, critiques de la presse, et en même temps des procès ont commencé à affluer sur la tête du géant bleu. En conséquence, IBM a commencé à vendre séparément uniquement des applications d'application, tandis que le logiciel de contrôle du fonctionnement de l'ordinateur (System Control Programming), en fait le système d'exploitation, était gratuit.

Et au tout début des années 80, un certain Bill Gates de Microsoft a prouvé qu'un système d'exploitation peut aussi être payant.

Le temps des petits ordinateurs personnels

Jusqu'aux années 1980, IBM était très actif sur les grosses commandes. Plusieurs fois, ils ont été faits par le gouvernement, plusieurs fois par les militaires. Elle fournissait ses mainframes en règle générale à des institutions éducatives et scientifiques, ainsi qu'à de grandes entreprises. Il est peu probable que quelqu'un ait acheté une armoire System / 360 ou 370 séparée pour lui-même à la maison et une douzaine d'armoires de stockage à bande magnétique et déjà réduits deux fois par rapport aux disques durs RAMAC 305.

Le géant bleu était au-dessus des besoins du consommateur moyen, qui a besoin de beaucoup moins pour être complètement heureux que la NASA ou une autre université. Cela a donné l'occasion de se tenir debout sur les pieds d'une entreprise Apple en demi-sous-sol avec le logo de Newton tenant une pomme, bientôt remplacé par une pomme simplement croquée. Et Apple a proposé une chose très simple - un ordinateur pour tout le monde. Cette idée n'a été soutenue ni par Hewlett-Packard, où elle a été présentée par Steve Wozniak, ni par d'autres grandes sociétés informatiques de l'époque.

Au moment où IBM s'en est rendu compte, il était trop tard. Le monde a déjà admiré l'Apple II - l'ordinateur Apple le plus populaire et le plus réussi de toute son histoire (pas le Macintosh, comme beaucoup le croient). Mais il vaut mieux tard que jamais. Il n'était pas difficile de deviner que ce marché est au tout début de son développement. Le résultat était le PC IBM (modèle 5150). C'est arrivé le 12 août 1981.

Plus frappant encore, ce n'était pas le premier ordinateur personnel IBM. Le titre du premier appartient au modèle 5100, sorti en 1975. Il était beaucoup plus compact que les mainframes, avec un moniteur, un stockage de données et un clavier séparés. Mais il était destiné à résoudre des problèmes scientifiques. Pour les hommes d'affaires et juste les fans de technologie, il ne convenait pas. Et pas des moindres à cause du prix, qui était d'environ 20 000 $.

Le PC IBM a changé non seulement le monde, mais aussi l'approche de l'entreprise en matière de construction d'ordinateurs. Avant cela, IBM fabriquait toute machine informatique à l'intérieur comme à l'extérieur, sans recourir à l'aide de tiers. Cela s'est avéré différent avec l'IBM 5150. À cette époque, le marché des ordinateurs personnels était divisé entre le Commodore PET, la famille Atari de systèmes 8 bits, l'Apple II et les TRS-80 de Tandy Corporation. Par conséquent, IBM était pressé de saisir l'occasion.

Une équipe de 12 personnes basée à Boca Raton, en Floride, dirigée par Don Estrige, a été affectée au projet d'échecs. Ils ont terminé la tâche en un an environ. L'une de leurs décisions clés a été l'utilisation de développements tiers. Cela a permis simultanément d'économiser beaucoup d'argent et de temps sur notre propre personnel scientifique.

Initialement, Don a choisi l'IBM 801 et un système d'exploitation spécialement conçu pour le processeur. Mais un peu plus tôt, le géant bleu a sorti le micro-ordinateur Datamaster (nom complet System/23 Datamaster ou IBM 5322), qui était basé sur le processeur Intel 8085 (une modification légèrement simplifiée d'Intel 8088). C'est la raison pour laquelle le premier PC IBM a été choisi pour le processeur Intel 8088. Même les connecteurs d'extension du PC IBM coïncidaient avec ceux du Datamaster. Eh bien, Intel 8088 a exigé un nouveau système d'exploitation DOS, très opportun, proposé par une petite entreprise de Redmond appelée Microsoft. Ils n'ont pas fait de nouveau design pour le moniteur et l'imprimante. Le moniteur, précédemment créé par la division japonaise d'IBM, a été choisi comme premier et l'imprimante fabriquée par Epson est devenue le périphérique d'impression.

Le PC IBM a été vendu dans diverses configurations. Le plus cher coûte 3005 $. Il était équipé d'un processeur Intel 8088 cadencé à 4,77 MHz, qui, si on le désirait, pouvait être complété par un coprocesseur Intel 8087, ce qui rendait possible les calculs en virgule flottante. La quantité de RAM était de 64 Ko. En tant que périphérique de stockage permanent de données, il était censé utiliser des lecteurs de disquettes de 5,25 pouces. Un ou deux d'entre eux pourraient être installés. Plus tard, IBM a commencé à fournir des modèles permettant la connexion de supports de stockage sur cassette.

Le disque dur n'a pas pu être installé dans l'IBM 5150 en raison d'une alimentation électrique insuffisante. Cependant, la société dispose d'une "unité d'extension" ou unité d'extension (également connue sous le nom de châssis d'extension IBM 5161) avec un disque dur de 10 Mo. Il avait besoin d'une source d'alimentation séparée. De plus, un deuxième disque dur pourrait y être installé. Il avait également 5 emplacements d'extension, tandis que l'ordinateur lui-même en avait 8. Mais pour connecter l'unité d'extension, il était nécessaire d'utiliser la carte d'extension et la carte de réception, qui étaient respectivement installées dans le module et dans le boîtier. Les autres emplacements d'extension de l'ordinateur étaient généralement occupés par une carte vidéo, des cartes avec des ports d'E/S, etc. Il était également possible d'augmenter la quantité de RAM jusqu'à 256 Ko.

PC IBM "domicile"

La configuration la moins chère coûte 1 565 $. Avec lui, l'acheteur a reçu le même processeur, mais la RAM n'était que de 16 Ko. Il n'y avait pas de lecteur de disquette inclus avec l'ordinateur, et il n'y avait pas de moniteur CGA standard. Mais il y avait un adaptateur pour les lecteurs de cassettes et une carte vidéo axée sur la connexion à un téléviseur. Ainsi, une modification coûteuse du PC IBM a été créée pour les entreprises (où, soit dit en passant, elle est devenue assez répandue) et une modification moins chère pour la maison.

Mais il y avait une autre nouveauté dans le PC IBM - le système d'entrée / sortie de base ou BIOS (Basic Input / Output System). Il est encore utilisé aujourd'hui dans les ordinateurs modernes, bien que sous une forme légèrement modifiée. Les cartes mères les plus récentes contiennent déjà des micrologiciels EFI plus récents ou même des versions légères de Linux, mais il faudra certainement quelques années avant que le BIOS ne disparaisse.

L'architecture du PC IBM a été rendue ouverte et accessible au public. N'importe quel fabricant pouvait fabriquer des périphériques et des logiciels pour un ordinateur IBM sans acheter de licence. Dans le même temps, le géant bleu vendait le manuel de référence technique IBM PC, où le code source complet du BIOS était publié. En conséquence, un an plus tard, le monde a vu les premiers ordinateurs « compatibles IBM PC » de Columbia Data Products. Compaq et d'autres sociétés ont suivi. La glace s'est brisée.

Ordinateur personnel IBM XT

En 1983, lorsque toute l'URSS a célébré la Journée internationale de la femme, IBM a sorti son prochain produit "masculin" - IBM Personal Computer XT (abréviation de eXtended Technology) ou IBM 5160. La nouveauté a remplacé le PC IBM original, présenté deux ans plus tôt. Il représentait le développement évolutif des ordinateurs personnels. Le processeur était toujours le même, mais la configuration de base avait déjà 128 Ko de RAM, et plus tard 256 Ko. La taille maximale est passée à 640 Ko.

Le XT est livré avec un lecteur de 5,25 pouces, un disque dur Seagate ST-412 de 10 Mo et un bloc d'alimentation de 130 W. Plus tard, des modèles avec un disque dur de 20 Mo sont apparus. Eh bien, PC-DOS 2.0 a été utilisé comme système d'exploitation de base. Pour étendre les fonctionnalités, un nouveau bus ISA 16 bits à l'époque a été utilisé.

Ordinateur personnel IBM / AT

La norme du boîtier AT est probablement rappelée par de nombreux anciens du monde informatique. Ils ont été utilisés jusqu'à la fin du siècle dernier. Tout a recommencé avec IBM et son IBM Personal Computer / AT ou modèle 5170. AT signifie Advanced Technology. Le nouveau système était la deuxième génération d'ordinateurs personnels du géant bleu.

L'innovation la plus importante de la nouveauté était l'utilisation d'un processeur Intel 80286 avec une fréquence de 6, puis 8 MHz. De nombreuses nouvelles fonctionnalités de l'ordinateur lui ont été associées. Il s'agissait notamment d'une transition complète vers un bus 16 bits et la prise en charge de l'adressage 24 bits, ce qui a permis de porter la quantité de RAM jusqu'à 16 Mo. La carte mère dispose désormais d'une batterie pour alimenter le microcircuit CMOS d'une capacité de 50 octets. Avant cela, elle n'était pas là non plus.

Pour le stockage des données, des lecteurs de 5,25 pouces prenant en charge des disquettes de 1,2 Mo étaient désormais utilisés, tandis que la génération précédente offrait un volume ne dépassant pas 360 Ko. Le disque dur avait désormais une capacité permanente de 20 Mo et était deux fois plus rapide que son prédécesseur. La carte vidéo monochrome et les moniteurs ont été remplacés par des adaptateurs prenant en charge la norme EGA, capables d'afficher jusqu'à 16 couleurs à une résolution de 640x350. En option, pour un travail professionnel avec des graphiques, il était possible de commander une carte vidéo PGC (Professional Graphics Controller), d'une valeur de 4290 $, capable d'afficher jusqu'à 256 couleurs sur un écran avec une résolution de 640x480, et en même temps prenant en charge la 2D et l'accélération 3D pour les applications de CAO.

Pour supporter toute cette variété d'innovations, le système d'exploitation a dû être sérieusement modifié, qui est sorti sous le nom de PC-DOS 3.0.

Pas encore ThinkPad, pas IBM PC

Nous pensons que beaucoup de gens savent que le premier ordinateur portable en 1981 était l'Osborne 1, développé par la Osborne Computer Corporation. C'était une telle valise pesant 10,7 kg et coûtant 1795 $. L'idée d'un tel appareil n'était pas unique - son premier prototype a été développé en 1976 au centre de recherche Xerox PARC. Cependant, au milieu des années 80, les ventes des Osborn étaient tombées à zéro.

Bien sûr, d'autres entreprises ont rapidement repris l'idée réussie, ce qui, en principe, est dans l'ordre des choses - rappelez-vous simplement quelles autres idées ont été "volées" à Xerox PARC. En novembre 1982, Compaq a annoncé son intention de sortir un ordinateur portable. En janvier, l'Hyperion est sorti, un ordinateur MS-DOS rappelant quelque peu Osborne 1. Mais il n'était pas entièrement compatible avec le PC IBM. Ce titre a été décerné à Compaq Portable, qui est apparu quelques mois plus tard. En fait, il s'agissait d'un PC IBM combiné dans un seul boîtier avec un petit écran et un clavier externe. La « valise » pesait 12,5 kg et était évaluée à plus de 4000 $.

IBM, remarquant clairement qu'il lui manquait quelque chose, s'est rapidement mis à créer son ordinateur portable primitif. En conséquence, l'ordinateur personnel portable IBM ou le PC portable IBM 5155 a vu le jour en février 1984. La nouveauté ressemblait également à bien des égards au PC IBM d'origine, à la seule exception qu'il disposait de 256 Ko de RAM. De plus, il était 700 $ moins cher que son homologue Compaq, et en même temps, il disposait d'une technologie antivol améliorée - un poids de 13,5 kg.

Deux ans plus tard, les progrès ont fait quelques pas en avant. IBM n'a pas hésité à en profiter, décidant de faire de ses ordinateurs portables quelque chose de plus justifiant son titre. C'est ainsi qu'en avril 1986 apparut l'IBM Convertible ou l'IBM 5140. Le Cabriolet ne ressemblait plus à une valise, mais à une grande valise ne pesant que 5,8 kg. Cela a coûté environ la moitié du prix - environ 2 000 $.

Le bon vieux Intel 8088 (ou plutôt sa version mise à jour 80c88), cadencé à 4,77 MHz, a servi de processeur. Mais au lieu de lecteurs de 5,25 pouces, des lecteurs de 3,5 pouces ont été utilisés, capables de fonctionner avec des disques de 720 Ko. La quantité de RAM était de 256 Ko, mais elle pouvait être augmentée à 512 Ko. Mais une innovation bien plus importante était l'utilisation d'un écran LCD monochrome capable de 80x25 pour le texte ou de 640x200 et 320x200 pour les graphiques.

L'évolutivité du Convertible, en revanche, était beaucoup plus modeste que celle de l'IBM Portable. Il n'y avait qu'un seul slot ISA, alors que la première génération des PC portables du géant bleu permettait d'installer presque autant de cartes d'extension qu'un ordinateur de bureau classique (cela ne permettait toujours pas telle ou telle dimension). Cette circonstance, ainsi qu'un écran passif sans rétroéclairage et la disponibilité d'analogues plus productifs (ou de modèles avec la même configuration, mais disponibles à un prix nettement inférieur) de Compaq, Toshiba et Zenith sur le marché n'ont pas fait de l'IBM Convertible un solution populaire. Mais il a été fabriqué jusqu'en 1991, date à laquelle il a été remplacé par l'IBM PS/2 L40 SX. Parlons de PS/2 plus en détail.

Système personnel IBM / 2

Jusqu'à présent, nous sommes nombreux à utiliser des claviers et même parfois des souris avec une interface PS/S. Cependant, tout le monde ne sait pas d'où il vient et à quoi correspond cette abréviation. PS/2 est Personal System/2, un ordinateur introduit par IBM en 1987. Il appartenait à la troisième génération d'ordinateurs personnels du géant bleu, dont le but était de regagner le terrain perdu sur le marché des PC.

L'IBM PS/2 est en panne. Ses ventes étaient censées être élevées, mais le système était très innovant et fermé, ce qui augmentait automatiquement son coût final. Les consommateurs ont opté pour les clones plus abordables du PC IBM. Néanmoins, l'architecture PS/2 a laissé beaucoup de chemin.

Le principal système d'exploitation PS/2 était IBM OS/2. Pour elle, les nouveaux PC étaient équipés de deux BIOS à la fois : ABIOS (Advanced BIOS) et CBIOS (Compatible BIOS). Le premier était requis pour démarrer OS / 2, et le second était requis pour la compatibilité descendante avec le logiciel IBM PC / XT / AT. Cependant, pendant les premiers mois, le PS/2 est venu avec PC-DOS. Plus tard, Windows et AIX (une des variantes d'Unix) pourraient être installés en option.

Avec PS/2, une nouvelle norme de bus a été introduite pour étendre les fonctionnalités des ordinateurs - MCA (Micro Channel Architecture). Il était censé remplacer l'ISA. La vitesse du MCA correspondait au PCI introduit quelques années plus tard. De plus, il présentait de nombreuses innovations intéressantes, en particulier, il prenait en charge la possibilité d'échanger des données directement entre les cartes d'extension, ou simultanément entre plusieurs cartes et le processeur via un canal séparé. Tout cela a ensuite trouvé une application dans le bus du serveur PCI-X. Le MCA lui-même ne s'est jamais répandu en raison du refus d'IBM de lui accorder une licence, de sorte que les clones n'apparaissent plus. De plus, la nouvelle interface n'était pas conforme à la norme ISA.

À cette époque, un connecteur DIN était utilisé pour connecter un clavier et un connecteur COM pour une souris. De nouveaux ordinateurs personnels IBM ont proposé de les remplacer par des PS/2 plus compacts. Aujourd'hui, ces connecteurs disparaissent déjà des cartes mères modernes, mais ils n'étaient alors disponibles que pour IBM. Seulement quelques années plus tard, ils "allèrent vers les masses". Le point ici n'est pas seulement la nature fermée de la technologie, mais aussi la nécessité de mettre à jour le BIOS pour fournir une prise en charge complète de cette interface.

PS/2 a également apporté une contribution importante au marché des cartes vidéo. Avant 1987, il existait plusieurs types de connecteurs de moniteur. Ils avaient souvent de nombreux contacts, dont le nombre était égal au nombre de couleurs affichées. IBM a décidé de les remplacer tous par un connecteur D-SUB universel. Grâce à elle, des informations sur la profondeur des couleurs rouge, verte et bleue ont été transmises, portant le nombre de nuances affichées à 16,7 millions. De plus, il est devenu plus facile pour les logiciels de travailler avec un type de connecteur plutôt que d'en prendre en charge plusieurs.

Un autre nouveau produit d'IBM sont les cartes vidéo avec un tampon d'images intégré (Video Graphics Array ou VGA), qui est aujourd'hui appelée mémoire de carte vidéo. Ensuite, son volume en PS/2 était de 256 Ko. C'était suffisant pour une résolution de 640x480 avec 16 couleurs, ou 320x200 et 256 couleurs. Les nouvelles cartes vidéo fonctionnaient avec l'interface MCA, elles n'étaient donc disponibles que pour les ordinateurs PS/2. Néanmoins, la norme VGA s'est généralisée au fil du temps.

Au lieu des grandes et peu fiables disquettes de 5,25 pouces, IBM a décidé d'utiliser des lecteurs de 3,5 pouces. L'entreprise a été la première à les utiliser comme standard principal. La principale nouveauté des nouveaux ordinateurs est la capacité doublée des disquettes - jusqu'à 1,44 Mo. Et à la fin du PS/2, il avait doublé pour atteindre 2,88 Mo. Soit dit en passant, il y avait une erreur assez grave dans les lecteurs PS / 2. Ils ne pouvaient pas faire la différence entre une disquette de 720 Ko et une disquette de 1,44 Mo. Ainsi, il était possible de formater le premier comme le second. En principe, cela fonctionnait, mais cela menaçait de perdre des données, et même après une telle opération, seul un autre ordinateur PS / 2 pouvait lire les informations de la disquette.

Et une autre nouveauté PS / 2 - modules RAM 72 broches SIMM au lieu du SIPP obsolète. Quelques années plus tard, ils sont devenus la norme pour tous les ordinateurs personnels et peu nombreux, jusqu'à ce qu'ils soient remplacés par des barrettes DIMM.

Nous arrivons donc à la fin des années 80. IBM a fait beaucoup plus pour le consommateur moyen au cours de ces 10 années qu'au cours de toutes les années précédentes. Grâce à ses ordinateurs personnels, nous pouvons désormais assembler nous-mêmes un ordinateur de manière indépendante, et non pas en acheter un prêt à l'emploi comme Apple le voudrait. Rien ne nous empêche d'y installer n'importe quel système d'exploitation, à l'exception de Mac OS qui, là encore, n'est accessible qu'aux possesseurs d'ordinateurs Apple. Nous avons obtenu la liberté et IBM a perdu le marché, mais a gagné la renommée d'un pionnier.

Au début des années 90, le géant bleu n'était plus l'acteur dominant du monde informatique. Intel dominait alors le marché des processeurs, Microsoft dominait le segment des logiciels d'application, Novell réussissait dans la mise en réseau, Hewlett-Packard dans les imprimantes. Même les disques durs inventés par IBM ont commencé à être produits par d'autres sociétés, ce qui a permis à Seagate de s'imposer (déjà à la fin des années 80 et conserve ce leadership à ce jour).

Dans le secteur des entreprises, tout ne s'est pas bien passé. Inventé par l'employé d'IBM Edgar Codd en 1970, le concept de bases de données relationnelles (en un mot, c'est un moyen d'afficher des données sous forme de tableaux à deux dimensions) a commencé à gagner en popularité au début des années 80. IBM a même contribué à la création du langage de requête SQL. Et c'est ainsi que le paiement de la main-d'œuvre - numéro un dans le domaine des SGBD au début des années 90 est devenu Oracle.

Eh bien, sur le marché des ordinateurs personnels, il a été évincé par Compaq, et au fil du temps également par Dell. Finalement, le président d'IBM, John Akers, a entamé le processus de réorganisation de l'entreprise, en la divisant en divisions autonomes, chacune axée sur un domaine spécifique. Ainsi, il souhaitait améliorer l'efficacité de la production et réduire les coûts. C'est ainsi qu'IBM a rencontré la dernière décennie du 20e siècle.

Temps de crise

Les années 90 ont plutôt bien commencé pour IBM. Malgré la baisse de popularité de ses ordinateurs personnels, l'entreprise réalisait toujours de gros bénéfices. Le plus grand de son histoire. Dommage que ce ne soit qu'à la fin des années 80. Plus tard, le géant bleu n'a tout simplement pas réussi à saisir les principales tendances du monde informatique, ce qui n'a pas entraîné les conséquences les plus agréables.

Malgré le succès des ordinateurs personnels, dans l'avant-dernière décennie du siècle dernier, IBM a continué à générer la plupart de ses revenus des ventes de mainframe. Mais le développement de la technologie a permis de passer à l'utilisation d'ordinateurs personnels plus compacts, et avec eux à de gros ordinateurs basés sur des microprocesseurs. De plus, les versions régulières se vendaient à des marges inférieures à celles des mainframes.

Il suffit maintenant d'additionner la baisse des ventes du principal produit rentable, la perte de sa position sur le marché des ordinateurs personnels, et en même temps les défaillances du marché des technologies de réseau, que Novell a occupé avec succès, pour ne pas être surpris des pertes de 1 milliard de dollars en 1990 et 1991. Et 1992 s'est avéré être un nouveau record - 8,1 milliards de dollars de pertes. Il s'agit de la plus grosse perte annuelle d'entreprise de l'histoire des États-Unis.

Faut-il s'étonner que l'entreprise ait commencé à « bouger » ? En 1993, Louis V. Gerstner, Jr. a pris la présidence. Son plan était de changer la situation actuelle, pour laquelle il a radicalement restructuré la politique de l'entreprise, en concentrant les principales divisions sur la prestation de services et le développement de logiciels. Dans le domaine du matériel, IBM avait certainement beaucoup à offrir, mais en raison de la multitude de fabricants d'ordinateurs et de la présence d'autres entreprises technologiques, ce n'était pas le cas. Quoi qu'il en soit, il y aura quelqu'un qui proposera un produit moins cher et non moins fonctionnel.

En conséquence, dans la seconde moitié de la décennie, IBM a élargi son portefeuille de logiciels avec des applications de Lotus, WebSphere, Tivoli et Rational. Elle a également continué à développer sa propre base de données relationnelle, DB2.

Think Pad

Malgré la crise des années 90, le géant bleu a présenté un produit populaire. C'était la gamme d'ordinateurs portables ThinkPad qui existe encore aujourd'hui, bien que sous le patronage de Lenovo. Il a été présenté face à trois modèles 700, 700C et 700T en octobre 1992. Les ordinateurs portables étaient équipés d'un écran de 10,4 pouces, d'un processeur Intel 80486SLC à 25 MHz, d'un disque dur de 120 Mo, du système d'exploitation Windows 3.1. Dans le même temps, leur coût était de 4350 $.

Clavier papillon IBM ThinkPad 701

Un peu sur l'origine du nom de la série. Le mot « Think » a été imprimé sur des cahiers d'entreprise IBM reliés en cuir. L'un des participants au projet de PC mobile de nouvelle génération a suggéré d'y ajouter un "Pad" (clavier, pavé numérique). Au début, tout le monde n'acceptait pas le ThinkPad, arguant que jusqu'à présent le nom de tous les systèmes IBM était numérique. Cependant, à la fin, ThinkPad est devenu le nom officiel de la série.

Les premiers ordinateurs portables ThinkPad sont devenus très populaires. En assez peu de temps, ils ont récolté plus de 300 récompenses de diverses publications pour un travail de haute qualité et de multiples innovations de conception. Ce dernier, notamment, comprend le "clavier papillon", qui est légèrement surélevé et étiré en largeur pour faciliter le travail. Plus tard, avec l'augmentation de la diagonale de l'écran des ordinateurs portables, le besoin en a disparu.

Pour la première fois, TrackPoint a été utilisé - un nouveau type de manipulateur. On le trouve encore aujourd'hui dans les ordinateurs portables ThinkPad et de nombreux autres PC mobiles de classe entreprise. Dans certains modèles, une LED a été installée sur l'écran pour éclairer le clavier dans l'obscurité. Pour la première fois, IBM a intégré un accéléromètre dans un ordinateur portable, qui a détecté une chute, après quoi les têtes de disque dur se sont garées, ce qui a considérablement augmenté la probabilité de sécurité des données en cas de fort impact. ThinkPad a été le pionnier de l'utilisation de scanners d'empreintes digitales et du TPM intégré pour la protection des données. Maintenant, tout cela est utilisé à un degré ou à un autre par tous les fabricants d'ordinateurs portables. Mais n'oubliez pas qu'IBM doit être reconnaissant pour tous ces "délices de la vie".

Alors qu'Apple payait très cher Tom Cruise dans Mission Impossible pour sauver le monde avec un nouveau PowerBook, IBM a vraiment poussé le progrès humain vers un avenir meilleur avec ses ThinkPad. Par exemple, le ThinkPad 750 a volé en 1993 sur la navette Endeavour. Ensuite, la tâche principale de la mission était de réparer le télescope Hubble. Le ThinkPad A31p est sur l'ISS depuis longtemps.

Aujourd'hui, la société chinoise Lenovo continue de soutenir de nombreuses traditions d'IBM. Mais c'est déjà l'histoire de la prochaine décennie.

Temps du nouveau siècle

Le changement de cap de l'entreprise, amorcé au milieu des années 90, a atteint son paroxysme dans la décennie actuelle. IBM a continué à se concentrer sur la fourniture de services de conseil, la création de nouvelles technologies pour les licencier et le développement de logiciels, sans oublier les équipements coûteux - le géant bleu n'a pas quitté ce domaine jusqu'à présent.

La dernière étape de la réorganisation a eu lieu entre 2002 et 2004. En 2002, IBM a acquis la société de conseil PricewaterhouseCoopers et dans le processus a vendu sa division de disques durs à Hitachi. Ainsi, le géant bleu a abandonné la production ultérieure de disques durs, qu'il avait lui-même inventé un demi-siècle plus tôt.

IBM ne va pas encore quitter le secteur des superordinateurs et des mainframes. L'entreprise continue de se battre pour les premières places du classement Top500 et continue de le faire avec un degré de succès assez élevé. En 2002, un programme spécial de 10 milliards de dollars a même été lancé, selon lequel IBM a créé les technologies nécessaires pour pouvoir fournir l'accès aux supercalculateurs à n'importe quelle entreprise presque immédiatement sur demande.

Alors que les gros ordinateurs du géant bleu se portent bien jusqu'à présent, les petits PC ne se portent pas bien. En conséquence, 2004 est marqué comme l'année de la vente de l'activité informatique d'IBM à la société chinoise Lenovo. Ce dernier est allé à tous les développements sur les systèmes personnels, y compris la populaire série ThinkPad. Lenovo a même obtenu le droit d'utiliser la marque IBM pendant cinq ans. IBM lui-même a reçu 650 millions de dollars en espèces et 600 millions de dollars en actions en retour. Il détient désormais 19% de Lenovo. Dans le même temps, le géant bleu continue également de vendre des serveurs. Toujours pas pour continuer à être dans les trois principaux acteurs de ce marché.

Alors que s'est-il passé à la fin ? En 2005, IBM employait environ 195 000 employés, dont 350 étaient reconnus comme « ingénieurs exceptionnels » et 60 étaient des boursiers IBM. Ce titre a été introduit en 1962 par le président de l'époque, Thomas Watsan, pour mettre en valeur les meilleures personnes de l'entreprise. En règle générale, un IBM Fellow ne recevait pas plus de 4 à 5 personnes par an. Depuis 1963, il y a eu environ 200 de ces employés. 70 d'entre eux travaillaient en mai 2008.

Avec un potentiel scientifique aussi sérieux, IBM est devenu l'un des leaders de l'innovation. Entre 1993 et ​​2005, le géant bleu a reçu 31 000 brevets. De plus, en 2003, il a établi un record pour le nombre de brevets reçus par une entreprise par an - 3415 pièces.

En fin de compte, IBM est devenu aujourd'hui moins accessible au grand public. En fait, c'était la même chose avant les années 80. La société travaille avec des produits de vente au détail depuis 20 ans, mais est toujours revenue à ses origines, bien que sous une forme légèrement différente. Mais tout de même, ses technologies et développements nous parviennent sous forme d'appareils d'autres fabricants. Ainsi, le géant bleu reste avec nous plus loin.

Temps de postface

À la fin de l'article, nous aimerions fournir une courte liste des découvertes les plus importantes faites par IBM au cours de son existence, mais non mentionnées ci-dessus. Après tout, il est toujours agréable de s'étonner une fois de plus que l'une ou l'autre entreprise bien connue soit à l'origine de la création d'un autre jouet électronique préféré.

Le début de l'ère des langages de programmation de haut niveau est attribué à IBM. Eh bien, peut-être pas pour elle personnellement, mais elle a pris une part très active à ce processus. En 1954, l'ordinateur IBM 704 a été introduit, dont l'une des principales "puces" était la prise en charge du langage Fortran (abréviation de Formula Translation). Son objectif principal était de remplacer le langage assembleur de bas niveau par quelque chose de plus lisible par l'homme.

En 1956, le premier manuel de référence Fortran est apparu. Et à l'avenir, sa popularité a continué de croître. Principalement en raison de l'inclusion d'un traducteur de langue dans le progiciel standard pour les systèmes informatiques IBM. Ce langage est devenu le langage principal pour les applications scientifiques pendant de nombreuses années, et a également donné une impulsion au développement d'autres langages de programmation de haut niveau.

Nous avons déjà évoqué la contribution d'IBM au développement des bases de données. En effet, grâce au géant bleu, la plupart des sites sur Internet utilisant des SGBD relationnels fonctionnent aujourd'hui. Ils n'hésitent pas à utiliser le langage SQL, lui aussi sorti des profondeurs d'IBM. Il a été introduit en 1974 par Donald D. Chamberlin et Raymond F. Boyce. Il s'appelait alors SEQUEL (Structured English Query Language), puis l'abréviation a été raccourcie en SQL (Structured Query Language), puisque « SEQUEL » était une marque déposée de la compagnie aérienne britannique Hawker Siddeley.

Probablement, certains se souviennent encore de la façon dont ils exécutaient des jeux à partir de magnétophones à cassettes sur leur ordinateur domestique (ou non domestique) de l'UE. Mais IBM a été l'un des premiers à utiliser la bande magnétique pour le stockage des données. En 1952, elle et l'IBM 701 ont introduit le premier lecteur de bande magnétique capable d'écrire et de lire des données.

Disquettes. De gauche à droite : 8", 5,25", 3,5"

Les disquettes provenaient également d'IBM. En 1966, elle a présenté le premier lecteur avec une tête d'enregistrement en métal. Cinq ans plus tard, elle annonce le début de la distribution massive de disquettes et de lecteurs pour celles-ci.

IBM 3340 "Winchester"

Le mot d'argot "disque dur" pour disque dur vient aussi des profondeurs d'IBM. En 1973, la société a introduit le disque dur IBM 3340 "Winchester". Il tire son nom du chef de l'équipe de développement Kenneth Haughton, qui a donné à l'IBM 3340 le nom interne "30-30", dérivé du fusil Winchester 30-30. "30-30" indiquait directement la capacité de l'appareil - deux plaques de 30 Mo chacune y étaient installées. Soit dit en passant, ce modèle particulier a été le premier à connaître un grand succès commercial sur le marché.

Nous devons également remercier IBM pour notre mémoire moderne. C'est elle qui a inventé en 1966 la technologie de production de mémoire dynamique, où un seul transistor était alloué pour un bit de données. En conséquence, il a été possible d'augmenter considérablement la densité d'enregistrement des données. Cette découverte a probablement incité les ingénieurs de l'entreprise à créer un tampon ou un cache de données ultra-rapide spécial. En 1968, cela a été mis en œuvre pour la première fois dans l'ordinateur central System / 360 Model 85 et pouvait stocker jusqu'à 16 000 caractères.

L'architecture des processeurs PowerPC provient également en grande partie d'IBM. Bien qu'il ait été développé conjointement par Apple, IBM et Motorola, il était basé sur le processeur IBM 801, que la société prévoyait d'installer dans ses premiers ordinateurs personnels au début des années 1980. L'architecture était initialement prise en charge par Sun et Microsoft. Cependant, d'autres développeurs étaient réticents à écrire des programmes pour cela. En conséquence, Apple est resté son seul utilisateur pendant près de 15 ans.

En 2006, Apple a abandonné le PowerPC au profit de l'architecture x86, en particulier des processeurs Intel. Motorola a quitté l'alliance en 2004. Eh bien, IBM n'a toujours pas limité son développement, mais les a orientés dans une direction légèrement différente. Il y a quelques années, on écrivait tellement de texte sur le processeur Cell qu'il suffirait de plusieurs livres. Aujourd'hui, il est utilisé dans la PlayStation 3 de Sony, et Toshiba en a également installé une version simplifiée dans son ordinateur portable multimédia phare Qosmio Q50.

Là-dessus, peut-être, nous terminerons. Si vous le souhaitez, vous pouvez trouver de nombreuses autres découvertes étonnantes d'IBM et en même temps écrire beaucoup de mots sur ses futurs projets, mais vous devriez alors commencer hardiment à faire un livre séparé. Après tout, l'entreprise mène des recherches dans divers domaines. Elle a des centaines de projets actifs, tels que la nanotechnologie et les supports de données holographiques, la reconnaissance vocale, la communication avec un ordinateur à l'aide de pensées, de nouvelles façons de contrôler un ordinateur, etc. - une liste prendra plusieurs pages de texte. Alors on y met un terme.

P.S. Et à la toute fin, un peu sur l'origine du terme « géant bleu » (ou « Big Blue »), comme est souvent appelé IBM. Il s'est avéré que l'entreprise elle-même n'avait rien à voir avec lui. Les produits avec le mot "Bleu" dans leur nom ne sont apparus que dans les années 90 (en particulier dans une série de supercalculateurs), et la presse l'appelle "le géant bleu" depuis le début des années 80. Les responsables d'IBM pensent que cela pourrait provenir de la couverture bleue de ses ordinateurs centraux, qui ont été produits dans les années 60.

Informations générales sur MS DOS

Les systèmes d'exploitation pour ordinateurs personnels au cours de l'existence de cette classe d'ordinateurs depuis 1975 ont connu un développement important, accompagné d'une augmentation de la capacité en bits des ordinateurs personnels (PC) de 8 à 32, étendant les capacités, améliorant l'interface utilisateur (tableau 2.1) .

Tableau 2.1 Certains types de système d'exploitation pour ordinateurs personnels

ordinateur
8 bits 16 bits 32 bits
P/M-80, MSX DOS, MikpoDOS, Mikros-80 MS-DOS, RAFOS, DBK OS, INMOS UNIX, XENIX, Windows 95, OS/2

Les systèmes d'exploitation 8 bits conservent leur importance en tant que systèmes d'exploitation des ordinateurs éducatifs et domestiques (de jeux) les plus simples. En raison de l'espace d'adressage limité de la RAM (65 Ko), une utilisation professionnelle sérieuse de tels ordinateurs est impossible.

Les ordinateurs compatibles IBM 16 bits constituent une part importante du parc d'ordinateurs personnels professionnels de notre pays. Le système d'exploitation le plus courant pour ces ordinateurs est un MS DOS mono-utilisateur à tâche unique (de MicroSoft - abrégé en MS ; DOS est l'abréviation anglaise du nom « système d'exploitation de disque »). La première version de ce système d'exploitation a été créée simultanément avec l'ordinateur personnel IBM PC en 1981 et à partir de périphériques externes uniquement pris en charge les disquettes avec 160 Ko de disquettes. La version 2.0 est associée à l'apparition de la modification PC XT, elle supporte également les disques durs jusqu'à 10 Mo, une structure de fichier arborescente. Populaire au fil des ans version 3.3 (1987) - pour prendre en charge PC AT. Cette modification de l'OS s'attaque à 640 Ko de RAM, ce qui au moment de son apparition était un moment progressif, puis est devenu un facteur freinant l'avancée du logiciel. Les versions modernes de MS DOS ont surmonté les limitations de la taille de la mémoire vive (RAM), ont de nombreuses nouvelles commandes, contiennent des pilotes de périphériques intégrés, un shell graphique, un système d'aide, etc.

Les principaux composants structurels de MS DOS sont les suivants :

Système d'entrée/sortie de base (BIOS) ;

Chargeur de démarrage (SB) ;

Les pilotes de périphériques (c'est-à-dire les programmes qui prennent en charge leur fonctionnement) ;

Module de base ;

Processeur de commandes (également appelé interpréteur de commandes) ;

Utilitaires DOS (programmes auxiliaires).

Décrivons brièvement les principaux composants. Le BIOS est stocké dans la ROM. Ce programme est écrit directement en codes machine ; lorsque l'ordinateur est allumé, il est automatiquement lu dans la RAM, lancé pour exécution et effectue une vérification rapide du fonctionnement des principaux périphériques de l'ordinateur. Ensuite, le BIOS recherche sur les disques le programme de démarrage du système d'exploitation (programmes amorcer). Le BIOS a également des fonctions pour prendre en charge les périphériques standard tels que l'écran et le clavier.

Le programme d'amorçage trouvé par le BIOS sur le disque accède aux lecteurs A, B, et ainsi de suite dans l'ordre. jusqu'à ce qu'il trouve le programme SB - chargeur de démarrage... Ce programme vérifie la présence du noyau du système d'exploitation sur le disque, qui se compose de fichiers nommés ibmio.sys - le fichier d'extension du BIOS et command.com - le processeur de commandes, les charge dans la RAM et lance le premier de ces programmes pour exécution . Il teste en outre le matériel, effectue la configuration DOS (standard en l'absence de fichier config.sys - un fichier de configuration ou non standard conformément au contenu du fichier config.sys), connecte les pilotes nécessaires, etc. Ensuite, ce programme définit des instructions sur la façon de gérer les interruptions (vecteurs d'interruption) et transfère le contrôle au module DOS de base, qui continue de définir les règles de traitement des interruptions, puis charge le processeur de commandes dans la RAM et lui transfère le contrôle.

Un utilisateur travaillant avec DOS sans programmes shell ou systèmes d'interface supplémentaires communique directement avec le processeur de commandes. Le mode de fonctionnement est interactif, c'est-à-dire l'utilisateur émet une commande, le système d'exploitation s'exécute et attend la prochaine commande. La façon d'émettre des commandes est assez archaïque - il suffit de taper le texte de la commande sur le clavier, dont il faut se souvenir de la plupart des commandes, et pour les rares - d'utiliser le livre de référence (soit sous la forme d'un livre ou intégré dans DOS).

Processeur de commandes,étant lancé, il recherche et exécute d'abord programme d'exécution automatique(fichier autoexec.bat), si présent. Ce programme est créé par l'utilisateur à partir de commandes DOS afin d'effectuer certaines actions de routine pour créer un environnement confortable pour commencer. Par exemple, si vous obtenez le panneau Norton Commander à l'écran lorsque vous démarrez votre ordinateur, c'est uniquement parce que ce programme "auto-start" est fourni par ceux qui ont compilé le fichier autoexec.bat. L'action suivante du processeur de commandes est d'inviter l'utilisateur à saisir une commande à l'écran, qui ressemble, par exemple, à ceci : C> (si DOS a été chargé à partir du lecteur C).

Le 12 août 1981, IBM Corporation a annoncé la sortie d'un nouveau complexe matériel et logiciel - l'ordinateur personnel IBM 5150.
Le 12 août 1981, IBM Corporation a annoncé la sortie d'un nouveau complexe matériel et logiciel - l'ordinateur personnel IBM 5150 (appelé plus tard IBM PC). Personne ne savait alors que cette date particulière deviendrait le point de départ d'une nouvelle étape dans le développement de la technologie informatique - l'ère des ordinateurs personnels, et ce modèle serait la norme de l'industrie pendant de nombreuses années.
Je dois dire que l'IBM 5150 n'était en aucun cas le premier ordinateur à usage personnel. Depuis plusieurs années, le marché vend des équipements d'Apple, d'Altair et de plusieurs autres fabricants. Et IBM lui-même a tenté de créer de tels dispositifs. L'un de ses projets visant à « mettre l'informatique entre les mains d'un seul utilisateur » appelé « SCAMP » (ordinateur spécial, APL Machine Portable) a commencé en 1973, et son résultat sous la forme de l'ordinateur portable IBM 5100 est apparu deux ans plus tard. Douze modifications de cet ordinateur (avec une RAM allant de 16 à 64 Ko) ont été vendues à des prix allant de 9 à 20 mille dollars.
Le PC IBM 5150 était beaucoup plus abordable - dans la version avec 16 Ko de mémoire (extensible jusqu'à 256 Ko), il ne coûtait que 1 565 $ (inclus avec l'imprimante).

Certes, il n'avait pas de disque dur, mais il pouvait travailler avec des disquettes de 5 pouces. L'appareil a été développé en un temps record - en un an par une équipe de douze personnes dirigée par Don Estridge, connu depuis comme le "père du PC IBM".
Pourquoi la sortie de l'IBM 5150 est-elle devenue le point de départ de « l'ère du PC » ? Pour à peu près la même raison pour laquelle Christophe Colomb est considéré comme le "découvreur de l'Amérique". Après tout, il existe des informations selon lesquelles certains marins européens ont déjà traversé l'Atlantique. Mais ils ont tous découvert l'Amérique « pour eux-mêmes », et Colomb l'a découverte pour tout le Vieux Monde.
Il y a deux raisons principales au succès de l'IBM 5150.
Le premier est le facteur temps. Au début des années 80, le marché était mûr pour une utilisation généralisée des ordinateurs individuels (en grande partie grâce aux pionniers, les mêmes Apple et Altair), et IBM a réussi à trouver la combinaison optimale "prix - fonctionnalité", dans laquelle le PC était à la fois utile pour le travail et tout à fait abordable.
Le second est un modèle commercial qualitativement nouveau pour la création et la promotion d'un nouvel appareil sur le marché. Afin d'accélérer sa conception, IBM a pour la première fois largement utilisé le principe de "l'externalisation" pour le développement d'éléments individuels du PC. Tout le monde connaît deux de ces composants de l'IBM 5150 - un processeur Intel 8088 16 bits avec une fréquence d'horloge de 4,77 MHz (une version modifiée du processeur 8086) et le système d'exploitation PC-DOS, qui était une version légèrement modifiée de MicroSoft. Disk Operating System 1.0, créé par un jeune par une entreprise de Seattle *. Mais encore plus important était le fait que la voiture a été construite sur les principes de "l'architecture ouverte". Cela signifiait que d'autres entreprises pouvaient fabriquer des PC compatibles. C'est ainsi qu'il est décrit dans le livre de Yu. L. Polunov « D'un boulier à un ordinateur » paru aux « Éditions russes » en 2004 (tome II, p. 327) :
« Lors de la présentation, Estridge a fait une déclaration qui a surpris (voire ébranlé) le monde informatique. Contrairement à sa nature traditionnellement « fermée », la société a annoncé son intention de publier un manuel technique avec les circuits électriques et les spécifications du PC, ainsi que les codes sources du BIOS et des programmes de diagnostic : « Nous fournirons des informations à l'industrie artisanale existante pour lui permettre de pour développer des cartes d'extension, nous serons heureux de recevoir toutes les suggestions des sociétés de logiciels "".
IBM peut donc être considéré comme le fondateur idéologique du concept Open Source. Certes, au début, les fabricants tiers pouvaient le faire en acquérant une licence d'utilisation du BIOS auprès d'IBM, mais très vite, des développements indépendants de BIOS compatibles sont apparus et la production de clones de PC a pu être réalisée sans redevances pour le Blue Giant.
La combinaison de ces deux points (un bon temps de lancement et un nouveau modèle économique) a créé un effet domino (la concurrence des fabricants entraîne une baisse des prix - la demande augmente - le nombre de fournisseurs augmente - etc.), et les ordinateurs compatibles IBM PC en quelques années ont inondé le monde entier.
Le phénomène principal du PC est que, pour la première fois, une solution technique complexe échappe au contrôle de la société auteur et commence à se développer sous le contrôle d'une communauté informatique non organisée, composée de dizaines de milliers de grandes et petites entreprises informatiques : fabricants de composants électroniques, assembleurs d'ordinateurs, développeurs de logiciels. Par conséquent, lorsque nous disons que le PC a ouvert une nouvelle étape dans le développement de la technologie informatique, nous ne parlons pas de solutions techniques, mais de la mise en œuvre d'un modèle commercial qualitativement nouveau pour le développement du marché de la haute technologie, qui, après 10-15 ans nous avons pu observer déjà sur d'autres exemples - Internet, Open Source.
Cependant, toute communauté, même la plus libre, doit avoir des leaders. IBM n'a pas tenu longtemps ce rôle pour le PC : à la fin des années 80, deux autres participants au projet, Intel et Microsoft, avaient pris les devants. Il est curieux qu'en 1981 Microsoft n'ait même pas le statut de partenaire "junior" d'IBM, et Bill Gates n'ait pas été invité à la présentation officielle du premier PC. Après tout, MS-DOS n'était qu'une infime partie du projet, réalisé pour un montant ridicule de 80 000 dollars. Certes, ses développeurs ont conservé les droits de développer et de vendre leur système d'exploitation à d'autres fabricants d'ordinateurs.
L'une des légendes associées à l'histoire de la création du PC IBM dit que lors du choix d'un nom sonore pour un nouvel ordinateur, les développeurs, imitant Apple, ont passé en revue les noms de tous les fruits de Floride (le laboratoire qui a réalisé le projet se trouvait ici). Mais néanmoins, il a été décidé de l'appeler simplement PC, ce qui correspondait mieux au style strict d'IBM - un vétéran et leader incontesté du marché informatique. Et ils se sont avérés avoir raison : depuis lors, le terme PC n'est pas simplement une désignation pour n'importe quel ordinateur à des fins individuelles, mais un nom propre pour une famille très spécifique, dont l'ancêtre était le même IBM 5150. Donc d'un point de vue technique point de vue, la catégorie des PC comprend, entre autres, et les serveurs les plus puissants (au milieu des années 90, ce terme était souvent utilisé pour les désigner - "PC-servers").

En règle générale, les ordinateurs personnels IBM PC se composent des parties (blocs) suivantes :
- unité système(en conception verticale ou horizontale);
- surveiller(affichage) pour afficher des informations textuelles et graphiques ;
- claviers qui vous permet d'entrer divers caractères dans l'ordinateur.
Dans un ordinateur, l'unité la plus importante est celle du système ; tous les principaux composants de l'ordinateur s'y trouvent. L'unité centrale PC contient un certain nombre de dispositifs techniques de base, dont les principaux sont : un microprocesseur, une mémoire vive, une mémoire morte, une unité d'alimentation et des ports d'entrée-sortie et des périphériques de stockage.
De plus, les appareils suivants peuvent être connectés à l'unité centrale PC :
- Imprimante pour l'impression de textes et d'informations graphiques ;
- manipulateur de souris- l'appareil qui contrôle le curseur graphique
- manette utilisé principalement dans les jeux informatiques;
- traceur ou traceur- un dispositif de sortie des dessins sur papier ;
- scanner- un dispositif de lecture d'informations graphiques et textuelles ;
- CD ROM- un lecteur de CD-ROM, utilisé pour lire des images animées, du texte et du son ;
- modem- un dispositif d'échange d'informations avec d'autres ordinateurs via le réseau téléphonique ;
- banderole- un dispositif de stockage de données sur bande magnétique ;
- Adaptateur de réseau- un appareil qui permet à un ordinateur de fonctionner dans un réseau local.
Les unités principales d'un ordinateur personnel sont les dispositifs suivants : processeur, mémoire (opérative et externe), dispositifs de connexion de terminaux et de transmission de données. Voici une description des différents périphériques inclus dans l'ordinateur ou connectés à celui-ci.
Microprocesseur
Un microprocesseur est un grand circuit intégré (LSI) réalisé sur un seul cristal, qui est un élément permettant de créer des ordinateurs de divers types et objectifs. Il peut être programmé pour exécuter une fonction logique arbitraire, ce qui signifie qu'en changeant de programme, vous pouvez forcer le microprocesseur à faire partie d'un dispositif arithmétique ou de contrôler les E/S. Mémoire, des dispositifs d'entrée-sortie peuvent être connectés au microprocesseur.
Dans les ordinateurs tels que le PC IBM, des microprocesseurs d'Intel sont utilisés, ainsi que des microprocesseurs d'autres sociétés qui sont compatibles avec eux.
Les microprocesseurs diffèrent les uns des autres par leur type (modèle) et leur fréquence d'horloge (vitesse d'exécution des opérations élémentaires, exprimée en mégahertz - MHz). Les modèles les plus courants d'Intel : 8088, 80286, 80386SX, 80386DX, 80486, Pentium et Pentium-Pro, Pentium-II, Pentium-III, ils sont répertoriés par ordre croissant de performances et de prix. Des modèles identiques peuvent avoir des vitesses d'horloge différentes - plus la vitesse d'horloge est élevée, plus les performances et le prix sont élevés.
Les principaux microprocesseurs Intel 8088, 80286, 80386, publiés précédemment, ne contiennent pas d'instructions spéciales pour le traitement des nombres à virgule flottante, donc pour augmenter leur vitesse, des coprocesseurs dits mathématiques peuvent être installés qui augmentent les performances lors du traitement des nombres à virgule flottante.
Mémoire
La mémoire vive ou mémoire vive (RAM - OP), ainsi que la mémoire morte (ROM - ROM) forment la mémoire interne de l'ordinateur, à laquelle le microprocesseur a un accès direct pendant son travail. Toute information pendant le traitement est pré-écrite par un ordinateur à partir de la mémoire externe (des disques magnétiques) dans la RAM. Le PO contient des données et des programmes traités au moment actuel du fonctionnement de l'ordinateur. Les informations contenues dans l'OP sont reçues (copiées) de la mémoire externe et, après traitement, y sont à nouveau écrites. Les informations dans l'OP ne sont contenues que pendant une session de travail et lorsque le PC est éteint ou en cas de panne d'urgence du réseau électrique, elles sont irrémédiablement perdues. A cet égard, l'utilisateur doit régulièrement en fonctionnement enregistrer des informations à conserver longtemps de la mémoire sur des disques magnétiques afin d'éviter sa perte.
Plus le volume de RAM est important, plus la puissance de calcul de l'ordinateur est élevée. Comme vous le savez, pour déterminer la quantité d'informations, l'unité de mesure est 1 octet, qui est une combinaison de huit bits (zéros et uns). Dans ces unités, la quantité d'informations stockées dans la RAM ou sur une disquette peut être écrite sous la forme 360 ​​Ko, 720 Ko ou 1,2 Mo. Ici, 1 Ko = 1024 octets et 1 Mo (1 mégaoctet correspond à 1 024 Ko, tandis que le disque dur peut contenir 500 Mo, 1000 Mo ou plus.
Pour l'IBM PC XT, la portée est OH. en règle générale, il est de 640 Ko, pour IBM PC AT - plus de I Mo, pour les anciens modèles d'IBM PC - de 1 à 8 Mo, mais parfois 16, et 32 ​​Mo et même plus - la mémoire peut être augmentée en ajoutant des microcircuits sur la carte principale de l'ordinateur.
Contrairement à OP, la ROM stocke constamment les mêmes informations et l'utilisateur ne peut pas les modifier, bien qu'il ait la capacité de les lire. Habituellement, le volume de la ROM est petit et s'élève à 32 - 64 Ko. La ROM stocke divers programmes enregistrés en usine et principalement conçus pour initialiser l'ordinateur lorsqu'il est allumé.
1 Mo de RAM se compose généralement de deux parties : les 640 premiers Ko peuvent être utilisés par le programme d'application et le système d'exploitation (OS). Le reste de la mémoire est utilisé à des fins de service :
- pour stocker une partie du système d'exploitation qui assure le test de l'ordinateur, le chargement initial du système d'exploitation, ainsi que la mise en œuvre des services d'E/S de bas niveau de base ;
- pour transférer des images sur l'écran ;
- pour stocker diverses extensions de système d'exploitation qui apparaissent avec des périphériques informatiques supplémentaires.
En règle générale, en parlant de la quantité de mémoire (RAM), ils désignent exactement sa première partie, et elle est parfois insuffisante pour l'exécution de certains programmes.
Ce problème est résolu avec les mémoires étendues et étendues.
Les microprocesseurs Intel 80286, 80386SX et 80486SX peuvent gérer des mémoires RAM plus grandes - 16 Mo, et 80386 et 80486 - 4 Go, mais MS DOS ne peut pas gérer directement des mémoires RAM supérieures à 640 Ko. Pour accéder à l'OP supplémentaire, des programmes spéciaux (pilotes) ont été développés qui permettent de recevoir une demande d'un programme d'application et de passer au "mode protégé" du fonctionnement du microprocesseur. Après avoir terminé la demande, les pilotes passent au fonctionnement normal du microprocesseur.
En espèces
Le cache est une mémoire spéciale du processeur à grande vitesse. Il est utilisé comme tampon pour accélérer le travail du processeur avec l'OP. En plus du processeur, le PC contient :
- circuits électroniques (contrôleurs) qui contrôlent le fonctionnement de divers appareils inclus dans l'ordinateur (moniteur, lecteurs, etc.);
- des ports d'entrée et de sortie à travers lesquels le processeur échange des données avec des périphériques externes. Il existe des ports spécialisés à travers lesquels les données sont échangées avec les périphériques internes de l'ordinateur, et des ports à usage général auxquels divers périphériques externes supplémentaires (imprimante, souris, etc.) peuvent être connectés.
Les ports à usage général sont de deux types : parallèles, désignés LPT1 à LPT9, et les ports série asynchrones, désignés COM1 à COM4. Les ports parallèles effectuent des E/S plus rapides que les ports série, mais ils nécessitent également plus de câbles pour communiquer (le port du domaine de l'imprimante est parallèle et le port série pour la communication par modem sur le réseau téléphonique).
Adaptateurs graphiques
Le moniteur ou l'affichage est un périphérique obligatoire du PC et sert à afficher les informations traitées à partir de la RAM de l'ordinateur.
Selon le nombre de couleurs utilisées lors de la présentation des informations à l'écran, les affichages sont divisés en monochrome et en couleur, et selon le type d'informations affichées à l'écran, en symbolique (seules les informations symboliques sont affichées) et graphique (à la fois symbolique et graphique informations sont affichées). Un ordinateur vidéo se compose de deux parties : un moniteur et un adaptateur. On ne voit que le moniteur, l'adaptateur est caché dans la carrosserie. Le moniteur lui-même ne contient qu'un tube cathodique. L'adaptateur contient des circuits logiques qui produisent le signal vidéo. Le faisceau d'électrons traverse l'écran en 1/50 de seconde environ, mais l'image change assez rarement. Par conséquent, le signal vidéo entrant dans l'écran doit à nouveau générer (régénérer) la même image. L'adaptateur a une mémoire vidéo pour le stocker.
En mode caractère, l'écran d'affichage, en règle générale, affiche simultanément 25 lignes de 80 caractères par ligne (un total de 2000 caractères - le nombre de caractères sur une feuille dactylographiée standard), et en mode graphique, la résolution de l'écran est déterminée par les caractéristiques de la carte adaptateur du moniteur - le dispositif pour son interface avec l'unité centrale ...
La qualité de l'image sur l'écran du moniteur dépend du type d'adaptateur graphique utilisé.
Les adaptateurs les plus utilisés sont des types suivants : EGA, VGA et SVGA. VGA et SVGA (SuperVGA) sont assez largement utilisés de nos jours. SVGA a une très haute résolution. Auparavant, un adaptateur CGA était utilisé, mais il n'est plus utilisé sur les ordinateurs modernes.
Les adaptateurs varient " résolution"(pour les modes graphiques). La résolution est mesurée par le nombre de lignes et le nombre d'éléments par ligne (" pixel "), en d'autres termes, - points par ligne. Par exemple, un moniteur avec une résolution de 720x348 affiche verticalement 348 lignes-points à 720 points par ligne.Les systèmes de publication utilisent des moniteurs avec une résolution de 800x600 et 1024x768, ce qui est très coûteux.
Les écrans sont de taille standard (14"), agrandis (15") et grands comme un téléviseur (17, 20 et même 21" - soit 54 cm de diagonale), couleur (de 16 à des dizaines de millions de couleurs) et monochrome .
La norme d'adaptateur de moniteur détermine également le nombre de couleurs dans la palette des moniteurs couleur : CGA en mode graphique a 4 couleurs, EGA a 64 couleurs, VGA a jusqu'à 256 couleurs et SVGA a plus d'un million de couleurs. En mode texte, toutes les normes ci-dessus permettent de reproduire 16 couleurs.
Le choix de tel ou tel type de moniteur dépend du type de problème à résoudre sur un PC. Par exemple, si un utilisateur ne traite que des informations textuelles, un moniteur de caractères monochrome lui suffira, mais s'il résout des problèmes (conception assistée par ordinateur, il a besoin d'un moniteur graphique couleur. Cependant, pour la plupart des applications, les moniteurs graphiques couleur et les adaptateurs sont préférés).
Disques durs
Les supports de stockage, qui font partie intégrante de tout ordinateur, sont souvent appelés supports de stockage externes ou mémoire externe de l'ordinateur. Ils sont destinés au stockage à long terme d'informations volumineuses, alors que leur contenu ne dépend pas de l'état actuel du PC. Toutes les données et programmes sont stockés sur des supports externes, par conséquent, une bibliothèque de données utilisateur est formée et enregistrée ici.
Les accumulateurs d'informations dans les ordinateurs personnels sont lecteurs de disques magnétiques(NMD), dans lequel l'accès direct à l'information est organisé. Récemment, pour les ordinateurs personnels, il est apparu lecteurs de bandes magnétiques- les streamers, qui peuvent contenir de très grandes quantités d'informations, mais en même temps n'en organisent qu'un accès séquentiel. Cependant, les lecteurs de bande ne remplacent pas les lecteurs de disques magnétiques, ils ne font que les compléter. Il y a beaucoup de HMD : lecteurs de disquettes (lecteurs de disquettes) et lecteurs de disques durs (HDD).
Les disques durs sont conçus pour le stockage permanent d'informations. Sur un PC IBM avec un microprocesseur 80286, la capacité du disque dur est généralement de 20 à 40 Mo, avec le 80386 SX, DX et 80486SX - jusqu'à 300 Mo, avec le 804S6DX jusqu'à 500-600 Mo, avec le PENTIUM - plus de 2 Go.
Un disque dur est un disque magnétique non amovible qui est protégé par un boîtier hermétiquement scellé et logé à l'intérieur de l'unité centrale. Il peut se composer de plusieurs disques avec deux surfaces magnétiques combinées en un seul emballage.
Un disque dur, contrairement à une disquette, permet de stocker de grandes quantités d'informations, ce qui offre de grandes possibilités à l'utilisateur.
Lorsqu'il travaille avec un disque dur, l'utilisateur doit connaître la quantité de mémoire occupée par les données et les programmes stockés sur les disques, la quantité de mémoire disponible, contrôler la plénitude de la mémoire et y placer rationnellement des informations. Les disquettes les plus courantes sont de 5,25 et 3,5 pouces.
Les disquettes (disquettes) vous permettent de transférer des informations d'un ordinateur à un autre, de stocker des informations qui ne sont pas constamment utilisées sur un ordinateur, de faire des copies d'archivage des informations stockées sur un disque dur. Une disquette (disquette) est un disque mince fait d'un matériau spécial avec un revêtement magnétique appliqué à sa surface. Sur le boîtier en plastique de la disquette, il y a une fente rectangulaire pour la protection en écriture, un trou pour le contact du disque magnétique avec les têtes de lecture du lecteur de disquette et une étiquette avec les paramètres de la disquette.
Le paramètre principal d'une disquette est son diamètre. Actuellement, il existe deux normes principales pour les lecteurs de disquettes - les disquettes d'un diamètre de 3,5 et 5,25 pouces (89 et 133 mm, respectivement). En règle générale, l'IBM PC XT et l'IBM PC AT utilisent principalement des disquettes de 5,25 pouces, et les anciens modèles de PC IBM utilisent des disquettes de 3,5 pouces.
Pour écrire et lire des informations, une disquette est installée dans le logement du lecteur, qui se trouve dans l'unité centrale. Dans un PC, il est possible d'avoir à la fois un et deux lecteurs de disque. Étant donné qu'une disquette est un périphérique amovible, elle est utilisée non seulement pour stocker des informations, mais également pour transférer des informations d'un PC à un autre.
Les disquettes de 5,25 pouces, selon la finition, peuvent contenir des informations de 360, 720 Ko ou 1,2 Mo.
Vous pouvez déterminer la capacité maximale des disquettes de 3,5 pouces par leur apparence : les disquettes de 1,44 Mo ont un emplacement dans le coin inférieur droit, mais pas les disquettes de 720 Ko. Ces disquettes sont logées dans un boîtier en plastique dur, ce qui améliore considérablement leur fiabilité et leur durabilité. À cet égard, sur les nouveaux ordinateurs, les disquettes 3,5 pouces remplacent les disquettes 5,25 pouces.
Protection en écriture des disquettes. Les disquettes de 5,25 pouces ont un emplacement de protection en écriture. Si cet emplacement est scellé, il ne sera pas possible d'écrire sur la disquette. Sur les disquettes 3,5 pouces ont des emplacements de protection en écriture, il y a un interrupteur spécial - un loquet qui permet ou interdit d'écrire sur la disquette. Mode d'autorisation d'enregistrement - le trou est fermé, si le trou est ouvert, l'enregistrement est interdit.
Initialisation (formatage) des disquettes. Une disquette doit être initialisée (marquée) d'une manière spéciale avant d'être utilisée pour la première fois.
En plus des lecteurs conventionnels, les ordinateurs modernes disposent de lecteurs spéciaux pour les disques compacts laser (CD-ROM), ainsi que pour les disques magnéto-optiques et les disques Bernoulli.
Les CD-ROM sont des disques compacts, de nombreux grands logiciels I poches pour ordinateurs modernes sont produits sur de tels disques. Les lecteurs de CD-ROM diffèrent par la vitesse de transfert des informations - régulier, double, quadruple, etc. la vitesse. Les disques modernes 24 - 36 - à grande vitesse fonctionnent presque à la vitesse d'un disque dur.
Un CD ordinaire contient plus de 600 Mo ou 600 millions de caractères, mais il est uniquement destiné à la lecture d'informations et ne peut pas être enregistré. Des CD réinscriptibles et leurs lecteurs correspondants sont déjà disponibles, mais ils sont très chers. Actuellement, les CD vendent des ensembles de photographies d'excellente qualité, des disques avec des clips vidéo et des films. Ensembles de jeux avec une variété de musiques et d'effets sonores, encyclopédies informatiques, programmes de formation - tout cela est publié uniquement sur CD.
Imprimantes et traceurs
L'imprimante (périphérique d'impression) est conçue pour sortir du texte et des informations graphiques de la RAM de l'ordinateur sur du papier, tandis que le papier peut être en feuille ou en rouleau.
Le principal avantage des imprimantes est la possibilité d'utiliser un grand nombre de polices, ce qui permet de créer des documents assez complexes. Les polices diffèrent par la largeur et la hauteur des lettres, leur pente et l'espacement entre les lettres et les lignes.
Pour travailler sur l'imprimante, l'utilisateur doit sélectionner la police dont il a besoin et définir les paramètres d'impression afin de faire correspondre la largeur du document de sortie et le format du papier utilisé. Sur cette base, par exemple, les imprimantes matricielles ont deux modifications : les imprimantes avec un chariot étroit (plus large qu'une feuille dactylographiée standard) et les imprimantes avec un chariot large (plus large qu'une feuille dactylographiée standard).
Rappelons que la taille de la « feuille d'ordinateur » (l'espace alloué par le PC à l'utilisateur pour remplir des informations symboliques) dépasse largement la taille de l'écran du moniteur et représente des centaines de colonnes et des milliers de lignes, ce qui est déterminé par la quantité de RAM libre de l'ordinateur et le logiciel utilisé. Lorsque les informations sont sorties vers l'imprimante, le contenu de la feuille d'ordinateur entière est imprimé, et pas seulement une partie visible sur l'écran du moniteur. Par conséquent, il est d'abord nécessaire de diviser le texte préparé pour l'impression en pages, en définissant la largeur de texte requise en fonction du type de police et de la largeur du papier.
Les imprimantes peuvent afficher des informations graphiques et même en couleur. Il existe des centaines de modèles d'imprimantes. Ils peuvent être des types suivants : matriciel, jet d'encre, lettre, laser.
Jusqu'à récemment, les imprimantes les plus couramment utilisées étaient des imprimantes matricielles, dont la tête d'impression contient une rangée verticale de fines tiges métalliques (aiguilles). La tête se déplace le long de la ligne imprimée et les tiges frappent le papier à travers le ruban encreur au bon moment. Ceci assure la formation d'une image sur papier. Les imprimantes bon marché utilisent des têtes à 9 barres et la qualité d'impression est médiocre, ce qui peut être amélioré en quelques passages. Meilleure qualité et vitesse d'impression suffisante pour les imprimantes à 24 ou 48 tiges. Vitesse d'impression - de 10 à 60 secondes par page. Lors du choix d'une imprimante, ils sont généralement intéressés par la possibilité d'imprimer des lettres russes et kazakhes. Dans ce cas, il est possible :
- des polices de lettres kazakhes et russes peuvent être intégrées à l'imprimante. Dans ce cas, après la mise sous tension, l'imprimante est immédiatement prête à imprimer des textes en kazakh et en russe. Si les codes des lettres kazakhes et russes sont les mêmes que dans l'ordinateur, les textes peuvent être imprimés à l'aide des commandes DOS PRINT ou COPY. Si les codes ne correspondent pas, vous devez utiliser les pilotes de transcodage.
- les polices des lettres kazakhes et russes sont absentes de la ROM de l'imprimante. Ensuite, avant d'imprimer les textes, il est nécessaire de télécharger le pilote permettant de télécharger les polices des lettres. Ils disparaissent de la mémoire lorsque l'imprimante est éteinte.
Imprimantes matricielles facile à utiliser, ont le coût le plus bas, mais une productivité et une qualité d'impression plutôt faibles, en particulier lors de l'affichage de données graphiques.
Imprimantes à jet d'encre l'image est formée de micro gouttes d'encre spéciale. Elles sont plus chères que les imprimantes matricielles et nécessitent un entretien minutieux. Elles fonctionnent silencieusement, ont beaucoup de polices intégrées, mais en même temps sont très sensibles à la qualité du papier - La qualité et la productivité des imprimantes à jet d'encre sont supérieures à celles des imprimantes matricielles. Certains des inconvénients sont : une consommation d'encre assez élevée et une imperfection des documents imprimés à l'humidité.
Imprimantes laser fournir la meilleure qualité d'impression, utiliser le principe de la xérographie - l'image est transférée sur du papier à partir d'un tambour spécial, vers lequel les particules d'encre sont attirées électriquement. La différence avec une machine xérographique est que le tambour d'impression est électrifié à l'aide d'un faisceau laser sur commandes de la machine. La résolution de ces imprimantes est de 300 à 1200 dpi. Vitesse d'impression de 3 à 15 secondes par page lors de la sortie de texte. Les imprimantes laser offrent la meilleure qualité d'impression et les meilleures performances, mais sont les plus chères des types d'imprimantes examinés.
Traceur(traceur) est également utilisé pour afficher des informations sur papier et est principalement utilisé pour afficher des informations graphiques. Les traceurs sont largement utilisés dans l'automatisation de la conception, lorsqu'il est nécessaire d'obtenir des dessins de produits développés. Les traceurs sont divisés en monochrome et en couleur, ainsi qu'en fonction de la qualité des informations produites pour l'impression.
Périphériques d'entrée d'ordinateur
Clavier - le principal dispositif de saisie d'informations dans l'ordinateur est le clavier. À l'aide de celui-ci, vous pouvez saisir des informations textuelles, définir des commandes pour l'ordinateur. Nous nous familiariserons plus en détail avec la capacité du clavier dans la prochaine leçon.
Souris avec le clavier, il est utilisé pour contrôler l'ordinateur. Il s'agit d'un petit appareil séparé avec deux ou trois boutons, que l'utilisateur déplace le long de la surface horizontale du bureau, en appuyant, si nécessaire, sur les touches correspondantes pour effectuer certaines opérations.
Scanner vous permet de saisir tout type d'informations dans un ordinateur à partir d'une feuille de papier, tandis que la procédure de saisie est simple, pratique et assez rapide.
Appareils supplémentaires
Modem(modulateur-démodulateur) sont utilisés pour transférer des données entre ordinateurs et ils diffèrent principalement par la vitesse de transfert des informations. Les vitesses des modems vont aujourd'hui de 2400 bps à 25000 mille bps. Ils prennent en charge certaines normes pour les procédures d'échange de données (protocoles). Lors de la connexion à un réseau informatique (Internet, Relcom, FidoNet, etc.) ou pour l'utilisation du courrier électronique, le modem est l'appareil le plus nécessaire.
Il existe également des modems fax qui combinent les fonctions d'un modem et d'un télécopieur. À l'aide d'un modem fax, vous pouvez envoyer des informations textuelles non seulement à l'ordinateur de votre abonné, mais également à un simple télécopieur et, par conséquent, les recevoir. Les modems fax sont un peu plus chers que les modems, mais leurs capacités sont plus larges.
De nos jours, ils parlent souvent des capacités multimédias des ordinateurs. Le multimédia est une méthode moderne d'affichage d'informations basée sur l'utilisation des capacités textuelles, graphiques et sonores d'un ordinateur, c'est-à-dire c'est l'utilisation combinée de l'image, du son, du texte, de la musique et de l'animation pour mieux afficher les données à l'écran. Un ordinateur doté de cette capacité doit disposer d'une carte son et d'un lecteur de CD-ROM pouvant reproduire les couleurs, les phonogrammes et les vidéos à partir d'un CD ordinaire. Les ordinateurs multimédias peuvent également contenir une carte vidéo spéciale pour connecter une caméra vidéo, un magnétoscope et un dispositif de réception de signaux de télévision.



questions de test

1. Répertoriez les principaux composants et options du PC.
2. Quelles imprimantes sont utilisées pour le PC ?
3. Quels adaptateurs vidéo connaissez-vous ? Quelle est la différence entre un écran et un adaptateur vidéo ?
4. Quelles disquettes utilisez-vous sur votre ordinateur ?
5. Qu'est-ce qu'un modem et à quoi sert-il ?

Informations générales sur MS DOS

Les systèmes d'exploitation pour ordinateurs personnels au cours de l'existence de cette classe d'ordinateurs depuis 1975 ont connu un développement important, accompagné d'une augmentation de la capacité en bits des ordinateurs personnels (PC) de 8 à 32, étendant les capacités, améliorant l'interface utilisateur (tableau 2.1) .

Tableau 2.1 Certains types de système d'exploitation pour ordinateurs personnels

ordinateur
8 bits 16 bits 32 bits
P/M-80, MSX DOS, MS-DOS, RAFOS,

OS DBK, INMOS

UNIX, XENIX,

Les systèmes d'exploitation 8 bits conservent leur importance en tant que systèmes d'exploitation des ordinateurs éducatifs et domestiques (de jeux) les plus simples. En raison de l'espace d'adressage limité de la RAM (65 Ko), une utilisation professionnelle sérieuse de tels ordinateurs est impossible.

Les ordinateurs compatibles IBM 16 bits constituent une part importante du parc d'ordinateurs personnels professionnels de notre pays. Le système d'exploitation le plus courant pour ces ordinateurs est un MS DOS mono-utilisateur à tâche unique (de MicroSoft - abrégé en MS ; DOS est l'abréviation anglaise du nom « système d'exploitation de disque »). La première version de ce système d'exploitation a été créée simultanément avec l'ordinateur personnel IBM PC en 1981 et à partir de périphériques externes uniquement pris en charge les disquettes avec 160 Ko de disquettes. La version 2.0 est associée à l'apparition de la modification PC XT, elle supporte également les disques durs jusqu'à 10 Mo, une structure de fichier arborescente. Populaire au fil des ans version 3.3 (1987) - pour prendre en charge PC AT. Cette modification de l'OS s'attaque à 640 Ko de RAM, ce qui au moment de son apparition était un moment progressif, puis est devenu un facteur freinant l'avancée du logiciel. Les versions modernes de MS DOS ont surmonté les limitations de la taille de la mémoire vive (RAM), ont de nombreuses nouvelles commandes, contiennent des pilotes de périphériques intégrés, un shell graphique, un système d'aide, etc.

Les principaux composants structurels de MS DOS sont les suivants :

Système d'entrée/sortie de base (BIOS) ;

Chargeur de démarrage (SB) ;

Les pilotes de périphériques (c'est-à-dire les programmes qui prennent en charge leur fonctionnement) ;

Module de base ;

Processeur de commandes (également appelé interpréteur de commandes) ;

Utilitaires DOS (programmes auxiliaires).

Décrivons brièvement les principaux composants. Le BIOS est stocké dans la ROM. Ce programme est écrit directement en codes machine ; lorsque l'ordinateur est allumé, il est automatiquement lu dans la RAM, lancé pour exécution et effectue une vérification rapide du fonctionnement des principaux périphériques de l'ordinateur. Le BIOS recherche ensuite sur les disques le programme de démarrage du système d'exploitation (programme d'amorçage). Le BIOS a également des fonctions pour prendre en charge les périphériques standard tels que l'écran et le clavier.

Le programme d'amorçage trouvé par le BIOS sur le disque accède aux lecteurs A, B, et ainsi de suite dans l'ordre. jusqu'à ce qu'il trouve le programme SB, le chargeur de démarrage. Ce programme vérifie la présence du noyau du système d'exploitation sur le disque, qui se compose de fichiers nommés ibmio.sys - le fichier d'extension du BIOS et command.com - le processeur de commandes, les charge dans la RAM et lance le premier de ces programmes pour exécution . Il teste en outre le matériel, effectue la configuration DOS (standard en l'absence de fichier config.sys - un fichier de configuration ou non standard conformément au contenu du fichier config.sys), connecte les pilotes nécessaires, etc. Ensuite, ce programme définit des instructions sur la façon de gérer les interruptions (vecteurs d'interruption) et transfère le contrôle au module DOS de base, qui continue de définir les règles de traitement des interruptions, puis charge le processeur de commandes dans la RAM et lui transfère le contrôle.

Un utilisateur travaillant avec DOS sans programmes shell ou systèmes d'interface supplémentaires communique directement avec le processeur de commandes. Le mode de fonctionnement est interactif, c'est-à-dire l'utilisateur émet une commande, le système d'exploitation s'exécute et attend la prochaine commande. La façon d'émettre des commandes est assez archaïque - il suffit de taper le texte de la commande sur le clavier, dont il faut se souvenir de la plupart des commandes, et pour les rares - d'utiliser le livre de référence (soit sous la forme d'un livre ou intégré dans DOS).

Le processeur de commandes, lorsqu'il est lancé, recherche et exécute d'abord le programme d'exécution automatique (fichier autoexec.bat), le cas échéant. Ce programme est créé par l'utilisateur à partir de commandes DOS afin d'effectuer certaines actions de routine pour créer un environnement confortable pour commencer. Par exemple, si vous obtenez le panneau Norton Commander à l'écran lorsque vous démarrez votre ordinateur, c'est uniquement parce que ce programme "auto-start" est fourni par ceux qui ont compilé le fichier autoexec.bat. L'action suivante du processeur de commandes est d'inviter l'utilisateur à saisir une commande à l'écran, qui ressemble, par exemple, à ceci : C> (si DOS a été chargé à partir du lecteur C).

Lors du fonctionnement des programmes applicatifs, seule une petite partie du DOS (appelé résident) est en permanence en RAM. Tous les autres modules DOS sont chargés uniquement selon les besoins et supprimés de la RAM après le traitement.

Le système de fichiers MS DOS prend en charge les lecteurs désignés par une lettre latine et deux points, par exemple :

un système de répertoire hiérarchique emprunté au système UNIX, des fichiers avec des noms jusqu'à huit caractères et une extension jusqu'à trois.

Commandes MS DOS courantes

Les commandes courantes sont reconnues et exécutées par le shell command.com. Les commandes sont saisies au clavier, leur saisie se termine en appuyant sur la touche ().

Les commandes DOS courantes sont divisées en groupes :

Commandes de disque ;

Commandes de fichier ;

Commandes d'annuaire ;

Commandes de contrôle du système.

Une structure de commande typique ressemble à ceci :

Les paramètres (arguments) indiquent les objets sur lesquels les opérations sont effectuées, les clés spécifient l'action de la commande. Le signe de la clé (interrupteur) est la présence d'une ligne oblique "/". Les crochets indiquent la possibilité de manquer un fragment.

La commande pour travailler avec des répertoires ; affiche une liste de répertoires et de fichiers dans le répertoire courant. Si vous utilisez la commande DIR sans paramètres ni commutateurs, elle affiche les noms des fichiers (répertoire), leurs extensions, leurs tailles (en octets), la date et l'heure de création, leur nombre, la taille totale et la taille de l'espace disque libre.

La syntaxe complète est :

DIR [lecteur:] [chemin] [nom de fichier] | / P] // W] attributs]] ordre_tri]] [...]

Paramètres

[lecteur :] [chemin] indique le lecteur et le répertoire pour lesquels vous souhaitez afficher la table des matières ;

[nom de fichier] indique le fichier ou le groupe de fichiers à lister.

Des espaces réservés peuvent être utilisés dans le nom du fichier :

Remplace un caractère arbitraire dans le nom de fichier ;

* remplace un nombre arbitraire de caractères arbitraires.

Par exemple:

DIR * .txt affiche la liste de tous les fichiers avec l'extension txt ;

DIR a?. * Affiche une liste de fichiers avec des noms de deux caractères, le premier étant la lettre a, et des extensions arbitraires.

/ P affiche des informations jusqu'à ce que l'écran soit plein, pour obtenir les écrans suivants, vous devez appuyer sur n'importe quelle touche ;

/W affiche les informations sous forme abrégée, uniquement les noms de fichiers et de répertoires (en 5 colonnes) ;

/ Un [[:] attributs] affiche des informations sur ces répertoires et fichiers, dont les attributs sont spécifiés.

Voici quelques-uns des attributs :

N. fichiers cachés ;

Tous les fichiers sauf ceux cachés ;

fichiers système S ;

S tous les fichiers à l'exception des fichiers système ;

répertoires D ;

Fichiers D uniquement ;

Les fichiers R sont en lecture seule.

Paramètre

/ O [[:] ordre_tri]

contrôle l'ordre de tri des fichiers dans la liste affichée à l'écran. Sans ce paramètre, les noms de fichiers et de répertoires sont répertoriés par ordre alphabétique. En le définissant de manière appropriée, vous pouvez organiser la sortie des fichiers et des répertoires dans l'ordre alphabétique inverse, dans l'ordre alphabétique ou inverse par noms d'extension, dans l'ordre croissant ou décroissant de la date et de l'heure de la dernière modification du contenu du fichier ou du répertoire, par ordre croissant ou décroissant de leur taille.

Quelques commandes supplémentaires du même groupe (noms uniquement) :

MKDIR (MO) crée un nouveau répertoire ;

CHDIR (CD) passe à un autre répertoire.

Commande de manipulation de fichiers ; supprime les fichiers.

Syntaxe:

DEL [lecteur :] [chemin]

Paramètre

[lecteur :] [chemin]

spécifie l'emplacement et le nom du fichier ou du groupe de fichiers à supprimer si des caractères génériques sont utilisés dans le nom.

Le commutateur / P vous invite à confirmer chaque fichier que vous supprimez.

Commande de manipulation de fichiers ; copie un ou plusieurs fichiers à un emplacement spécifié et peut également être utilisé pour fusionner des fichiers. Syntaxe:

COPIER [+ fichier source [+ ...]] [fichier résultat]

Les paramètres se composent d'une désignation de lecteur, d'un répertoire et d'un nom de fichier.

spécifie l'emplacement et le nom du fichier dont vous souhaitez copier le contenu.

spécifie l'emplacement et le nom du fichier où les informations copiées doivent être placées.

/ Y indique que la commande ne doit pas demander de confirmation lors du remplacement de fichiers existants ;

/ V vérifie que les nouveaux fichiers sont écrits correctement.

Une autre équipe du même groupe :

RENAME (REN) - renommer un fichier ou un groupe de fichiers ;

Des exemples de commandes de contrôle du système sont (seuls les noms sont donnés) :

COMMANDE - démarre le processeur de commandes ;

EXIT - sortie du processeur de commandes.

Commandes utilitaires supplémentaires

En plus des commandes reconnues et exécutées par le processeur de commandes, le système d'exploitation dispose d'un grand nombre d'utilitaires - des commandes implémentées en tant que programmes distincts. À titre d'exemple, considérons l'utilitaire de formatage des disques magnétiques.

FORMAT - Formate un disque pour une utilisation dans MS DOS.

L'utilitaire FORMAT crée des répertoires vides et des tables FAT sur le disque et recherche les zones défectueuses sur le disque. Il peut détruire toutes les données sur le disque.

Syntaxe:

FORMATER le disque :]

FORMATER le disque :]

FORMATER le disque :]

FORMATER le disque :

Paramètre

disk : indique le disque à formater (c'est le seul paramètre obligatoire de l'utilitaire).

/V : label indique le label du disque, rarement utilisé ;

/Q indique qu'un formatage "rapide" est en cours ; il n'est pas nécessaire de vérifier les zones endommagées ;

/U indique qu'il n'y a pas besoin de "restaurer" les informations avant le formatage ;

/ F : size indique la capacité de la disquette ;

/ S copie les fichiers du système d'exploitation IO.SYS, MSDOS.SYS et COMMAND.COM sur une disquette, ce qui la rend amorçable ;

/T : pistes indique le nombre de pistes sur la disquette ;

/ N : Secteurs Spécifie le nombre de secteurs sur la disquette.

La commande pour travailler avec des disques (disquette); copie le contenu d'une disquette d'un lecteur sur un disque d'un autre. Sa syntaxe est la suivante

COPIE DE DISQUE

Ici les deux premiers objets entre crochets sont des paramètres, le troisième est une clé.

DISKCOPY A : B : copie la disquette du lecteur A sur la disquette du lecteur B ;

DISKCOPY A : copie la disquette du lecteur A sur la disquette du lecteur actuel ;

DISKCOPY A: B: / Je copie uniquement la première face de la disquette.

Quelques commandes supplémentaires du même groupe (seuls les noms ; les paramètres et les clés peuvent être trouvés dans les références) :

DISKCOMP - comparaison du contenu de deux disquettes (afin de déterminer s'il s'agit de la même chose);

CHKDSK - vérifier l'intégrité de la structure du fichier sur le disque, corriger ses erreurs;

RÉCUPÉRER - restaurer (dans la mesure du possible) les informations sur un disque défectueux.

Un grand nombre d'utilitaires MS DOS sont décrits dans le manuel de ce système. Les pilotes sont également importants, en particulier pour la RAM étendue, qui est incluse avec le système d'exploitation et permet d'utiliser plus de 640 Ko de mémoire.

Un rôle particulier dans le système est joué par les fichiers CONFIG.SYS et AUTOEXEC.BAT, qui sont lus au démarrage du système et définissent sa configuration, les pilotes et les TSR chargés en mémoire et les commandes supplémentaires exécutées au démarrage du système.

Exécuté avant le chargement du shell et contient des appels aux pilotes SYS. Les pilotes téléchargeables sont installés avec la commande DEVICE suivie du nom de fichier complet du fichier de pilote. Par exemple, pour connecter le pilote de souris MOUSE.SYS, vous pouvez utiliser la commande :

PÉRIPHÉRIQUE = C: \ DOS \ SOURIS.SYS.

A partir de MS DOS 4.0, il est possible de charger des pilotes COM et EXE à l'aide de la commande INSTALL. Par exemple,

INSTALLER = C:\DOS\MOUSE.COM.

Pour travailler efficacement avec différents types de microprocesseurs informatiques (80286, 80386, 80486, Pentium) et la taille de la RAM, des pilotes spéciaux sont utilisés :

DEVISE = C:\DOS\HIMEM.SYS

DEVISE = C:\DOS\EMM386.EXE NOEMS

DEVISE = C:\DOS\EMM486.EXE.

En plus de charger des pilotes externes, CONFIG.SYS charge également ses propres commandes (internes).

Si l'ordinateur ne possède pas de cache de disque dur (c'est-à-dire la zone tampon de la RAM, où le contenu des blocs de disque est stocké), la commande BUFFERS est générée pour accélérer le travail avec le disque. Un tampon est un morceau de 532 octets de RAM.

À l'aide de la commande FICHIERS, vous pouvez spécifier le nombre de fichiers pouvant être utilisés simultanément par le système et les programmes.

La commande DOS permet de charger les modules du système d'exploitation et certains pilotes dans une zone mémoire supérieure à 640 Ko, augmentant ainsi la taille de la mémoire de base libre, ce qui est important pour un certain nombre de programmes d'application.

Vous trouverez ci-dessous des exemples de fichiers de configuration typiques :

1.pour PC 286

REM Typique CONFIG.SYS

REM certains pilotes dans HMA

REM (premiers 64 Ko de zone mémoire au-dessus de 1 Mo)

DEVICE = C:\DOS\HIMEM.SYS

DEVICE = C: \ WINDOWS \ MOUSE.SYS

DEVICE = C: \ STACKER \ STACHIGH.SYS

REM utilisant la compression de données

2. pour PC 386

REM Typique CONFIG.SYS

REM Si possible, chargez les modules du système d'exploitation et

REM certains pilotes en NMA

REM (premiers 64 Ko de zone mémoire au-dessus de 1 Mo)

REM et UMB (blocs dans la zone mémoire entre 640 Ko et 1 Mo)

REM Jusqu'à 20 fichiers peuvent être ouverts simultanément

REM Pour travailler avec des fichiers sur le disque dur, utilisez 5 buffers

DEVICE = C:\DOS\HIMEM.SYS

DEVICE = C:\DOS\EMM386.EXE NOEMS

REM avec prise en charge UMB activée

DEVICEHIGH = C: \ WINDOWS \ MOUSE.SYS

Vous avez aimé l'article ? A partager entre amis :