Qu'est-ce que l'informatique étudie?



Le IT C'est une science moderne qui étudie les méthodes, les processus et les techniques pour traiter, transmettre ou stocker des données de manière numérique.

Avec la grande avancée technologique de la seconde moitié du 20ème siècle, cette discipline gagnait en importance dans les activités productives, tout en augmentant sa spécificité.

Le développement des ordinateurs, des circuits fermés, des robots, des machines, des téléphones portables et de l’internet fait de l’informatique une des sciences les plus florissantes de ces dernières décennies.

L'étymologie du mot ordinateur a plusieurs origines possibles. Principalement, il est apparu comme un acronyme pour les mots information et automatique (information automatique).

En 1957, c'est Karl Steinbuch qui a inclus ce terme dans un document appelé Informatik: Automatische Informationsverarbeitung.

En 1962, l'ingénieur français Philippe Dreyfus a nommé sa société Société d'Informatique Appliquée. Cependant, c'est le Russe Alexander Ivanovich Mikhailov qui a utilisé ce terme comme «étude, organisation et diffusion d'informations scientifiques».

Parmi ses vastes champs d’application, cette science se consacre à l’étude du traitement automatique de l’information à l’aide de dispositifs électroniques et de systèmes informatiques, qui peuvent être utilisés à différentes fins.

Qu'est-ce que l'informatique étudie? Applications

Le domaine d’application de l’informatique a élargi son spectre avec le développement technologique du dernier demi-siècle, principalement sous l’impulsion des ordinateurs et de l’Internet.

Ses principales tâches sont la conception, le développement, la planification en circuit fermé, la préparation des documents, la surveillance et le contrôle des processus.

Il est également responsable de la création de robots industriels, ainsi que de tâches liées au vaste domaine des télécommunications et à la fabrication de jeux, d'applications et d'outils pour les appareils mobiles.

Formation des technologies de l'information

L'informatique est une science dans laquelle convergent des connaissances et des connaissances issues de différentes disciplines, à commencer par les mathématiques et la physique, mais aussi l'informatique, la programmation et la conception, entre autres.

Cette union synergique entre différentes branches de la connaissance est complétée en informatique par les notions de matériel, de logiciels, de télécommunications, d’Internet et d’électronique.

Histoire

Premier ordinateur

L'histoire de l'informatique a commencé bien avant la discipline qui porte son nom. Il a accompagné l'humanité presque depuis ses origines, sans pour autant être reconnue comme une science.

Depuis la création de l'abaque chinois, enregistré en l'an 3000 avant JC et considéré comme le premier appareil de calcul de l'humanité, on peut parler d'informatique.

Ce tableau divisé en colonnes, a permis à travers les mouvements de leurs unités d'effectuer des opérations mathématiques telles que l'addition et la soustraction. Il pourrait y avoir le point de départ de cette science.

Mais l'évolution de l'informatique venait de commencer avec le boulier. Au dix-septième siècle, Blaise Pascal, l'un des scientifiques français les plus renommés de son époque, créa la machine à calculer et suscita une nouvelle étape de l'évolution.

Ce dispositif ne servait que d'ajouts et de soustractions, mais était à la base du Leibniz allemand, presque cent ans plus tard, au dix-huitième siècle, développa un appareil similaire mais avec des multiplications et des divisions.

Ces trois créations ont été les premiers processus informatiques enregistrés. Il fallait attendre près de 200 ans de plus pour que cette discipline devienne pertinente et devienne une science.

Dans les premières décennies du 20ème siècle, le développement de l'électronique était l'impulsion finale de l'informatique moderne. À partir de là, cette branche de la science commence à résoudre les problèmes techniques découlant des nouvelles technologies.

A cette époque, les systèmes basés sur les engrenages et les barres se sont déplacés vers les nouveaux processus des impulsions électriques, catalogués par un 1 lorsque le courant passe et par un 0 quand ce n'est pas le cas, ce qui a révolutionné cette discipline.

La dernière étape a été franchie pendant la Seconde Guerre mondiale avec la fabrication du premier ordinateur, le Mark I, qui a ouvert un nouveau champ de développement qui ne cesse de s’étendre.

Notions de base en informatique

Les technologies de l’information, comprises comme le traitement automatique des informations par le biais de dispositifs électroniques et de systèmes informatiques, doivent pouvoir être développées.

Trois opérations essentielles sont fondamentales: l’entrée, qui se rapporte à la collecte d’informations; le traitement de cette même information et la sortie, qui est la possibilité de transmettre des résultats.

L'ensemble de ces capacités d'appareils électroniques et de systèmes informatiques est appelé algorithme, c'est-à-dire l'ensemble ordonné d'opérations systématiques permettant d'effectuer un calcul et de trouver une solution.

Grâce à ces processus, l'ordinateur a développé différents types de dispositifs qui ont commencé à faciliter les tâches de l'humanité dans toutes sortes d'activités.

Bien que son domaine d'application n'ait pas de limites strictes, il est principalement utilisé dans les processus industriels, la gestion d'entreprise, le stockage d'informations, le contrôle des processus, les communications, les transports, la médecine et l'éducation.

Des générations

En informatique et en informatique, on peut parler de cinq générations de processeurs qui ont marqué l'histoire moderne de son émergence en 1940 à nos jours.

Première génération

La première génération a connu son développement entre 1940 et 1952, lorsque les ordinateurs ont été construits et exploités avec des vannes. Son évolution et son utilité se situaient principalement dans un environnement scientifique et militaire.

Ces appareils ont des circuits mécaniques dont les valeurs ont été modifiées pour être programmées selon les besoins.

Deuxième génération

La deuxième génération a été développée entre 1952 et 1964, avec l’apparition de transistors qui ont remplacé les anciennes vannes. C'est ainsi que sont apparus les appareils commerciaux, qui bénéficiaient d'une programmation antérieure.

Un autre fait central de cette étape est l’apparition des premiers codes et langages de programmation, Cobol et Fortran. À ceux qui, des années plus tard, ont été suivis par de nouveaux.

Troisième génération

La troisième génération a connu une période de développement un peu plus courte que celle de ses prédécesseurs, elle a été étendue entre 1964 et 1971 lorsque les circuits intégrés sont apparus.

La réduction des coûts de production des appareils, l'augmentation de la capacité de stockage et la réduction de la taille physique ont marqué cette étape.

De plus, grâce au développement des langages de programmation, qui ont gagné en spécificité et en aptitudes, les premiers programmes utilitaires ont commencé à prospérer.

Quatrième génération

La quatrième génération a été produite depuis 1971 et a duré une décennie, jusqu'en 1981, avec des composants électroniques comme principaux acteurs de l'évolution.

Ainsi, les premiers microprocesseurs ont commencé à apparaître dans le monde de l'informatique, qui comprenait tous les éléments de base de l'ancien ordinateur dans un seul circuit intégré.

Cinquième génération

Enfin, la cinquième génération a débuté en 1981 et s’étend au présent, où la technologie envahit tous les aspects des sociétés modernes.

Le développement principal de cette phase évolutive de l'informatique a été celui des ordinateurs personnels (PC), qui ont rapidement adopté un vaste ensemble de technologies associées qui régissent aujourd'hui le monde.

Références

  1. InformerAttica, information et communication, Documentation sociale: Revue d'études sociales et de technologie appliquée, 1999.
  2. Traitement (automatique) de l'information, Diego Dikygs, site numérique Notions of Computing, 2011.
  3. Histoire du calculnPatricio Villalva.
  4. Magazine Horizonte Inform MagazineáÉthique de l'éducation, Buenos Aires, 1999.