Le "Hardware"
Les éléments constitutifs
Un PC est constitué
d'une unité centrale (le boîtier)
d'un moniteur (l'écran)
d'un clavier
d'une souris
de périphériques internes (cartes sons, vidéo ...)
de périphériques externes (imprimantes, scanner...)
L'INTERIEUR DU PC
L'élément constitutif principal de l'ordinateur est la carte mère, sur laquelle sont connectés tous les autres éléments
- le processeur (cerveau de l'ordinateur)
- la mémoire (ROM, RAM, mémoire cache)
- le(s) disque-dur(s), lecteurs CD-ROM, lecteurs de disquettes
- les périphériques internes (sur les bus ISA, PCI, AGP)
Sommaire
Le processeur
Il est à la base de tous les calculs, c'est le "cerveau" de l'ordinateur. Il est caractérisé par sa marque (Intel 486, Intel Pentium, Intel Pentium III, Cyrix, AMD K6, etc.) et sa fréquence (elle atteint actuellement les 3 gigahertz). Le premier microprocesseur (Intel 4004) a été inventé en 1972. Depuis, la puissance des microprocesseurs a augmenté exponentiellement. Actuellement les processeurs sont des 32 bits, ce qui signifie qu'ils sont capables de traiter 4 caractères à la fois (un caractère = un octet = 8 bits). La génération des 64 bits ne saurait tarder...
Le processeur (CPU : Central Processing Unit) est un circuit électronique cadencé au rythme d'une horloge interne, c'est-à-dire un élément qui envoie des impulsions ou battements (que l'on appelle top). A chaque top d'horloge les éléments de l'ordinateur accomplissent une action. La vitesse de cette horloge (le nombre de battements par secondes) s'exprime en Mégahertz (1Mhz = 1 000 000 Hz) et maintenant en gigahertz (1 Ghz=1 000 000 000 Hz) ; ainsi un ordinateur cadencé à 1 Gigahz a une horloge envoyant 1 000 000 000 de battements par seconde (un cristal de quartz soumis à un courant électrique permet d'envoyer des impulsions à une fréquence précise).
A chaque top d'horloge (pour les instructions simples) le processeur
lit l'instruction à exécuter en mémoire
effectue l'instruction
passe à l'instruction suivante
Le processeur est en fait constitué
d'une unité de commande qui lit les instructions et les décode
d'une unité de traitement (UAL - unité arithmétique et logique) qui exécute les instructions.
Toutes ces opérations sont des informations numériques.
Les processeurs utilisent de petits transistors pour faire des opérations de base ; il y en a plusieurs millions sur un seul processeur.
Le processeur travaille en fait grâce à un nombre très limité de fonctions (ET logique, OU logique, addition...) ; celles-ci sont directement câblées sur les circuits électroniques. Il est impossible de mettre toutes les instructions sur un processeur car celui-ci est limité par la taille de la gravure ; ainsi pour mettre plus d'instructions il faudrait un processeur ayant une très grande surface. Or le processeur est constitué de silicium et le silicium coûte cher ; d'autre part il chauffe beaucoup. Le processeur traite donc les informations compliquées à l'aide d'instructions simples.
A quoi ressemble une instruction?
Les instructions (opérations que le processeur doit accomplir) sont stockées dans la mémoire principale. Une instruction est composée de deux champs :
le code opération : c'est l'action que le processeur doit accomplir
le code opérande : c'est les paramètres de l'action. Le code opérande dépend de l'opération, cela peut être une donnée ou bien une adresse d'un emplacement mémoire
Une instruction peut être codée sur un nombre d'octets variant de 1 à 4 suivant le type de données.
Les registres
Lorsque le processeur traite des donnés (lorsqu'il exécute des instructions) le processeur stocke temporairement les données dans de petites mémoires de 8, 16 ou 32Ko (qui ont l'avantage d'être très rapides) que l'on appelle registres. Suivant le type de processeur le nombre de registres peut varier entre une dizaine et plusieurs centaines.
Les registres les plus importants sont :
le registre d'état : il permet de stocker les indicateurs
le registre accumulateur : il contient l'instruction en cours de traitement
le compteur ordinal : il contient l'adresse de la prochaine instruction à traiter
le registre tampon : il permet de stocker temporairement une donnée provenant de la mémoire
Retour
La mémoire cache
La mémoire cache permet au processeur de se "rappeler" les opérations déjà effectuées auparavant. En effet, elle stocke les opérations effectuées par le processeur, pour qu'il ne perde pas de temps à recalculer des choses qu'il a déjà faites précédemment. La taille de la mémoire cache est généralement de l'ordre de 512 Ko.
Retour
La mémoire vive
La mémoire vive, appelée aussi "mémoire centrale" ou "mémoire de travail" ou RAM (Random Access Memory) permet de stocker des informations pendant tout le temps de fonctionnement de l'ordinateur (elle contient notamment le système d'exploitation, le(s) logiciel(s) et le(s) document(s) en cours de traitement). Par contre elle est détruite dès lors qu'il est éteint, contrairement à une mémoire de stockage (ou mémoire de masse) comme celle du disque dur qui garde les informations même lorsqu'il est hors tension.
Sur les machines actuelles, la taille de la RAM est de plus en plus importante (128 ou 256 Mo, et même plus). Sur les PC des années 80, la RAM ne dépassait pas le Mega-octet.
La mémoire vive se présente sous forme de barrettes qu'on implante sur la carte mère de l'ordinateur. On peut augmenter la mémoire vive d'un ordinateur en rajoutant des barrettes de RAM, de capacité variable.
Le prix de la RAM est très variable et subit les fluctuations du marché.
Le temps d'accès à la mémoire vive est extrêmement rapide (de l'ordre de quelques dizaines de nanosecondes) et varie en fonction de la fréquence que supportent les barrettes : plus la fréquence est élevée, plus la mémoire sera rapide. La DDRAM remplace peu à peu la SDRAM, dont l'architecture date de maintenant 4 ans. Elle est encore réservée aux processeurs haut de gamme de chez AMD ou INTEL (1 GHz et plus). Ses performances sont deux fois plus rapides que celles de la SDRAM PC 133.
Retour
Les slots d'extension
Les slots d'extension sont des réceptacles dans lesquels on peut enficher des cartes. Il en existe trois sortes : les cartes ISA (les plus lentes fonctionnant en 16-bit), les cartes PCI (beaucoup plus rapides fonctionnant en 32-bit), et les cartes AGP (les plus rapides).
Les disques durs, CD-ROM et lecteurs de disquettes se branchent, grâce à des nappes, sur les broches prévues à cet effet sur la carte mère.
Le lecteur de disquette se branche sur l'emplacement noté FDC ("Floppy Disk controller" traduisez "Contrôleur de disquette")
Les disques durs IDE, CD-ROM IDE se branchent par l'intermédiaire d'une nappe sur les emplacements notés IDE1 et IDE2
En revanche, des ports spécifiques ont été prévus pour le branchement des périphériques externes :
les ports série, appelés aussi ports de communication, qui se branchent sur les emplacements notés COM1, COM2 (parfois COM3...), sont utilisés pour le modem et de nombreux autres périphériques (souris). La transmission se fait bit par bit.
le port parallèle, prévu notamment pour brancher une imprimante (emplacement noté LPT) ou tout autre périphérique de type parallèle (scanner). La transmission se fait octet par octet et est plus rapide que le port série
Outre ces deux ports très anciens, il existe des ports plus récents qui permettent un transfert des données beaucoup plus rapide :
le port SCSI (Small Computer System Interface), pour la connexion en chaîne de périphériques de tout type. Il est caractérisé par un débit rapide, de 20 à 80 Mo/sec.
le port USB (Universal Serial Bus) est une nouvelle norme destinée à brancher des périphériques lents. Le débit de 1,5 Mo/sec. devrait évoluer en 8 Mo/sec. avec l’USB2.
le port firewire, est identique à l’USB, mais atteindra des débits élevés identiques à ceux du SCSI.
Retour
Le BIOS
Tous les PC utilisent un BIOS ("Basic Input/Output System" traduisez "Système d'entrées/sorties basique") pour permettre le contrôle du matériel.
C'est un composant essentiel de votre ordinateur, il s'agit d'un petit logiciel dont une partie est dans une mémoire morte (ROM) que vous ne pouvez donc pas modifier), et une autre partie est dans un EPROM (ROM que l'on peut modifier par impulsions électriques, d'où le terme flasher lorsque vous la modifiez).
Lorsque le système est mis sous-tension ou réamorcé (Reset), le CPU est lui aussi réamorcé et le BIOS va effectuer un certain nombre d'opérations :
Faire le test du CPU
Vérifier le BIOS
Initialiser le timer (l'horloge interne)<
Vérifier la mémoire vive et la mémoire cache <
Vérifier toutes les configurations (clavier, disquettes, disques durs ...)
Etc.
La plupart des BIOS ont un "setup" (programme de configuration) qui permet de modifier la configuration basique du système. Ce type d'information est stockée dans une RAM auto-alimentée afin que l'information soit conservée même lorsque le système est hors tension (nous avons vu que la mémoire vive était réinitialisée à chaque redémarrage).
Lorsque le système est mis sous tension, le BIOS affiche un message de copyright à l'écran, puis il effectue les tests de diagnostics et d'initialisation. Lorsque tous les tests ont été effectués, le BIOS affiche un message du genre :
"TO ENTER SETUP BEFORE BOOT PRESS CTRL-ALT-ESC OR DEL KEY"
qui signifie "PRESSEZ "CTRL-ALT-ESC" ou la touche "Suppr" pour entrer dans le "SETUP" avant le démarrage du PC"
Lorsque vous appuyez sur la touche "Suppr" au démarrage de l'ordinateur, vous tombez sur un écran ressemblant à peu de chose près à ceci :
Attention : Ne faites de modifications dans le Setup qu'en connaissance de cause...
Retour
LES PERIPHERIQUES INTERNES
Sur un PC on peut connecter des périphériques internes. Les périphériques internes sont connectés à l'intérieur du PC, c'est-à-dire sur les ports AGP, PCI, ou ISA de la carte mère Il s'agit principalement :
de la carte vidéo (indispensable) qui permet de fournir l'image au moniteur
de la carte son qui permet d'avoir le son sur le PC
d'un modem interne
de la carte réseau (qui permet d'interconnecter plusieurs ordinateurs)
de cartes TV, Capture d'image, Radio ...
Les cartes vidéos
Les cartes accélératrices 2D
Les cartes 2D n'ont pas changé de principe depuis leur création. Chaque puce possède de nombreux circuits qui permettent d'exécuter de nombreuses fonctions :
déplacement des blocs (curseur de la souris par exemple)
tracé de lignes
tracé de polygones
Ainsi, les performances des cartes 2D n'évoluent plus depuis quelques temps.
Leurs performances sont tributaires du type de mémoire utilisée sur la carte. Les mémoires SGRAM ou WRAM, mémoires vidéo spécifiques à 10 ns, donnent des résultats bien meilleurs que la mémoire EDO (60 ns).
Les cartes accélératrices 3D
Le domaine de la 3D est beaucoup plus récent, donc plus porteur. On arrive à des puissances de calculs sur PC supérieures à celles de certaines stations de travail.
Retour
LE DISQUE DUR (périphérique d'entrée-sortie)
Ce périphérique d'entrée-sortie se trouve à l'intérieur du boîtier. Le disque dur est l'organe du PC servant à conserver les données de manière permanente, contrairement à la RAM, qui s'efface à chaque redémarrage de l'ordinateur. (cf. supra)
Il a été inventé au début des années 50 par IBM.
Le fonctionnement interne
Un disque dur est constitué non pas d'un seul disque, mais de plusieurs disques rigides (en anglais hard disk signifie disque dur) en métal, en verre ou en céramique empilés à une très faible distance les uns des autres.
Ils tournent très rapidement autour d'un axe (à plusieurs milliers de tours par minute actuellement) dans le sens inverse des aiguilles d'une montre.
Un ordinateur fonctionnant de manière binaire, il faut donc stocker les données sous forme de 0 et de 1 ; c'est pourquoi les disques sont recouverts d'une très fine couche magnétique de quelques microns d'épaisseur, elle-même recouverte d'un film protecteur.
La lecture et l'écriture se font grâce à des têtes (head) situées de part et d'autre de chacun des plateaux (un des disques composant le disque dur). Ces têtes sont des électroaimants qui se baissent et se soulèvent (elles ne sont qu'à quelques microns de la surface, séparées par une couche d'air provoquée par la rotation des disques qui crée un vent d'environ 250km/h) pour pouvoir lire l'information ou l'écrire. De plus ces têtes peuvent balayer latéralement la surface du disque pour pouvoir accéder à un emplacement quelconque...
L'ensemble de cette mécanique de précision est contenue dans un boîtier totalement hermétique, car la moindre particule peut détériorer l'état de surface du disque. Vous pouvez donc voir sur un disque des opercules permettant l'étanchéité, et la mention "Warranty void if removed" qui signifie littéralement "la garantie expire si retiré" car seul les constructeurs de disques durs peuvent les ouvrir (dans des salles "blanches" exemptes de particules).
La lecture et l'écriture
Les têtes de lecture/écriture sont dites "inductives", c'est-à-dire qu'elles sont capables de générer un champ magnétique. C'est notamment le cas lors de l'écriture : les têtes en créant des champs positifs ou négatifs viennent polariser la surface du disque en une très petite zone, ce qui se traduira lors du passage en lecture par des changements de polarité induisant un courant dans la tête qui sera ensuite transformé par un convertisseur analogique numérique en 0 et en 1 compréhensibles par l'ordinateur.
Les têtes commencent à inscrire des données à la périphérie du disque (piste 0), puis avancent vers le centre. Les données sont organisées en cercles concentriques appelés "pistes".
Les pistes sont séparées en quartiers (entre deux rayons) que l'on appelle secteurs, c'est la zone dans laquelle on peut stocker les données (512 octets en général).
On appelle cylindre l'ensemble des données situées sur une même pistes de plateaux différents (c'est-à-dire à la verticale les unes des autres) car cela forme dans l'espace un "cylindre" de données.
On appelle cluster la zone minimale que peut occuper un fichier sur le disque. En effet le système d'exploitation exploite des blocs qui sont en fait plusieurs secteurs (entre 1 et 16 secteurs). Un fichier minuscule devra donc occuper plusieurs secteurs (un cluster).
Les premiers disques durs commercialisés pour le grand public avaient une capacité de 10 Mo (années 80). Ils atteignent aujourd'hui des capacités de 80 Go, voire plus (pour des prix inférieurs aux 10 Mo d'antan…). En outre leurs dimensions sont très réduites, et ils peuvent facilement s'intégrer dans les portables.
10 Mo = 7 disquettes 3'' 1/2 HD
2 Go = 1400 disquettes 3'' 1/2 HD
10 Go = 7000 disquettes 3'' 1/2 HD
Avantages du disque dur : Sa grande capacité et sa rapidité
Inconvénients : Il n'est pas transportable (mais pour remédier à cet inconvénient, il existe des racks amovibles ou des disques durs externes qui se connectent sur port USB2 ou firewire)
Retour
CD-ROM et DVD-ROM (périphériques d'entrée)
Le CD-ROM (Compact Disc - Read Only Memory) est un disque optique de 12 cm de diamètre et de 1mm d'épaisseur, permettant de stocker des informations numériques correspondant à 650 Mo de données informatiques (correspondant à 300000 pages dactylographiées) ou bien jusqu'à 78 mn de données audio. Le Compact Disc a été inventé par Sony © et Philips ©.
La composition d'un CD-ROM
Le CD est constitué de matière plastique, recouvert d'une fine pellicule métallique sur une des faces. Les pistes sont gravées en spirales, ce sont en fait des alvéoles d'une profondeur de 0,83µ et espacées de 1,6µ. ces alvéoles forment un code binaire, une alvéole correspond à un 0, un espace à un 1.
Exemple : prenons la séquence suivante : 110010101. Celle-ci correspond sur le CD-ROM à deux espaces, deux trous, un espace, un trou, un espace, un trou, un espace, un trou.
On a ainsi une séquence binaire que le lecteur parcourt grâce à un laser ; celui-ci est réfléchi lorsqu'il rencontre un espace, il ne l'est pas lorsqu'il rencontre une alvéole.
Le lecteur de CD-ROM
C'est une cellule photoélectrique qui permet de capter le rayon réfléchi, grâce à un miroir semi-réfléchissant comme expliqué sur le dessin ci-contre.
Un chariot permet de déplacer le miroir de façon à pouvoir accéder au CD-ROM en entier.
Il est ainsi possible de stocker sur ce support des musiques, des images, des vidéos, du texte et tout ce qui peut être enregistré de façon numérique.
Ses caractéristiques
Le lecteur CD-ROM est caractérisé
Par sa vitesse : celle-ci est calculée par rapport à la vitesse d'un lecteur de CD-Audio (150 Ko/s). Un lecteur allant à 3000Ko/s sera caractérisé de 20X (20 fois plus vite qu'un lecteur 1X)
Par son temps d'accès. C'est le temps moyen qu'il met pour aller d'une partie du CD à une autre.
Par son type : ATAPI (IDE) ou SCSI
De plus en plus rapides, les lecteurs de CD-ROM sont aussi de moins en moins coûteux : le quadruple vitesse coûtait 1500F il y a 3 ans, le 40X coûte actuellement environ 300F.
Le DVD-ROM (Digital Versatile Disc - Read Only Memory) est une variante du CD-ROM dont la capacité est largement plus grande que celle du CD-ROM. En effet, les alvéoles du DVD sont beaucoup plus petites (0,4µ et un espacement de 0.74µ), impliquant un laser avec une longueur d'onde beaucoup plus faible.
Les DVD existent en version "double couche", ces disques sont constitués d'une couche transparente à base d'or et d'une couche réflexive à base d'argent.
Pour aller lire ces deux couches le lecteur dispose de deux intensités pour le laser :
avec une intensité faible le rayon se réfléchit sur la surface dorée
lorsqu'on augmente cette intensité le rayon traverse la première couche et se réfléchit sur la surface argentée.
Il existe 4 types de DVD différents
Type de support
Capacité
Temps musical équivalent
Nombre de CD équivalent
CD
650Mo
1h18 min
1
DVD simple face simple couche
4.7Go
9h30
7
DVD simple face double couche
8.5Go
17h30
13
DVD double face simple couche
9.4Go
19h
14
DVD double face double couche
17Go
35h
26
L'intérêt du DVD touche en priorité le stockage vidéo qui demande une place de stockage importante. Un DVD de 4,7 Go permet de stocker plus de deux heures de vidéo compressées en MPEG-2 (Motion Picture Experts Group), un format qui permet de compresser les images tout en leur gardant une très grande qualité.
Retour
Autres unités de disques (périphériques d'entrée-sortie)
Disquettes
5'' 1/4 : ne sont plus commercialisées ni utilisées (plus de lecteurs)
3'' 1/2 : elles sont de 2 densités différentes
DD : double densité (720 Ko). Elles ne sont plus commercialisées.
HD : haute densité (1,44 Mo).
Avantages : facilement transportable. Elles disposent aussi d'un volet de protection en écriture.
Inconvénients : capacités nettement insuffisantes aujourd'hui et lenteur.
Disquette ZIP
La capacité d'une disquette ZIP est de 100 Mo. Un lecteur spécifique est nécessaire (externe ou interne).
Disquette JAZ
La capacité d'une disquette JAZ est de 1 Go ou de 2 Go. Un lecteur spécifique est nécessaire (externe ou interne).
Ces deux derniers supports ont l'avantage d'être facilement transportables tout en offrant des capacités de stockage intéressantes et un temps d'accès satisfaisant.
Graveur de CD(-ROM)
Il est possible de graver soi-même ses CD(-ROM) avec un graveur de CD-ROM. Ce procédé est particulièrement intéressant pour faire des sauvegardes de disque dur (un CD-ROM contient 650 Mo, et coûte de 5 à 10F).
Attention : un CD(-ROM) standard n'est pas réinscriptible. Il existe toutefois des CD réinscriptibles, à peine plus coûteux (cf. infra).
Tarifs (les prix sont approximatifs et souvent sujets à la baisse)
La disquette 3" 1/2 coûte actuellement moins de 0,5€ l'unité.
La disquette ZIP 100 Mo coûte 10€ environ.
CD vierge : à partir d'1€,
CD réinscriptible : 3€
Disque dur 40 Go : environ 90€
Disque dur 80 Go : environ 150€
NB. En 1986, un disque dur de 20 Mo coûtait plus de 2000F !
Début
LES PERIPHERIQUES EXTERNES
Sur un PC on peut connecter des périphériques externes.
Le moniteur, le clavier et la souris sont des périphériques externes indispensables.
D'autres périphériques externes sont connectés sur les ports de communication (COM1, COM2, COM3 ..) ou le(s) port(s) imprimante (LPT1, LPT2 ...) Il s'agit principalement
de l'imprimante
du scanner
du modem externe
des outils multimédia
Début
Le moniteur (périphérique de sortie)
Les caractéristiques
Les moniteurs sont souvent caractérisés par les données suivantes
La résolution : elle détermine le nombre de pixels (points) par unité de surface (pixels par pouce carré (en anglais DPI : Dots Per Inch). Ce nombre de points est actuellement compris entre 640x480 (640 points en longueur, 480 points en largeur) et 1600x1200.
La dimension : elle se mesure en "pouces" (1pouce = 2,55cm) et correspond à la mesure de la diagonale de l'écran. On trouve les dimensions suivantes : 15", 17", 19", 20", etc. La dimension de l'écran d'un micro-ordinateur standard varie entre 14" et 17". Par exemple, un écran de 17 pouces a une diagonale de 43,35 cm.
Le pas de masque : C'est la distance qui sépare deux points ; plus celle-ci est petite plus l'image est précise
La fréquence de balayage : C'est le nombre d'images qui sont affichées par seconde, on l'appelle aussi rafraîchissement, elle est exprimée en Hertz. Plus cette valeur est élevée meilleur est le confort visuel (on ne voit pas l'image scintiller), il faut donc qu'elle soit supérieure à 67 Hz (limite inférieure à partir de laquelle l'oeil remarque véritablement l'image "clignoter".
Le moniteur à tube cathodique
Les moniteurs (écrans d'ordinateur) sont la plupart du temps des tubes cathodiques, c'est à dire un tube en verre dans lequel un canon à électrons émet des électrons dirigés par un champ magnétique vers un écran sur lequel il y a de petits éléments phosphorescents (luminophores) constituant des points (pixels) émettant de la lumière lorsque les électrons viennent les heurter.
Le champ magnétique dévie les électrons de gauche à droite afin de créer un balayage, puis vers le bas une fois arrivé en bout de ligne.
Ce balayage n'est pas perçu par l'oeil humain grâce à la persistance rétinienne, essayez par exemple d'agiter votre main devant votre écran pour visualiser ce phénomène : vous voyez votre main en plusieurs exemplaires...
Le moniteur couleur
Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en variant l'intensité du rayon.
Pour les moniteurs couleur, trois faisceaux d'électrons sont utilisés simultanément en visant chacun un point d'une couleur spécifique : un rouge, un vert et un bleu (RGB : Red/Green/Blue ou en français RVB : Rouge/vert/bleu).
Cependant ces luminophores sont situés de façon tellement proche que l'oeil n'a pas un pouvoir séparateur assez fort : il voit une couleur composée de ces trois couleurs. Essayez de mettre une minuscule goutte d'eau sur le verre de votre moniteur : celle-ci faisant un effet de loupe va vous faire apparaître les luminophores.
Les moniteurs à cristaux liquides
Cette technologie est basée sur un écran composé de deux plaques transparentes entre lesquelles il y a une fine couche de liquide où se trouvent des molécules (cristaux) qui ont la propriété de s'orienter lorsqu'elles sont soumises à du courant électrique.
L'avantage majeur de ce type d'écran est son encombrement réduit, d'où son utilisation sur les ordinateurs portables. En revanche, son prix reste assez élevé (450€ environ pour un 15"), ce qui explique le prix élevé des portables, pour lesquels l'écran représente presque lamoitié de la valeur.
Le prix des moniteurs à tube cathodique varie en fonction de leur taille et de leur qualité : il peut aller de moins de 120€ pour un 15" à plus de 800€ pour un 20" de bonne qualité.
Il existe des écrans "tactiles" qui sont des périphériques d'entrée-sortie : on peut, en les touchant du doigt, agir sur l'ordinateur, comme avec une souris.
Retour
Le clavier (périphérique d'entrée)
De la même façon que sur une machine à écrire, le clavier permet de saisir des caractères (lettres, chiffres, symboles ...).
Il peut être AZERTY ou QWERTY. On désigne par ces noms les claviers français ou anglais dont les premières touches sont A,Z,E,R,T,Y et Q,W,E,R,T,Y.
Si l'on excepte les claviers de portables, de dimensions plus restreintes pour des raisons évidentes de place, la plupart des claviers d'ordinateur sont de dimensions identiques et standardisées.
Un clavier comporte 4 grandes zones :
le bloc alphanumérique (en mode azerty ou qwerty selon les pays) qui ressemble beaucoup au clavier des anciennes machines à écrire. Il comporte toutes les lettres de l'alphabet, les 10 chiffres, les signes de ponctuation, la barre d'espace et divers autres symboles d'usage courant, ainsi que la touche de tabulation, la touche Maj. (Shift) et de verrouillage majuscule (Caps lock), la touche d'effacement arrière (souvent symbolisée par une flèche vers la gauche) qui permet d'effacer vers la gauche, et la touche entrée ou CR (Carriage Return = retour de chariot, symbolisée par une flèche coudée) qui est la touche de validation ; il possède en outre des touches spécifiques à l'ordinateur : la touche Ctrl, la touche Alt, la touche Alt Gr, qui s'emploient en combinaison avec d'autres touches pour exécuter diverses opérations (c'est ainsi que Ctrl-C = "copier", Ctrl-V = "coller", etc.).
Notons aussi la présence de touches "windows" sur certains claviers, et l'apparition toute récente de la touche "Euro".
le pavé de flèches (10 touches) qui servent à déplacer le curseur en tous sens (gauche, droite, haut, bas), à sauter de page en page, à se positionner au début ou à la fin, à insérer ou supprimer.
le pavé numérique, rendu actif par la touche Verr num (contrôlée par un voyant vert), composé des 10 chiffres et des 4 opérations, ainsi que d'une touche entrée spécifique.
une série de touches de Fonction (F1, F2, etc.), programmables, utilisées surtout dans les applications. Ainsi, sous Word, F7 active le correcteur orthographique. A noter que la touche F1 active l'aide dans la plupart des logiciels.
Les claviers actuels possèdent en général entre 100 et 110 touches (105 pour les claviers ayant les touches Windows situées de part et d'autre de la touche d'espacement).
Retour
La souris (périphérique d'entrée)
Totalement absente sur les premiers PC, la souris a fini par s'imposer pour devenir un outil indispensable de la relation homme-machine. C'est la société Apple qui a largement contribué à la faire connaître et apprécier pour son ergonomie.
La souris est un petit boîtier sous lequel une bille transmet tout mouvement de déplacement à un pointeur visible à l'écran. Cette bille fait tourner deux rouleaux. Ces rouleaux comportent chacun un disque cranté qui tourne entre une photodiode et une LED (Diode électroluminescente) laissant passer la lumière par séquence. Lorsque la lumière passe, la photodiode renvoie un "1", lorsqu'elle rencontre un obstacle, la photodiode renvoie un "0". A l'aide de ces informations, le PC peut connaître la position de votre curseur (voire la vitesse...!!).
La souris est en outre équipée d'un (sur le Mac) ou plusieurs (sur le PC) boutons qui permettent de "cliquer" et d'effectuer ainsi une action sur le texte ou l'objet pointé sur l'écran.
Sur les souris à plusieurs boutons (2 ou 3) et sous environnement windows, le bouton gauche est l'équivalent de l'unique bouton de la souris du Mac, tandis que le bouton droit permet d'ouvrir un "menu contextuel" en rapport avec la situation du pointeur ou l'objet sélectionné.
Il existe aussi, notamment sur les portables, des trackball, sorte de souris renversée où l'on agit directement sur la boule, ou, plus récemment, des touchpad, sorte d'écran miniature sur lequel on se déplace avec le doigt.
Dépannage : A force de l'utiliser, votre souris récolte de la poussière qui vient se déposer sur les rouleaux, ainsi la souris peut avoir des réactions curieuses. Il suffit d'ouvrir la cage contenant la bille et de nettoyer les rouleaux (avec un coton tige par exemple).
Il existe aussi des souris optiques et même sans fil qui ont l'avantage d'être plus précises et de ne pas présenter d'usure mécanique et donc une plus grande fiabilité. Elles sont en outre capables de fonctionner sur n'importe quelle surface.
Retour
L'imprimante (périphérique de sortie)
L'imprimante permet de faire une sortie imprimée (sur papier) des données de l'ordinateur.
Il en existe plusieurs types dont les plus courants sont
l'imprimante matricielle (à aiguilles)
l'imprimante à jet d'encre
l'imprimante laser
L'imprimante matricielle
Elle permet d'imprimer des documents grâce à un va-et-vient de la tête sur le papier. La tête est constituée de petites aiguilles, poussées par des électro-aimants, qui viennent taper contre un ruban de carbone situé entre la tête et le papier.
Ce ruban de carbone défile pour qu'il y ait continuellement de l'encre dessus.
A chaque fin de ligne un rouleau fait tourner la feuille.
L'imprimante jet d'encre
La technologie du jet d'encre a été inventée par Canon, elle repose sur le principe simple mais efficace qu'un fluide chauffé produit des bulles.
Le chercheur qui a découvert ce principe avait mis accidentellement en contact une seringue remplie d'encre et un fer à souder, cela créa une bulle dans la seringue qui fit jaillir de l'encre de la seringue.
Les têtes des imprimantes actuelles sont composées de nombreuses buses (jusqu'à 256), équivalentes à plusieurs seringues, qui sont chauffées entre 300 et 400°c plusieurs fois par seconde grâce à un signal impulsionnel.
Chaque buse produit une bulle minuscule qui fait s'éjecter une gouttelette extrêmement fine. Le vide engendré par la baisse de pression aspire une nouvelle goutte ...
L'imprimante laser
L'imprimante laser reproduit à l'aide de points l'image que lui envoie le PC par le port LPT. Grâce au laser, les points sont plus petits et la définition est meilleure.
Fonctionnement
Un ionisateur de papier charge les feuilles positivement.
Un ionisateur de tambour charge le tambour négativement.
Le laser quant à lui (grâce à un miroir qui lui permet de se placer) charge le tambour positivement en certains points. Du coup, l'encre du toner chargée négativement se dépose sur les parties du toner ayant été chargées par le laser, qui viendront se déposer sur le papier.
L'imprimante laser n'ayant pas de tête mécanique est plus rapide et moins bruyante.
La qualité d'une imprimante se définit par
- sa rapidité : nombre de pages par minute (exemple : 6 pages/min)
- sa définition : résolution, qualité d'impression (exemple : 600 dpi ou points par pouce).
Les imprimantes sont de plus en plus performantes et de moins en moins chères : on trouve actuellement de bonnes imprimantes jet d'encre couleur pour moins de 150€. Même les imprimantes laser, qui coûtaient encore 10000F en 1995, se trouvent actuellement à moins de 300€.
Retour
Le Scanner (périphérique d'entrée)
Le scanner est un périphérique permettant de numériser des documents à partir d'un format "papier" et de générer des documents au format "électronique ou numérique" qu'il est possible d'enregistrer dans la mémoire de l'ordinateur.
Le scanner est caractérisé par sa qualité de numérisation (résolution).
On trouve actuellement des scanners de bonne résolution pour moins de 500F
Signalons aussi l’existence d’appareils tout-en-un qui remplissent à la fois les fonctions de scanner, d’imprimante de photocopieur et même de télécopieur.
Retour
Le MODEM (périphérique d'entrée-sortie)
Le modem est le périphérique utilisé pour transférer des informations entre plusieurs ordinateurs (2 à la base) via les lignes téléphoniques. Les ordinateurs fonctionnent de façon digitale, ils utilisent le langage binaire (une série de zéros et de uns). Les signaux digitaux passent d'une valeur à une autre, il n'y a pas de milieu, de moitié, c'est du Tout Ou Rien (un ou zéro). Le mode analogique par contre n'évolue pas "par pas", il couvre toutes les valeurs. ainsi vous pouvez avoir 0, 0.1, 0.2, 0.3...1.0 et toutes les valeurs intermédiaires.
A titre de comparaison, un piano par exemple marche plus ou moins de façon "digitale" car il n'y a pas "de pas" entre les notes. Un violon par contre peut moduler ses notes pour passer par toutes les fréquences possibles.
Un ordinateur marche comme un piano, un modem comme un violon. Le modem convertit en analogique l'information binaire provenant de l'ordinateur. Il envoie ensuite ce nouveau code dans la ligne téléphonique.
Ainsi, le modem module les informations numériques en ondes analogiques ; en sens inverse il démodule les données numériques.
C'est pourquoi modem est l'acronyme de MOdulateur/DEModulateur.
Signalons aussi l’existence d’appareils tout-en-un qui remplissent à la fois les fonctions de scanner, d’imprimante de photocopieur et même de télécopieur.
Retour
Périphériques multimédia : micros et haut-parleurs, webcam, etc.
Les ordinateurs multimédia sont équipés de haut-parleurs reliés à la carte son (cf. supra), afin de bénificier des avantages du son numérique (de qualité CD audio). La carte son propose aussi une entrée micro et line-in.
De la même manière on peut brancher sur la carte vidéo une webcam, petite caméra placée au -dessus de l'écran, qui permet éventuellement, quand on communique par Internet, de "voir" son correspondant.
Il est probable que d'autres périphériques verront le jour à plus ou moins longue échéance.
vendredi 11 septembre 2009
Début des ordinateurs
1. Définition de l'ordinateur et de l'informatique
Le mot informatique a été proposé par Philippe Dreyfus en 1962 ; c'est un mot-valise, formé d'information et d'automatique. L'informatique c'est donc une automatisation de l'information, plus exactement un traitement automatique de l'information. L'information désigne ici tout ce qui peut être traité par l'ordinateur (textes, nombres, images, sons, vidéos,...).
L'outil utilisé pour traiter l'information de manière automatique s'appelle un ordinateur. Ce nom a été proposé par Jacques Perret (professeur de Latin à La Sorbonne) en 1954. Ce mot était à l'origine un adjectif qui signifiait "qui met de l'ordre", "qui arrange".
L'anglais, plus restrictif, utilise le terme de computer qui peut se traduire par calculateur, machine à calculer.
L'informatique désigne donc un concept, une science, tandis que l'ordinateur est un outil, une machine conçue pour réaliser des opérations informatiques.
2. Histoire de l'informatique (matériel)
Par nature paresseux, l'homme a toujours cherché à simplifier et améliorer sa façon de calculer, à la fois pour limiter ses erreurs et gagner du temps.
- 1500 av. J.C. (?) : Le Boulier. Il est toujours utilisé dans certains pays.
- en 1641 : La Pascaline (machine à calculer de Blaise PASCAL)
- en 1806 : Métier à tisser à cartes perforées (Joseph-Marie JACQUARD)
- en 1812 : le mathématicien anglais Charles BABBAGE (1792-1871) imagine une machine capable d'effectuer toute une série d'opérations en séquence. Son projet est celui d'un visionnaire, mais la machine ne sera jamais terminée.
- en 1937 : le Mark I d'IBM permet de calculer 5 fois plus vite que l'homme. Il est constitué de 3300 engrenages, 1400 commutateurs et 800 km de fil. Les engrenages seront remplacés en 1947 par des composants électroniques.
- en 1943 : Colossus I
Composé de 1 500 lampes et d'un lecteur de bandes capable de lire 5000 caractères à la seconde, ce calculateur électronique anglais a été conçu pour décoder des messages chiffrés.
- en 1947 : invention du transistor qui va permettre de rendre les ordinateurs moins encombrants et moins coûteux.
- en 1948 : UNIVAC (UNIVersal Automatic Computer)
Il utilise des bandes magnétiques en remplacement des cartes perforées. Il est composé de 5000 tubes, sa mémoire est de 1000 mots de 12 bits, il peut réaliser 8333 additions ou 555 multiplications par seconde. Sa superficie au sol est de 25m².
- en 1958 : mise au point du circuit intégré, qui permet de réduire encore la taille et le coût des ordinateurs
- en 1960 : l'IBM 7000, premier ordinateur à base de transistors.
- en 1972 : l'Intel 4004 ; premier microprocesseur, voit le jour.
- en 1980 : l'ordinateur familial (oric, sinclair, etc.)
- en 1981 : IBM-PC (Personnal Computer)
Cet ordinateur qui n'apporte aucune idée révolutionnaire est la réaction du n°1 mondial face à la micro-informatique. Le PC et ses clones (produits de copiage asiatiques) vont rapidement devenir un standard. Les modèles récents sont adaptés au multimédia. Ils sont de moins en moins coûteux.
En 1981 et en 1998
- Macintosh d'APPLE en 1984 et en 1998...
Aujourd'hui...
les ordinateurs parlent, entendent, voient et se déplacent !!
Ils ont passé sans encombre le cap de l'an 2000...
Et au XXIe siècle...
des ordinateurs qui pensent ?
Non ! Ce n'est pas un rêve ! A l'université Georgia Tech d'Atlanta aux Etats-Unis. Le professeur William Ditto et son équipe ont entrepris de fabriquer des ordinateurs qui réfléchissent par eux-mêmes !
Ils ont extrait des neurones de sangsues (facilement manipulables), les ont plongées dans un bain nutritif, ont relié les neurones entre eux, les ont branchés sur une puce électronique au silicium et les ont excités à l'aide de petites décharges électriques !
Les neurones font office de transmetteurs. Comme les neurones humains, ils sont capables d'établir des connexions entre eux. La stimulation électrique revient à leur donner des ordres.
Les chercheurs américains partent du principe que les ordinateurs actuels, même les plus puissants, ne seront jamais aussi intelligents qu'un cerveau vivant. Il faut donc inventer des ordinateurs capables de penser par eux-mêmes et plus seulement d'exécuter un programme écrit par l'homme.
Rassurez-vous, ces machines mi-animales - mi-électroniques n'attaqueront personne. C'est ce qu'affirme William Ditto. Mais cette expérimentation de sangsues reliées à des puces ouvre la voie à une discipline nouvelle : la " bio-informatique ".
Grâce à ce montage à la Frankenstein, le professeur Ditto serait déjà parvenu à faire réaliser des calculs simples par ses sangsues, des additions basiques du type 2+2 ou 5+3.
3. Architecture de l'ordinateur
Modélisation
4. Standards de micro-ordinateurs
Le mini-ordinateur (ordinateur d'entreprise muni d'une unité centrale à laquelle peuvent être connectés plusieurs écrans terminaux qui peuvent en être très éloignés) a été très rapidement remplacé par les micro-ordinateurs dès qu'ils ont acquis de grandes capacités mémorielles et la possibilité d'être connectés en réseau.
Le micro-ordinateur est un ordinateur personnel, un seul écran en général. Il peut être portable (de dimensions de plus en plus réduites et de plus en plus performant) ou non.
Il ne reste actuellement que deux grands standards de micro-ordinateurs :
Les PC compatibles (appelés ainsi pour leur compatibilité avec le standard IBM. Très nombreuses marques (IBM, Compaq, Dell, etc.) et nombreux "clones" (copies fabriquées le plus souvent dans le Sud-Est Asiatique) encouragés par IBM pour établir la suprématie de son standard.
Les ordinateurs Apple avec notamment la gamme des Macintosh, réputés pour la puissance de leur interface graphique.
Ils sont capables de reconnaître et de lire des fichiers enregistrés au format PC, la réciproque n'étant pas vraie, pour des raisons visiblement commerciales.
5. Programme informatique
5.1. Définition
Un programme informatique est constitué d'une suite d'instructions (ou ordres) exécutées par l'ordinateur pour accomplir une tâche particulière.
5.2. Exemple de programme informatique
PROGRAM identite ;
VAR
Nom : string ;
BEGIN
print ("quel est votre nom ?") ;
read (nom) ;
if (nom = "Alain")
then print ("Vous êtes la personne attendue.")
else print ("Vous n'êtes pas la personne attendue.") ;
END.
6. Langages de programmation
6.1. Définition
Comme pour les langues naturelles (Français, Anglais, Russe, Chinois, etc.), il existe un grand nombre de langages de programmation. Certains sont adaptés à des domaines particuliers, d'autres dépendent de certains types d'ordinateurs, etc.
6.2. Exemples de langages de programmation
Basic (simple et très limité)
Fortran (domaines scientifiques)
Pascal (langage structuré, efficace pour les structures arborescentes)
C (efficace pour le traitement des chaînes de caractères)
Visual Basic (langage orienté objet, interfaces graphiques)
Java (efficace pour des programmes en rapport avec Internet)
7. Systèmes d'exploitation
7.1. Définition
Logiciel constitué d'un ensemble de programmes destinés à faire fonctionner l'ordinateur et à gérer les événements provenant du clavier, de la souris, de l'imprimante, etc.
(anglais: operating system, OS)
7.2.Exemples
MS DOS ( MicroSoft Disk Operating System): pour PC
Microsoft Windows 3.x, Windows 95, 98, NT, 2000, XP : pour PC, mais plus convivial que MS DOS
Mac OS : pour Macintosh
UNIX, LINUX : pour PC
Les premiers Systèmes d'Exploitation sur PC étaient peu conviviaux et fonctionnaient en mode texte, à la différence du Mac OS qui avait adopté dès 83 une interface graphique.
Les interfaces graphiques se sont généralisées sur PC à partir de 1990 (Windows 2, 3, 3.1, 95, 98,)
Microsoft détient un quasi monopole des systèmes d'exploitation sur PC. Mais il existe aussi un système d'exploitation concurrent, appelé Linux, développé à l’origine par un étudiant finlandais, Linus Torvalds.
7.3. Le concept d'interface graphique
Contrairement à ce qu'on pourrait croire, ce concept est assez ancien et remonte aux années 60
1968 : Douglas C. Engelbart de la Stanford Research Institute fait une démonstration d'un environnement graphique avec des fenêtres à manipuler avec une souris. Il démontre dans cet environnement l'utilisation d'un traitement de texte, d'un système hypertexte et d'un logiciel de travail collaboratif en groupe.
1970 : Des chercheurs du PARC (Palo Alto Research Center), créé par la société Rank Xerox; mènent des recherches à long terme, sans visées d'applications commerciales. C'est là que furent imaginés les concepts de bureau électronique, de zone de travail, de fenêtre, d'icône, etc. On modernise la souris, ce petit boîtier électronique qui permet de déplacer sur l'écran un symbole graphique (pointeur) susceptible de prendre des formes variées selon les objets qu'il atteint, et d'activer les zones ainsi désignées d'un simple clic. Ce système était considéré comme transparent et intuitif et tout à fait adapté à l'ergonomie des interfaces graphiques.
1973 : Le premier prototype opérationnel de la station de travail Xerox Alto
La station de travail conçue au PARC utilise le langage orienté objet SmallTalk, une interface graphique, une souris et peut être mise en réseau via Ethernet.
1975 : Le premier traitement de texte WYSIWYG (What You See Is What You Get) développé au PARC sur Xerox Alto
1981 : Pour essayer de tirer parti de toutes les bonnes idées mises au point avec l'Alto, Xerox commercialise le Star 8010, une machine qui intègre déjà une interface entièrement graphique utilisant au maximum le "Drag & Drop", le copier-coller et les menus contextuels ! Par exemple, sauvegarder un fichier ne se faisait pas en ouvrant une boite de dialogue "enregistrer" comme sur Mac OS ou Windows mais systématiquement par Drag & Drop de la fenêtre du document vers la fenêtre contenant les icônes représentant les fichiers sur le disque. Les applications incluses d'origine incluaient un tableur, un traitement de texte WYSIWYG et un logiciel de messagerie électronique. Vendu à un prix trop élevé, cet ordinateur connaîtra un échec commercial total.
1983 : Apple présente un nouvel ordinateur exceptionnel : le Lisa (Local Integrated Software Architecture). C'est le premier ordinateur personnel à interface graphique. Mais du fait de son prix, cette machine rencontrera un succès limité (100000 exemplaires vendus).
1984 : Commercialisation de l'Apple Macintosh au grand public. Comme le Lisa, le Macintosh s'utilise entièrement à la souris grâce à son interface graphique. Son prix plus raisonnable de $ 2500 (15000 F) permettra à la machine de remporter un grand succès. La simplicité de manipulation de l'interface graphique grâce à la présence de la souris autorisait n'importe qui à manipuler un ordinateur sans connaissances préalables, ce qui était loin d'être le cas pour un PC.
1984 : Digital Research commercialise son interface graphique GEM pour IBM PC.
1985 : Devant le succès du Macintosh, Microsoft met enfin sur le marché, au prix de $ 100, une modeste interface graphique qu'il appelle Windows (fenêtres), parce que le concept de fenêtre y jouait un rôle primordial ; la version 1, trop timide, est un échec, mais Windows s'améliorere au fil des versions et se substituera au vieux MS-DOS à partir de la version Windows 95. Ce système d'exploitation, flanqué d'Internet Explorer depuis la version 98, est livré "par défaut" avec tout PC, ce qui vaut à Microsoft l'accusation par ses concurrents de transgresser la loi antitrust sur les monopoles.
A partir de 1991, le Web va offrir à Internet une dimension graphique. C'est la convivialité de son interface graphique qui assurera à Internet un succès grandissant auprès du grand public.
D'autre part, le développement du multimédia confirmera la suprématie de l'interfaçage graphique, reléguant le mode texte à des utilisations de plus en plus marginales et secondaires.
Sans interface graphique, certaines applications comme la P.A.O. (publication assistée par ordinateur) ou le D.A.O. (dessin assisté par ordinateur) n'auraient jamais pu exister, privant ainsi l'informatique d'un de ses débouchés les plus importants et les plus intéressants.
8. Les logiciels d'application
8.1. Définition d'un logiciel
Ensemble de programmes coopérant pour exécuter une tâche particulière.
8.2. Types et exemples de logiciels
Type de logiciel
Définition
Exemples
Edition de textes
Saisie de textes simples, sans mise en page sophistiquée.
Bloc-notes (PC),
SimpleText (MAC),
Traitement de textes
Saisie de texte avec mise en page sophistiquée, insertion d'images et de tableaux, etc.
Word
(version actuelle Word 2000).
Logiciels graphiques
Dessins et images
Paint Shop Pro (PC)
Adobe Photoshop (PC et Mac)
Adobe Illustrator (PC et Mac)
Tableur
Réalisation de tableaux de calculs (factures, bulletins de salaire, etc.)
Lotus
Excel
Logiciels de Bases de Données
Réalisation de listes structurées d'éléments et leur exploitation.
DBase (PC)
4eDimension (Mac et PC)
Access (PC)
SGBD
Système de gestion de bases de données : logiciel puissant pour la gestion et l'interrogation des bases de données.
Oracle
Sybase
Ingres, ...
Logiciels intégrés
Logiciels incluant à la fois des fonctionnalités de traitement de texte, dessin, tableur et base de données.
Microsoft Works
Claris Works
Autres
Logiciels spécifiques à des domaines particuliers.
Architrion
9. Un mot sur le multimédia
9.1. Définition du concept "multimédia"
Par analogie aux médias de l'information:
Presse écrite (texte)
Radio (son)
Magazines (image fixe)
Télévision (image vidéo)
Un ordinateur est dit multimédia s'il peut traiter et stocker des textes, des sons, des images fixes et des images vidéos.
9.2. Le CD-ROM (Compact Disk Read Only Memory)
La nouvelle technologie des disques compacts permet de stocker une grande quantité d'informations sur un support de petite taille, le CD.
Par ailleurs, compte tenu que le stockage des sons et des images dans l'ordinateur nécessite une mémoire importante, le CD-ROM est devenu le support de stockage des informations multimédias.
Un CD-ROM ne peut être que lu (Read Only Memory). Pour enregistrer sur un CD-ROM, un matériel spécifique est nécessaire : le graveur de CD-ROM.
10. Un mot sur les réseaux d'ordinateurs
10.1. Définition
Réseau : plusieurs ordinateurs connectés entre eux.
Réseau local : dans un même lieu, à l'aide d'un câble.
Réseau distant : ordinateurs distants, la liaison est réalisée à travers les lignes téléphoniques.
10.2. Intérêt d'un réseau d'ordinateurs
Partage des ressources : imprimantes, etc.
Communication, transfert d'informations.
Evite la duplication des logiciels et des informations sur tous les ordinateurs.
etc.
10.3. INTERNET
Internet est défini comme étant le réseau des réseaux.
Les ordinateurs du monde entier sont connectés entre eux à l'aide de câbles, de lignes téléphoniques et de satellites.
Des logiciels spécifiques permettent
- la communication entre ordinateurs,
- l'envoi de messages,
- la recherche d'informations,
- le transfert d'informations,
- etc.
Le mot informatique a été proposé par Philippe Dreyfus en 1962 ; c'est un mot-valise, formé d'information et d'automatique. L'informatique c'est donc une automatisation de l'information, plus exactement un traitement automatique de l'information. L'information désigne ici tout ce qui peut être traité par l'ordinateur (textes, nombres, images, sons, vidéos,...).
L'outil utilisé pour traiter l'information de manière automatique s'appelle un ordinateur. Ce nom a été proposé par Jacques Perret (professeur de Latin à La Sorbonne) en 1954. Ce mot était à l'origine un adjectif qui signifiait "qui met de l'ordre", "qui arrange".
L'anglais, plus restrictif, utilise le terme de computer qui peut se traduire par calculateur, machine à calculer.
L'informatique désigne donc un concept, une science, tandis que l'ordinateur est un outil, une machine conçue pour réaliser des opérations informatiques.
2. Histoire de l'informatique (matériel)
Par nature paresseux, l'homme a toujours cherché à simplifier et améliorer sa façon de calculer, à la fois pour limiter ses erreurs et gagner du temps.
- 1500 av. J.C. (?) : Le Boulier. Il est toujours utilisé dans certains pays.
- en 1641 : La Pascaline (machine à calculer de Blaise PASCAL)
- en 1806 : Métier à tisser à cartes perforées (Joseph-Marie JACQUARD)
- en 1812 : le mathématicien anglais Charles BABBAGE (1792-1871) imagine une machine capable d'effectuer toute une série d'opérations en séquence. Son projet est celui d'un visionnaire, mais la machine ne sera jamais terminée.
- en 1937 : le Mark I d'IBM permet de calculer 5 fois plus vite que l'homme. Il est constitué de 3300 engrenages, 1400 commutateurs et 800 km de fil. Les engrenages seront remplacés en 1947 par des composants électroniques.
- en 1943 : Colossus I
Composé de 1 500 lampes et d'un lecteur de bandes capable de lire 5000 caractères à la seconde, ce calculateur électronique anglais a été conçu pour décoder des messages chiffrés.
- en 1947 : invention du transistor qui va permettre de rendre les ordinateurs moins encombrants et moins coûteux.
- en 1948 : UNIVAC (UNIVersal Automatic Computer)
Il utilise des bandes magnétiques en remplacement des cartes perforées. Il est composé de 5000 tubes, sa mémoire est de 1000 mots de 12 bits, il peut réaliser 8333 additions ou 555 multiplications par seconde. Sa superficie au sol est de 25m².
- en 1958 : mise au point du circuit intégré, qui permet de réduire encore la taille et le coût des ordinateurs
- en 1960 : l'IBM 7000, premier ordinateur à base de transistors.
- en 1972 : l'Intel 4004 ; premier microprocesseur, voit le jour.
- en 1980 : l'ordinateur familial (oric, sinclair, etc.)
- en 1981 : IBM-PC (Personnal Computer)
Cet ordinateur qui n'apporte aucune idée révolutionnaire est la réaction du n°1 mondial face à la micro-informatique. Le PC et ses clones (produits de copiage asiatiques) vont rapidement devenir un standard. Les modèles récents sont adaptés au multimédia. Ils sont de moins en moins coûteux.
En 1981 et en 1998
- Macintosh d'APPLE en 1984 et en 1998...
Aujourd'hui...
les ordinateurs parlent, entendent, voient et se déplacent !!
Ils ont passé sans encombre le cap de l'an 2000...
Et au XXIe siècle...
des ordinateurs qui pensent ?
Non ! Ce n'est pas un rêve ! A l'université Georgia Tech d'Atlanta aux Etats-Unis. Le professeur William Ditto et son équipe ont entrepris de fabriquer des ordinateurs qui réfléchissent par eux-mêmes !
Ils ont extrait des neurones de sangsues (facilement manipulables), les ont plongées dans un bain nutritif, ont relié les neurones entre eux, les ont branchés sur une puce électronique au silicium et les ont excités à l'aide de petites décharges électriques !
Les neurones font office de transmetteurs. Comme les neurones humains, ils sont capables d'établir des connexions entre eux. La stimulation électrique revient à leur donner des ordres.
Les chercheurs américains partent du principe que les ordinateurs actuels, même les plus puissants, ne seront jamais aussi intelligents qu'un cerveau vivant. Il faut donc inventer des ordinateurs capables de penser par eux-mêmes et plus seulement d'exécuter un programme écrit par l'homme.
Rassurez-vous, ces machines mi-animales - mi-électroniques n'attaqueront personne. C'est ce qu'affirme William Ditto. Mais cette expérimentation de sangsues reliées à des puces ouvre la voie à une discipline nouvelle : la " bio-informatique ".
Grâce à ce montage à la Frankenstein, le professeur Ditto serait déjà parvenu à faire réaliser des calculs simples par ses sangsues, des additions basiques du type 2+2 ou 5+3.
3. Architecture de l'ordinateur
Modélisation
4. Standards de micro-ordinateurs
Le mini-ordinateur (ordinateur d'entreprise muni d'une unité centrale à laquelle peuvent être connectés plusieurs écrans terminaux qui peuvent en être très éloignés) a été très rapidement remplacé par les micro-ordinateurs dès qu'ils ont acquis de grandes capacités mémorielles et la possibilité d'être connectés en réseau.
Le micro-ordinateur est un ordinateur personnel, un seul écran en général. Il peut être portable (de dimensions de plus en plus réduites et de plus en plus performant) ou non.
Il ne reste actuellement que deux grands standards de micro-ordinateurs :
Les PC compatibles (appelés ainsi pour leur compatibilité avec le standard IBM. Très nombreuses marques (IBM, Compaq, Dell, etc.) et nombreux "clones" (copies fabriquées le plus souvent dans le Sud-Est Asiatique) encouragés par IBM pour établir la suprématie de son standard.
Les ordinateurs Apple avec notamment la gamme des Macintosh, réputés pour la puissance de leur interface graphique.
Ils sont capables de reconnaître et de lire des fichiers enregistrés au format PC, la réciproque n'étant pas vraie, pour des raisons visiblement commerciales.
5. Programme informatique
5.1. Définition
Un programme informatique est constitué d'une suite d'instructions (ou ordres) exécutées par l'ordinateur pour accomplir une tâche particulière.
5.2. Exemple de programme informatique
PROGRAM identite ;
VAR
Nom : string ;
BEGIN
print ("quel est votre nom ?") ;
read (nom) ;
if (nom = "Alain")
then print ("Vous êtes la personne attendue.")
else print ("Vous n'êtes pas la personne attendue.") ;
END.
6. Langages de programmation
6.1. Définition
Comme pour les langues naturelles (Français, Anglais, Russe, Chinois, etc.), il existe un grand nombre de langages de programmation. Certains sont adaptés à des domaines particuliers, d'autres dépendent de certains types d'ordinateurs, etc.
6.2. Exemples de langages de programmation
Basic (simple et très limité)
Fortran (domaines scientifiques)
Pascal (langage structuré, efficace pour les structures arborescentes)
C (efficace pour le traitement des chaînes de caractères)
Visual Basic (langage orienté objet, interfaces graphiques)
Java (efficace pour des programmes en rapport avec Internet)
7. Systèmes d'exploitation
7.1. Définition
Logiciel constitué d'un ensemble de programmes destinés à faire fonctionner l'ordinateur et à gérer les événements provenant du clavier, de la souris, de l'imprimante, etc.
(anglais: operating system, OS)
7.2.Exemples
MS DOS ( MicroSoft Disk Operating System): pour PC
Microsoft Windows 3.x, Windows 95, 98, NT, 2000, XP : pour PC, mais plus convivial que MS DOS
Mac OS : pour Macintosh
UNIX, LINUX : pour PC
Les premiers Systèmes d'Exploitation sur PC étaient peu conviviaux et fonctionnaient en mode texte, à la différence du Mac OS qui avait adopté dès 83 une interface graphique.
Les interfaces graphiques se sont généralisées sur PC à partir de 1990 (Windows 2, 3, 3.1, 95, 98,)
Microsoft détient un quasi monopole des systèmes d'exploitation sur PC. Mais il existe aussi un système d'exploitation concurrent, appelé Linux, développé à l’origine par un étudiant finlandais, Linus Torvalds.
7.3. Le concept d'interface graphique
Contrairement à ce qu'on pourrait croire, ce concept est assez ancien et remonte aux années 60
1968 : Douglas C. Engelbart de la Stanford Research Institute fait une démonstration d'un environnement graphique avec des fenêtres à manipuler avec une souris. Il démontre dans cet environnement l'utilisation d'un traitement de texte, d'un système hypertexte et d'un logiciel de travail collaboratif en groupe.
1970 : Des chercheurs du PARC (Palo Alto Research Center), créé par la société Rank Xerox; mènent des recherches à long terme, sans visées d'applications commerciales. C'est là que furent imaginés les concepts de bureau électronique, de zone de travail, de fenêtre, d'icône, etc. On modernise la souris, ce petit boîtier électronique qui permet de déplacer sur l'écran un symbole graphique (pointeur) susceptible de prendre des formes variées selon les objets qu'il atteint, et d'activer les zones ainsi désignées d'un simple clic. Ce système était considéré comme transparent et intuitif et tout à fait adapté à l'ergonomie des interfaces graphiques.
1973 : Le premier prototype opérationnel de la station de travail Xerox Alto
La station de travail conçue au PARC utilise le langage orienté objet SmallTalk, une interface graphique, une souris et peut être mise en réseau via Ethernet.
1975 : Le premier traitement de texte WYSIWYG (What You See Is What You Get) développé au PARC sur Xerox Alto
1981 : Pour essayer de tirer parti de toutes les bonnes idées mises au point avec l'Alto, Xerox commercialise le Star 8010, une machine qui intègre déjà une interface entièrement graphique utilisant au maximum le "Drag & Drop", le copier-coller et les menus contextuels ! Par exemple, sauvegarder un fichier ne se faisait pas en ouvrant une boite de dialogue "enregistrer" comme sur Mac OS ou Windows mais systématiquement par Drag & Drop de la fenêtre du document vers la fenêtre contenant les icônes représentant les fichiers sur le disque. Les applications incluses d'origine incluaient un tableur, un traitement de texte WYSIWYG et un logiciel de messagerie électronique. Vendu à un prix trop élevé, cet ordinateur connaîtra un échec commercial total.
1983 : Apple présente un nouvel ordinateur exceptionnel : le Lisa (Local Integrated Software Architecture). C'est le premier ordinateur personnel à interface graphique. Mais du fait de son prix, cette machine rencontrera un succès limité (100000 exemplaires vendus).
1984 : Commercialisation de l'Apple Macintosh au grand public. Comme le Lisa, le Macintosh s'utilise entièrement à la souris grâce à son interface graphique. Son prix plus raisonnable de $ 2500 (15000 F) permettra à la machine de remporter un grand succès. La simplicité de manipulation de l'interface graphique grâce à la présence de la souris autorisait n'importe qui à manipuler un ordinateur sans connaissances préalables, ce qui était loin d'être le cas pour un PC.
1984 : Digital Research commercialise son interface graphique GEM pour IBM PC.
1985 : Devant le succès du Macintosh, Microsoft met enfin sur le marché, au prix de $ 100, une modeste interface graphique qu'il appelle Windows (fenêtres), parce que le concept de fenêtre y jouait un rôle primordial ; la version 1, trop timide, est un échec, mais Windows s'améliorere au fil des versions et se substituera au vieux MS-DOS à partir de la version Windows 95. Ce système d'exploitation, flanqué d'Internet Explorer depuis la version 98, est livré "par défaut" avec tout PC, ce qui vaut à Microsoft l'accusation par ses concurrents de transgresser la loi antitrust sur les monopoles.
A partir de 1991, le Web va offrir à Internet une dimension graphique. C'est la convivialité de son interface graphique qui assurera à Internet un succès grandissant auprès du grand public.
D'autre part, le développement du multimédia confirmera la suprématie de l'interfaçage graphique, reléguant le mode texte à des utilisations de plus en plus marginales et secondaires.
Sans interface graphique, certaines applications comme la P.A.O. (publication assistée par ordinateur) ou le D.A.O. (dessin assisté par ordinateur) n'auraient jamais pu exister, privant ainsi l'informatique d'un de ses débouchés les plus importants et les plus intéressants.
8. Les logiciels d'application
8.1. Définition d'un logiciel
Ensemble de programmes coopérant pour exécuter une tâche particulière.
8.2. Types et exemples de logiciels
Type de logiciel
Définition
Exemples
Edition de textes
Saisie de textes simples, sans mise en page sophistiquée.
Bloc-notes (PC),
SimpleText (MAC),
Traitement de textes
Saisie de texte avec mise en page sophistiquée, insertion d'images et de tableaux, etc.
Word
(version actuelle Word 2000).
Logiciels graphiques
Dessins et images
Paint Shop Pro (PC)
Adobe Photoshop (PC et Mac)
Adobe Illustrator (PC et Mac)
Tableur
Réalisation de tableaux de calculs (factures, bulletins de salaire, etc.)
Lotus
Excel
Logiciels de Bases de Données
Réalisation de listes structurées d'éléments et leur exploitation.
DBase (PC)
4eDimension (Mac et PC)
Access (PC)
SGBD
Système de gestion de bases de données : logiciel puissant pour la gestion et l'interrogation des bases de données.
Oracle
Sybase
Ingres, ...
Logiciels intégrés
Logiciels incluant à la fois des fonctionnalités de traitement de texte, dessin, tableur et base de données.
Microsoft Works
Claris Works
Autres
Logiciels spécifiques à des domaines particuliers.
Architrion
9. Un mot sur le multimédia
9.1. Définition du concept "multimédia"
Par analogie aux médias de l'information:
Presse écrite (texte)
Radio (son)
Magazines (image fixe)
Télévision (image vidéo)
Un ordinateur est dit multimédia s'il peut traiter et stocker des textes, des sons, des images fixes et des images vidéos.
9.2. Le CD-ROM (Compact Disk Read Only Memory)
La nouvelle technologie des disques compacts permet de stocker une grande quantité d'informations sur un support de petite taille, le CD.
Par ailleurs, compte tenu que le stockage des sons et des images dans l'ordinateur nécessite une mémoire importante, le CD-ROM est devenu le support de stockage des informations multimédias.
Un CD-ROM ne peut être que lu (Read Only Memory). Pour enregistrer sur un CD-ROM, un matériel spécifique est nécessaire : le graveur de CD-ROM.
10. Un mot sur les réseaux d'ordinateurs
10.1. Définition
Réseau : plusieurs ordinateurs connectés entre eux.
Réseau local : dans un même lieu, à l'aide d'un câble.
Réseau distant : ordinateurs distants, la liaison est réalisée à travers les lignes téléphoniques.
10.2. Intérêt d'un réseau d'ordinateurs
Partage des ressources : imprimantes, etc.
Communication, transfert d'informations.
Evite la duplication des logiciels et des informations sur tous les ordinateurs.
etc.
10.3. INTERNET
Internet est défini comme étant le réseau des réseaux.
Les ordinateurs du monde entier sont connectés entre eux à l'aide de câbles, de lignes téléphoniques et de satellites.
Des logiciels spécifiques permettent
- la communication entre ordinateurs,
- l'envoi de messages,
- la recherche d'informations,
- le transfert d'informations,
- etc.
Inscription à :
Articles (Atom)