L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.
L’abaque, la première machine à calculer au monde, aurait vu le jour il y a 2 500 ans dans la vallée du Tigre et de l’Euphrate. Initialement, l’abaque n’était qu’une tablette de pierre ou d’argile utilisée pour compter à l’aide de cailloux. Les cailloux étaient placés dans des rainures découpées dans la tablette et pouvaient être déplacés d’un côté à l’autre pour représenter des nombres. Cela facilitait le calcul, y compris des opérations simples comme l’addition et la soustraction.
Au XIIIe siècle, la Chine a pensé à enfiler des grains ou des cailloux percés de part en part sur des ficelles ou des fils de métal fixés à un cadre. Cette découverte pose le fondement menant à la création de l’abaque moderne.
L’écossais John Napier, inventeur du logarithme et du signe décimal, invente un dispositif manuel d’aide aux opérations de multiplication et de division, connu sous le nom de « réglettes de Neper ».
L’Anglais William Oughtred invente la règle à calcul. Contrairement à celles qui suivront, la sienne est circulaire.
L’Allemand Wilhelm Schikard construit une machine à calculer, connu sous l’appellation « horloge à calculer ». L’horloge est capable d’additionner et de soustraire des nombres composés allant jusqu’à six chiffres. La machine et les plans sont perdus, redécouverts en 1935, puis perdus et redécouverts de nouveau en 1956. La machine est reconstruite en 1960, et il paraît qu’elle fonctionnait.
Le Français Blaise Pascal construit la Pascalline — le premier ordinateur numérique pouvant effectuer des additions. On pouvait y entrer jusqu’à 8 chiffres en bougeant des roues. Pascal construit et vend au moins une douzaine de ces appareils, dont certains existent encore de nos jours.
L’Anglais Sir Samuel Morland construit une machine à additionner non décimale adaptée à la monnaie anglaise.
L’Allemand Gottfried Leibniz, co-inventeur du calcul intégral, conçoit la calculatrice à étages, capable d’effectuer des multiplications allant jusqu’à 12 chiffres. Elle permet non seulement d’effectuer des additions et des soustractions, mais aussi des multiplications et des divisions, ainsi que d’extraire les racines carrées. Elle fut trouvée dans un grenier en 1879.
Charles Earl Stanhope invente une calculatrice capable d’effectuer des multiplications.
Joseph-Marie Jacuard invente un métier à tisser automatique à cartes perforées.
Le Français Charles Xavier Thomas de Colmar invente l’arithmomètre, la première calculatrice capable d’effectuer avec succès des additions, des soustractions, des multiplications et des divisions.
Charles Babbage met au point le premier ordinateur mécanique.
Charles Babbage produit un prototype de la première calculatrice mécanique automatique. Sa « machine à différences » doit permettre de calculer et d’imprimer des tableaux mathématiques. Un septième seulement de cette machine est assemblé par l’ingénieur de Babbage, Joseph Clement. La plupart des 12 000 pièces fabriquées sont mises au rebut et fondues.
Babbage entreprend la construction d’une machine à calculer analytique comprenant des éléments informatiques comme des unités d’entrée et de sortie et des systèmes mémoire.
L’observatoire Dudley à Albany, New York, achète la première calculatrice, construite par le Suédois, George Scheutz, et son fils Edvard, pour produire une série de tableaux astronomiques. La machine de Scheutz est conçue sur la base du modèle de Babbage.
Le mathématicien britannique George Boole conçoit l’algèbre binaire. Son travail est le fondement de la commutation binaire essentielle à l’informatique moderne.
L’Espagnol Ramon Verea, qui habite à New York, invente une calculatrice munie d’une table de multiplication interne.
Herman Hollerith, du Bureau of the Census des États-Unis, invente une machine à cartes perforées servant à compiler et à totaliser des données. Dorr E. Felt, de Chicago, conçoit la première calculatrice permettant d’entrer des nombres au moyen de touches à enfoncer au lieu d’un système à roues. Sa calculatrice est connue sous le nom de « comptomètre ».
Felt invente la première machine à calculer imprimante.
Hollerith fonde la Tabulating Machine Company qui devient éventuellement le International Business Machines (IBM) Corporation.
À l’université Cambridge, E. Wynn-Williams utilise des thyratrons pour construire un compteur numérique binaire aux fins d’expériences en physique.
International Business Machines lance l’IBM 601, une machine à cartes perforées dotée d’une unité arithmétique à relais, capable de faire une multiplication par seconde.
George Stibitz de Bell Telephone Laboratories construit un additionneur binaire d’un bit à relais. Il s’agit de l’un des premiers ordinateurs binaires. Alan Turing invente sa machine universelle.
John V. Atanasoff et Clifford Berry de l’université d’Iowa construisent un prototype d’additionneur de 16 bits. C’est la première machine à calculer utilisant des tubes à vide. Bell Telephone Laboratories invente la calculatrice à nombre complexe.
Atanasoff et Berry mettent au point une calculatrice spéciale servant à résoudre les problèmes d’équations linéaires simultanées. Elle est connue plus tard sous le nom d’ABC (Atanasoff-Berry Computer). Cet ordinateur est doté d’une mémoire de 60 mots de 50 bits sous forme de condensateurs montés sur deux tambours tournants. Sa deuxième mémoire perfore des trous dans des cartes.
Le Britannique Thomas Flowers construit le premier ordinateur électronique programmable, contenant 2 400 tubes à vide pour les opérations logiques. Cet ordinateur de déchiffrement, portant le nom Colossus Mark I, peut traduire 5 000 caractères par seconde et utilise une bande perforée pour l’entrée de données. Il est créé pour déchiffrer les messages produits par le dispositif de codage allemand Enigma.
On trouve un « bogue » dans un relais informatique et le mot « déboguer » est créé.
Les premiers ordinateurs à tubes à vide sont construits à l’Université de la Pennsylvanie. L’ENIAC (Electrical Numerical Integrator and Calculator) comprend 18 000 tubes à vide et occupe 1 800 pieds carrés. C’est le premier « véritable ordinateur » (c.-à-d. le premier ordinateur numérique entièrement électronique à usage général).
William B. Shockley, John Bardeen et Walter H. Brattain, scientifiques à l’emploi de Bell Laboratories aux États-Unis, inventent le transistor.
On commence à voir les effets du baby boom dans l’augmentation de la taille des classes, mais les écoles ont peu recours à la technologie électronique. L’ordinateur Univac de la première génération est livré au Bureau of the Census des États-Unis. Whirlwind, le premier ordinateur en temps réel, est construit pour le Système de défense aérienne des États-Unis.
Univac est utilisé pour prévoir les résultats de l’élection présidentielle de 1952. Personne ne croit sa prévision, fondée sur 1 % des voix, qu’Eisenhower remportera l’élection haut la main. Pourtant, c’est bien ce qui est arrivé.
IBM vend son premier ordinateur commercial.
On entreprend la construction au M.I.T. du premier ordinateur transistorisé, le TX-O (Transistorized Experimental Computer).
Les gros ordinateurs hôtes ne sont pas généralement acceptés dans les écoles, qui continuent de transmettre l’information aux élèves en salle de classe par l’entremise de l’enseignant en tant que gestionnaire. Jack St. Claire Kilby, qui travaille chez Texas Instruments, invente le circuit intégré. Deux importants langages de programmation sont créés vers la fin des années 1950 — COBOL et LISP.
Les ordinateurs transistorisés entrent en usage. Des ordinateurs plus petits utilisant des transistors et des circuits imprimés sont construits de 1959 à 1964. Ils sont considérés comme des ordinateurs de la deuxième génération.
Mme Grace Murray Hopper, professeure de mathématiques achève l’élaboration du langage COBOL.
Les lignes aériennes commencent à utiliser un système de réservations informatisé.
Aux États-Unis, le Vocational Education Act affecte de nouveaux fonds au soutien de la technologie dans les écoles. Toutefois, les méthodes de traitement par lots utilisées par les gros ordinateurs et les mini-ordinateurs ne cadrent pas avec celles fondées sur l’enseignant en tant que gestionnaire de l’apprentissage employées dans la plupart des écoles. BASIC, un langage de programmation simple évolué, est conçu et utilisé principalement dans les universités pour former des programmeurs. Les ordinateurs de la gamme IBM 360 sont créés. La plupart des ordinateurs utilisent encore des unités d’entrée à cartes perforées. L’imprimante ligne par ligne demeure la principale unité de sortie. Digital Equipment construit le premier micro-ordinateur, appelé le PDP-9.
Les ordinateurs construits entre 1964 et 1971 sont considérés comme des ordinateurs de la « troisième génération ». Ils comprennent les premiers circuits intégrés, qui permettent de construire des machines encore plus petites. IBM lance le langage de programmation PL/1. L’IBM 360 est lancé. La souris et les « fenêtres » sont inventées, de même que le langage de programmation BASIC. Gordon Moore (p.-d.g. d’Intel de 1979 à 1987) prédit que le nombre de transistors que l’industrie pourra placer sur une puce électronique doublera chaque année, prédiction qui plus tard sera connu sous le nom de « Moore’s Law ».
Des gros ordinateurs et des mini-ordinateurs sont installés dans certaines écoles. Ils sont utilisés principalement à des fins administratives ou d’orientation. On met au point le premier superordinateur, le Control Data CD6600.
Les langages de programmation évolués comme FORTRAN sont enseignés dans les universités. Les programmes de formation professionnelle offerts dans les écoles commencent à comprendre l’entretien des ordinateurs.
Création d’Intel Corporation.
Le ministère de la Défense des États-Unis met sur pied le réseau ARPAnet (Advanced Research Projects Agency network) en vue des recherches sur le réseautage. Il pose les fondements du futur Internet. Le Net initial est un petit réseau de superordinateurs servant à promouvoir le partage de recherches parmi les universités. On assiste au Branchement des premiers ordinateurs hôtes.
Les gros ordinateurs et les mini-ordinateurs sont utilisés dans certaines écoles, mais non de façon répandue dans l’enseignement. Intel lance la première puce RAM, la 1103, d’une capacité d’un kilo-octet ou 1 024 octets.
Intel construit son premier microprocesseur, le 4004, capable d’environ 60 000 interactions par seconde (0,06 million d’instructions par seconde) et ayant une fréquence de base de 108 KHz. Les premiers micro-ordinateurs (ordinateurs personnels) voient le jour. Utilisation généralisée de gros ordinateurs et de mini-ordinateurs dans l’entreprise. Quelques nouvelles compagnies de logiciels créent des programmes éducatifs pour les gros ordinateurs et les mini-ordinateurs. Les ingénieurs d’IBM, sous la direction d’Alan Shugart, inventent le disque souple. On termine l’élaboration du langage de programmation Pascal (qui tient son nom du célèbre mathématicien).
Les ordinateurs construits après 1972, dits de la « quatrième génération », comprennent des circuits intégrés à grande échelle (c.-à-d. des microprocesseurs), une puce comportant 500 composants ou plus. Création du langage de programmation C et, plus tard, du C++. La première calculatrice scientifique de poche (le HP-35), fabriquée par Hewlett-Packard, rend la règle à calculer obsolète. Intel lance le processeur 8008. La compagnie Automatic Electronic Systems du Canada lance le premier appareil de traitement de texte programmable avec écran au monde, le AES 90. Le système utilise des disques magnétiques pour le stockage des données et un microprocesseur spécialement conçu à cet effet.
L’ordinateur Apple I est vendu sous forme d’appareil en trousse. Création du CLIP-4, premier ordinateur doté d’une architecture parallèle. Le MITS Altair 880, le Scelbi et le Mark-8 sont lancés. Ce sont les premiers ordinateurs personnels. Telenet voit le jour et la première version commerciale d’ARPAnet est mise en marché.
Un certain nombre d’ordinateurs personnels Apple I sont offerts gratuitement aux écoles. Certaines écoles installent un gros ordinateur et des mini-ordinateurs, mais la plupart refusent de songer à se doter d’ordinateurs personnels. Bill Gates et Paul Allen mettent en oeuvre le langage BASIC pour la première fois. IBM lance la première imprimante au laser. Bill Gates et Paul Allen fondent la compagnie Micro-soft. (le tiret sera supprimé ultérieurement).
Mise en marché d’Apple II.
Selon les estimations, quinze millions d’ordinateurs personnels sont utilisés dans le monde entier. On assiste à la création de chiffriers pour ordinateurs personnels. Les gros ordinateurs et les mini-ordinateurs sont d’usage répandu. Le jeu d’arcade vidéo appelé « Space Invaders » lance la manie des jeux d’arcade. Honeywell crée le langage de programmation Ada, en souvenir d’Augusta Ada Byron, l’une des premières informaticiennes au monde et, chose étonnante, la fille de Lord Byron, le poète romantique bien connu.
Le TI-99, fabriqué par Texas Instruments et doté d’un écran de télévision, devient l’ordinateur personnel le plus populaire au monde. L’élaboration de MS-DOS/PC-DOS commence. Le Sinclair ZX80 est lancé.
IBM construit et met en vente un ordinateur personnel, premier fabricant de gros ordinateurs à le faire. Création des premiers programmes d’exercices scolaires pour ordinateurs personnels. Le Xerox Start System et le premier système WIMP (Windows, Icons, Menus, Pointing) sont lancés. ARPAnet compte 213 ordinateurs hôtes et s’élargit rapidement. Microsoft met en marché MS-DOS, version 1.0.
Le protocole TCP/IP est adopté et le terme « Internet » est employé pour la première fois pour décrire l’ensemble de réseaux interconnectés qui utilisent le TCP/IP. Mise en marché du Commodore 64. Compaq met en marché son ordinateur Compaq Portable, qui est compatible avec l’OP d’IBM. IBM lance les unités de disques souples de 320 K à double face.
Les clones de l’OP d’IBM prolifèrent. Sperry Corporation devient le deuxième fabricant de gros ordinateurs à produire un ordinateur compatible avec l’OP d’IBM (créé par Mitsubishi au Japon). L’ordinateur Apple II est généralement accepté dans le domaine de l’éducation parce qu’il répond au modèle d’enseignement axé sur l’enseignant comme gestionnaire. Création de programmes de simulation simples pour les ordinateurs personnels. IBM met en marché le PC junior.
Il y a encore relativement peu d’ordinateurs dans les salles de classe. Création et mise en marché de l’ordinateur Macintosh Apple. Les fabricants de progiciels commerciaux créent des tutoriels et des jeux d’apprentissage informatiques. Le serveur DNS (serveur de nom de domaine) est adopté pour l’Internet, auquel sont reliés environ 1 000 ordinateurs hôtes. William Gibson invente le mot « cyberspace » (cyberespace) dans son roman Neuromancer.
Microsoft met en marché Windows. Lotus, Intel et Microsoft adoptent la LIM EMS (norme de gestion de la mémoire paginée).
Plus de 10 000 ordinateurs hôtes sont connectés à Internet.
Création de l’ordinateur portatif et de la première puce optique. IBM met en marché pour la première fois les disques WORM (Write Once Read Many) ou disques monosession.
Le World Wide Web, inventé par Tim Berners-Lee, vise à combler le besoin d’échange d’information à l’échelle mondiale. La carte de Sound Blaster est mise en marché.
Création de l’ordinateur personnel multimédia. Les écoles utilisent des vidéodisques. Usage répandu des logiciels d’auteur multimédia orientés objet. Les simulations, les bases de données éducatives et d’autres types de programmes d’EAO (enseignement assisté par ordinateur) sont fournis sur disques CD-ROM, dont plusieurs incluent l’animation et le son. ARPAnet est mis hors service - le nombre d’ordinateurs hôtes dépasse les 300 000.
Le Finois Linus Torvalds crée Linux, variante du système d’exploitation UNIX. Le monopole d’Intel est mis à l’épreuve avec le lancement par AMD du microprocesseur Am386.
Les écoles utilisent des serveurs Gopher pour fournir aux étudiants de l’information en direct.
Les fournisseurs de services commerciaux sont autorisés à vendre l’accès à Internet à des particuliers. Le Pentium. Mosaic, premier navigateur Web graphique, est mis en marché. Adobe introduit le format PDF (Portable Document File). AMD lance le microprocesseur de la gamme Am486 pour concurrencer le 80486 d’Intel.
La vidéo numérique, la réalité virtuelle et les systèmes tridimensionnels retiennent beaucoup l’attention, mais les ventes d’ordinateurs personnels multimédia sont inférieures à celles d’ordinateurs personnels de gestion. Popularité croissante dans les écoles des systèmes d’auteur orientés objet comme HyperCard, Hyperstudio et Authorware. Netscape 1.0 est créé comme fureteur de rechange à NCSA Mosaic. La première technologie sans fil (Bluetooth) fait son apparition sur le marché. Yahoo lance son service de recherche Internet. Le World Wide Web compte environ 2 000 serveurs.
Le recours à Internet et au World Wide Web s’accroît au fur et à mesure que les entreprises, les écoles et les particuliers créent des pages Web. La plus grande partie de l’enseignement assisté par ordinateur se donne à l’aide de disques CD-ROM, dont la popularité ne cesse de s’accroître. Mise en marché de Windows 95 et de Pentium Pro. Netscape annonce le lancement de Javascript. George Moore révise sa loi, en préconisant que les transistors placés sur les circuits intégrés doubleront désormais tous les deux ans. La suprématie d’Intel dans le monde des micro-ordinateurs sous Windows continue de s’effriter avec le lancement par AMD du microprocesseur K-5 qui, compatible broche à broche et à un prix inférieur, représente une alternative sérieuse au Pentium d’Intel.
Internet retient l’attention à mesure que les entreprises commencent à fournir des services et à faire de la publicité sur les pages Web. On assiste à la création de nouveaux outils graphiques et multimédias pour fournir de l’information et dispenser de l’enseignement sur Internet. De nombreuses écoles procèdent à un recâblage pour l’accès à Internet. Quelques écoles installent des serveurs Web et donnent à leur corps enseignant le moyen de créer des pages Web éducatives. On procède à la mise en marché de Netscape Navigator 2.0. Le nombre d’ordinateurs hôtes sur Internet atteint presque les 10 000 000. Microsoft lance la première version d’Internet Explorer, son navigateur Web breveté.
Internet continue de prendre de l’expansion grâce à de nouvelles utilisations et applications. La reconnaisssance de la parole est de plus en plus répandue. On s’attend à une demande accrue de logiciels éducatifs étant donné les CD-ROM de capacité beaucoup plus importante. Intel lance le Pentium MMX pour les jeux et les activités multimédias. Intel met en marché le processeur Pentium II. Microsoft lance Windows 98 et AMD procède au lancement du microprocesseur K-6. Palm Computing Markets met en marché le premier PDA (Personal Digital Assistant), le Palm Pilot. On assiste aussi à l’arrivée de la technologie E-book. L’arrivée des programmes téléchargeables comme SETI@Home ouvre la voie au traitement de l’information par Internet sur une grande échelle.
On procède au lancement de Linux Kernel 2.2.0. On estime qu’environ 10 millions de personnes utilisent Linux. AMD met en marché le K6-III, version 400 MHz, qui contient environ 23 millions de transistors. Dans certains tests, il donne un meilleur rendement que l’Intel P-III. Intel procède au lancement du Pentium de la gamme P-III. Un grand nombre de sites de commerce électronique font leur apparition sur Internet. Les gouvernements et les entreprises du monde entier se mobilisent en vue de l’arrivée de l’an 2000 (Y2K). Bien que les nouveaux ordinateurs soient compatibles à l’an 2000, on s’inquiète du fait qu’il existe toujours un grand nombre d’ordinateurs vulnérables. AMD lance sa nouvelle puce Athlon brevetée. Grâce à sa vitesse de 1 GHz, elle surpasse tous les microprocesseurs Pentium offerts par Intel.
Les craintes liées au passage de l’an 2000 s’avèrent totalement non fondées, l’arrivée du nouveau millénaire se déroulant sans aucune interruption dans les réseaux informatiques mondiaux. Microsoft lance Windows Millennium (pour les OP) et Windows 2000 (pour les réseaux locaux). Les titres des entreprises dot-com plongent à la bourse, et plusieurs d’entre elles déclarent faillite. Le président de Microsoft, Bill Gates, démissionne comme p.-d.g. de sa propre entreprise pour se consacrer à l’élaboration de logiciels. IBM met en marché une version de suivi de Deep Blue, appelée Blue Gene : elle fonctionne au rythme d’un quadrillion d’opérations par seconde (un petaflop), soit 1 000 fois plus vite que Deep Blue. Blue Gene servira à la modélisation de protéines humaines. Des cyberattaques obligent certains sites Web à fermer.
Détection du premier virus Linux. Gordon Moore déclare que la loi qui porte son nom devrait être modifiée, le nombre de transistors sur un circuit intégré devant doubler non pas tous les deux ans mais tous les quatre ou cinq ans, à compter de 2010-2020. En 1965, il avait prédit que leur nombre doublerait chaque année puis, en 1995, il avait dit tous les deux ans. Le fait que cette prévision ait tenu pendant 36 ans est extraordinaire, étant donné la rapidité de l’évolution dans ce domaine. Intel lance le Pentium IV, alors que Microsoft met en marché le Windows XP (pour les OP et les réseaux locaux).
La technologie sans fil est de plus en plus répandu. De nouveaux appareils portatifs sont disponibles sur le marché, qui comprend entre autres les modems de communications sans fils, les téléphones cellulaires en mode mixte, les navigateurs Web, les ordinateurs de poche, les récepteurs GPS (Global Positioning System) et les systèmes d’exploitation et d’interfaces graphiques de plus en plus sophistiqués comme le PC Tablet.