Accueil Recherche | Plan Technique | Liens | Actualités | Formation | Emploi | Forums | Base
logo CERIG NOTE TECHNIQUE cerig.efpg.inpg.fr 
Vous êtes ici : Accueil >Technique > Informatique générale > Où va la micro-informatique ?
          Révision : 15 octobre 1997
Note précédente Liste des notes     Où va la micro-informatique ?     Page technique Note suivante
 
Jean-Claude Sohm (CERIG / EFPG)
(15 octobre 1997)
 
Jean-Claude Sohm

Version révisée du 15 octobre 1997
(Version initiale : 23 septembre 1997)

Sommaire
 

    Un peu d'histoire
  La situation actuelle
  L'avenir : les systèmes d'exploitation
  L'avenir : le matériel
    L'évolution du marché
    Le moniteur
    Les composants
    Bus, interfaces et contrôleurs
    Les cartes d'extension
    Les périphériques
    Conclusion
  A plus long terme
    Préambule
    Windows menacé par Java ?
    Le PC menacé par le NC ?
  Conclusion

 

Un peu d'histoire

(retour au sommaire)
Le premier microprocesseur est apparu sur le marché en 1974. Un an plus tard, il était utilisé pour construire le premier micro-ordinateur, baptisé Altaïr : la micro-informatique était née, c'était il y a 22 ans.

L'Altaïr, et les premières machines qui suivirent, se vendirent à quelques milliers d'exemplaires à des particuliers passionnés d'informatique qui n'avaient pas les moyens de s'offrir des heures de mini-ordinateur en temps partagé. Un an plus tard apparurent des machines (telles que l'Apple II) qui possédaient déjà toutes les fonctions d'un véritable ordinateur, et dont les entreprises devinrent les principaux utilisateurs dès le début des années 80.

En micro-informatique, la technique avance à un train d'enfer, alors que le coût reste pratiquement constant. Cela tient aux progrès des circuits intégrés (le nombre de transistors que l'on grave sur une puce double tous les deux ans environ), et des périphériques (en une quinzaine d'années, la capacité des disques durs a été multipliée par mille). Le marché a suivi : en 1987, le chiffre d'affaires de la micro-informatique a dépassé celui de tous les autres secteurs de l'informatique réunis. Environ 3 millions de Macintosh et 60 millions de PC seront construits dans le monde cette année. La base installée mondiale d'ordinateurs comprend environ 250 millions de micro-ordinateurs et serveurs, 300.000 stations de travail, quelques dizaines de milliers de mini-ordinateurs, et 2.000 grosses machines. La croissance fantastique de la micro-informatique est intimement liée au développement rapide de l'information dans notre société, et à la numérisation toujours plus poussée de cette information. Mais cette croissance ne s'est pas faite sans douleur : au milieu des années 80, une crise a secoué la micro-informatique, et beaucoup d'entreprises ont disparu. Qui se souvient d'Atari Corp. , Computervision, Commodore, Eagle, Osborn, Mohawk Data Sciences et Visual Technology ? Des 14 fabricants de mémoire de cette époque, il ne reste aujourd'hui que deux survivants...

Au début de la décennie 90, l'ordinateur domestique est devenu une réalité, du moins aux Etats-Unis. Depuis deux ans, le nombre de ménages américains équipés plafonne aux environs de 40 %. En France, des chiffres très dispersés sont cités (de 5 à 15 %), mais chacun s'accorde à dire que le marché de l'ordinateur domestique démarre.

Les premiers micro-ordinateurs étaient des machines isolées. Mais le besoin s'est rapidement fait sentir de partager des ressources communes, qu'il s'agisse de données ou de matériels : ainsi sont nés les réseaux. Dans les petits réseaux "poste à poste", chaque machine peut être à la fois client et serveur d'information. Les grands réseaux, par contre, requièrent un serveur dédié. C'est une machine plus musclée qu'un micro-ordinateur courant, et fonctionnant sous un système d'exploitation multitâche et multi-utilisateur (Unix par exemple). Les micros domestiques eux-mêmes ne restent pas isolés : aux Etats-Unis, la moitié d'entre eux sont équipés d'un modem. Le plus grand de tous les réseaux est Internet : plusieurs dizaines de millions de micro-ordinateurs y sont raccordés.

Le besoin s'est fait sentir, dans la deuxième moitié des années 80, d'ordinateurs monopostes plus puissants que les micro-ordinateurs (pour les applications graphiques en particulier). Ainsi sont nées les stations de travail, fonctionnant sous Unix. Le monde Unix (des serveurs et stations de travail) s'est développé parallèlement au monde PC, mais avec des caractéristiques différentes. Chaque constructeur a sa propre version du système d'exploitation Unix, et il y a presque autant de plates-formes que de fabricants. Plus segmenté, le marché est également beaucoup plus étroit que celui des micro-ordinateurs, mais les coûts y sont beaucoup plus élevés, et les marges nettement plus confortables. C'est la société Sun Microsystems qui a le mieux réussi dans ce domaine.
 

La situation actuelle

(retour au sommaire)
En micro-informatique, deux plates-formes concurrentes coexistent : celle d'Apple, née en 1976 (environ 10 % du parc installé), en perte de vitesse depuis le début de la décennie -- celle du PC, née en 1981, affranchie de la tutelle d'IBM il y a dix ans, (le terme "compatible IBM" n'a plus de sens depuis 1987). Leurs situations respectives sont très différentes en ce qui concerne le matériel : un seul constructeur pour le Mac (l'intermède des cloneurs est presque refermé), une concurrence féroce entre constructeurs (et assembleurs) pour le PC. En ce qui concerne le logiciel système, les deux situations sont identiques : pas de concurrence directe. Le possesseur d'un Mac est pratiquement marié avec Apple, et celui d'un PC presque avec Microsoft. Mais la concurrence indirecte a bel et bien existé entre les deux systèmes d'exploitation, elle a fortement contribué à leur progrès, mais c'est maintenant de l'histoire ancienne. En ce qui concerne le logiciel d'application (les mêmes produits se retrouvent à peu de choses près sur les deux plates-formes), la concurrence entre éditeurs est par contre bien réelle.

Les arts et industries graphiques sont voués à la plate-forme Apple pour des raisons historiques : la PAO s'est développée au milieu des années 80, alors que cette plate-forme était la seule à posséder une interface graphique utilisateur. Lorsque, par la suite, d'autres applications impliquant des images se sont installées sur les micro-ordinateurs, l'interface Windows était bien implantée sur le marché, et le phénomène ne s'est pas reproduit. Exemples : la CAO (dessin industriel) et les SIG (systèmes d'information géographiques) sont essentiellement implantés sur PC.

La fragmentation du monde Unix a permis à Microsoft d'introduire avec succès son produit concurrent Windows NT sur le marché des serveurs (Windows NT Server) et des stations de travail (Windows NT Workstation). La base installée de Windows NT Server est encore faible, mais la progression est rapide : elle est principalement due au développement des réseaux dans les petites et moyennes entreprises.

La montée en puissance des micro-ordinateurs est telle qu'une machine haut-de-gamme fonctionnant sous Windows NT Workstation a la puissance d'une station de travail d'entrée de gamme. Ainsi, le monde PC a fait irruption dans le monde Unix, refoulant devant lui les produits les moins élaborés, modifiant les situations acquises, et faisant baisser certains prix.
 

L'avenir : les systèmes d'exploitation

(retour au sommaire)
L'année 1998 nous promet quelques événements marquants : Windows 98, Windows NT 5.0 et Rhapsody doivent arriver sur le marché vers le milieu de l'année. Windows 98 permettra de gérer des disques durs d'une capacité supérieure à 2,1 Go, et comprendra une intégration poussée du navigateur Internet et du système d'exploitation. Windows 95 et NT comporteront un certain nombre d'améliorations :

    initiative OnNow : mise en sommeil et réveil de la machine (standard ACPI), amélioration de la configuration du système et des périphériques ;
  support des nouveaux bus (AGP et USB) et du nouveau système de gestion des entrées/sorties (I2O) ;
  support accru des technologies d'acquisition des images et de la vidéo ;
  support des technologies broadcast (TV numérique, câble, etc.).

Le monde de l'imprimerie apprendra avec intérêt que Microsoft a décidé de faire un effort dans sa direction : désormais Windows comportera un utilitaire de gestion de la couleur (IMC : Image Color Matching), et de nouvelles polices de caractères baptisées "OpenType", mises au point en collaboration avec Adobe, et communes aux plates-formes Mac et PC. Dès la mi-1998, le PC devrait être aussi performant que le Mac dans le domaine de la PAO.

Au dernier congrès Seybold, S. Jobs a annoncé que la première version de Rhapsody serait destinée aux serveurs, et la seconde aux stations de travail. Ce système d'exploitation, rappelons-le, doit être bi-plate-forme, et ce avec la collaboration de Microsoft, ce qui est pour le moins surprenant. Cet éditeur, par contre, a renoncé à porter Windows NT sur le processeur PowerPC. Si tout se passe comme prévu, le propriétaire d'un PC pourra donc choisir son système d'exploitation -- une situation plutôt exceptionnelle jusqu'à présent. Par le passé, ni Unix ni DR-DOS n'avaient réussi à rivaliser avec MS-DOS, et OS/2 n'a pas réussi à concurrencer fortement Windows. Linux (une version d'Unix pour PC) reste l'apanage de quelques amateurs passionnés, et BeOS ne sera disponible sur PC qu'en janvier 1998.
 

L'avenir : le matériel

1 - L'évolution du marché :l'assemblage des machines à la demande, la vente à travers des réseaux courts, et la baisse des prix, vont s'accentuer dans le monde PC.
(retour au sommaire)

Les éléments constitutifs d'un PC sont interchangeables : carte-mère, cartes d'extension, dispositifs 3 1/2" et 5 1/4", alimentation, connectique, carrosserie, tout obéit à des standards de fait. Le client peut donc se faire assembler "sur mesure" -- voire même assembler lui-même -- la machine de son choix, à partir des composants standards du marché. Il peut aussi faire rénover une machine qui a pris de l'âge, ou la faire adapter à une nouvelle application. A titre d'exemple, la machine qui a servi à rédiger ce texte en est à sa deuxième refonte, pour un coût qui chaque fois ne représente que le tiers environ d'une machine neuve. Il est surprenant que les entreprises, qui se plaignent sans cesse que les machines se démodent trop vite, n'utilisent pas plus cette technique pour faire des économies. Signalons au passage qu'une autre façon d'amortir les vieux PC arrivés en fin de carrière, consiste à les utiliser comme terminaux.

La société Dell est championne de la vente directe, en particulier sur Internet. Elle a ouvert des sites dans 30 pays différents, et réalise ainsi un chiffre d'affaires journalier total de 3 M$. "La première fois, le client va chez un revendeur, la seconde fois il nous passe une commande directe, la troisième fois il utilise Internet" explique le directeur commercial. C'est en Europe que le système fonctionne le moins bien, parce que le commerce sur Internet y est encore peu prisé. Aux Etats-Unis, le développement de la vente directe commence à nuire sérieusement aux grandes surfaces : certaines réduisent la taille de leur rayon micro-informatique, d'autres le suppriment complètement.

Jusqu'à présent, la politique des constructeurs de PC consistait à améliorer sans cesse les performances techniques, en maintenant le prix moyen (2.000 à 3.000 $) à peu près constant. Depuis cette année, le prix moyen des machines baisse. Les utilisateurs ont réussi à faire entendre leur voix : ils n'ont pas besoin d'un Pentium II à 300 MHz pour faire du traitement de texte !

Comme chacun le ressent, la fin des clones, l'abandon de la plate-forme commune (CHRP), la disponibilité prochaine de Rhapsody pour PC, et l'abandon du développement de Windows NT pour le processeur PowerPC, font peser une menace certaine sur l'avenir du Mac. Pour l'instant, le Mac permet à Apple de survivre. Mais lorsque Rhapsody arrivera sur le marché, le Mac disparaîtra sans doute progressivement, ce qui incite Apple à préparer activement de nouveaux produits. En conclusion, la machine paraît beaucoup plus menacée que la plate-forme.

Dans le secteur des portables, la concurrence s'aiguise, et les prix commencent à baisser. Pour que l'autonomie augmente, la tension de fonctionnement des composants (CPU, contrôleurs) devra baisser (descendant vers 1,8 volt en 2-3 ans), car la capacité des batteries ne fait guère de progrès.

Sur le marché américain des ordinateurs domestiques, l'introduction de machines coûtant moins de 1.000 $ pièce a relancé les ventes. L'équipement des ménages, qui plafonnait vers 40 % depuis deux ans, devrait atteindra 50 % à la fin de 1998. Certains analystes pensent qu'il sera difficile d'aller au-delà, même si les prix baissent encore : la moitié des ménages américains trouverait le micro-ordinateur trop difficile à utiliser. Une fraction constituerait une clientèle pour les WebTV et autres set-top boxes, le reste serait constitué de "couch potatoes" réfractaire aux loisirs interactifs...
 

2 - Le moniteur : le 17" va devenir le modèle de base.
(retour au sommaire)

Le coût des moniteurs de 17" de diagonale baisse, et cette taille devrait bientôt devenir un standard. On commence à trouver sur le marché des moniteurs 17" à moins de 500 $, et le surcoût pour passer de 15 à 17" peut descendre à 200$. Ces moniteurs sont capables de fournir une résolution de 1024x768 pixels (pitch de 0,28 mm), à une fréquence de rafraîchissement de 75 Hz ou plus. Rappelons qu'à une valeur nominale de 17" correspond une valeur réelle de 15,7-16" : les commerçants en informatique sont des menteurs impénitents.
 

3 - Les composants : la vitesse des processeurs 32 bits atteindra 400 MHz, mais il faudra attendre 1999 pour que les processeurs 64 bits arrivent dans les machines. Le processeur CISC continue à dominer le marché. Le nouveau contrôleur I2O fait son apparition sur la carte-mère : il va gérer les entrées/sorties. La mémoire vive des machines augmente toujours, son coût baisse encore.
(retour au sommaire)

Comme chacun pouvait le deviner, la puissance et la vitesse des microprocesseurs vont encore augmenter. Chez Intel, le Pentium II cadencé à 300 Mhz est déjà sur le marché, et les Pentium fonctionnant à 333, 350 et 400 Mhz (code Dechutes) sont annoncés pour 1998. Intel reste le grand fournisseur de processeurs CISC, loin devant ses concurrents Cyrix et AMD. Le processeur Pentium MMX finit de s'imposer dans le multimédia, et sa nouvelle version (le Tillamook à 233 MHz, consommation réduite à 3 W) révolutionne le domaine des portables, qui se développe maintenant plus vite que celui des machines fixes. Au milieu de l'année prochaine, le Pentium 200 MHz MMX deviendra le processeur d'entrée-de-gamme ; c'était pratiquement le haut-de-gamme au début de cette année...

Apple avait tenté de frapper un grand coup avec sa machine 9600/350 dotée d'un processeur PowerPC cadencé à 350 Mhz, mais il vient de la retirer du catalogue. On a beaucoup glosé sur la supériorité des processeurs RISC (tel que le PowerPC utilisé par Apple) sur les processeurs CISC (dont sont dotés les PC). En fait, à fréquence d'horloge égale, le RISC est supérieur au CISC pour les calculs, mais moins bon pour les autres opérations. Le CISC est donc la "bonne à tout faire" des processeurs, avec une part de marché de 92 % en volume, alors que le RISC colonise plutôt les niches correspondant à des applications gourmandes en calcul (les rips dédiés et les stations graphiques par exemple). La société Intel a réussi à introduire ses processeurs CISC les plus puissants dans le domaine des serveurs et des stations de travail. La société Digital (DEC : Digital Equipment Corporation) a tenté pendant un an d'introduire sa puce RISC Alpha, cadencée à 500 MHz et très performante, dans le monde PC, mais sans succès (aux dernières nouvelles, Digital renouvellerait sa tentative en passant un accord avec Intel) -- tout en utilisant des puces Intel pour une partie de ses machines. Le RISC présente un avantage "psychologique", celui de permettre aux concurrents d'Intel d'évoluer sur une plate-forme qui les démarque du fondeur numéro un, et à la société Apple de dire que ses machines sont différentes, bien qu'elles soient dotées du même bus (PCI), de la même interface (E-IDE), et du même moniteur que les PC. A l'horizon se profile une nouvelle architecture, baptisée EPIC (Explicitly Parallel Instruction Computing), qui devrait être beaucoup plus performante que RISC et CISC, et entraîner de sérieuses modifications dans l'écriture des compilateurs.

Les processeurs installés dans les PC utilisent toujours des mots de 32 bits, et cette situation devrait durer jusqu'en 2003. Les processeurs 64 bits qui sont en cours de développement chez Intel (type IA-64 / nouvelle architecture EPIC / technologie 0,18 µm / projet Merced / en collaboration avec HP) ne parviendront pas sur le marché avant 1999, et seront initialement réservés aux serveurs. Dans le monde Unix, par contre, le passage aux mots de 64 bits, qui a commencé l'an dernier, sera complètement terminé dans le courant de 1998, et la fréquence d'horloge atteint déjà 600 MHz. Les processeurs utilisés dans le monde Unix, qui ont généralement l'architecture RISC, sont en avance de quelques années sur ceux du monde PC, mais ils sont nettement plus chers.

Augmenter la fréquence d'horloge du processeur n'est pas la seule méthode utilisable pour rendre les micro-ordinateurs plus rapides : on peut aussi décharger le processeur de certaines tâches que l'on confie à des contrôleurs, et cette technique est de plus en plus utilisée. A partir de l'an prochain, ce sera au tour des entrées/sorties d'être gérées par un contrôleur : la spécification correspondante s'appelle I2O (Intelligent Input Output). Les spécifications sont gérées par un SIG (Special Interest Group), créé en 1996, et rassemblant actuellement 120 entreprises.

Autre façon de rendre les micro-ordinateurs plus rapides : faire travailler plusieurs processeurs en parallèle. Bien qu'annoncé à plusieurs reprises dans le passé, le micro-ordinateur multiprocesseur n'a toujours pas vu le jour. On trouve par contre sur le marché des stations de travail à deux processeurs, et des serveurs comportant jusqu'à 8 processeurs. Il existe dans le monde quelques très grosses machines possédant plusieurs centaines de processeurs fonctionnant en parallèle.

La capacité des barrettes de mémoire vive va passer de 16 à 64 Mo. Le coût unitaire du Mo, qui était (en OEM) de 25 $ en 1995 et de 4 $ en 1997, devrait baisser vers 3 $ en 1998 et 2,5 $ en 1999. Un micro-ordinateur de milieu-de-gamme verra sans doute sa mémoire vive passer de 32 à 64 Mo. Un micro-ordinateur est aujourd'hui doté en moyenne de 30 Mo de mémoire vive : ce chiffre atteindra 40 Mo l'an prochain.
 

4 - Bus, interfaces et contrôleurs : le bus ISA ne veut pas mourir, le bus PCI se porte bien, l'interface IDE devient plus rapide.
(retour au sommaire)

Certains l'avaient enterré un peu vite... le vieux bus ISA sera encore présent un an ou deux sur les cartes-mères des PC. Nombre d'utilisateurs ont encore des cartes d'extension ISA de bonne qualité (des cartes son en particulier) qu'ils ne veulent pas voir devenir brusquement obsolètes. Le respect de la compatibilité ascendante est vraiment le credo du monde PC -- et l'un de ses points forts -- mais ce n'est pas la vertu première du monde Apple.

Le bus PCI date de 1992 et son succès a été très rapide. Fin 1996, plus de 40 millions de cartes d'extension avaient été construites au standard PCI. Issu du monde PC, où il a succédé au bus ISA, le bus PCI se répand maintenant dans le monde Unix, où certains fabricants l'adoptent en remplacement de leur ancien bus propriétaire. Pour les serveurs, Compaq a imaginé une version "hot-plug", qui permet de brancher ou débrancher des cartes d'extension sans arrêter la machine, et qui évite à cette dernière de se planter si une carte tombe en panne. L'évolution du bus PCI est gérée par un SIG (Special Interst Group) qui regroupe des entreprises du monde de la micro-informatique. Le bus PCI s'est également introduit en informatique industrielle : son développement est alors géré par un consortium de 230 entreprises, le PICMG (PCI Industrial Computer Manufacturers Group).

L'interface IDE, introduite par Western Digital et Compaq en 1986, permet de relier des dispositifs internes de stockage (disque dur, CD-ROM, lecteur/enregistreur de bande magnétique, etc.) à la carte-mère. Le standard correspondant s'appelle ATA pour les disques durs, et ATAPI pour les autres dispositifs. Bien que moins médiatisé, le progrès technique est aussi foudroyant dans le domaine des disques durs que dans celui des processeurs. La capacité des disques (introduits dans les micro-ordinateurs en 1983) double tous les 18 mois, et la vitesse de transfert des informations tous les 2,5 ans. Cette situation a conduit à un premier doublement de la vitesse de l'interface IDE en 1993 (standard : Fast ATA -- plus connu sous le nom commercial "extended IDE", ou E-IDE), et à un second doublement tout récemment (standard : Ultra ATA), ce qui porte sa vitesse de pointe à 33 Mo/sec. La nouvelle interface est désormais incorporée aux cartes-mères haut-de-gamme (contenant le chipset 430TX d'Intel). Cependant, il faudra veiller à ne raccorder à un même connecteur IDE que des dispositifs de même niveau (deux Ultra ATA, par exemple), car le dispositif le plus lent impose sa vitesse à l'autre. La technique qui consiste à raccorder un disque dur interne à une interface SCSI (qui fut utilisée systématiquement par Apple sur toutes ses machines pendant plusieurs années), ne se rencontrera pratiquement plus que sur les stations de travail et les serveurs non dotés d'un RAID.
 

5 - Les cartes d'extension : la carte graphique 3D se généralise et un nouveau bus (AGP) lui sera dédié.
(retour au sommaire)

Autrefois réservée aux stations de travail haut-de-gamme, l'affichage en 3D d'images fixes ou animées se répand sur micro-ordinateurs. Il en résulte que les cartes graphiques évoluent rapidement. Leur processeur dédié est de plus en plus puissant et rapide, on lui adjoint jusqu'à 4 Mo de mémoire. Comme cela ne suffit pas, les cartes-mères seront désormais reliées à un bus rapide dédié (AGP : Accelerated Graphic Port), donnant au processeur de la carte graphique un accès direct et rapide à la mémoire vive. Le bus AGP est présent sur les cartes-mères contenant le chipset 430TX d'Intel.
 

6 - Les périphériques : un nouveau bus (USB) va relier les principaux périphériques, concurrençant le SCSI. La photo numérique se développe. Le lecteur de CD-ROM devient un équipement standard sur PC. Le DVD-ROM traîne les pieds. L'avenir du CD-R est assuré, celui du CD-RW est incertain. L'imprimante en noir et blanc est bonne pour le musée.
(retour au sommaire)

Le bus USB, annoncé depuis des années, arrive enfin sur le marché. C'est un bus série, fonctionnant à 12 mégabits par seconde, conforme au standard PnP (Plug and Play), et "hot-plug" (pouvant être branché et débranché sans arrêter le système). Le bus USB est destiné à remplacer les connecteurs série et parallèle des PC. Tous les périphériques "lents" -- clavier, souris, scanner, modem, imprimante, appareil photo numérique, téléphone numérique -- pourront lui être raccordés.

Comme on le voit, le bus USB va concurrencer sérieusement le bus SCSI. Ce dernier reste indispensable pour les périphériques "rapides" (gros disques durs externes, systèmes d'épreuve numérique, graveur externe de CD-R ou de CD-RW, disques RAID).

L'interface IEEE-1394 (nom commercial : FireWire) ne tente pas grand monde pour l'instant. Les fabricants de disques durs l'ont boudée, et seuls les producteurs de caméscopes numériques destinés au grand public l'ont adopté. Comme le développement de ces appareils est très lent (coût trop élevé, non-respect du standard DV pour l'enregistrement des données), on ne voit guère à quoi le FireWire pourrait bien servir actuellement. C'est regrettable pour Apple, qui est l'inventeur de cette interface, et qui aurait touché des redevances pour son utilisation.

La photo numérique fait couler beaucoup d'encre, l'offre de matériel ne cesse de croître, et les optimistes prévoient un marché annuel mondial de 150 milliards de dollars dès l'an 2000. La photo numérique souffre pour l'instant de deux gros handicaps : sa faible résolution (très inférieure à celle de la photo argentique), et l'absence d'un format universellement adopté pour stocker les images. Cependant, les imprimeurs doivent s'habituer à l'idée que le développement de la photo numérique est inéluctable, qu'il réduira l'emploi du scanner dans les ateliers de prépresse, et modifiera la manière dont sont utilisés les logiciels de retouche d'images (l'image numérique n'a pas les mêmes défauts que l'image argentique). Deux points à préciser :

    Pour l'instant, la photo numérique est utilisée par certains photographes de presse, pour lesquels la rapidité de transmission des images au journal est primordiale, et par tous ceux qui publient des photos sur le Web, où la résolution est maintenue faible (72 dpi) pour accélérer l'affichage. Pour les particuliers, l'essentiel du coût de l'appareil va dans le dispositif CCD, ce qui fait que l'optique est très sommaire, sinon le prix de l'appareil devient prohibitif.
  Un format (un de plus !!) appelé FlashPix, a été développé l'an dernier par les sociétés Live Picture, Eastman Kodak, Hewlett-Packard et Microsoft. Il permet de stocker une même image sous plusieurs résolutions, et on se demande bien pourquoi, car tous les logiciels de traitement d'image permettent ce changement de résolution. Apple parle de l'introduire dans QuickTime, IBM en a pris la licence, mais on ne le rencontre guère en pratique, et il n'est pas reconnu par les logiciels de retouche d'image. Pour régler ce problème de format, neuf sociétés (dont HP, Kodak et Microsoft) ont créé le "Digital Imaging Group", et d'autres entreprises (dont Polaroid) devraient les rejoindre rapidement.

En ce qui concerne les lecteurs de CD-ROM, le PC a emboîté le pas au Mac : rares sont les machines qui ne le possèdent pas en standard. Le lecteur de DVD-ROM, qui souffre pour l'instant de maladies de jeunesse, remplacera progressivement le lecteur de CD-ROM lorsque les appareils de deuxième génération arriveront sur le marché.

Le marché du stockage est toujours aussi fragmenté, mais deux nouveaux venus modifient le paysage. Dans le domaine de l'archivage, le CD-R se développe de plus en plus rapidement. Dans le domaine de la sauvegarde, l'avenir du CD-RW (CD réinscriptible) est par contre incertain : les actuels lecteurs de CD-ROM ne peuvent pas relire les CD-RW, et seuls les nouveaux lecteurs dotés de l'option "multiread" pourront le faire. Ce problème de compatibilité est un gros handicap pour le développement du CD-RW, car le parc de lecteurs de CD-ROM installés est important, et il faudra du temps pour le renouveler.

Les augures nous promettent que les imprimantes noir-et-blanc deviendront bientôt aussi obsolètes que les moniteurs monochromes. Les imprimantes en couleur de "qualité photo" se développeront concurremment aux appareils de prises de vues numériques.
 

7 - Conclusion.
(retour au sommaire)

Comme on le voit, en 1998, les micro-ordinateurs vont subir de notables transformations : processeur plus rapide, mémoire vive plus vaste, interface IDE au standard Ultra ATA, bus AGP et carte graphique 3D, lecteur de DVD-ROM, bus USB... La plupart de ces nouveautés ont été annoncées pour le PC, mais le Mac devrait suivre le même chemin.
 

A plus long terme

1 - Préambule.
(retour au sommaire)

L'avenir de l'informatique à long terme sera probablement conditionné par deux phénomènes : la numérisation toujours croissante de l'information, et sa diffusion toujours plus grande sur Internet. Par ailleurs, la micro-informatique est devenue la composante principale de l'informatique : 97 % des ordinateurs en service dans le monde sont des micros.

Le développement de l'information numérique entraînera une multiplication des postes de travail informatisés. Leur nombre pourrait atteindre 1,5 milliards dans 10 ans, valeur calculée dans l'hypothèse d'un taux de croissance de 20 % par an, qui n'a rien de déraisonnable. De pareils chiffres aiguisent les appétits : comment seront conçus ces postes, et qui les construira ? Avec quel système d'exploitation fonctionneront-ils ? Que deviendront les réseaux, et qui les contrôlera ?

Le développement d'Internet bat tous les records : le trafic double tous les 4 mois. Véritable phénomène de société, Internet est en passe de devenir le moteur principal du développement de l'informatique : les entreprises se battent pour prendre le train Internet en marche. Parmi celles qui se sont précipitées les premières, il y a Sun Microsystems, le premier fabricant de serveurs du monde Unix. Dans le domaine du logiciel, Sun a lancé le langage Java, et dans le domaine du matériel, le NC (Network Computer). Quel est l'avenir de ces deux produits ?

2 - Windows menacé par Java ?
(retour au sommaire)

Avec le développement des réseaux, le transfert de données entre plates-formes distinctes est devenu courant. Le meilleur exemple nous est fourni par Internet : les serveurs fonctionnent souvent sous Unix, les internautes utilisent principalement des Mac et des PC, et pourtant les pages HTML s'affichent partout sans problème. La tentation est donc forte de faire circuler non seulement les données, mais aussi les programmes. Le problème vient de ce qu'un programme ne peut s'exécuter que sous un système d'exploitation donné. La solution la plus simple consiste à proposer plusieurs versions du même programme, une pour chaque système d'exploitation. Une autre solution a été imaginée chez Sun il y a deux ans : elle a donné naissance au langage Java, dérivé du langage C. Une application Java est constituée de code natif ou pré-compilé, télé-chargé sur la machine-cible, et interprété ou compilé à la volée avant exécution grâce à un logiciel appelé JVM (Java Virtual Machine). La nouveauté, dans cette façon de procéder, réside dans le transfert du code source à travers un réseau, et à l'automatisation de tout le processus. Pour l'instant, Java est surtout utilisé sur Internet, un domaine très porteur qui contribue à rendre le langage très populaire. De nombreux développeurs ont acquis la licence auprès de Sun, dont Microsoft.

Un programme écrit en Java peut donc s'exécuter sur n'importe quelle machine sur laquelle une JVM est installée. D'où le slogan de Sun : "write once run everywhere". On aimerait y croire... mais on se rappelle qu'une promesse similaire avait déjà été faite à propos du langage C il y a quinze ans. Or les développeurs savent à quoi s'en tenir : pour réaliser un bon logiciel, il ne suffit pas de compiler du code source sur une plate-forme donnée. Il faut se livrer à un sérieux travail de réécriture, afin d'exploiter toutes les ressources de la plate-forme (matériel et système d'exploitation). Pour s'affranchir des particularités des systèmes d'exploitation, Sun a d'abord mis en chantier le système d'exploitation JavaOS. Mais les utilisateurs de Java ne sont pas obligés d'utiliser JavaOS, et les développeurs sont tentés de conserver un système qui a fait ses preuves (Mac OS, Unix ou Windows). Sun a donc imaginé une technique plus subtile, qui consiste à faire évoluer la JVM en lui rajoutant sans cesse des instructions qui font habituellement partie des systèmes d'exploitation (comme par exemple le Java Development Kit 1.1). Si cette évolution continue, compilateur Java et système d'exploitation ne feront un jour plus qu'un -- une situation qu'on n'avait encore jamais rencontrée dans le monde de l'informatique, et qui heurte de front les intérêts des éditeurs de logiciel système.

La société visée, bien sûr, est Microsoft, et le produit menacé, Windows. Depuis quelques mois le ton monte entre les deux entreprises, et Sun a récemment attaqué Microsoft en justice au sujet de la JVM contenue dans Internet Explorer version 4. Les journalistes parlent de "bataille de titans", et certains analystes n'hésitent pas à écrire que Java remplacera Windows d'ici quelques années. C'est aller un peu vite en besogne : de très nombreux logiciels fonctionnent actuellement sous Windows, et ils ne vont pas être réécrits en Java d'un seul coup de baguette magique. De plus, Windows est un bon produit, alors que Java doit encore faire ses preuves : un programme compilé à la volée s'exécute moins vite qu'un programme tout prêt, et le transport des applications à travers les réseaux risque d'embouteiller ces derniers, donc d'être lent. Enfin, l'usage de la JVM n'assure pas la compatibilité ascendante : les applications écrites pour les systèmes d'exploitation existants ne fonctionnent pas. Difficile, dans ces conditions, de faire le moindre pronostic.

Avec le recul, il paraît possible que le rapprochement récent entre Apple et Microsoft ait été motivé, au moins en partie, par la menace que représente Sun pour les éditeurs de logiciel système dans leur ensemble.
 

3 - Le PC menacé par le NC ?
(retour au sommaire)

Le NC (Network Computer) est, du point de vue technique, un dispositif intermédiaire entre le terminal et le micro-ordinateur. Né chez Sun il y a environ deux ans, le NC de première génération (appelé JavaStation) a été conçu pour traiter des applications écrites en Java. Celles-ci sont fragmentées en petits programmes, les "applets", téléchargés sur le NC et traitées localement. Le NC possède un système d'exploitation propriétaire et un interpréteur Java, mais il n'a ni dispositif d'entrée/sortie, ni disque dur : les données résident sur le serveur. Le NC de première génération ne peut traiter que des applications écrites en Java (elles sont encore très rares) : il n'assure pas la compatibilité ascendante vers les applications existantes, qui fonctionnent sous DOS, Mac OS, Unix ou Windows.

Comme Java semble promis à un bel avenir, les fabricants de terminaux (exemple : Tektronix) ont doté leurs appareils de la possibilité de traiter des applications Java. Ils ont de ce fait créé le NC de deuxième génération, compatible à la fois avec les applications actuelles du marché, et les applications futures écrites en Java. Ainsi, NC et terminal classique sont en train de fusionner, et il est fort possible que le nom "terminal" disparaisse au profit de l'acronyme "NC" (un sigle de plus !). Il se peut également que l'évolution du NC ne soit pas terminée : on sait, par exemple, que la société Apple travaille sur une nouvelle version du NC, qui sera dévoilée au début de 1998.

Les partisans du NC basent une partie de leur argumentation sur une étude du Gartner Group, laquelle a fait sensation : le coût total d'exploitation d'un micro-ordinateur monté en réseau s'élèverait à 10.000 $/an, et serait nettement supérieur à celui d'un NC. La perte de temps due aux pannes logicielles (les pannes matérielles sont très rares) et aux mises à jour serait principalement responsable de cette situation. De là à dire qu'il faut supprimer tous les PC et les remplacer par des NC, il n'y a qu'un pas... En fait, les aspects quantitatifs de cette étude doivent être manipulés avec précautions. D'abord, on ne dispose d'aucun recul pour juger du coût réel du NC. Ensuite, le PC et le NC ne rendent pas le même service : l'un est un terminal, l'autre un ordinateur.

    Un terminal ne peut pas fonctionner seul : programmes et données résident sur le serveur. Le terminal convient aux travaux répétitifs, et aux utilisateurs qui considèrent le système informatique comme une boite noire dans laquelle ils ne veulent pas mettre leur nez.
  Un micro-ordinateur, par contre, fonctionne de manière autonome. Quand le serveur est indisponible, ou le réseau encombré, il n'est pas condamné à l'inaction. Il convient aux travaux créatifs et aux applications variées, mais requiert un opérateur formé à la manipulation de son système d'exploitation.

Il est clair qu'à l'avenir, terminaux/NC (informatique centralisée) et micro-ordinateurs (informatique décentralisée) continueront à se partager le marché des postes de travail, et on ne voit pas pourquoi l'un éliminerait l'autre en l'état actuel de la technique. L'avenir appartient probablement aux réseaux mixtes, c'est à dire contenant à la fois des terminaux et des micro-ordinateurs, du moins dans les entreprises d'une certaine taille. Le marché des grosses machines, par contre, risque de souffrir encore un peu plus : nombre de grandes entreprises abandonnent leur "mainframe" au profit d'un système client/serveur -- ainsi appelle-t-on l'architecture comportant un réseau, un ou plusieurs serveurs, et des postes de travail -- architecture qui devient aujourd'hui le standard en informatique.

Pour faire pendant au NC, Intel a imaginé le NetPC. C'est un PC administré à distance (managed PC) à travers le réseau auquel il est relié. Il est dépourvu de lecteur de disquette, afin d'éviter toute tentation à son utilisateur de modifier lui-même le logiciel stocké sur le disque dur. Pour l'opérateur non averti, terminal classique, NC et NetPC se comportent de la même façon : ce sont tous des terminaux. Pour l'instant, on ne connait pas encore vraiment l'avenir du NetPC, mais l'idée d'administrer un micro-ordinateur à distance à travers un réseau fait très sérieusement son chemin.

Actuellement, le terme "NC domestique" semble désigner un dispositif voisin du webTV, petit ordinateur dédié à la consultation d'Internet par les particuliers, utilisant un poste de télévision comme moniteur. Le problème commun à tous ces dispositifs réside dans la médiocre qualité que l'on obtient quand on affiche du texte sur un écran TV, et dans le fait qu'un appareil dédié n'a aucune versatilité : il ne peut remplir qu'une seule tâche, celle pour laquelle il a été construit. Le micro-ordinateur est versatile et adaptable, mais plus difficile à utiliser.

Signalons que l'étude du Gartner Group a eu le mérite d'attirer l'attention sur des problèmes bien réels : les systèmes d'exploitation sont un peu lourds, les utilisateurs ne sont pas toujours suffisamment formés à leur manipulation, certains opérateurs aimeraient faire preuve d'initiative et de créativité sans avoir à mettre leur nez dans les arcanes du système d'exploitation, et la maintenance in situ d'un parc de micro-ordinateurs coûte cher. Des solutions sont en cours d'élaboration pour que cette maintenance soit faite de manière centralisée depuis le serveur, alors que le micro-ordinateur concerné n'est pas utilisé (un exemple parmi d'autres : le système "Wake on LAN" défini par IBM et Intel dans le cadre de l'AMA (Advanced Manageability Alliance).

Rappelons, pour la petite histoire, que certains constructeurs qui expliquent aujourd'hui à leurs clients que le NC est un terminal plus économique que le PC, sont les mêmes qui lui conseillaient naguère de remplacer ses terminaux par des PC, baptisés "terminaux intelligents" pour la circonstance. Les "terminaux bornés" (dumb terminals) redeviendraient-ils à la mode ?
 

Conclusions

(retour au sommaire)
Le client/serveur devient l'architecture standard du système informatique des entreprises. De plus en plus, le réseau interne de l'entreprise devient un intranet, c'est à dire la prolongation d'Internet intra muros.

Les serveurs fonctionnant sous Unix ont encore de beaux jours devant eux : bien que Windows NT Server se développe régulièrement, il n'a pas encore acquis la puissance nécessaire pour gérer les serveurs de milieu et de haut-de-gamme. Les premières machines permettant de travailler simultanément avec les deux systèmes d'exploitation apparaissent sur le marché.

Les stations de travail fonctionnant sous Unix sont en déclin, au profit de celles fonctionnant sous Windows NT Workstation.

Sur les réseaux, la majeure partie des postes de travail reste constituée de micro-ordinateurs (dont certains administrés directement depuis le serveur), mais les terminaux/NC prendront une part non négligeable du marché.

Grâce à ses potentialités multiples (navigation sur Internet, exploitation de CD-ROM et de CD-audio, photo numérique, fax, numéroteur téléphonique, etc.), le micro-ordinateur domestique pénètre largement dans les foyers. On ignore quelle part de marché il laissera aux dispositifs dédiés (type webTV).

Windows n'est pas menacé à court terme par Java, mais il ne paraît pas possible de conclure pour le long terme.

La petite guerre du GUI (Graphical User Interface) entre Apple et Microsoft appartient au passé -- on a presque envie de dire : au folklore. Aujourd'hui, le monde PC et le monde Unix se battent pour s'emparer d'un marché considérable, et le choc est d'une tout autre ampleur.

Note précédente Liste des notes Page technique  Note suivante 
 
Accueil | Technique | Liens | Actualités | Formation | Emploi | Forums | Base
 
Copyright © CERIG/EFPG 1996-2002
Mise en page : J.C. Sohm