Allez au contenu, Allez à la navigation



Les nouvelles technologies de l'information

 

CHAPITRE VI

DES EVOLUTIONS TECHNOLOGIQUES
QUI S'ACCENTUENT ET SE COMPLEXIFIENT

Dans le chapitre II de cet ouvrage, consacré à l'histoire des TIC, du télégramme à Internet, les évolutions correspondantes ont été résumées en trois mots : diversification, performance, convergence.

Pour s'en tenir aux données les plus récentes, afin de ne pas reprendre les développements déjà exposés à ce chapitre, il semble que ces trois tendances se confirment mais qu'en ce qui concerne la dernière d'entre elles, le maintien, indispensable, d'une interopérabilité entre les différents systèmes est parfois de plus en plus difficile à assurer.

I. L'ACCÉLÉRATION DE LA DIVERSIFICATION
DE L'OFFRE DE TECHNOLOGIES

S'agissant, tout d'abord, de la diversification de l'offre de technologies, la concurrence entre les solutions avec ou sans fil est avivée, avec, semble-t-il, dans le premier cas, une préférence immédiate pour l'utilisation des infrastructures existantes : réseaux câblés ou réseau téléphonique commuté (sur les terminaisons duquel l'ADSL permet d'obtenir des débits relativement élevés).

A) LES SOLUTIONS FILAIRES
1. Les réseaux câblés audiovisuels

Concernant, en premier lieu, les réseaux câblés audiovisuels, l'évolution technique récente leur ouvre trois nouvelles possibilités : l'accès à Internet, la téléphonie et la multiplication du nombre de canaux de diffusion.

Le métier de câblo-opérateurs est incontestablement difficile : investissements lourds, niveau d'endettement, en conséquence, souvent élevé, croissance, dans l'ensemble, modérée (+ 6,8 % dans le monde) du nombre d'abonnés, concurrence de la télédiffusion directe par satellite.

En revanche, les réseaux câblés offrent l'opportunité de pouvoir faire entrer dans les foyers équipés, sans antenne, un flux de données numériques supérieur à celui susceptible de s'écouler par le réseau téléphonique commuté.

Ces potentialités ont donné l'espoir aux opérateurs intéressés de profiter de l'engouement pour Internet et de l'ouverture à la concurrence des services de téléphonie vocale fixe pour améliorer leurs recettes, échapper à la saturation de leur marché (dans les pays déjà très câblés), mieux amortir leurs investissements et relever les défis du satellite.

Des différences de contexte importantes existent toutefois entre des pays comme :

n les Etats-Unis, où près des deux tiers des foyers possédant un téléviseur sont abonnés mais où le développement de services interactifs nécessiterait des dépenses importantes de modernisation des réseaux (31(*)) ;

n la Grande-Bretagne, équipée plus tardivement et à un moindre niveau (11 % des foyers) mais qui ont construit dès le départ deux réseaux parallèles dont l'un réservé au téléphone ;

n enfin, la France, qui affiche des résultats très médiocres mais possède des infrastructures modernes, facilitant l'installation d'une voie de retour.

coller ici le tableau

La vétusté des réseaux américains n'empêche ni les Etats-Unis de dominer l'offre de modems câble (avec Intel, associé à Hewlett-Packard, Motorola et Zénith), ni Bill Gates, Président de Microsoft, de s'intéresser à ce type de distribution.

En prenant, en juin dernier, une participation de un milliard de dollars au capital du quatrième câblodistributeur américain Comcast, la firme de Seattle a poursuivi sa stratégie, à laquelle obéissait également l'achat de Web TV, tendant à exploiter les synergies possibles entre les marchés de l'audiovisuel et de l'électronique grand public, et ceux de l'informatique et des télécommunications (des accords dans le domaine des futurs réseaux intelligents ont, en effet, en outre, été signés avec Siemens).

Microsoft espère ainsi pouvoir concevoir un produit unique, intégrant les fonctions d'un décodeur numérique et d'un modem et utilisant son futur logiciel d'exploitation multimédia Windows CE (destiné aux applications grand public).

Bill Gates joue ainsi à fond la carte des convergences qui doivent caractériser les mutations de la société de l'information (voir plus loin).

Les câblo-opérateurs britanniques ont pu, grâce aux spécificités architecturales de leurs réseaux, prendre environ 30 % du marché de la téléphonie en Grande-Bretagne. Mais le stade des expérimentations n'a, semble-t-il, pas été dépassé partout ailleurs.

Suez-Lyonnaise des Eaux a testé la technologie du "câblophone" d'Alcatel à Annecy, devenu ainsi, avec une cité australienne, la seule ville au monde à disposer d'une plate-forme numérique complète sur le câble (téléphone + télévision +accès Internet).

La tarification proposée est inférieure à celle pratiquée par France Télécom mais le nombre d'abonnés ne dépasse pas, pour l'instant, quelques centaines, le problème de la portabilité des numéros n'étant pas encore résolu.

Avec le recours aux techniques sans fil de radiocommunication (voir plus loin), la possibilité d'atteindre les abonnés des réseaux câblés constitue un moyen intéressant de concurrencer les opérateurs traditionnels de téléphone fixe sur la boucle locale (32(*)) où leurs positions sont très fortes.

Mais l'accès à Internet par le câble apparaît actuellement comme à la fois plus développé et plus attractif pour le grand public.

Des expériences sont menées :

n au Mans, à Strasbourg ou à Annecy, par Suez-Lyonnaise des Eaux ;

n à Nice par la NC- Numericâble, rachetée par Canal +, filiale de la Générale des Eaux ;

n à Saint-Quentin-en-Yvelines, par France Télécom ;

n enfin, à Metz, où il est déjà possible d'aller sur le Web à partir de son téléviseur, moyennant un boîtier spécial.

Les avantages du câble paraissent très attrayants, aussi bien du point de vue de la vitesse, localement quatre fois plus rapide (de l'ordre de 250 kilobit/s au lieu de 56 kilobit/s sur une ligne téléphonique) que du coût (forfaitaire, donc indépendant de la durée de la connexion).

Pour offrir ce service, les câblo-opérateurs doivent installer des routeurs dans leurs réseaux et des modems spéciaux chez leurs abonnés (qui se branchent sur leur ordinateur). La fabrication de ce dernier type de matériel, destiné au grand public, apparaît comme particulièrement stratégique. Or, selon un article paru dans « Usine Nouvelle » du 30 octobre 1997, les Américains n'en détiendraient plus le monopole, Alcatel en étant cité parmi les fournisseurs, au côté de Motorola et de bien d'autres.

La technique de modulation utilisée (QPSK) est bien connue des opérateurs de réseaux câblés.

L'offre d'accès à Internet sur les sites du Plan câble, propriété de France Télécom, a provoqué un différend entre l'opérateur public et les deux câblo-opérateurs concernés, Suez-Lyonnaise des Eaux et la Générale des Eaux, auxquels l'ART a donné raison.

Lyonnaise-câble devrait généraliser ce service sur tous ses réseaux, y compris Paris. Outre la téléphonie et l'accès à Internet, les réseaux câblés sont susceptibles de proposer, dans les années qui viennent, une multiplication de chaînes, grâce aux techniques de compression numériques, avec un certain nombre d'avantages par rapport aux solutions hertziennes terrestres ou satellitaires (le téléspectateur n'a pas besoin d'acquérir d'antennes ; un panachage entre les programmes des différents bouquets satellitaires peut être effectué ; la transition avec l'analogique est moins délicate : elle peut s'étendre progressivement et pose moins de problèmes de réserves de capacités de diffusion disponibles).

Il reste le problème des coûts, évalués, par exemple, à 2 milliards de francs, sur les cinq prochaines années, par Suez-Lyonnaise, s'il veut devenir le leader de l'offre numérique multiservices en France. Time Warner, pour sa part, a déjà dépensé 2 milliards de dollars, à des fins analogues, aux Etats-Unis (sur un investissement total évalué à 5milliards de dollars en 1993).

Le coût de l'adaptation des réseaux est, en France, relativement négligeable (moins de 10 millions de francs pour NC-Numericâble) sauf pour les réseaux de la génération IG de France Télécom. Il est, en revanche, élevé aux Etats-Unis. Pour la téléphonie sur le câble, l'expérience d'Annecy a montré qu'il fallait compter de 3.000 à 4.000 F par abonné (10.000 câblophones ont été commandés à Alcatel). Notons que la technologie actuelle des modems téléphoniques adaptés au câble (cablo-phone) requiert une architecture de réseau bien spécifique HFC (Hybride Fibre Coaxial) qui n'est pas disponible sur le plan câble. Ce problème risque d'augmenter les coûts. Mais c'est l'achat de décodeurs numériques, proposés ensuite à la location (pour moins de 50 F par mois) qui devrait grever le plus lourdement les budgets : Time Warner en a commandé 1 million, pour environ 500 millions de dollars, à Scientific Atlanta (fournisseur principal), Toshiba et Pioneer (sous licence), ainsi qu'à General Instrument.

Pour sa part, Lyonnaise-câble en a demandé 15.000 à la SAGEM (on voit la différence d'échelle !) à environ 2.500 F pièce.

Concernant l'accès à Internet, la Lyonnaise a rencontré des problèmes d'approvisionnement en modems, pour son expérience multicâble dans le 7e arrondissement de Paris, par suite de la défection d'Intel.

Les investissements nécessaires ne sont ainsi pas négligeables pour une société comme la CGV, encore déficitaire de 300 millions de francs en 1996, mais dont 80 % des prises sont numérisées ou comme Lyonnaise câble, qui gère un parc de 135.000 décodeurs analogiques.

Toutefois, les 2 milliards de dépenses programmées par la Lyonnaise, forte de ses 500.000 abonnés, sont à comparer avec les 2,5 milliards du coût du programme de TPS qui compte à ce jour 390.000 abonnés alors qu'il lui en faudrait 700.000 pour rentrer dans ses frais. Lyonnaise câble, à peu près à l'équilibre en 1997, attend une rentabilité supérieure à 20 % de ses investissements.

Dans l'ensemble, les résultats du câble sont en progression en France, même s'ils restent modestes (2,2 millions d'abonnés à la fin du mois de juin 1997, soit + 10,76% en un an, mais ce qui correspond, seulement, à un tiers des foyers raccordés).

2. Le réseau téléphonique commuté

Les technologies DSL (Digital Subscriber Line) offrent, d'autre part, on l'a vu, de nouvelles possibilités aux réseaux téléphoniques commutés.

Inventées par les Bell Labs, elles consistent à exploiter les fréquences inutilisées lors d'une conversation téléphonique (parce qu'elles sont supérieures à celles correspondant à la voix humaine ou du fait de parasites ou d'imperfections de la ligne), afin de transmettre des données numériques audiovisuelles ou télématiques.

Le débit obtenu, inversement proportionnel à la distance séparant le terminal du central téléphonique, peut atteindre de 1,5 Mbits/s à 6 Mbits/s pour moins de 5 km, ce qui correspond à la situation de 70 % des abonnés en France.

La variante la plus connue de ces technologies est celle adaptée à un trafic asymétrique dite ADSL (33(*)) qui permet un débit de 1,5 Mbits/s sur la voie de diffusion (en cas d'utilisation d'une seule paire de fils de cuivre) et de 16 Kbits/s sur la voie de retour. Ces capacités peuvent être portées à 6 Mbits/s et 64 Kbits/s lorsque plusieurs paires sont mises à contribution.

France Télécom a testé l'ADSL dans le cadre du projet Camille (Cuivre asymétrique intégré sur lignes locales existantes) et Alcatel l'a développé, après en avoir acquis la licence. L'industriel français a conclu des accords d'expérimentation et de déploiement de cette technologie avec quatre opérateurs locaux américains (Ameritech, Bell-South, SBC et Pactel) ainsi qu'avec Bell Canada.

De son côté, une autre entreprise française, CS Telecom, filiale de la compagnie des signaux, s'est alliée à l'Américain 3 Com, spécialiste de l'interconnexion de réseau, pour proposer des solutions ADSL «de bout en bout» (depuis l'abonné jusqu'aux réseaux à haut débit). Tous deux devraient proposer aux opérateurs de télécommunications européens un puissant concentrateur (34(*)) spécifique à la mi-98.

On prévoit que le marché de l'ADSL devrait exploser, au cours des deux prochaines années, pour atteindre, rien qu'aux Etats-Unis, près de 1 milliard de dollars en l'an 2000, pour les seuls équipements.

L'un des principaux avantages de cette technologie est d'accélérer considérablement le temps de téléchargement d'un document (de quatre minutes à une seconde pour une page Web, la voie d'acheminement de la requête ne nécessitant qu'un faible débit). Des services vidéo ou de transfert de données pourraient être également proposés aux abonnés.

Avec les modems câble et les modems ASDL, les solutions filaires tendant à accélérer les débouchés du trafic Internet se trouvent donc diversifiées.

En outre, selon Business Week du 8 décembre 1997, Rockwell aurait mis au point une puce permettant de fabriquer de nouveaux modems numériques susceptibles de fonctionner à des débits de l'ordre du mégabits/s pour la réception (256 Kbits/s pour l'émission). L'utilisation de tels équipements nécessiterait toutefois une modification des centraux de commutation mais la proposition en aurait été faite à Northern Telecom et Lucent Technologies, avec l'appui d'Intel, Microsoft et Compaq.

B) LES SOLUTIONS SANS FILS

Mais la diversification de l'offre de techniques d'information et de communication passe aussi par la proposition de solution sans fil : essentiellement le satellite et les radiocommunications terrestres.

1. Le satellite

La compression numérique, qui permet de multiplier le nombre de chaînes passant par chaque répéteur, a considérablement renforcé l'attrait du satellite dans le domaine audiovisuel.

Les dépenses d'infrastructures sont peu coûteuses, la zone de couverture, à la fois large et modulable, le déploiement de réseaux satellitaires peut être très rapide.

De fait, le succès de la télédiffusion directe par satellite est, partout, considérable.

coller ici le tableau

Le nombre de foyers équipés d'une antenne individuelle a, en effet, triplé dans le monde depuis 1991, progressant à un rythme annuel de 22,5 % contre 6,8 % pour le câble.

Aux Etats-Unis, les concurrents des pionniers, Direct TV et USSB, se multiplient (Prime Star, Echo Star Alpha Star et bientôt Rupert Murdoch, allié à MCI) :

En Europe, le paysage se stabilise enfin avec la germanisation du marché allemand où une alliance tripartite a été conclue entre Kirch, CLT-UFA (35(*)) et DeutscheTelekom.

L'accord entre British Telecom et la chaîne BSkyB de Rupert Murdoch a permis, par ailleurs, le lancement de la télévision numérique en Grande-Bretagne.

Enfin, la fusion de Canal + avec Nethold lui ouvre les marchés des pays scandinaves, du Benelux et de l'Italie, outre celui de la France où son offre numérique, commercialisée depuis le printemps, va devoir affronter celles de TPS et d'AB Sat.

Les deux principaux opérateurs de satellites sur notre continent sont la Société Européenne de Satellite et Eutelsat, qui y gèrent ensemble environ 60 % des capacités de télédiffusion directe.

L'organisation des acteurs de la filière satellitaire est complexe et peut donner une importance particulière aux intermédiaires que sont les ensembliers ou gestionnaires de bouquets de programme (distincts des industriels, des opérateurs, des éditeurs et parfois des diffuseurs), notamment en ce qui concerne la question clé du contrôle d'accès.

L'absence d'accord permettant l'adoption d'un système commun sur ce point (36(*)) est l'un des facteurs susceptibles de contrarier l'essor, par ailleurs très prometteur, de la télédiffusion numérique directe par satellite.

En prenant en considération la réalité du marché français, le bon sens incite à un rapprochement ou du moins à une coordination entre les deux principaux opérateurs français de télévision numérique par satellite (CanalSatellite et TPS)

Les autres principaux problèmes à surmonter ont trait à la surenchère dont font l'objet certains droits de diffusion ainsi qu'à l'adaptation de l'offre de programmes et de services, d'une part à la demande des téléspectateurs, d'autre part, aux positions orbitales disponibles.

La télédiffusion numérique directe par satellite peut être également utilisée pour télécharger des données destinées à des ordinateurs, la « voie de retour » étant assurée par le réseau téléphonique.

Mais du point de vue des échanges de données numériques, les constellations de satellites en projet ou en instance de déploiement constituent des solutions beaucoup plus évoluées.

Les satellites traditionnels de télécommunication ou de télédiffusion sont de type géostationnaire. Placés à 36.000 km d'altitude, dans une position qui paraît immobile dans le ciel à un observateur terrien (sur une orbite dite géosynchrone), ils servent de relais aux communications terrestres au sein d'une zone géographique déterminée et constante.

Mais ils nécessitent, malgré leur puissance, des antennes de réception d'une dimension incompatible avec du matériel portable et des temps de propagation (de l'ordre de 0,5 seconde pour un aller et retour), inadaptés, du fait de leur altitude élevée, à des applications interactives en temps réel.

Dans ces conditions, il a été envisagé de recourir à des satellites défilants sur des orbites beaucoup plus basses (LEO « low earth orbit », à moins de 3.000 km, ou MEO « middle earth orbit », entre 5.000 et 15.000 km).

n Tandis que les satellites géostationnaires sont « transparents », se bornant à retransmettre le signal reçu dans une direction donnée, un peu à la façon dont un miroir réfléchit un rayon lumineux, les satellites en orbite basse, disposés en constellations, comme un filet, autour de la terre, peuvent éventuellement communiquer entre eux, lorsqu'ils comprennent des dispositifs de commutation ou de traitement des informations à bord.

Dans ce cas, il s'agit de véritables réseaux indépendants, déployés dans l'espace, qui peuvent permettre de s'affranchir, dans une large mesure, des infrastructures au sol.

Plusieurs choix sont ainsi possibles :

Les projets Iridium, pour la téléphonie, ou Teledesic, pour l'échange de données multimédia, ont recours à des satellites interconnectés ;

En revanche, les 64 satellites de la constellation Skybridge d'Alcatel ne devraient pas communiquer entre eux, les connexions étant gérées par les stations au sol et la simplification du segment spatial privilégiée.

Dans certains projets, il est prévu de combiner des satellites défilants et géostationnaires, comme dans le programme Celestri de Motorola (les premiers étant chargés des applications interactives en temps réel et les seconds, au nombre de 4, de la diffusion de données pour lesquelles le temps de propagation importe peu). Alcatel a, pour sa part, passé un accord pour pouvoir conjuguer de la sorte l'utilisation des satellites de Skybridge avec ceux, géostationnaires, du programme Cyberstar de l'américain Loral.

coller ici le tableau

2. Les radiocommunications terrestres

Comme s'en était inquiété, en 1992, le rapport rédigé, pour le compte de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, par le Sénateur Loridant, ces projets ont été accueillis avec scepticisme par l'Europe, qui a accumulé un certain retard, à tous points de vue, dans ce domaine (initiatives tardives, absence de lanceurs adaptés, retard dans l'étude des technologies de commutation à bord...).

Le projet national de satellite expérimental de télécommunications Stentor, décidé conformément aux recommandations de l'office, tente de remédier à cette situation, de même que le programme Skybridge d'Alcatel dont il faut espérer que les options raisonnables (appel à des technologies éprouvées, coût modéré...) seront couronnées de succès.

Les exemples des tubes à onde progressive de TDF1 et TDF2 ou des déconvenues du trop ambitieux programme de satellite météorologique américain GoesNext, montrent en effet que l'excès d'audace ne paie pas toujours en matière spatiale.

Mais, à condition de les maîtriser, les techniques d'interconnexion de satellites présentent de nombreux avantages (économies sur le coût des stations au sol, possibilités de communications directes entre les mobiles, sans passer par les infrastructures terrestres).

Les ambitions de Teledesic (37(*)), véritable Internet dans le ciel, ayant été réduites (de 840 à 240 satellites), c'est le programme Celestri, le plus cher (13 milliards de dollars), qui apparaît désormais comme le plus hardi (les utilisateurs, individus, PME et grandes entreprises, pourront recevoir et envoyer des informations allant du transfert de données multimédia à la vidéo en temps réel, en passant par la voix à des vitesses très élevées).

Motorola estime que le déploiement d'un réseau équivalent sur terre serait revenu à au moins 1.000 milliards de dollars.

Des solutions sans fil très attractives sont également proposées au sol : elles présentent le triple avantage :

Ø d'autoriser, pour certaines d'entre elles, de hauts débits ;

Ø de permettre de contourner «la boucle locale» qui constitue le bastion des opérateurs historiques ;

Ø enfin, d'économiser, par rapport aux systèmes entièrement filaires, les coûts de travaux de génie civil (en partie seulement, cependant, notamment dans le cas de la téléphonie cellulaire et sans fil, où le raccordement à des infrastructures fixes est inévitable pour assurer la fonction de commutation).

Les propositions se multiplient :

Aux Etats-Unis, une variante évaluée du MMDS (Microwave Multimedia Distribution System, offre un assortiment de services multimédia véritablement interactifs (accès à Internet, vidéoconférence,...).

Ce nouveau système, dénommé LMDS (Local Multipoint Distribution Service) est actuellement testé, selon Business Week, par CellularVision, auprès de 12 500 personnes, à Brooklyn.

Outre l'interactivité et la variété de l'offre de services, susmentionnés, les atouts en sont nombreux :

n fortes capacités (jusqu'à 200 chaînes vidéo) comparables à celles de la fibre optique, autorisant des débits d'accès à Internet (54 Mbits/s) plus élevés que ceux du câble ;

n utilisation d'une gamme d'hyperfréquences (dans les 28 gigahertz) offrant de vastes disponibilités, sans interférences (contrairement au MMDS dont la transmission des signaux, aux Etats-Unis, peut être gênée par celle du téléphone mobile) ;

n rapidité et faible coût de déploiement ;

n possibilité, en milieu urbain, d'atteindre, grâce à des répéteurs, des points inaccessibles à la télédiffusion directe par satellite.

De tels dispositifs de régénération du signal devraient cependant être multipliés car celui-ci, et c'est apparemment le seul point faible du système, a tendance à s'affaiblir ou à s'évanouir par mauvais temps. Mais la qualité de l'image est, dans des conditions normales, meilleure que celle procurée par le câble coaxial.

Le LMDS et le MMDS constituent ainsi des solutions séduisantes de diffusion ou d'échanges sans fils de données diversifiées (Télévision, Internet, sans oublier le téléphone,...) à haut débit et dans des fréquences particulièrement élevées.

Dans des gammes de fréquences moins hautes et pour des exigences de débits moins fortes, et des applications plus interactives, de nombreuses propositions nouvelles sont également avancées, s'agissant de technologies cellulaires (mobiles) ou sans fil (entre points fixes).

Les unes comme les autres ont en effet souvent été initialement conçues sans tenir compte du phénomène Internet, ni de l'augmentation des besoins en débit liée à l'essor du trafic de données (visiophonie sur micro-ordinateurs, etc.).

Les technologies cellulaires actuellement disponibles offrent en outre une qualité de voix insuffisante tandis que les autres technologies sans fils, mieux adaptées aux milieux plus denses, conviennent moins bien aux appareils mobiles.

Mais les solutions nouvelles préconisées n'ont pour la plupart été ni normalisées ni éprouvées.

A cet égard, dans le domaine du cellulaire, les premières expérimentations de réseaux utilisant le CDMA (38(*)) semblent prometteuses mais leur fiabilité reste à démontrer.

Le CDMA est censé présenter un meilleur potentiel d'évolution vers de plus hauts débits mais d'autres suggestions n'en sont pas moins avancées (39(*)).

Concernant les systèmes sans fil, les européens ont conçu une nouvelle norme numérique dite «DECT» (Digital European Cordless Telephone).

Malgré de nombreuses incertitudes techniques (quant au caractère opérable des solutions proposées), juridiques (disponibilité des fréquences) et commerciales (détermination des besoins et de l'offre de services), la boucle locale radio représente, pour les nouveaux entrants, un moyen privilégié de participer à la concurrence sur le marché des télécommunications.

Certes, la connexion des concurrents aux réseaux locaux des opérateurs historiques constitue, partout, une obligation de principe mais des problèmes peuvent surgir dans la pratique (délais d'élaboration des réglementations, mauvaise volonté des anciens monopoles, tarifs d'interconnexion incluant, comme en France, une participation au financement de la recherche ou du service public universel...).

C'est pourquoi aux Etats-Unis, ATT, après avoir acheté aux enchères des fréquences lui permettant de couvrir 93 % de la population, a élaboré le projet DINO tendant à développer une technologie radio capable d'offrir aux abonnés résidentiels un accès à la téléphonie fixe et à des services de transmission de données.

Un transmetteur radio sert de relais vis-à-vis d'une vingtaine de maisons pourvues chacune d'un boîtier de réception de la taille d'un emballage de pizza. Chaque abonné peut brancher son téléphone ou son ordinateur sur une prise raccordée à ce boîtier.

Un autre opérateur américain de téléphone sur longue distance, Sprint, a également conçu son propre système numérique sans fil (PCS : Personal Communications Service), qu'il comptait utiliser en combinaison avec les réseaux de trois câblo-opérateurs auxquels il s'était associé (TCI, Cox et Comcast). Mais il s'est heurté à un certain nombre de problèmes techniques (défauts logiciels notamment) et à une forte compétition, qui l'ont amené à rabaisser ses ambitions (il envisage de couvrir 9 cités sur les 15 à 20 initialement prévues).

Le dimensionnement de réseau sans fils est moins difficile que celui d'infrastructures cellulaires mais les problèmes d'ingénierie, les difficultés techniques (interférences,...) et les coûts correspondants ne doivent pas être sous estimés.

Les investissements annuels sont considérables et les dépenses de recherche et développement représentent de 15 à 20 % du chiffre d'affaires, la rentabilité, par rapport aux solutions filaires, dépend de la densité d'abonnés et les parts de marché occupées ont une importance décisive.

Enfin, la radio numérique ambitionne de devenir la composante hertzienne des autoroutes de l'information. La norme DAB (Digital Audio Broadcasting), adoptée par l'Europe, permet de diffuser, en même temps que le son, des données associées.

Europe 1 expérimente par exemple la diffusion d'informations visuelles pendant les matches de football (photos des joueurs, affichage des résultats,...). Mais les applications les plus hardies nécessiteraient des écrans plats en couleur, d'une dimension suffisante (10 centimètres carrés environ), dont le coût demeure actuellement prohibitif. Les modèles les plus sophistiqués ne permettent, pour le moment, que la présentation de graphiques (cartes de trafic routier,...) ou de messages (limités à 5 lignes de 20 caractères).

Mais il s'agit surtout de diffusion, sans véritable interactivité. Cette dernière est procurée, sur Internet, par de nouveaux instruments de plus en plus variés et sophistiqués : navigateurs, moteurs de recherche (Yahoo, Altavista, Hotbot, Lykos et, bientôt, Yukan de Microsoft) et agents intelligents.

Ainsi, l'ouverture à la concurrence des télécommunications, l'augmentation des débits liée au multimédia, les succès prodigieux d'Internet et du téléphone mobile constituent autant de facteurs d'accélération de la diversification des offres de technologie, avec, semble-t-il, actuellement, une prime aux solutions sans fils.

Mais la recherche de gains de performances n'en est pas pour autant négligée.

II. LA POURSUITE DE LA RECHERCHE
DE L'AMÉLIORATION DES PERFORMANCES

Concernant l'amélioration, constante, des performances des NTIC, les faits nouveaux les plus importants à signaler ont trait à l'évolution des composants de base des équipements et aux projets relatifs à l'avenir d'Internet.

A) LES PROGRÈS DES COMPOSANTS

S'agissant tout d'abord des composants, les écrans plats représentent, on l'a vu, un enjeu majeur.

Il en va de même, dans le domaine des semi-conducteurs, des futurs « media processeurs » qui devront être capables de traiter simultanément les signaux afférents à l'image, au son et à d'autres données.

De plus en plus miniaturisés et puissants, on devrait les retrouver au coeur, non seulement des ordinateurs personnels, mais de toute une série de terminaux fixes ou mobiles (ordinateurs de réseaux, portables, décodeurs de TV, téléphones, assistants personnels numériques, etc.). Certains, cependant, estiment qu'il restera nécessaire de reporter sur le logiciel une partie des fonctionnalités de la puce, comme le prévoit l'architecture RISC actuelle (40(*)).

Tout récemment, au cours de la rédaction de cet ouvrage, deux annonces spectaculaires sont venues bouleverser les perspectives d'évolution du secteur des semi-conducteurs : il s'agit du remplacement de l'aluminium par du cuivre à la surface des circuits intégrés, qu'IBM aurait réussi à maîtriser tandis qu'Intel, de son côté, affirme avoir trouvé le moyen de stocker deux fois plus de données sur un seul transistor de mémoire flash.

De telles découvertes sont susceptibles de rendre obsolète la fameuse loi de Moore, pourtant déjà prodigieuse, selon laquelle le nombre de transistors intégrés dans une puce double environ tous les 18 mois. Or, la percée d'IBM permet de franchir une étape décisive dans la miniaturisation des puces.

Il s'avérait en effet de plus en plus difficile de faire passer des électrons dans des conduits en aluminium qui devenaient de moins en moins conducteurs au fur et à mesure que se réduisait leur taille.

Il était envisagé depuis longtemps de recourir au cuivre, moins cher et plus rapide, mais celui-ci présentait deux inconvénients : sa fragilité et l'infiltration de ses atomes dans le silicium, poreux, du support.

Ces difficultés ont été résolues par l'apposition d'un revêtement spécial entre le cuivre et le silicium, sorte de Goretex, qui ne laisse passer que la quantité désirée d'électricité entre les couches du semi-conducteur. IBM a, en outre, mis au point une technique de gravure, applicable au cuivre, capable de permettre aux fabricants de puces une finesse de trait de l'ordre de 0,2 à 0,05 micron.

Dans une annonce faite le 4 février 1998, IBM vient de confirmer cette annonce en annonçant que la frontière du Gigahertz (Ghz) venait d'être franchie par la réalisation d'un prototype de puce supportant des fréquences d'horloge jusqu'à 1.100 Mhz (soit 1.1 Ghz).

Cette puce devrait être commercialisée pour fin 1999.

Simple rappel historique : la première puce fût commercialisée par Intel en 1971.

Ce processeur (le 4004) travaillait à une fréquence de 108 kilohertz.

Soit dix mille fois moins rapide que la puce qui vient d'être annoncée par IBM.

Quant à la découverte d'Intel, elle paraît tout aussi cruciale. Il semble qu'elle consisterait à permettre à chaque cellule d'une mémoire, de stocker, non pas seulement une seule information, correspondant à un 0 ou à un 1 du langage de codage numérique binaire (selon qu'il y a passage ou rupture du courant électrique), mais plusieurs, exprimées sous forme de variation, maîtrisées, de l'amplitude de ce courant.

Dans l'immédiat, Intel serait parvenu, en stockant deux informations par cellule au lieu d'une, à doubler la capacité d'une mémoire flash (41(*)) de 64 mégabits sans en augmenter le nombre de transistors.

Il n'est pas exclu de parvenir à stocker encore davantage d'informations par cellules. Dans ce cas, l'augmentation de la finesse de la gravure des circuits, condition de la multiplication du nombre de transistors des puces, ne serait plus la seule façon d'augmenter la capacité des mémoires et les performances des microprocesseurs.

B) L'ADAPTATION DES RÉSEAUX À L'AUGMENTATION DU TRAFIC

L'amélioration des performances des composants détermine le progrès des matériels qui en sont constitués, situés :

- à l'extrémité (modems, ordinateurs, décodeurs, télévisions, téléphones...) ;

- aux noeuds (routeurs, commutateurs...) ;

- ou au centre (serveurs) des réseaux.

Il en résulte, comme on l'a vu, malgré la compression des données, une tendance à l'augmentation des débits à laquelle il faut faire face.

Les moyens de relever ce défi sont, on vient de le voir, extrêmement diversifiés, faisant appel à des solutions sans fil (MMDS, LMDS) ou qui se contentent des terminaisons actuelles du réseau téléphonique commuté (ADSL).

Cependant, certaines de ces technologies, si elles peuvent contribuer à désencombrer la boucle locale et satisfaire des besoins individuels, n'offrent que des perspectives limitées de montée en débit ou d'interactivité.

Pour faire face à l'explosion du trafic lié à Internet ou aux capacités qui nécessitent certaines applications (vidéo, recherche), il paraît indispensable d'augmenter, à tout le moins, les capacités de la colonne vertébrale (backbone) des réseaux.

La fibre optique est le support qui présente, à cet égard, le plus fort potentiel, suivi des faisceaux hertziens (liaisons en hyperfréquences). Sinon, même le câble coaxial, comme le montre l'exemple des réseaux audiovisuels américains anciens, n'atteint pas des niveaux de performance suffisants.

Les deux propositions majeures avancées en la matière émanent :

n d'un consortium associant de grands industriels du secteur (3 Com, BayNetwork , Cisco , IBM , Newbrige, Nortel ...) à plus d'une centaine d'universités américaines ;

n du Gouvernement des Etats-Unis.

La première, baptisée « Internet 2 », plus pragmatique, devrait atteindre un stade avancé durant l'été 1999. Elle vise des ossatures à 500 Megabits et des bandes passantes « au bureau » de 10 mégabits/s. Son architecture comprend des réseaux rapides de campus connectés à des centres régionaux, appelés « gigapop » (42(*)) et des liaisons ultrarapides pour les communications à grande distance.

Le prototype de l'ossature de cet ensemble existe déjà : c'est le VBNS (VeryHigh Speed Backbone Network Service), géré par MCI, qui offre à certains utilisateurs des débits de 154 mégabits Internet 2 se superposera au réseau actuel auquel il donnera accès, mais il sera réservé à une clientèle privilégiée qui bénéficiera de prestations de qualité supérieure (débit garanti, transmissions video ininterrompues, services à la demande...).

S'intéressant davantage à l'intelligence du réseau qu'à sa puissance brute, il sera capable de gérer dynamiquement sa bande passante, en fonction des besoins précis de chaque utilisateur.

Le projet du gouvernement américain NGI (Next Generation Internet) est encore plus ambitieux : demeuré à un stade exploratoire, il souhaite établir des connexions «porte à porte» de l'ordre de 100 mégabits/s et des ossatures fonctionnant à plusieurs gigabits.

Telles sont donc, en matière de composants et de réseaux, les perspectives de gains de performances les plus fréquemment évoquées. Mais d'autres progrès décisifs sont en cours, en matière de logiciel, pour tirer parti de l'augmentation des capacités des semi-conducteurs, par exemple la reconnaissance, par l'ordinateur, de la voix et de l'écriture ou de la mise au point de cartes à puces révolutionnaires multi-applications qui intègrent les dernières avancées des mémoires flash ou ferro électriques réinscriptibles et du langage informatique de programmation Java.

Par sa prétention à devenir un standard universel, ce langage est l'un des éléments du mouvement de convergence, qui, avec les tendances venant d'être rappelées, à la diversification et à l'amélioration des performances, caractérise l'évolution des techniques d'information et de communication.

Toutefois, cette recherche de convergence se heurte aux visées dominatrices des grands groupes qui, dans un contexte de concurrence exacerbée, peuvent chercher à imposer leurs solutions propriétaires comme standard de fait.

III. UN MOUVEMENT DE CONVERGENCE PARFOIS HEURTÉ

La convergence censée caractériser la société de l'information se manifeste de trois façons :

n diversification, déjà étudiée, des utilisations des supports traditionnels (vidéo sur le réseau téléphonique commuté, téléphone sur le câble...), chacun essayant, dans son propre domaine, de concurrencer des acteurs précédemment spécialisés dans des secteurs d'activités bien distincts ;

n propension de tous les compétiteurs à suivre le développement du trafic de données et à offrir les accès à Internet (par câble, satellite, modems téléphoniques...) sur tous types de terminaux (ordinateur, téléviseur, écran de téléphone mobile...) ;

n enfin, recherche de solutions tendant réellement, soit à intégrer le transport des différentes données dans de futurs réseaux multimédia interactifs large bande (ATM), soit à améliorer l'interopérabilité des systèmes.

A) L'ATTRACTIVITÉ D'INTERNET

Internet, d'une part, au niveau des réseaux, l'ordinateur personnel, d'autre part, en tant que terminal, incarnent dans une certaine mesure cette convergence, caractéristique de la société de l'information.

Préfiguration, en modèle réduit et quelque peu bricolé, de ce que pourraient être les autoroutes de l'information de demain, le premier s'est imposé grâce à l'universalité de son protocole, qui permet à des machines, connectées à n'importe quel type de réseau dans le monde entier, de communiquer entre elles.

La voie ouverte par la Société Aplio avec son Aplio/Phone qui a reçu en Février 1998 le prix du produit de télécommunications le plus innovant est intéressante à observer.

En effet, ce produit qui permet de téléphoner via Internet pour le prix d'une communication locale avec l'obligation à ce jour que les correspondants disposent chacun d'un Aplio/Phone ouvre, grâce à sa facilité d'emploi et la non-nécessité de posséder un PC, une voie originale.

En Juin 1998, il devrait être possible, pour une personne utilisant un Aplio/Phone de communiquer en téléphonie avec une personne utilisant un PC, l'Aplio/Phone devant se conformer à cette date, à la norme d'audioconférence H.323.

Le trafic Internet tend, on l'a vu, à emprunter tout type de support (satellites, réseaux câblés audiovisuels, réseaux téléphoniques commutés, radiocommunications terrestres...). Son offre de services s'enrichit (radio, téléphone, vidéo), pouvant concurrencer celle d'opérateurs d'autres réseaux, publics ou propriétaires, non seulement techniquement mais aussi commercialement (en détournant des recettes publicitaires consacrées à d'autres médias ou par la pratique de tarifs inférieurs).

Enfin, ses données sont susceptibles, on l'a dit, de s'afficher sur différents types de terminaux, notamment des téléviseurs.

Or, si seulement un cinquième à un tiers des foyers, dans les pays développés, possèdent un ordinateur personnel, la quasi totalité sont équipés d'un téléviseur.

En outre, des sondages, effectués aux Etats-Unis, ont montré qu'une majorité de la population américaine préférerait accéder à Internet à partir d'un poste de télévision plutôt que d'un ordinateur.

Ces faits expliquent l'intérêt manifesté par les acteurs, tant de l'électronique grand public que de l'informatique, pour la mise au point de solutions techniques allant dans ce sens.

Ainsi, se sont multipliées des propositions de :

n boîtiers de connexion à Internet (Thomson et Oracle, Sony et Philips , Zenith ...) ;

n logiciels ou navigateurs correspondants (Network Computer Inc. et Navio communications, filiales, respectivement, d'Oracle et Netscape ).

Boîtier

Système d'exploitation

Logiciel de navigation

Thomson

Zénith

Accorn Computer

Network Computer Inc. (Oracle)

Oracle

Navio (Netscape)

Initialement alliée à Sony et Philips, Web TV, start up californienne ensuite rachetée par Microsoft, avait conçu elle-même le microprocesseur et les systèmes d'exploitation et d'accès à Internet de son boîtier.

Celui-ci, pourvu de deux cordons, se rattachant, l'un à la prise vidéo de la télévision et l'autre à une prise téléphonique, permettait d'envoyer un message (à l'aide de la télécommande, le clavier s'affichant, dans ce cas, sur l'écran, ou d'un clavier à liaison infrarouge) mais pas d'imprimer ou de récupérer des données.

Mais Web TV n'a cessé ensuite d'enrichir son offre (qui inclut désormais des possibilités d'impression, de transactions sécurisées, le libre choix d'un fournisseur d'accès à Internet, etc.).

La dernière version de son boîtier Internet TV comprend un guide de programme électronique sophistiqué, et permet, outre l'incrustation d'une image de télévision sur une page Web qui occupe l'écran, la transmission d'informations complémentaires d'un programme, dans la partie du signal réservée au sous titrage. Ces données peuvent, en outre, être enregistrées sur un disque dur.

Cela n'a pas empêché d'autres candidats de se lancer dans la course, tels qu'Oracle qui vient de sortir son propre boîtier, ou Bull, qui fabrique un décodeur Internet sous licence de la société française Netgem.

Au début de l'année 1997, World Gate avait conçu, par ailleurs, un logiciel, permettant d'accéder à Internet, via les décodeurs pour réseaux câblés préexistants, fabriqués par General Instrument ou Scientific Atlanta.

Il sera intéressant de suivre les développements du pari lancé par Nokia en Février 1998 qui a choisi une petite start-up, Spyglass, pour concevoir sa prochaine génération de décodeurs de télévision numérique. Ainsi, cette petite société a été préférée à Netscape et au géant Microsoft pour concevoir un nouveau terminal numérique qui permettra au téléspectateur de recevoir des dizaines de chaînes mais aussi de surfer sur Internet et d'accéder à des services multimedias interactifs.

Le tout sur l'écran du téléviseur familial.

B) LA STRATÉGIE DE MICROSOFT

Le rachat, pour un montant relativement élevé (425 millions de dollars) de WebTV par Microsoft, qui y a investi ensuite près de 2,5 milliards de dollars, suivi de son entrée au capital de Comcast (1 milliard de dollars) et de sa récente proposition d'investir de 600 millions à 1 milliard de dollars dans TCI, pour l'aider à financer une commande de décodeurs numériques, témoignent de l'intérêt de la firme de Seattle pour la télévision interactive.

Microsoft entend ainsi :

n contrer ses rivaux Oracle, Sun et Netscape ;

n exploiter les synergies qui peuvent être établies entre les systèmes d'exploitation de ses propres ordinateurs simplifiés (Windows CE), réplique des fameux ordinateurs de réseau (Network Computers) d'Oracle, et ceux nécessaires à la télévision interactive ;

n créer des logiciels de services interactifs et les vendre au câblo-opérateur et contrôler, à cette fin, la définition des spécifications des décodeurs correspondants.

Ces objectifs s'inscrivent dans une stratégie plus globale tendant à miser sur la convergence de l'informatique de l'audiovisuel et des télécommunications : Siemens ne vient-il pas d'intégrer dans sa nouvelle génération de logiciels de gestion de réseaux intelligents un programme fonctionnant avec le système d'exploitation Windows NT ?

L'un des responsables de la firme américaine qui a développé ce programme a déclaré à cette occasion que les serveurs utilisant ce système d'exploitation de Microsoft «étaient la clé de la future personnalisation massive des services téléphoniques».

Non contente de s'intéresser ainsi à la distribution (par satellite, câble, téléphone) la firme de Seattle s'implique aussi dans les contenus : elle vient certes de fermer son site d'aventure sur la toile (Mungo Park) et son service en ligne MSN (Microsoft Network) qui n'ont pas connu le succès escompté, notamment dans sa composante divertissement, mais son agence de voyages Expedia réalise, chaque semaine, un chiffre d'affaires de près de 20 millions de francs.

De plus, en s'associant à la chaîne nationale américaine NBC, Microsoft s'engage dans le domaine des contenus qui, tout en ressemblant par certains côtés à ceux de la télévision et en étant susceptibles d'être distribués par les réseaux câblés audiovisuels, sont destinés à être diffusés sur Internet, à destination des ordinateurs personnels.

Le mouvement de convergence entre la télévision et Internet est, en effet, double : le Web s'affiche sur le téléviseur, mais des images animées, des programmes d'information et de divertissement empruntent, en même temps, le réseau des réseaux.

Moyennant des équipements appropriés, (tuner, cartes, de compression et d'affichage), un ordinateur peut, par ailleurs, permettre de regarder une émission de télévision ou une cassette vidéo préenregistrée.

C) L'ORDINATEUR PERSONNEL, TERMINAL UNIVERSEL ?

Ainsi, par sa polyvalence, l'ordinateur personnel peut représenter, au côté d'Internet, un pôle de convergence d'informations.

Développé par la Société Marimba, fondé par des transfuges des équipes de développement du langage Java de Sun, l'ensemble de logiciels Netcaster a inauguré l'apparition sur Internet d'un véritable nouveau média, à destination des ordinateurs, associant texte, son et image. Ce ne sont plus ainsi seulement des « pages » Web, même animées, qui sont diffusées, mais de véritables « chaînes » d'information en continu. Le direct remplace le préenregistré. Au « pull » (cueillette d'information) succède le « push », transmission personnalisée de données correspondant aux centres d'intérêt des usagers. L'information choisie est adressée à l'intéressé au moment et sous la forme voulus (texte, image, son, logiciel).

Ainsi les mondes des télécommunications et de l'audiovisuel se rapprochent-ils, non seulement au niveau des technologies, mais aussi des contenus.

La technologie Castanet développée par Marimba a été adoptée par Netscape et intégrée à son nouveau navigateur « Communicator ».

Microsoft a, pour sa part, retenu celle de Pointcast, qu'il a introduite dans Explorer 4, après avoir tenté de mettre au point sa propre solution de « push », Active Desktop.

Push Technology, Webcashing, Netcasting, ou Cybercasting, tous ces termes recouvrent le même concept, à savoir la diffusion sur ordinateur d'images et de sons issus d'Internet.

En dehors des deux principaux procédés sus-mentionnés Pointcast et Netcaster, d'autres propositions ont été présentées telles que celles de Backweb ou d'Air Média, qui délivre par ondes radios des contenus présélectionnés, moyennant un récepteur spécial.

Netscape permet, avec In Box Direct, d'envoyer directement dans la messagerie personnelle de ses clients, par Navigator, les sommaires des journaux et des autres sites associés à ce service.

Avec Pointcast, l'information diffusée est organisée en chaînes thématiques, proposant un ensemble d'articles de presse complets classés dans certains cas par rubriques.

Backweb, de son côté, fournit d'abord des en-têtes de messages, à partir desquels on parvient, en cliquant, aux informations correspondantes.

Les animations multimédias de pages Web (avec des graphismes en mouvement, des menus déroulants, des successions d'images en trois dimension...) nécessitent des adaptations du langage HTML (43(*)), conçu à l'origine pour l'affichage de simples textes.

Ces animations résultent de microprogrammes dont l'exécution est réalisée :

- Soit, instantanément, selon les instructions du navigateur, écrites en langage Java, par la machine de l'utilisateur (solution retenue par Netscape).

- Soit, à partir de données fournies par le serveur (solution de Microsoft).

Cependant, les deux outils de consultation concernés, Navigator 4 de Netscape et Active X de Microsoft ne sont pas totalement compatibles entre eux.

Pour accéder à des sites contrôlés par Microsoft et donc accessibles par ActiveX (intégré à Explorer), à l'aide du navigateur de Netscape, jusqu'ici le plus répandu, il faut télécharger un programme lourd et complexe (Script-Active).

La version 4 du Navigator de Netscape contient, de son côté, des développements en HTML dynamique, qui ne sont pas encore standardisés par le World Wide Web consortium.

Concernant le technology push, Microsoft a, pour sa part, rendu son format CDF(Chanel Definition Format) apte à recevoir des informations « webcastées » par Netscape. Mais ce dernier a refusé, quant à lui, d'effectuer la démarche inverse, au motif que la technologie mise au point par Pointcast, désormais allié à Microsoft, utilise un langage propriétaire différent de HTML et de Java.

La toile d'Internet, jusqu'ici havre de convergence, risque-t-elle de se déchirer ?

Quoi qu'il en soit, l'ordinateur n'est pas seulement l'enjeu de la diffusion, via Internet, de programmes spécialement conçus pour lui.

D'aucuns le verraient bien fusionner avec le téléviseur pour lui permettre d'accéder à toutes les formes possibles de contenus audiovisuels ou multimédia.

Plusieurs des plus grands groupes de l'électronique grand public se sont ainsi lancés, en 1996, dans des projets de terminaux universels type PC-TV : Hitachi, Matsushita, Sony et aussi Thomson, en collaboration avec Compaq.

Par ailleurs, la technologie Intercast, mise au point par Intel, permet de diffuser des chaînes de télévision sur un ordinateur personnel en même temps que des pages Web correspondantes.

Entre les ordinateurs personnels, les téléviseurs, ou les PC-TV, le numérique permet d'envisager une multitude de terminaux intermédiaires hybrides, fixes ou portables (consoles de jeux, téléphones mobiles, etc...) offrant, en plus de leur fonction principale, l'accès à certains services Internet (courrier électronique, pages Web...).

D) LES PROBLÈMES DE STANDARDS

Ce foisonnement d'offres techniques, souvent rivales, risque d'aller à l'encontre même de la convergence qui les a suscitées et dont elles sont l'enjeu.

Des exemples nombreux en ont été donnés, avec les difficultés de standardisation qui surgissent en matière d'accès conditionnel aux programmes payants de télévision par satellite, de téléphonie mobile, et même, on vient de le voir sur Internet, en ce qui concerne le Webcasting et les navigateurs d'accès aux bases de données..

La convergence monopolistique, par élimination des concurrents telle que Microsoft, semble la concevoir, va-t-elle finir par s'imposer ?

Ne faut-il normaliser que l'interface entre différents systèmes propriétaires ?

Ou bien, est-il permis d'espérer l'avènement d'une société de l'information ouverte, fondée sur des références communes, telle que l'ATM ou le langage Java qui ne soit ni le fief de qui que ce soit, ni une jungle, ni une tour de Babel ?

L'ATM (Asynchrone Transfer Mode) a l'avantage de s'adapter à toutes sortes de débits, faibles ou forts, constants ou variables. Il permet d'envisager des réseaux uniques de transferts pour différents services (voix, vidéo, données).

Quant au langage Java, son atout majeur est de permettre d'écrire des programmes qui peuvent être exécutés indifféremment par toute machine pourvue d'un interprèteur adéquat, quels que soient son processeur et son système d'exploitation.

Les potentialités de Java sont évidemment menaçantes pour Microsoft qui tire la majeure partie de ses revenus de la vente de logiciels intrinsèquement liés à ses systèmes d'exploitation Windows (44(*)) .

Les applications écrites en Java sont actuellement la seule alternative à celles tributaires de Windows.

La firme de Seattle a fait preuve jusqu'ici d'une remarquable capacité de réaction aux tentatives de contestation de sa domination.

Elle a compris, pendant qu'il était encore temps, le caractère inexorable de l'essor d'Internet et l'intérêt qu'elle pouvait en tirer, allant jusqu'à imposer aux fabricants d'ordinateurs, avant sa condamnation par la justice américaine, l'installation de son navigateur Explorer 4.0, comme condition à la vente de son système d'exploitation Windows.

Concernant Java, elle a trouvé deux parades :

n après en avoir acquis la licence, elle a tout d'abord développé, à l'intention des usagers de ses systèmes d'exploitation Windows 95 et NT, un produit (45(*)) permettant de l'utiliser, en combinaison avec n'importe quel autre langage de programmation, pour écrire des logiciels d'application.

Il est ainsi possible de développer des logiciels tirant parti, aussi bien des capacités d'ordinateurs isolés, que de celles de réseaux d'entreprises ou de l'Internet.

Elle a, par ailleurs, créé une interface virtuelle (OPC) permettant à chaque client d'un réseau d'obtenir une information de n'importe quel serveur, mais cette interopérabilité suppose l'utilisation de la technologie logicielle Ole qui est à la base de Windows NT.

Ces deux initiatives tendent également à contrer les tenants de l'informatique en réseau qui préconisent de stocker les principaux logiciels sur le serveur (traitement de texte, tableau, gestion de fichier) et d'en concentrer la gestion à ce niveau, de façon à économiser les coûts de renouvellement et de maintenance des terminaux.

La riposte de Microsoft consiste ainsi généralement à enrichir les possibilités qu'il offre à ses clients, en les alignant sur celles proposées par ses concurrents, tout en s'efforçant de les garder captifs.

Mais sa posture est néanmoins essentiellement défensive.

Pour le moment, l'utilisation de Java sur l'Internet est principalement limitée à de petites applications (« applets »), complémentaires de l'affichage de pages Web et présente l'inconvénient d'une certaine lenteur pour la gestion de systèmes hétérogènes d'informations d'entreprises (Java interprété tourne beaucoup plus lentement qu'un programme compilé).

Toutefois, Sun s'efforce de remédier à ce défaut (46(*)) et offre des potentialités uniques.

S'il lui manque encore certaines interfaces et certains objets (47(*)) (voir encadré), Java a l'immense avantage d'être un langage universel, indépendant de tout système d'exploitation, qui permet de concevoir des logiciels d'application portables et susceptibles d'être exécutés par n'importe quelles machines (48(*)) ou processeurs (y compris ceux des cartes de crédit).

Ces programmes devraient en outre optimiser l'utilisation des ressources des réseaux en déportant du serveur vers le client certaines tâches.


L'APPORT DE JAVA


Le Web se base sur trois standards principaux :

- HTPP (Hyper Text Transfer Protocol) qui permet de trouver un serveur adapté à une requête ;

- HTML (Hyper Text Markup Language), relatif à la présentation des informations recueillies sur le terminal de l'usager ;

- enfin CGI (Common Gateway Interface) qui permet d'activer, à la demande, en tant que de besoin, le serveur pour lui faire fournir des données plus élaborées.

Le langage Java offre en outre l'avantage de pouvoir faire exécuter, en local, par le poste du client, certaines instructions, données par le navigateur, sans aller et retour avec le serveur sur le réseau (contrairement à Active X de Microsoft avec lequel les applications supplémentaires supposent un échange avec ce dernier).

S'agissant de la gestion de systèmes hétérogènes d'informations d'entreprises fonctionnant en mode client serveur, Microsoft a conçu une solution pour en rendre interopérables les instruments et logiciels de supervision (à condition qu'ils fonctionnent sous Windows NT).

Il s'agit, en quelque sorte, d'une interface virtuelle (OPC), qui permet de reconnaître des informations, étiquetées d'une certaine façon, quel qu'en soit le contenant.

De son côté, Sun a créé la plate-forme JCAF (49(*)), dont l'enjeu est de définir les interfaces et les objets qui manquent encore à Java.

L'immense avantage de cette formule est de reposer non sur une interface mais sur une machine virtuelle dont l'interpréteur permet de faire exécuter un programme par n'importe quel processeur, y compris celui d'une carte de crédit.

En outre, le « byte code » dans lequel sont écrits les programmes Java est beaucoup plus compact que le code binaire de programmes qui tournent sous Windows NT, ce qui accélère et rend plus économique le partage des ressources entre client et serveur sur le réseau.

Il reste le problème susmentionné, en cours de règlement, de l'interopérabilité des ensembles de procédures informatiques (process) et des instruments de supervision des systèmes d'information des entreprises.

Mais, d'ores et déjà, des applications très prometteuses peuvent être envisagées telles que :

n des cartes à puce multifonctions programmables ;

n de nouvelles possibilités offertes à des PC obsolètes utilisés comme ordinateurs de réseaux (Toshiba a développé dans ce sens un nouveau système d'exploitation leur permettant, grâce à Java, de bénéficier des suites logicielles pour NC proposées par Corel et Oracle).

Ainsi derrière le mot « convergence » se dissimulent deux approches antinomiques :

n celle d'un univers ouvert, celui d'Unix, en son temps, de Linux et de Java aujourd'hui ;

n celle d'un système cohérent et performant mais à visée hégémonique, sinon monopoliste, fondé sur des standards propriétaires et fermés, et qui tend à garder le client captif.

L'issue de l'affrontement entre ces deux conceptions sera déterminante pour l'avenir du marché des TIC.

LINUX, émule d'UNIX

L'UNIX est un système d'exploitation bien adapté aux ensembles informatiques et aux architectures client-serveur. Ses qualités l'ont imposé à la plupart des stations de travail et ont facilité l'essor initial d'Internet.. Son succès a même contraint IBM à en mettre au point une version qui lui était propre.

La législation anti-trust ayant empêché ATT, qui l'avait développé dans ses Bell Labs, de le commercialiser, il a été cédé gratuitement aux universités en 1975 (celle de Berkeley avait été du reste associée à sa création).

Le groupe de travail X/Open qui oeuvre en faveur de la normalisation de systèmes ouverts l'a ensuite pris pour modèle.

Mais cela n'a pas empêché que se déroule un affrontement entre les multiples variantes qui en ont été proposées par les géants de l'informatique.

Le dernier avatar d'Unix est aujourd'hui Linux, qui en diffère cependant beaucoup. Il en constitue en effet en quelque sorte une nouvelle version refaite à partir de zéro.

Ce système d'exploitation a été développé selon un modèle ouvert et réparti, contrairement à la plupart des logiciels connus qui suivent, au contraire, un modèle fermé et centralisé. Linux est un « logiciel libre », notion qui se rattache à celle dénommée « graticiels ».

Cela signifie que toutes ses nouvelles versions doivent être rendues accessibles au public. Les améliorations apportées peuvent cependant donner lieu à rétribution mais le code, source des modifications effectuées doit être obligatoirement chaque fois diffusé.

Fin 1997, Linux comptait entre 5 et 10 millions d'utilisateurs.

Le DVD (Digital Versatile Disc) illustre aussi, on l'a vu, l'espoir d'une convergence entre, en l'occurrence, l'électronique grand public et l'informatique, contrarié par des difficultés de normalisation.

Il s'agit du remplacement à la fois des cassettes vidéo VHS et des CD ROM.

Il doit en exister deux versions, le DVD vidéo, doté d'une certaine interactivité, et les DVD-ROM, destinés aux ordinateurs.

Ces derniers peuvent également permettre de visionner des DVD vidéo, moyennant une carte de décompression ou un décodeur logiciel.

Mais l'accord mondial conclu en ce qui concerne les normes de la version enregistrable de ce vidéo disque numérique (DVD-RAM) a été remis en cause par Sony et Philips, puis par NEC.

Quant au DVD enregistré de base, Thomson et Zénith viennent d'en définir un nouveau format DIVX, censé réduire les risques de piratage des données numériques, mais incompatible avec le Standard commun.

L'intensification de la concurrence, on le voit, accélère la diversification des offres et des gains de performances, mais entrave, en même temps, les convergences, au risque de rendre plus incertaines les évolutions du marché et plus difficile la maîtrise de l'extraordinaire complexité résultant du foisonnement des techniques.

IV. RECONNAISSANCE DE LA PAROLE
ET RÉALITÉ VIRTUELLE :
DES AVANCÉES TECHNOLOGIQUES MAJEURES QUI
VONT CHANGER NOTRE VIE
DANS LES PROCHAINES ANNÉES

Comment les nouvelles technologies vont changer notre vie dans ces prochaines années ?

Comme je l'ai déjà dit à plusieurs reprises, loin de se ralentir, le rythme de la mise sur le marché de technologies va encore s'accélérer dans ces prochaines années.

Ainsi le 3 Février 1998, Digital a annoncé la mise sur le marché, pour l'Eté 1998, de sa nouvelle puce, baptisée Alpha 21264, cadencée à une fréquence de 600 mégahertz (Mhz), ce qui devrait favoriser le développement de Windows NT face à Windows 95 qui ne peut fonctionner avec des puces Alpha.

La réplique d'Intel ne devrait pas se faire attendre.

En ce début de 1998, les travaux sont suffisamment avancés dans les principaux laboratoires mondiaux et les programmes de mise sur le marché suffisamment précis pour que nous puissions, avec un taux d'erreur tolérable, prédire en quoi notre vie sera changée par les NTIC dans ces 10 prochaines années.

Tout d'abord, les spectateurs sont tellement absorbés dans les temps actuels par le duel, sans partage, qui oppose actuellement le leader du logiciel, Microsoft, aux tenants du marché Java que sont Sun, Oracle et Netscape, qu'ils ne voient pas venir une révolution technologique majeure qui devrait triompher en l'an 2000, pour l'entrée de l'homme dans le troisième millénaire.

En effet, en cette année, devraient être disponibles des micro-ordinateurs qui obéiraient totalement à la voix. La productivité du clavier et de la souris n'a que médiocrement progressé dans ces deux dernières décennies alors que, dans un même temps, tous les autres composants du micro-ordinateur, en partant du processeur pour aller jusqu'à la carte vidéo, en passant par le disque dur, la mémoire vive, la carte mère, la carte son, jusqu'au CD-ROM transformé en DVD, ont fait un bond spectaculaire.

Aussi, pour justifier des microprocesseurs cadencés à des fréquences de 600 MHz (600 millions d'instructions par seconde) qui seront commercialisés dans ces prochains mois, et des mémoires de plus en plus rapides, tous les grands constructeurs de logiciels comme de matériels vont proposer, dans deux ans au plus tard, une reconnaissance naturelle de la parole, qui aura un taux d'erreur inférieur à cinq pour mille, alors que les meilleurs logiciels actuels correspondants ont encore un taux d'erreur de cinq pour cent.

Suivront ensuite, rapidement, des systèmes très élaborés de reconnaissance de l'écriture, de vidéo conférence fluidifiée et de représentation tridimentionnelle évoluée (3D) avant l'avènement de la réalité virtuelle qui constituera une nouvelle phase majeure. Mais c'est la parfaite maîtrise de la reconnaissance de la parole qui provoquera, à mon avis, dans ces prochaines années les plus profondes mutations relationnelles entre l'Homme et la Machine.

Les études réalisées dans un grand nombre de pays montrent que l'informatique reste encore très ésotérique pour beaucoup d'utilisateurs potentiels. Aussi, quand nous arriverons devant notre ordinateur et que nous dirons « allume-toi, je vais te dicter une lettre que je vais adresser à ma grand-mère Alice » et qu'il nous suffira de parler devant notre micro-ordinateur, comme si nous conversions avec notre aïeule au téléphone, pour qu'il nous prépare la lettre sans faute avec l'enveloppe, alors, la vision que se font de l'informatique beaucoup de personnes encore aujourd'hui changera profondément.

Cette reconnaissance fiable de la parole devrait avoir trois conséquences majeures dès le début du 21e siècle :

n première conséquence : dans le domaine du téléphone ;

n deuxième conséquence : dans les rôles respectifs du téléviseur et de l'ordinateur ;

n troisième conséquence : dans notre environnement de chaque jour, à la maison ou dans notre voiture.

La première conséquence sera certainement celle qui aura le plus de répercussions sur la compétition ouverte entre l'informatique et les télécommunications. Nous pouvons affirmer que « le téléphone filaire (RTC) sera demain à la parole ce qu'est aujourd'hui le fax à l'écrit ».

Le fax est convivial, facile d'usage, mais n'a aucune faculté de reconnaître, classer, traiter les messages qu'il transporte. Bientôt, avec l'aide du protocole TCP/IP durant nos conversations téléphoniques, un système informatique inscrira automatiquement des rendez-vous sur nos plannings, ouvrira instantanément des dossiers sur les sujets abordés, créera des fichiers de suivi, réservera des salles pour des réunions décidées, transcrira intégralement nos propos sur la mémoire de notre machine, etc.

La seule réplique que peuvent avoir les opérateurs de télécommunications face à cette montée en puissance inexorable de la reconnaissance de la parole sur les PC est de développer très rapidement le débit des boucles locales pour offrir des services équivalents en partant de serveurs locaux, le terminal téléphonique se transformant alors en Network Computer (NC) (ordinateur de réseau), loué à des prix très modiques.

Le vrai combat entre le PC et le NC ne devrait pas se dérouler uniquement entre deux acteurs majeurs de l'informatique (Microsoft et Sun) mais, essentiellement, entre les acteurs de la micro-informatique PC associés au leader du logiciel et les acteurs majeurs des télécommunications associés au leader du monde Java. Du résultat de ce combat dépendra le leadership du développement des NTIC pour ces vingt prochaines années.

De coeur, nous voudrions espérer que ce combat soit gagné par les opérateurs de télécommunications car notre opérateur national, France Télécom, occupe la quatrième place mondiale dans ce secteur si important pour la place de la France dans le paysage technologique de demain.

Mais, connaissant le fossé culturel qui persiste entre les grands opérateurs de télécommunications qui, pour les plus grands parmi eux (sauf pour de récents arrivés aux dents longues), ont occupé une situation de monopole pendant de nombreuses décennies et la réactivité des jeunes et puissantes compagnies de micro-informatique, il est à craindre pour notre pays que le combat soit gagné par le monde informatique.

Aussi, au lieu de s'attarder dans des combats d'arrière-garde pour préserver des lambeaux de leur ancien monopole, les managers des grands opérateurs mondiaux de télécommunications devraient organiser leur puissante contre-attaque de façon cohérente puisqu'ils ne sont pas concurrents sur les boucles locales. S'ils ne savent pas organiser très rapidement cette contre-offensive qui leur permettrait de conserver le vocal, qui est le coeur et le coffre-fort de leur métier, nous avons la certitude qu'ils seront pris en tenaille dès ces prochaines années entre les câblo-opérateurs qui vont retrouver une jeunesse, avec les modems Cable et le puissant monde conquérant de l'informatique.

La deuxième conséquence majeure de la reconnaissance fiable de la parole est l'accélération de la fusion qu'elle va provoquer entre le monde de la télévision et le monde du micro-ordinateur familial.

Chacun ressent que les systèmes actuels permettant d'afficher des pages Web sur le téléviseur (tels que WebTV, Netbox ou Com 1) ne sont que des systèmes transitoires bien que très intéressants. L'absence de réelles capacités de mémoire ainsi que de clavier et de souris, même s'il existe des claviers infrarouges qui sont proposés en option, sont un frein réel à la navigation sur le Web.

La reconnaissance de la parole associée au développement du modem Cable ayant pour finalité de faire disparaître le clavier et la souris devrait ouvrir un champ nouveau pour ces périphériques autorisant d'accéder à Internet sur son téléviseur du moins si par ailleurs ils savent (en local ou en déporté) acquérir de réelles capacités de mémoire.

Mais la reconnaissance de la parole devrait avoir une conséquence plus profonde encore sur les rôles qui devraient être affectés, à terme, au téléviseur et à l'ordinateur dans le cercle familial.

Comme à l'école, ce serait une grave erreur d'oublier que l'image doit remplir deux rôles bien distincts dans le foyer familial.

n Tout d'abord, un rôle collectif : une image de qualité et de grandes dimensions, soutenues par des sons fidèles et réalistes (Dolby Surround) constituera l'élément central autour duquel continuera à se réunir le cercle familial. La montée en puissance dans ces prochaines années de l'écran plat à plasma de grandes dimensions ne fera que favoriser la création de « cinéma à domicile ».

n Ensuite, une fonction individuelle : clavier et image sur le micro-ordinateur, ou plutôt sur l'écran de chacun des terminaux familiaux du réseau, devront remplir un rôle à la fois ludique, de gestion, mais essentiellement permettre d'accéder à des connaissances au travers du réseau Internet.

Chaque image sur le micro-ordinateur sera adressée, non pas à un groupe, mais à un internaute en particulier. Mais, même si elles n'ont pas la même finalité, toutes les machines générant ces images (qu'elles soient à usage collectif, comme celles du téléviseur, ou individuel, comme celles du PC ou des autres terminaux) seront interconnectées sur un « réseau informatique résidentiel » et c'est là où la reconnaissance de la parole jouera un rôle essentiel.

En effet, les minis réseaux d'entreprises exigent aujourd'hui un administrateur de réseau, tant ils sont complexes à gérer. Aussi, le développement de ces « réseaux informatiques résidentiels » ne sera imaginable que lorsque ces réseaux et ensembles informatiques familiaux pourront être administrés en langage naturel. Cette gestion globale et naturelle du réseau familial bouleversera l'économie du contenu audiovisuel et informatique.

La concurrence sera vive entre les chaînes audiovisuelles, qui verront leurs marchés captifs et de masse se réduire, donc leurs revenus publicitaires décroître (d'autant plus que le téléspectateur pourra demander à son système informatique de ne plus présenter des coupures publicitaires lors de la projection d'un film) et entre les programmes (push médias) qui lui auront été concoctés sur mesure, grâce à de nouveaux agents intelligents sur le réseau Internet.

Enfin, cette reconnaissance fiable de la parole qui va être soutenue par le développement de micros instructions Java devrait bouleverser, dans ces 10 prochaines années, notre environnement, aussi bien à la maison que dans notre voiture. La reconnaissance de la parole fera des progrès très rapides au début du siècle prochain dans notre voiture.

Déjà, la synthèse de la parole a permis des progrès notoires, surtout dans les aides à la navigation, pour rejoindre une adresse possible. La reconnaissance de la parole permettra aux systèmes d'aide à la navigation, d'aide à la sécurité, de surveillance des divers paramètres techniques, de réglage de divers systèmes audios, de téléphone de voiture, d'être totalement interactifs et permettra au conducteur de conserver l'oeil sur la route et la main sur le volant... en attendant que la conduite de nos voitures devienne entièrement automatique en urbain, et sur les axes chargés dans moins de vingt ans : c'est pour demain.

Au niveau de la sécurité des immeubles, des bureaux ou des usines, la reconnaissance de la parole fera des progrès très importants dès ces prochaines années. Les systèmes de surveillance reconnaîtront instantanément les personnes autorisées et rejetteront impitoyablement (jusqu'à déclencher le système d'alarme) toute personne non reconnue.

Des systèmes multicritères de haute sécurité (reconnaissance de la voix, reconnaissance des empreintes et reconnaissance de l'iris) protégeront les lieux particulièrement sensibles.

Les travaux conduits dans divers laboratoires particulièrement en pointe, aussi bien aux Etats-Unis, au Japon, qu'en Europe, laissent penser que la réalité virtuelle - qui n'est encore qu'à ses balbutiements- devrait devenir particulièrement réaliste et accessible à tous, dès que les processeurs cadencés à une vitesse de 1 gigabits (1 milliard d'instructions par seconde) seront accessibles à de bas coûts.

Or, des annonces majeures faites par IBM et Intel en 1997 (sur l'utilisation du cuivre dans les microprocesseurs à la place de l'aluminium et sur la capacité des mémoires rapides) laissent penser que cette fréquence du gigabits devrait être atteinte dès ces prochaines années.

Les premières applications hyper-réalistes, faisant appel à trois des sens de l'homme (la vue, l'ouïe et le toucher) seront développées dans le domaine très porteur du jeu, dans un premier temps. Mais, très rapidement, des applications professionnelles avancées permettront de créer des outils de simulation, de formation et de virtualisation de nouvelle génération.

Ce monde virtuel commencera alors à envahir notre monde réel. Notre société devra alors être très vigilante pour que les exclus les plus faibles ne se réfugient pas dans ces mondes virtuels, refusant ainsi la réalité de chaque jour.

Comme l'ont fort bien écrit, il y a quelques années, Philippe Quéau d'une part, et Howard Rheingold, d'autre part, l'arrivée de cette réalité virtuelle nous ouvrira alors de nouveaux mondes.

*

* *

Il convient de tenter d'évaluer non seulement les possibilités d'évolution de l'offre de technologies mais aussi dans quelle mesure ce mouvement a des chances ou non de correspondre aux attentes du marché : c'est tout le délicat problème de l'ajustement du « technology push » au « market pull ».

Dans certains domaines, l'offre et la demande de techniques nouvelles sont, d'ores et déjà, en phase de façon si manifeste que l'on assiste à des phénomènes de croissance véritablement explosive (téléphone mobile, raccordement à Internet).

Dans d'autres, comme la télévision interactive, des déconvenues sont possibles.

La diversification des technologies, d'un côté, l'intensification de la concurrence, de l'autre, sont sources d'incertitudes.

La montée en débit, la quête de la mobilité, l'accroissement du trafic de données au détriment de celui lié à la téléphonie vocale semblent des phénomènes inéluctables mais des questions se posent :

n Dans quelles mesures le recours à des solutions haut débit économiques et rapides (ADSL, MMDS, satellites...) peut-il retarder l'avènement de réseaux optiques à large bande ?

n Quels seront les effets sur le trafic de l'entrée d'Internet dans l'économie marchande ?

n L'exacerbation de la concurrence, dans tous les domaines, ne va-t-elle pas aboutir à fournir quasi gratuitement certains services de base à l'usager, tels que l'accès à de simples informations à partir des réseaux, voire l'utilisation des systèmes d'exploitation informatiques (faut-il payer pour se servir d'un langage ?), la compétition se déplaçant vers le terrain des prestations à valeur ajoutée.

* (31) 25 milliards de dollars selon Business Week (généralisation de réseaux hybrides fibre-coaxial avec des capacités interactives, qui ne représentent que 25 % environ des infrastructures actuelles). L'omniprésence du câble coaxial oblige à placer des amplificateurs en cascade pour limiter les dégradations du signal. La bande passante n'est que de 550 MegaHtz.

* (32) Boucle locale : partie de réseau qui relie un terminal d'abonné au premier commutateur.

* (33) ADSL : Asymetric bit rate DSL. Il existe également des versions : HDSL (High bit rate DSL) jusqu'à 2 Mbits/s par paire et VDSL (Very high rate DSL) autorisant 3Mbits/s sur deux paires.

* (34) Concentrateur : équipement regroupant les trafics de plusieurs lignes sur un nombre moindre de lignes.

* (35) Issu de la fusion entre le CLT et les activités audiovisuelles de Bertelsmann.

* (36) Deux conceptions s'opposent :

n Simulcrypt (un seul boîtier capable d'interpréter plusieurs langages cryptés)

n Multicrypt (plusieurs décodeurs, correspondant à des cryptages différents, constituant autant de modules détachables susceptibles d'être connectés à une interface commune)

L'absence d'harmonisation des guides électroniques de programmes peut également désorienter le téléspectateur ou aliéner sa liberté de choix.

* (37) Les 840 satellites initialement envisagés devaient permettre à chacun d'eux de se concentrer sur un nombre d'usagers limité (dans un rayon de 53 km) de façon à leur fournir des prestations de haute qualité (grâce à une capacité de 18 liaisons Internet à un débit de 1,5 Mbits/s).

* (38) Avec le CDMA (Code Division Multiple Access), l'ensemble d'une bande de fréquence est allouée à toutes les conversations, codées et transmises simultanément. En revanche, dans le TDMA (Time Division Multiple Access), utilisé par GSM, une fréquence (ou une porteuse) est attribuée à une seule communication pendant une unité de temps.

* (39) GSM Large Bande ou « Wide Band TDMA » par Nokia ; extrapolation de la technique de modulation numérique (COFDM) utilisée en radio numérique, proposée par le groupe suédois Telia. Le CDMA, pour sa part, a rallié Motorola, Lucent et Nortel Ericsson : on en a conçu une variante large bande (Wide Band CDMA). Quant à Siemens, il tente de panacher le TDMA et le CDMA, avec l'appui d'Alcatel (une fréquence serait dévolue non plus à une seule mais à un ensemble de communications codées).

* (40) L'architecture RISC (Reduced Instruction Set Computer), part du principe qu'un nombre réduit d'instructions suffit aux tâches les plus fréquentes, celles plus complexes pouvant être exécutées par logiciel. Cette conception s'oppose à celle dite CISC (Complex Instruction Set Computer). Mais les applications multimedia nécessitent des capacités de traitement très étendues et spécifiques - image, son, synchronisation des sources... L'architecture des mediaprocesseurs pourrait ressembler à celle des processeurs numériques de signaux (CDSP), qui exercent des fonctions semblables (traitement de signaux audio et vidéo).

* (41) Mémoire flash : mémoire vive qui conserve les informations même lorsque l'alimentation électrique est coupée et que l'on retrouve, notamment, dans les téléphones mobiles et les ordinateurs portables.

* (42) Sites dotés de capacités d'au moins 155 Megabits/s intégrant des équipements de commutation ATM et de routage.

* (43) Hyper Text Markup Language : permet des recherches par thèmes en reliant les informations correspondantes par mots ou références clé.

* (44) Suite bureautique « office » (Word, Excel...) de Windows. Bientôt, Logiciels serveurs et suite « back Office ».

* (45) DNA : Distributed Net Applications.

* (46) La vitesse d'interprétation a déjà été multipliée par 3 en deux ans et un compilateur à la volée ajouté aux machines virtuelles. Sun a racheté des startup spécialisées (dont le français Chorus) afin de mieux utiliser les ressources des processeurs et de rendre les machines virtuelles capables d'applications en temps réel.

* (47) Objet : représentation informatique d'entités structurant les informations.

* (48) Tout en souhaitant faire de son système de programmation un standard ouvert, Sun souhaiterait en superviser lui-même la normalisation et l'évolution plutôt que de s'en remettre entièrement à l'ISO (International For Standardization).

* (49) Elle comprend trois éléments : le langage Java, les machines virtuelles pour l'interpréter et des bibliothèques d'objet.