Présentation
RÉSUMÉ
Les prévisions autour du déploiement d’internet ont été largement dépassées. Le développement des technologies et des standards, la baisse continue des coûts des matériels, l’étendue planétaire de la connectivité, autant d’atouts qui ont fait de cette formidable coopération mondiale un succès inégalé. Cet article commence par décrire les grands principes qui ont permis à internet de devenir la plateforme universelle dans la conception et la diffusion des applications informatiques. Ensuite, il s’attarde sur les moteurs responsables de cette révolution, notamment les progrès des microprocesseurs et des systèmes de stockage. Il faut associer à ces formidables évolutions le bouleversement culturel engendré par les technologies de l’information, rendu possible par l’essor technique des télécommunications.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
The deployment of the Internet has amply surpassed expectations. The development of technologies and standards, the continuous decrease in the cost of materials, the globalization of connectivity have resulted in the unprecedented success of this amazing global cooperation. This article starts by describing the major principles which have made of the Internet the universal platform for the design and diffusion of computing applications. It then focuses on the drivers of this revolutions such as notably the advances of microprocessors and storage systems. These tremendous evolutions must be associated to the formidable cultural change generated by information technologies which was made possible by the technical expansion of telecommunications.
Auteur(s)
-
Jean-Paul FIGER : Chief Technology Officer Capgemini
INTRODUCTION
La première version de cet article date de 1996. Elle expliquait comment Internet allait se déployer et « changer la donne ». Dix ans plus tard, ces prévisions souvent jugées trop optimistes ont été largement dépassées. Le déploiement universel des technologies et des standards de l'Internet, la baisse continue des coûts des matériels, la quasi-gratuité de la plupart des logiciels et la connectivité mondiale permanente pour quelques dizaines d'euros par mois ont entraîné une explosion d'innovations. Plus d'un milliard d'utilisateurs, d'expérimentateurs ou de développeurs connectés sur Internet sont les acteurs d'un processus de sélection « darwinien » qui remplace les décisions de comités souvent biaisées par la politique ou l'incompétence. Cette formidable coopération mondiale informelle a déjà produit les meilleurs logiciels – ceux qui font tourner l'Internet – et imposé ses choix, comme le MP3 pour la diffusion de la musique, Google comme moteur de recherche ou le « Flash player » pour la vidéo. Le temps où un fournisseur pouvait protéger son empire par des normes propriétaires est désormais révolu. L'architecture de l'Internet marque une rupture avec les architectures des systèmes organisées en îlots autour d'unités centrales ou de réseaux locaux. L'Internet est en train de devenir la plate-forme sur laquelle se construisent et se déploient les applications de demain par l'interconnexion facile de services génériques. Cette nouvelle plate-forme, dont Google est le paradigme, a déjà un impact considérable sur la manière de concevoir, de diffuser et d'utiliser les applications informatiques. Cet impact va être démultiplié par l'exploitation de cette intelligence collaborative dans tous les domaines de l'activité humaine.
Cet article se compose de deux parties complémentaires : les standards du futur (2005-2025) et les cinq moteurs du changement :
-
• La première partie – les standards du futur (2005-2025) – décrit les grands principes qui ont permis à l'Internet de devenir la plate-forme universelle pour concevoir et diffuser des applications informatiques. Cette connaissance est indispensable à tous ceux qui influencent des réalisations informatiques.
-
• La deuxième partie – les cinq moteurs du changement – est une actualisation de l'article précédent. Les progrès continus que nous connaissons depuis 50 ans vont cependant atteindre les limites de la technologie au cours de la prochaine décennie. Cette partie est plus spécialement destinée à tous ceux qui veulent comprendre les causes de l'évolution de l'informatique.
VERSIONS
- Version archivée 1 de mai 1997 par Jean-Paul FIGER
- Version archivée 2 de mai 2001 par Jean-Paul FIGER
- Version courante de févr. 2018 par Jean-Paul FIGER
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(239 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
5. Dialogue naturel avec les machines ?
5.1 Interface utilisateur
Un programme transforme l'ordinateur en un outil adapté à un usage particulier, que cet usage soit la fabrication d'un avion ou l'écriture d'un document. L'interface utilisateur est la partie du logiciel qui sert d'intermédiaire entre l'utilisateur et le programme. Autrefois, l'interface utilisateur était la dernière partie à être conçue. Maintenant, c'est devenu la première. En effet, pour le débutant comme pour l'utilisateur expérimenté, ce qu'il perçoit devient « son » ordinateur. Cette illusion est la métaphore simplifiée que chacun construit pour expliquer les actions du système ou pour provoquer de nouvelles actions.
Il faut noter les travaux fondamentaux, réalisés dès 1973 par les équipes du Xerox Palo Alto Research Center (XPARC), avec l'invention de la souris et des fenêtres qui ont donné naissance aux premiers produits commerciaux comme le STAR en 1978 ou la LISA en 1982. Coûteux et peu performants, ces produits ont été des échecs. En 1985, le Mac d'Apple a été le premier produit à réussir commercialement, suivi en 1990 par Windows 3.0 de Microsoft dans le monde du PC.
La plupart des principes et des périphériques développés pour améliorer cette métaphore sont maintenant devenus très courants dans la conception des logiciels. Le principe le plus important a été le WYSIWYG (« What You See Is What You Get ») : l'image sur l'écran est toujours une représentation fidèle de la métaphore de l'utilisateur. Chaque manipulation de cette image entraîne une modification prévisible de l'état du système ou tout au moins tel que l'utilisateur l'imagine. Les éléments de cette métaphore qui se sont imposés actuellement sont les fenêtres (Windows), les menus, les icônes et un outil de pointage. Les fenêtres rendent possible la représentation simultanée sur l'écran de plusieurs activités. Les menus permettent de choisir les prochaines actions. Les icônes représentent des objets informatiques sous forme concrète. L'outil de pointage, généralement la souris, permet de sélectionner les fenêtres, menus et icônes.
Tout cela a donné naissance à une nouvelle génération de logiciels interactifs, à base de métaphores, qui utilisent cette réalité virtuelle pour simplifier la tâche de l'utilisateur et pour démultiplier ses capacités à simuler le fonctionnement...
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(239 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Dialogue naturel avec les machines ?
BIBLIOGRAPHIE
-
(1) - LEWIS (T.) - The Next 10 000 Years. - Computer, vol. 29, no 5, p. 78 à 86 (1996).
-
(2) - MAYO (J.S.) - Materials for Information and Communication. - Scientific American, vol. 255, no 4, p. 59 à 65 (1986).
-
(3) - KAY (A.) - Computer Software. - Scientific American, vol. 251, no 3, p. 191 à 207 (1984).
-
(4) - TESLER (L.G.) - Programming Languages. - Scientific American, vol. 251, no 3, p. 70 à 78 (1984).
-
(5) - NASA - * - http://nssdc.gsfc.nasa.gov/planetary/image/marspath_ss24_1.jpg
-
(6) - MUNAKATA (T.) et coll - Beyond silicon : new computing paradigms. - Communications of the ACM, vol. 50, no 9 (2007).
-
...
ANNEXES
1 À lire également dans nos bases
FIGER (J.-L.) - Architectures orientées services SOA. - [H 6 002], base documentaire Technologies logicielles Architectures des systèmes (2006).
RIBIERE (G.) - Certification électronique. - [H 5 510], base documentaire Sécurité des systèmes d'information (2008).
HAUT DE PAGE
IETF http://www.ietf.org
OLPC http://www.laptopgiving.org/fr/index.php
HAUT DE PAGE3 Constructeurs – Fournisseurs – Distributeurs
Intel http://www.intel.com/
Microsoft http://www.microsoft.com/fr/fr/
Apple http://www.apple.com/fr/
...Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(239 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive