Codex Informatica
Loi de Gabor : technologie et progrès
Extrait de l'article de référence : Can We Survive Our Future ? A Conversation with Dennis Gabor
The principle of technological civilisation itself: "what can be made, will be made." "Progress" tends to apply new techniques and to establish industries regardless of whether they are truly desirable or not.
Cette version originale ayant été traduite librement de diverses manières, plus ou moins subjectives, nous lui préférons ici une traduction littérale :
Le principe même d'une civilisation technologique : « Ce qui peut être fait, sera fait ». Le « Progrès » tend à appliquer de nouvelles techniques et à établir des industries, indépendamment du fait qu'elles soient vraiment souhaitables ou pas.
C'est Gabor lui-même qui a mis des guillemets autour du mot « Progress », car si ce principe conduit à appliquer de nouvelles techniques et établir des industries qui NE sont PAS souhaitables, est-ce vraiment le Progrès ?
Que penser notamment de l'industrie nucléaire, qui commença son développement dans le secteur militaire avec des armes de destruction massive (puis « heureusement » de dissuasion), mais qui aujourd'hui concerne essentiellement le secteur civil (dont l'usage reste toutefois très controversé) et fournit probablement l'énergie nécessaire à l'ordinateur utilisé pour écrire cet article ?
Qui était Gabor ?
Dennis Gabor (1900-1979) était un ingénieur et physicien d'origine hongroise. Il est connu comme étant l'inventeur de l'holographie (ce qui lui a valu le prix Nobel de Physique en 1971).
Version originale du 17/02/2025
|
Thierry BIARD
|
"Science sans conscience n'est que ruine de l'âme."
Rabelais.
Compléments de lecture
- Moore, Murphy, Pareto, Maslow, Asimov… pionniers, voire visionnaires : les lois qui portent leurs noms s’appliquent-elles encore à l’informatique ?
- ChatGPT, l’outil idéal de réalisation de modèles pour l’Architecture d’Entreprise et l’Urbanisation du Système d’Information ?
- Architecture d'Entreprise augmentée, quelle influence de l’Intelligence Artificielle sur la gouvernance et la stratégie ?
- Comment gérer efficacement votre documentation d'architecture technique ? Essayez le C4 model avec l'outil Uncia
- Essai et évaluation de Modelio : est-il un bon outil de modélisation ?
- WinDesign : essai et analyse de la version d’évaluation, ce logiciel français est-il un bon outil pour l’Architecture d’Entreprise ?
- Quel outil ArchiMate pour modéliser vos architectures d’entreprise sources et cibles, évaluer les écarts, analyser les impacts et élaborer des trajectoires de transformation ? Obeo SmartEA S.1 Ep.1
- Comment consolider un référentiel centralisé TOGAF rassemblant les autres référentiels Stratégie, Métier, Applications, Infrastructure… ? Obeo SmartEA S.1 Ep.2
- Archi (archimatetool) : essai et analyse de cet outil ArchiMate français gratuit sous Windows, Linux et Mac OS
- ADOIT:CE pour la gestion de l’Architecture d’Entreprise
La rédaction tient à souligner que la plateforme urbanisation-si.com est indépendante de toute organisation et son fonctionnement repose entièrement sur des bénévoles passionnés de pédagogie et désirant partager leur expérience. Vous ne verrez jamais de publicités sur notre plateforme.
Bien que nous encourageons l’open source, il peut nous arriver d’utiliser des logiciels commerciaux qui nous sont gracieusement prêtés sous aucune condition et nous ne touchons aucune rémunération de qui que ce soit.
Moore, Murphy, Pareto, Maslow, Asimov… pionniers, voire visionnaires : les lois qui portent leurs noms s’appliquent-elles encore à l’informatique ?
Codex Informatica : les lois qui s'appliquent à l'informatique
Après avoir publié de nombreux articles consacrés à différentes lois qui s'appliquent à l'informatique, Gabriel KEPEKLIAN a constitué, entre 2006 et 2013, une liste de 31 lois classées par noms de leurs auteurs : le Codex Informatica. Il s'agit sans doute de la liste francophone la plus complète.
Extrait d'un tableau de René Réno
Il faut prendre le terme informatique au sens large. Plusieurs lois s'appliquent notamment aux projets informatiques, mais également aux projets tout court, dans d'autres secteurs d'activité. Par exemple, qui n'a pas expérimenté la fameuse loi de Murphy en dehors du secteur informatique ?
Ces lois-là n'ont rien d'obligatoire. Mais on constate a posteriori et de façon empirique qu'elles se sont appliquées naturellement, souvent au détriment du bon avancement d'un projet (délai et coût dépassés, qualité médiocre). Connaitre ces lois permet parfois d'anticiper, en atténuant leurs conséquences souvent néfastes notamment.
Utilisateurs réguliers de ce Codex Informatica, nous souhaitions y ajouter d'autres lois qui n'y figurent pas encore (notamment à la suite de l'avènement de l'Architecture Micro-Services). Avec l'autorisation de son auteur, voici donc ce Codex Informatica, qui sera enrichi au fil des mois à venir. Nous n'avons pas la prétention d'obtenir une liste exhaustive, mais si vous connaissez d'autres lois qui s'appliquent à l'informatique, n'hésitez surtout pas à poster un commentaire, afin de nous inciter à les ajouter à ce florilège.
|
Thierry BIARD |
« Les tentatives de création de machines pensantes nous seront d'une grande aide pour découvrir comment nous pensons nous-mêmes. » Alan Turing
Loi d’Amara : de la mauvaise saisie de la temporalité
Loi d'Amdahl : gain de performance
Loi d'Asimov : les 3 lois de la robotique
Loi de Bell : classes d’ordinateur
Loi de Bezos : la longue traîne
Loi de Brooks : retard sur projet logiciel
Loi de Clarke : les 3 conditions possibles de l’innovation
Loi de Cole : conservation de l’intelligence
Loi de Conway : comment l'éviter et faciliter ainsi l’agilité avec l’approche Micro-Services ?
Loi de Fitts : la durée du mouvement
Loi de Freedman : facilité de programmation
Loi de Gabor : technologie et progrès
Loi de Gates : inertie logicielle
Loi de Gilder : dépassement de bande
Loi de Godwin : débat et discrédit
Lois de Kranzberg : la technologie
Loi de Krug : ne me faites pas réfléchir !
Hiérarchie de Maslow : Web 2.0, un web plus motivant
Loi de Mayfield : participation
Loi de Metcalfe : réseau, web social
Loi de Milgram : profondeur des relations
Loi de Moore : doublement programmé
Loi de Murphy : quand ça va mal…
Loi de Nielsen : vitesse de connexion
Loi de Parkinson : du travail comme un gaz parfait
Loi de Reed : réseau, web social
Loi des rétroactions positives (Wiener)
Loi de Roberts : rapport Performance / Prix
Loi de Shannon : notion d’entropie
Loi de Wirth : vitesse relative du progrès
Hiérarchie de Maslow : Web 2.0, un web plus motivant
La théorie de la hiérarchisation des besoins de Maslow permet d’expliquer la motivation par une pyramide des besoins constituée de cinq niveaux.
Par ordre de satisfaction des besoins, il y a d’abord trois niveaux inférieurs :
- besoins physiologiques,
- besoins de sécurité,
- besoins sociaux
et deux niveaux supérieurs :
- besoins d’estime,
- besoins de réalisation de soi.
Très utilisée en marketing (approche du positionnement des produits ou services), elle est aussi pertinente lorsqu’il s’agit d’analyser des pratiques et des usages. En segmentant la question initiale en cinq approches thématiques précises, il est plus facile d’analyser la motivation.
Si nous appliquons cette théorie aux différences entre le Web 1.0 et le Web 2.0, il me semble que c’est ce dernier qui ressort gagnant, en d’autres termes, qui est le plus motivant. Le Web 2.0 satisfait spécifiquement 3 besoins sur 5, ceux de niveaux supérieurs.
Besoins physiologiques
Le web ne répond pas à priori à ces besoins 😉
Besoins de sécurité
Le web est un lieu où l’on se sent en sécurité. On se déplace partout dans le vaste monde virtuel sans sortir de chez soi !
Besoins sociaux
Le Web 2.0 a cet avantage sur le Web 1.0 d’offrir beaucoup plus de possibilités de sociabilité. Il favorise la création et l’appartenance à des communautés, les services d’échanges entre internautes… Il permet à chacun de pouvoir participer aux forums, de donner son avis sur un article… (Cf la loi de Metcalfe et son corollaire.)
Besoins d’estime
Plus que le Web 1.0, le Web 2.0 permet à l’internaute de sortir de l’anonymat, de faire valoir ses réalisations. La course à l’audience sur le Web… vous savez le compteur en bas de page et tous ses avatars qui permettent de vérifier qu’on est lu et reconnu sur la toile. Le référencement « à la papa » est en train d’évoluer à tel point que cela inquiète même les institutionnels qui observent que de nouveaux pouvoirs émergent. Il se crée de nouveaux réseaux qui peuvent devenir vite très efficaces… vous pouvez aller par exemple du côté des buzzes pour vous en convaincre. Ce besoin d’estime est décidément très Web 2.0.
Besoins de réalisation de soi
Avec le Web 2.0 l’internaute peut publier son blog, son wiki. Il peut aussi participer à de grands projets (encyclopédies, développements…). Avec le Web 1.0, l’internaute n’était souvent qu’un spectateur, un consommateur.
Qui est Maslow ?
Abraham Maslow (1908-1970) est un psychologue américain d’origine russe. Il est essentiellement connu pour ses travaux sur les motivations de l’homme.
Version originale du 28/12/2006 par Gabriel KEPEKLIAN
Loi de Nacchio : gateway IP
Le nombre de ports et le prix par port d’une gateway IP respectent la loi de Moore.
Cela signifie plus clairement que tous les 18 mois, pour le même prix, on a deux fois plus de ports dans les gateways IP. Cette loi intéresse beaucoup le secteur des télécommunications. En effet, la diminution du prix des gateways IP est essentielle pour permettre à la voix sur IP de devenir toujours plus banale.
Qui est Nacchio ?
Joseph Nacchio a été le président de la société Qwest Communications International Inc. Il avait commencé chez AT&T.
Version originale du 16/01/2007 par Gabriel KEPEKLIAN
Loi de Nielsen : vitesse de connexion
Nielsen a donné son nom à la loi Nielsen, dans laquelle il postule que la vitesse de connexion au réseau pour l’utilisateur final augmente de 50 % par an, soit le double tous les 21 mois. Il rapproche cette loi de celle de Moore sur la croissance dans la puissance des processeurs et observe que le taux de croissance de sa loi est plus lent que la loi de Moore.
Nielsen est aussi connu pour avoir également défini cinq composantes de la qualité de l’expérience utilisateur :
- l’apprenabilité, l’efficacité, la mémorabilité, le faible taux d’erreur, la satisfaction.
Qui est Nielsen ?
Jakob Nielsen (né en 1957 à Copenhague au Danemark) a obtenu un doctorat en interaction homme-machine à l’Université technique de Copenhague. Il est un consultant en ergonomie et est reconnu comme un expert en usage Internet (Web Usability, si l’anglais vous manque) que l’on appelle aussi l’expérience utilisateur (User eXperience, ou UX, pour mes amis anglophones).
Version originale du 15/08/2010 par Gabriel KEPEKLIAN
Loi de Pareto : 80 / 20
Au début, ce sont des observations, beaucoup d’observations faites sur des données fiscales, qui conduisent Pareto à formuler empiriquement qu’environ 80 % des effets sont le produit de 20 % des causes. Plus tard, cela sera formalisé en mathématiques sous le nom de distribution de Pareto.
Ce ratio de 80 / 20 dépasse largement le cadre dans lequel il a été observé puis formulé. Il s’applique aussi parfaitement au monde des projets. Nous savons bien que pour développer 80 % des besoins exprimés, 20 % d’effort peuvent suffire… Et si l’on réclame les 20 % de fonctionnalités manquantes, il faudra consentir 80 % d’effort, c’est à dire 4 fois plus.
L’entêtement à vouloir atteindre 100 % est dévastateur ! Surtout, quand on sait que les utilisateurs n’utilisent qu’entre 10 à 20 % des systèmes qu’on leur destine (pour vérifier cette dernière assertion, répondez simplement à cette question : quelle part de Word utilisez-vous ?)
Qui était Pareto ?
Vilfredo Pareto était un économiste et sociologue italien (né à Paris en 1848 et mort en 1923 en Suisse).
Version originale du 13/08/2010 par Gabriel KEPEKLIAN
Loi de Parkinson : du travail comme un gaz parfait
Dans un article paru dans The Economist en novembre 1955, Parkinson explique que le travail augmente de manière à combler le temps disponible pour son achèvement. Pour établir et prouver cette assertion, le professeur d’histoire de l’Université de Singapour a analysé des bureaucraties. Pour lui, toute augmentation de l’efficacité d’un employé est tout simplement consommée par l’augmentation de la complexité bureaucratique qui en découle. La loi peut s’énoncer comme ceci :
- Le travail s’étale pour occuper le temps disponible à son achèvement.
La validité de cette loi repose essentiellement sur des preuves statistiques. Voici les deux facteurs qui sous-tendent la tendance générale à laquelle cette loi aboutit :
- Facteur I. Tout employé préfère multiplier ses subordonnés, et non ses rivaux,
- Facteur II. Les employés se créent mutuellement du travail.
Pour aller plus loin, on peut lire aussi ceci.
Qui est Cyril Northcote Parkinson ?
Cyril Northcote Parkinson est né le 30 juillet 1909. Il a fait carrière dans l’armée et est avant tout connu comme historien de la marine britannique et auteur de quelque soixante livres, dont le plus célèbre est « Parkinson’s Law ». Il est mort le 9 mars 1993.
Version originale du 23/11/2009 par Gabriel KEPEKLIAN
Loi de puissance (Lanchester)
La loi de puissance est une relation mathématique entre une quantité qui décroit lentement tandis que l’autre augmente. Cette loi a plusieurs avatars, dont quelques-uns sont bien connus dans le vaste monde de l’Internet. A commencer par celui qui a été rendu célèbre par Jeff Bezos, le créateur d’Amazon, sous le nom de la longue traine (long tail, si l’anglais vous manque). Un autre avatar fameux est la loi de Pareto, que vous connaissez certainement encore mieux sous son sobriquet de loi des 80 / 20.
Le nom de cette loi s’explique mathématiquement. En effet, elle peut s’écrire de la façon suivante :
log(y) = k.log(x)+log(a)
ou encore
y = a.(x puissance k)
Version originale du 14/08/2010 par Gabriel KEPEKLIAN
Loi de Reed : réseau, web social
La loi de Reed affirme que la loi de Metcalfe minimise la valeur des connexions ajoutées. Non seulement un membre est relié au réseau entier comme à un tout, mais également à beaucoup de sous-ensembles significatifs du tout.
Ces sous-ensembles ajoutent de la valeur à l’individu comme au réseau lui-même. En incluant des sous-ensembles dans le calcul de la valeur du réseau, la valeur augmente plus rapidement qu’en se cantonnant à ne prendre en compte que les nœuds.
Cette loi est particulièrement adaptée aux réseaux où individus, communautés et groupes plus ou moins formels sont considérés. Elle permet de rendre compte du Web 2.0 et plus particulièrement dans sa dynamique sociale.
Qui est Reed ?
Après des études au MIT, David Reed reçoit le grade de docteur en sciences de l’informatique. Ses travaux de recherche sont nombreux : il a collaboré avec Lotus, IBM, Software Arts (création de Visicalc, le premier tableur sur PC). Il a aussi participé à la normalisation de TCP/IP dans les années 70.
Version originale du 20/12/2006 par Gabriel KEPEKLIAN
Loi de Roberts : rapport Performance / Prix
Le rapport performance / prix des systèmes double pour une technologie donnée à intervalle de temps constant.
Les valeurs de cette durée de référence, caractéristique de la technologie, sont les suivantes :
- pour la technologie des relais mécaniques, elle est de 26 trimestres,
- pour la technologie de l’électronique discrète (tube, transistor), elle est de 9 trimestres
- et pour la technologie actuelle (microprocesseur), elle est de 4 trimestres.
Ce qui est dénommé performance dans cette loi est de la forme :
- (nombre d’opérations par seconde) * (nombre de bits par opération).
Qui est Roberts ?
Larry Roberts, né en 1937, a travaillé sur le premier IMP (Interface Message Processor). L’UCLA est livrée en août 1969 et un mois plus tard le SRI. C’est avec la connexion de ces deux premiers équipements que naît concrètement Arpanet.
Cet ingénieur a été le directeur et le principal architecte du réseau expérimental de l’Arpa. C’est pour cela qu’il est surnommé le père de l’Arpanet. Il conçut et écrit les spécifications du réseau et supervisé tous les travaux de 1966 à 1973. A cette date, il écrit le tout premier logiciel de messagerie électronique.
Version originale du 22/12/2006 par Gabriel KEPEKLIAN