Codex Informatica
Moore, Murphy, Pareto, Maslow, Asimov… pionniers, voire visionnaires : les lois qui portent leurs noms s’appliquent-elles encore à l’informatique ?
Codex Informatica : les lois qui s'appliquent à l'informatique
Après avoir publié de nombreux articles consacrés à différentes lois qui s'appliquent à l'informatique, Gabriel KEPEKLIAN a constitué, entre 2006 et 2013, une liste de 31 lois classées par noms de leurs auteurs : le Codex Informatica. Il s'agit sans doute de la liste francophone la plus complète.
Extrait d'un tableau de René Réno
Il faut prendre le terme informatique au sens large. Plusieurs lois s'appliquent notamment aux projets informatiques, mais également aux projets tout court, dans d'autres secteurs d'activité. Par exemple, qui n'a pas expérimenté la fameuse loi de Murphy en dehors du secteur informatique ?
Ces lois-là n'ont rien d'obligatoire. Mais on constate a posteriori et de façon empirique qu'elles se sont appliquées naturellement, souvent au détriment du bon avancement d'un projet (délai et coût dépassés, qualité médiocre). Connaitre ces lois permet parfois d'anticiper, en atténuant leurs conséquences souvent néfastes notamment.
Utilisateurs réguliers de ce Codex Informatica, nous souhaitions y ajouter d'autres lois qui n'y figurent pas encore (notamment à la suite de l'avènement de l'Architecture Micro-Services). Avec l'autorisation de son auteur, voici donc ce Codex Informatica, qui sera enrichi au fil des mois à venir. Nous n'avons pas la prétention d'obtenir une liste exhaustive, mais si vous connaissez d'autres lois qui s'appliquent à l'informatique, n'hésitez surtout pas à poster un commentaire, afin de nous inciter à les ajouter à ce florilège.
|
Thierry BIARD |
« Les tentatives de création de machines pensantes nous seront d'une grande aide pour découvrir comment nous pensons nous-mêmes. » Alan Turing
Loi d’Amara : de la mauvaise saisie de la temporalité
Loi d'Amdahl : gain de performance
Loi d'Asimov : les 3 lois de la robotique
Loi de Bell : classes d’ordinateur
Loi de Bezos : la longue traîne
Loi de Brooks : retard sur projet logiciel
Loi de Clarke : les 3 conditions possibles de l’innovation
Loi de Cole : conservation de l’intelligence
Loi de Conway : comment l'éviter et faciliter ainsi l’agilité avec l’approche Micro-Services ?
Loi de Fitts : la durée du mouvement
Loi de Freedman : facilité de programmation
Loi de Gates : inertie logicielle
Loi de Gilder : dépassement de bande
Loi de Godwin : débat et discrédit
Lois de Kranzberg : la technologie
Loi de Krug : ne me faites pas réfléchir !
Hiérarchie de Maslow : Web 2.0, un web plus motivant
Loi de Mayfield : participation
Loi de Metcalfe : réseau, web social
Loi de Milgram : profondeur des relations
Loi de Moore : doublement programmé
Loi de Murphy : quand ça va mal…
Loi de Nielsen : vitesse de connexion
Loi de Parkinson : du travail comme un gaz parfait
Loi de Reed : réseau, web social
Loi des rétroactions positives (Wiener)
Loi de Roberts : rapport Performance / Prix
Loi de Shannon : notion d’entropie
Loi de Wirth : vitesse relative du progrès
Loi de Parkinson : du travail comme un gaz parfait
Dans un article paru dans The Economist en novembre 1955, Parkinson explique que le travail augmente de manière à combler le temps disponible pour son achèvement. Pour établir et prouver cette assertion, le professeur d’histoire de l’Université de Singapour a analysé des bureaucraties. Pour lui, toute augmentation de l’efficacité d’un employé est tout simplement consommée par l’augmentation de la complexité bureaucratique qui en découle. La loi peut s’énoncer comme ceci :
- Le travail s’étale pour occuper le temps disponible à son achèvement.
La validité de cette loi repose essentiellement sur des preuves statistiques. Voici les deux facteurs qui sous-tendent la tendance générale à laquelle cette loi aboutit :
- Facteur I. Tout employé préfère multiplier ses subordonnés, et non ses rivaux,
- Facteur II. Les employés se créent mutuellement du travail.
Pour aller plus loin, on peut lire aussi ceci.
Qui est Cyril Northcote Parkinson ?
Cyril Northcote Parkinson est né le 30 juillet 1909. Il a fait carrière dans l’armée et est avant tout connu comme historien de la marine britannique et auteur de quelque soixante livres, dont le plus célèbre est « Parkinson’s Law ». Il est mort le 9 mars 1993.
Version originale du 23/11/2009 par Gabriel KEPEKLIAN
Loi de Pareto : 80 / 20
Au début, ce sont des observations, beaucoup d’observations faites sur des données fiscales, qui conduisent Pareto à formuler empiriquement qu’environ 80 % des effets sont le produit de 20 % des causes. Plus tard, cela sera formalisé en mathématiques sous le nom de distribution de Pareto.
Ce ratio de 80 / 20 dépasse largement le cadre dans lequel il a été observé puis formulé. Il s’applique aussi parfaitement au monde des projets. Nous savons bien que pour développer 80 % des besoins exprimés, 20 % d’effort peuvent suffire… Et si l’on réclame les 20 % de fonctionnalités manquantes, il faudra consentir 80 % d’effort, c’est à dire 4 fois plus.
L’entêtement à vouloir atteindre 100 % est dévastateur ! Surtout, quand on sait que les utilisateurs n’utilisent qu’entre 10 à 20 % des systèmes qu’on leur destine (pour vérifier cette dernière assertion, répondez simplement à cette question : quelle part de Word utilisez-vous ?)
Qui était Pareto ?
Vilfredo Pareto était un économiste et sociologue italien (né à Paris en 1848 et mort en 1923 en Suisse).
Version originale du 13/08/2010 par Gabriel KEPEKLIAN
Loi de Nielsen : vitesse de connexion
Nielsen a donné son nom à la loi Nielsen, dans laquelle il postule que la vitesse de connexion au réseau pour l’utilisateur final augmente de 50 % par an, soit le double tous les 21 mois. Il rapproche cette loi de celle de Moore sur la croissance dans la puissance des processeurs et observe que le taux de croissance de sa loi est plus lent que la loi de Moore.
Nielsen est aussi connu pour avoir également défini cinq composantes de la qualité de l’expérience utilisateur :
- l’apprenabilité, l’efficacité, la mémorabilité, le faible taux d’erreur, la satisfaction.
Qui est Nielsen ?
Jakob Nielsen (né en 1957 à Copenhague au Danemark) a obtenu un doctorat en interaction homme-machine à l’Université technique de Copenhague. Il est un consultant en ergonomie et est reconnu comme un expert en usage Internet (Web Usability, si l’anglais vous manque) que l’on appelle aussi l’expérience utilisateur (User eXperience, ou UX, pour mes amis anglophones).
Version originale du 15/08/2010 par Gabriel KEPEKLIAN
Loi de Nacchio : gateway IP
Le nombre de ports et le prix par port d’une gateway IP respectent la loi de Moore.
Cela signifie plus clairement que tous les 18 mois, pour le même prix, on a deux fois plus de ports dans les gateways IP. Cette loi intéresse beaucoup le secteur des télécommunications. En effet, la diminution du prix des gateways IP est essentielle pour permettre à la voix sur IP de devenir toujours plus banale.
Qui est Nacchio ?
Joseph Nacchio a été le président de la société Qwest Communications International Inc. Il avait commencé chez AT&T.
Version originale du 16/01/2007 par Gabriel KEPEKLIAN
Loi de Murphy : quand ça va mal…
“If anything can go wrong, it will”
Ou " Quand quelque chose peut mal tourner, c’est ce qui arrive ".
Formulée en 1949 sur la base aérienne d’Edwards en Californie, cette loi s’applique dans tous les domaines de l’activité humaine. Pour ce qui est de l’informatique, elle est particulièrement utile à rendre compte des misères qui nous affligent…
Voici quelques déclinaisons de cette célèbre loi :
- Quand un projet est enfin recetté et livré, il est obsolète.
- Le coût d’un système augmente chaque fois qu’on l’utilise.
- Quand un système devient utile, il doit être changé.
- Quand un programme est inutile, il doit être documenté.
- La complexité d’un système augmente toujours jusqu’à ce qu’elle excède les possibilités de ceux qui doivent les maintenir.
L’optimisme actuel qui souffle sur le Web 2.0 semble conjurer le mauvais sort. Le Web 2.0 ne serait pas murphyste… à voir !
Qui est Murphy ?
Edward A. Murphy Jr. était capitaine dans l’US Air Force.
Version originale du 23/08/2007 par Gabriel KEPEKLIAN
Loi de puissance (Lanchester)
La loi de puissance est une relation mathématique entre une quantité qui décroit lentement tandis que l’autre augmente. Cette loi a plusieurs avatars, dont quelques-uns sont bien connus dans le vaste monde de l’Internet. A commencer par celui qui a été rendu célèbre par Jeff Bezos, le créateur d’Amazon, sous le nom de la longue traine (long tail, si l’anglais vous manque). Un autre avatar fameux est la loi de Pareto, que vous connaissez certainement encore mieux sous son sobriquet de loi des 80 / 20.
Le nom de cette loi s’explique mathématiquement. En effet, elle peut s’écrire de la façon suivante :
log(y) = k.log(x)+log(a)
ou encore
y = a.(x puissance k)
Version originale du 14/08/2010 par Gabriel KEPEKLIAN
Loi de Reed : réseau, web social
La loi de Reed affirme que la loi de Metcalfe minimise la valeur des connexions ajoutées. Non seulement un membre est relié au réseau entier comme à un tout, mais également à beaucoup de sous-ensembles significatifs du tout.
Ces sous-ensembles ajoutent de la valeur à l’individu comme au réseau lui-même. En incluant des sous-ensembles dans le calcul de la valeur du réseau, la valeur augmente plus rapidement qu’en se cantonnant à ne prendre en compte que les nœuds.
Cette loi est particulièrement adaptée aux réseaux où individus, communautés et groupes plus ou moins formels sont considérés. Elle permet de rendre compte du Web 2.0 et plus particulièrement dans sa dynamique sociale.
Qui est Reed ?
Après des études au MIT, David Reed reçoit le grade de docteur en sciences de l’informatique. Ses travaux de recherche sont nombreux : il a collaboré avec Lotus, IBM, Software Arts (création de Visicalc, le premier tableur sur PC). Il a aussi participé à la normalisation de TCP/IP dans les années 70.
Version originale du 20/12/2006 par Gabriel KEPEKLIAN
Loi de Roberts : rapport Performance / Prix
Le rapport performance / prix des systèmes double pour une technologie donnée à intervalle de temps constant.
Les valeurs de cette durée de référence, caractéristique de la technologie, sont les suivantes :
- pour la technologie des relais mécaniques, elle est de 26 trimestres,
- pour la technologie de l’électronique discrète (tube, transistor), elle est de 9 trimestres
- et pour la technologie actuelle (microprocesseur), elle est de 4 trimestres.
Ce qui est dénommé performance dans cette loi est de la forme :
- (nombre d’opérations par seconde) * (nombre de bits par opération).
Qui est Roberts ?
Larry Roberts, né en 1937, a travaillé sur le premier IMP (Interface Message Processor). L’UCLA est livrée en août 1969 et un mois plus tard le SRI. C’est avec la connexion de ces deux premiers équipements que naît concrètement Arpanet.
Cet ingénieur a été le directeur et le principal architecte du réseau expérimental de l’Arpa. C’est pour cela qu’il est surnommé le père de l’Arpanet. Il conçut et écrit les spécifications du réseau et supervisé tous les travaux de 1966 à 1973. A cette date, il écrit le tout premier logiciel de messagerie électronique.
Version originale du 22/12/2006 par Gabriel KEPEKLIAN
Loi de Shannon : notion d’entropie
Shannon, cet esprit très « touche à tout » s’est intéressé à des sujets aussi différents et variés que les mathématiques, la jonglerie, l’invention de machines bizarres… Parmi les résultats de ses nombreux travaux, on peut remarquer ceux qui ont porté sur la notion d’entropie.
Un petit rappel pour ceux qui auraient raté le cours sur l’entropie. L’entropie est une grandeur physique abstraite d’abord découverte en thermodynamique statistique. Elle correspond au degré de désordre d’un système à l’échelle microscopique. Moins l’entropie du système est élevée, plus ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et moins grande est la part de l’énergie inutilisée ou utilisée de façon incohérente.
Dit plus simplement, moins on s’agite, plus on travaille efficacement. Cette loi est d’une portée universelle !
Shannon a généralisé la notion d’entropie au domaine de la théorie de l’information. Cette découverte a ouvert la voie aux méthodes appelées d’entropie maximale (qui consistent à substituer une loi de probabilité à une loi qu’on ne connait qu’imparfaitement) dont des applications connues sont le scanner médical et la reconnaissance automatique de caractères.
Qui est Shannon ?
Claude Elwood Shannon est né en 1916 à Gaylord dans le Michigan. Il fut ingénieur en électricité et mathématicien. Ce scientifique américain est considéré comme le père de la théorie de l’information. Il est mort en 2001.
Version originale du 17/10/2007 par Gabriel KEPEKLIAN