> retour au sommaire des ressources documentaires <


LOIS ET PRINCIPES RÉGISSANT LA VIE DES ENTREPRISES




Pierre CÉLIER, Professeur de l'ENSET de Mohammedia
Document mis en ligne le 21/12/2003





De nombreux auteurs ont formulé un certain nombre de "lois" et "principes" qui, selon eux, régissent la vie des entreprises et de l'économie ... En voici quelques unes, parmi les plus connues et/ou les plus savoureuses :
ORGANISATION :
ÉCONOMIE / GESTION :
N.T.I.C. :
- Loi de Murphy J
- Loi de Parkinson J
- Loi de l'Insignifiance J
- Principe de Peter J
- Variante de Dilbert  J
- Loi d'Illitch (DRH)
- Loi de l'avantage absolu (A. Smith)
- Loi des avantages relatifs (D. Ricardo)
- Loi de Peckham (Communication)
- Loi de Morgenztern (Communication)
- Loi de Gauss (loi Normale)
- Loi de Pareto (ou loi ABC)
- Loi de Moore
- Paradoxe de Solow
- Loi de Metcalfe
        


  
LOI DE MURHY : "La tartine tombe toujours sur son côté beurré"
Edouard A. Murphy, ingénieur à l'US Air Force, supervisait, en 1949, une expérience nécessitant l'utilisation de seize capteurs accrochés en divers endroits du corps d'un soldat-cobaye. Il y avait deux façons d'accrocher les capteurs. Une bonne et une mauvaise. Un de ses subordonnées réussit à installer simultanément les seize capteurs dans la mauvaise position... Ceci l'amena à formuler cette loi qui allait lui valoir une gloire internationale : s''il existe plusieurs manières de faire quelque chose et que l'une d'elles est susceptible d'engendrer une catastrophe, on peut être certain qu'il se trouvera quelqu'un pour la choisir !
La loi de Murphy ou "loi de l'emmerdement maximal" est, sans aucun doute, une des plus grande découverte du xxe siècle dans le champ des sciences humaines... On peut la vérifier quotidiennement que l'on soit automobiliste (la file d'à côté avance toujours plus vite), voyageur (l'hôtesse sert toujours le café juste avant que l'avion n'entre dans une zone de turbulences), communicant (ce qui est susceptible d'être compris de travers est toujours compris de travers), etc.
Cette loi connaît de multiples variantes : "Toute catastrophe qui peut se produire se produira" - "Si un malheur est impossible, il se produira quand même" - "S'il y a une possibilité que plusieurs désastres se produisent, celui qui causera le plus d'ennuis sera le premier à arriver" - "Si vous devinez qu'il y a n manières possibles pour que quelque chose déraille et les prévenez, alors une (n+1)ième manière, totalement imprévue, apparaîtra rapidement" - "Si tout semble bien marcher, vous avez forcément négligé quelque chose", etc. (cf. site dédié à la loi de Murphy)


  
LES LOIS DE PARKINSON : "Tout travail tend à se dilater pour remplir tout le temps disponible"
C. Northcote Parkinson, professeur de science politique, est l'auteur d'un ouvrage "Parkinson's law" paru en 1958 où il décrit de manière humouristique les défauts de fonctionnement des grandes organisations.
Sa loi la plus connue ("Work expands to fill the time available for its completion") traduit le fait qu'un individu tend généralement à utiliser tout le délai dont il dispose pour effectuer un travail, quelque soit la durée de ce délai
Ainsi, un manager qui dispose d'une semaine et de dix subordonnés pour réaliser une tâche, sachant que cinq personnes pourraient s'acquitter de celle-ci en une semaine, aura tendance à rajouter ce qu'il faut de complications, de réunions, de consultations diverses pour que la réalisation de celle-ci dure finalement une semaine, malgré l'effectif disponible.
Un des corollaires de cette loi (basé sur les axiomes suivants : "tout responsable souhaite multiplier ses subordonnés, non ses rivaux"  - "les responsables se donnent mutuellement du travail") est que plusieurs personnes seront progressivement amenées à accomplir le travail d'une seule, tout en étant de plus en plus sur-chargées par les tâches diverses (compte-rendus, rapports, réunions, etc.).
Dans l'entreprise, cette loi se manifeste notamment par le fait qu'ajouter des ressources supplémentaires (intérimaires, consultants extérieurs, matériel) pour accélérer un projet, aboutit à l'effet inverse et le retarde plus encore.  
C.N. Parkinson est également l'auteur d'autres lois moins connues (cf. page consacrée à la loi de Parkinson) dont, notamment, celle dite "de l'insignifiance : Le temps passé sur une question est en proportion inverse à son importance" selon laquelle, lors d'une réunion, les individus ont tendance à passer plus de temps sur des questions mineures (plus faciles à maîtriser, sur lesquelles chacun à son mot à dire) que sur les questions majeures (plus techniques et requérant un travail préalable d'approfondissement et d'analyse).


  
LE PRINCIPE DE PETER : "Dans une hiérarchie, chaque employé tend à s'élever jusqu'à son niveau d'incompétence"
Laurence J. Peter, psychologue et professeur d'éducation à l'Université de Californie du Sud a publé en 1969 un ouvrage "The Peter principle" (qui aurait été, en fait, rédigé par R. Hull, auteur de pièces pour la télévision et le théatre).
Son principe est fondé sur le fait que, dans une organisation quelconque, si quelqu'un fait bien son travail, on lui confie une tâche plus complexe. S'il s'en acquitte correctement, on lui accordera une nouvelle promotion... Et ainsi de suite, jusqu'au jour où il atteindra un poste au-dessus de ses capacités, où il restera indéfiniment.
Parmi les nombreux corollaires du principe de Peter (cf. site dédié au principe de Peter ) on peut notamment relever les suivants :
- dans une organisation, le travail est réalisé par ceux qui n'ont pas encore atteint leur niveau d'incompétence ;
- la supercompétence aboutit souvent au renvoi parce qu'elle bouleverse le principe hiérarchique ;
- un salarié qualifié et efficace consent rarement à demeurer longtemps à son niveau de compétence, il va tout faire pour se hisser jusqu'au niveau où il sera incompétent !


  
VARIANTE DE DILBERT : "Les entreprises affectent les incompétents là où ils feront le moins de dégâts : aux postes de direction"
Dilbert, est l'anti-héros d'une bande dessinée célébre où son auteur, Scott Adams, expose sa vision sarcastique du fonctionnement des entreprises.
Selon lui, la meilleure parade qu'ont trouvé les entreprises au principe de Peter (cf. supra) est de nommer les incompétents aux postes de direction, pour les empêcher de faire trop de dégâts sur le terrain. Dans le monde de Dilbert, les "chefs" ne travaillent donc pas, ils font semblant.
Pour les occuper à cette fonction pour laquelle ils ne sont pas compétents, Dilbert propose différentes solutions : rebaptiser son service, redistribuer les bureaux, animer des groupes de travail, réaliser de belles présentations avec des camemberts, etc. Le fin du fin étant évidemment qu'ils réussissent à faire faire leur propre travail par leurs collaborateurs, en s'arrangeant pour que ce soit à leur demande !
Une des nombreuse conséquences de cette situation est que, plus une entreprise grandit, plus elle engagera des médiocres aux postes de direction. En effet, les cadres arrivés au sommet, selon le principe de médiocrité ascensionnelle, préféreront promouvoir des personnes aussi incompétentes qu'eux, afin qu'elles ne leur fassent pas d'ombre.


  
LA LOI D'ILLICH : "Au-delà d'un certain seuil, l'efficacité humaine décroît, voire devient négative"
Ivan Illich est surtout connu pour ses travaux en matière d'éducation. Au cours de ses recherches, il a remarqué que la "loi des rendements décroissants", développée par Turgot et les économistes classiques (dans la zone dite des rendements décroissants, on ne double pas nécessairement la quantité de blé produite en doublant la quantité de travail agricole - plus on approche d'une certaine limite, plus il faut ajouter de travail pour obtenir toujours moins de blé supplémentaire), peut également s'appliquer à l'activité humaine... Au-delà d'un certain seuil, l'efficacité de l'être humain finit par devenir négative.
Stakhanov et ses adeptes ont montré que, plus on subit de pression, plus on est performant et que certaines personnes ne travaillent jamais aussi bien que sous stress. Mais, selon la loi d'Illich, cela ne serait vrai que jusqu'à un certain point, au-delà, toute dose de stress supplémentaire s'avère contre-productive.


  
LA LOI DE L'AVANTAGE ABSOLU (A. SMITH) : "Si un pays étranger peut nous fournir une marchandise à meilleur marché que nous ne sommes en état de le faire nous mêmes, il vaut mieux que nous la lui achetions avec quelque partie du produit de notre propre industrie, employée dans le genre dans lequel nous avons quelque avantage"
L'économiste écossais Adam Smith (1723-1790) est l'auteur de "Recherches sur la nature et les causes de la richesse des nations" (1776).
Sa doctrine du libre échange prolonge, au niveau des échanges internationaux, sa théorie de la "main invisible" établie à l'échelle des relations entre les individus. Sa "loi de l'avantage absolu" cherche à expliquer pourquoi les pays ont intérêts à se spécialiser dans les produits pour lesquels ils ont des conditions de production meilleures que les autres pays.
Si, par exemple, nous avons :
France
États-Unis
- Nb produits X fabriqués en 1 heure de travail :
10
8
- Nb produits Y fabriqués en 1 heure de travail :
1
2

... Alors la France aurait intérêt à se spécialiser dans la production du produit  X et les États-Unis dans celle du produit Y, la production conjointe des deux pays dans la production où ils détiennent respectivement un avantage absolu étant alors maximum et l'échange permettant de satisfaire les besoins de chacun.
Sans entrer dans le détail des nombreuses controverses qu'a pu susciter cette théorie (problème de l'indépendance stratégique des pays, de la fixation des rapports d'échange, de la protection des indusctries naissantes, etc.) on voit que cette loi ne peut expliquer qu'une partie du commerce international puisqu'elle laisse de côté les pays qui auraient une productivité inférieure à celle des autres pour l'ensemble des produits (cf. "loi des avantages comparatifs" de D. Ricardo).


  
LA LOI DES AVANTAGES RELATIFS ou COMPARATIFS (D. RICARDO) : "Deux hommes peuvent fabriquer l'un et l'autre des chaussures et des chapeaux et l'un être meilleur que l'autre dans ces deux activités ; mais dans la fabrication des chapeaux il ne peut dépasser son concurrent que d'un cinquième ou 20 %, tandis que dans la fabrication des chaussures il peut le surpasser d'un tiers ou 33 % - Ne sera-t-il pas de l'intérêt des deux que le meilleur s'emploie exclusivement à la fabrication des chaussures et le moins bon à la fabrication des chapeaux ?"
L'économiste anglais David Ricardo (1772-1823) est notamment l'auteur "Des principes de l'économie politique et de l'impôt" (1817).
Dans cet ouvrage, il montre que le critère de la spécialisation des pays dans les échanges internationaux ne doit pas être celui de l'avantage absolu, mais celui de l'avantage relatif qu'un pays peut avoir sur ses concurrents dans la production d'une marchandise.
Si, par exemple, nous avons :
France
États-Unis
- Nombre de produits X fabriqués en 1 heure de travail :
1
4
- Nombre de produits Y fabriqués en 1 heure de travail :
1
2

... Alors les États-Unis détiennent un avantage absolu à la fois sur les produits X et Y, mais leur avantage relatif étant plus élevé pour le produit X (productivité 4 fois supérieure à la France) ils auraient intérêt à s'y spécialiser car, dans la mesure où le rapport d'échange international s'établit entre les deux rapports nationaux (1/1 < r < 4/2), chaque pays y trouvera avantage.
En effet, en cas d'économie autarcique la France échangerait 1 X contre 1 Y et les États-Unis 4 X contre 2 Y. Au contraire, en se spécialisant respectivement dans la production de Y et X et en supposant que le rapport d'échange s'équilibre à r = 1,5 : la France obtiendra 3 X contre 2 Y (gain d'une unité de X par échange, soit 1 heure de travail) et les États-Unis 2 Y contre 3 X (gain d'une unité de X par échange, soit 1/4 d'heure de travail).
Le rapport d'échange retenu ici (r = 1,5) est arbitraire, mais il est facile de vérifier que le commerce entre ces deux pays reste mutuellement avantageux dès lors que les termes de l'échange s'établissent à l'intérieur de la fourchette des coûts relatifs propres à chaque pays (r = 1/1 = 1 pour la France et r = 4/2 = 2 pour les États-Unis). John Stuart Mill (1806-1873, "Principes d'économie politique", 1848) complétera d'ailleurs cette analyse en montrant qu'à l'intérieur de cette fourchette, les termes de l'échange se déterminent en fonction des comportement de demande propres à chaque pays pour les deux marchandises.
Cette loi a fait l'objet de nombreuses controverses dans la mesure où elle ne prend pas en compte de multiples facteurs (niveau d'intégration des économies considérées, degré d'interdépendance intersectoriels, risque de dépendance stratégique des pays, possibilité de reconversion, etc.) susceptibles d'en réduire fortement la portée.
La loi de Ricardo étant basée sur la théorie de la valeur-travail (avantages comparatifs exprimés à partir des dépenses de travail nécessaires à la production des différents biens dans chaque pays), les économistes suédois Eli Hecksher et Bertil Ohlin (1899-1979) l'ont reformulé au XX° siècle, dans des termes plus conformes à l'analyse néo-classique (la production résultant, dans ce cadre, d'une combinaison de divers facteurs), en essayant de montrer que la spécialisation internationale tendait à égaliser les rémunérations relatives des facteurs d'un pays à l'autre.
Bien que la théorie d'Hecksher-Ohlin ait fait l'objet de diverses critiques (hypothèse très discutable d'absence de mobilité internationale des facteurs, difficultés de vérifications empiriques, etc.) elle reste à la base de l'approche néo-classique du commerce international.


  
LA LOI DE PECKHAM : "Pour atteindre une part de marché de X%, il faut réaliser une part de voix de (1,5 . X%) pendant 24 mois et, ensuite, maintenir sa part de voix à un niveau supérieur à sa part de marché"
J.O. Peckham, ancien vice-président du panel Nielsen, est l'auteur de nombreuses études portant, notamment, sur l'élasticité des ventes à la publicité et les relations entre l'impact de la publicité et le montant du budget publicitaire (absence de relation linéaire).
La "loi de Peckham", établie de manière purement empirique, n'a pas de fondement scientifique mais s'appuie sur sa longue expérience des marchés de biens de consommation et sur l'analyse des données relevées par Nielsen. Elle doit donc être prise avec prudence, mais traduit bien l'importance que joue la présence publicitaire dans la conquête de parts de marché.
Toutefois, elle ne doit pas conduire à négliger l'importance de l'aspect qualitatif dans l'efficacité publicitaire. À budget égal, il est bien évident que deux campagnes pourront avoir des impacts très différents, y compris en terme de parts de marché, suivant le degré de pertinence de leur stratégie respective, leur niveau de créativité, la qualité de leur plan média, etc.
Par ailleurs, on peut relever que des travaux ultérieurs menés par Bon, Michel et Olivier bien que confirmant que le sur-investissement publiciaire aide un produit au début de son cycle de vie, semblent montrer qu'il n'y a pas de relation entre une politique prolongée de sur-investissement publicitaire et le développement de la part de marché.


  
LA LOI DE MORGENZTERN : "Le pourcentage de mémorisation publicitaire après n insertions  =  1 - (1 - b )n "
Armand Morgenztern a été directeur de la recherche du groupe de communication Publicis avant de travailler pour le Carat Espace (centrale d'achat d'espace publicitaire). Il est notamment connu pour ses travaux sur la l'attention et la mémorisation des messages publicitaires.
Selon lui, le souvenir d'un message publicitaire est fonction de 3 éléments : l'attention portée au message, le temps consacré à sa perception et le nombre de contacts avec le message.
Ceci l'a conduit à formulé la "loi de Morgenztern" selon laquelle :
- au 1er contact, le souvenir dépend d'un coefficient unique : le "b" (pourcentage de personnes qui, exposés pour la 1ère fois à un message nouveau, mémorisent la marque et au moins un des éléments visuels ou textuels de l'annonce. C'est donc un taux de mémorisation du message qui est évalué par test et varie suivant les médias... Mathématiquement :  b = a², avec a représentant la proportion de personnes prêtant attention au message lors du 1er contact)
- à chaque nouveau contact : une fraction constante (le b) de personnes qui n'avaient pas mémorisé le message vont augmenter le groupe de ceux qui l'avaient mémorisé.
Exple : annonce couleur presse magazine, b = 10 %
ü 1° contact : 10% d'individus l'ont mémorisé (Þ 90 % non mémorisé)
ü 2° contact : 10%  + 10% (90%) = 19 % d'individus l'ont mémorisé (Þ 81 % non mémorisé)
ü 3° contact : 19 % + 10% (81%) = 27,1% d'individus l'ont mémorisé (Þ 72,9 % non mémorisé)
ü etc... Ce qui peut se formuler, mathématiquement, de la façon suivante :
Þ   Sn  =   1 - (1 - b ) n
avec :
Sn = % personne ayant mémorisé message après n insertions
b =  coefficient de mémorisation
  ® Dans l'exemple précédent, pour 4°contact :  S4 =  1 - (1- 0,1)4  =  34,39 %   Û  27,1% + 10%(27,9%)
Notons, toutefois, qu'une approche plus précise du taux de mémorisation supposerait la prise en compte du phénomène de "dé-mémorisation" (évolution en progression géométrique décroissante), celui-ci étant lié à 2 facteurs : la durée de la période de "non-exposition" au message publicitaire et le dépassement d'un seuil maxi d'exposition.

Médias
b
moyen
Nbre contacts maxi. impact
Mémorisation à impact maxi
Seuil maxi de contacts
Pénétration mé-morielle au seuil
Affichage (4x3)
4 %
-
-
-
-
Radio (30')
5 %
4
17
14,1
43
Presse mag. (quadri)
10 %
2,6
22
9
50
TV (spot 30')
15 %
2,1 (estim.)
26 (estim.)
7,3 (estim.)
54 (estimation)
Médium théorique
40 %
1
40
3,6
71
Cinéma
70 %
1
70
2,5
85
(tableau extrait de "La médiatique" , J.M. Tarrit et E. Kubik, Chotard & associés - 1987)


  
LA LOI DE GAUSS : "La répartition d'une population "normale" peut être représentée par une courbe en cloche"
Carl Friedrich Gauss, astronome, mathématicien et physicien allemenad (1777-1855) est à l'origine de nombreuses découvertes. Parmi celles-ci on lui doit notamment, sur le plan mathématiques,  la fameuse courbe qui porte son nom et qui permet de montrer comment se répartissent les individus d'une population en fonction d'une caractéristique donnée.
Celle-ci s'appuie sur une constatation très simple : dans une population quelconque (les salariés d'une entreprise, des haricots dans un sac, etc.), si on classe les individus selon une caractéristique (leur taille, leur poids, leur QI, leur niveau de compétence, etc.), on s'aperçoit que, généralement, plus on s'approche de la moyenne sur le critère considéré, plus il y a d'individus. Au contraire, plus on s'en éloigne et moins il y en a. Aux deux extrémités, il n'y a presque personne. La représentation graphique de cette distribution donne donc une courbe en forme de cloche.


  
LA LOI DE PARETO : "20 % des clients rapportent 80 % du chiffre d'affaires"
L'économiste et sociologue italien Vilfredo Pareto (1848-1923) est notamment connu pour ces travaux sur l'inégalité de la répartition des revenus dans la société (20 % de la population concentrant 80 % des revenus).
Après lui, d'autres économistes ont vérifié que ce principe de répartition inéquitable était généralisable à de nombreux autres domaines (cf. illustration mathématique de la loi de Pareto). Ainsi que l'a exprimé Joseph Juran "dans tout groupe de choses contribuant à un effet commun, la majeure partie de l'effet est attribuable à un nombre relativement faible de ces choses". Autrement dit, il est fréquent (notamment en gestion) de constater que 20 % des éléments d'un tout représente 80 % de sa valeur. Ainsi, par exemple : 80 % du CA est réalisé par 20 % des clients, 80 % de la valeur du stock est constitué par 20 % des produits, etc.


  
LA LOI DE MOORE : "Le nombre de transistors par circuit de même taille double à prix constants tous les dix-huit mois"
Cofondateur de la société Intel, Gordon Moore avait affirmé, dès 1965, que le nombre de transistors par circuit de même taille allait doubler, à prix constants, tous les ans. Un de ses amis, le professeur Carver Mead de Cal Tech, a baptisé ce postulat "la loi de Moore". En 1975, Gordon Moore actualisa cette affirmation, en portant à dix-huit mois le rythme de ce doublement. Il en déduisit que la puissance des ordinateurs allait croître de manière exponentielle et ce pour des années.
Sa loi, fondée sur un constat empirique, a été vérifiée jusqu'à aujourd'hui (cf. rubrique consacrée à la loi de Moore).
Concrètement, cela signifie qu'un ordinateur acheté aujourd'hui est cinq fois moins cher, dix fois moins lourd, cent fois plus puissant et beaucoup plus ergonomique que celui acheté quelques années auparavant... Mais les corollaires de cette loi sont que :
- cet ordinateur est déjà obsolète le jour où on le sort de son emballage !
- la puissance de cet ordinateur permet d'y ajouter un nombre croissant de fonctionnalités, qui multiplient les probabilités de "bugs".
Notons, toutefois, qu'en 1997, G. Moore a nuancé sa loi, déclarant que la croissance des performances des puces se heurterait, aux environ de 2017, à une limite physique : celle de la taille des atomes. Sachant que, d'ici là, nos ordinateurs devraient être environ 1 500 fois plus puissants qu'aujourd'hui.
Cette analyse semble confirmée par les récentes déclarations (04/12/2003) de Paolo Gargini (Directeur de la stratégie technologique chez Intel) qui estime que la limite physique de la miniaturisation des transistors devrait être atteinte vers 2018. Le fondeur démarre actuellement la production de puces avec une de gravure de 0,09 micron (soit 90 nanomètres), contre 0,13 micron jusqu'alors. Concrètement, le Pentium E (dernier né d'Intel, en mars 2004) intègre 125 millions de transistors sur la galette de silicium servant de base à la puce, contre 55 millions pour le Pentium 4. Cette société pense passer à une finesse de gravure de16 nanomètres en 2013, puis de 5 nanomètres à l'horizon 2018. Mais cette dernière taille s'avére, en l'état actuel des connaissances technologiques, une limite difficilement franchissable. En effet, sur un transistor de 5 nanomètres, l'entrée et la sortie du transistor sont tellement proches que la charge électrique risque de traverser le composant même s'il n'est pas sollicité (phénomène de "tunneling").
Un autre obstacle est d'ordre thermique. En effet, plus la cadence d'un d'un processeur augmente, plus son coeur chauffe. En 2001, Pat Gelsinger (aujourd'hui directeur de la technologie d'Intel) soulignait déjà ce problème : "au rythme auquel les puces gagnent en cadence et perdent en taille, l'énergie de surface qu'elles dissipent devrait atteindre celle d'un réacteur nucléaire en 2010. Et celle du Soleil en 2015" ! Pour contourner cet obstacle, IBM, Sony et Toshiba ont imaginé de répartir l'échauffement sur la surface de la puce en adoptant une architecture "multicoeurs". Ainsi, grâce à la miniaturisation, leur nouvelle puce ("Cell") intègre 9 processeurs sur une seule pastille de silicium, le processeur central servant de chef d'orchestre aux huit autres.
En avril 2005, Intel et AMD ont officiellement annoncé leurs premiers microprocesseurs à double cœur, tandis que Dell, Alienware et Velocity Micro annonçaient, quasi simultanément, l'introduction de serveurs utilisant ces microprocesseurs de nouvelle génération.
Par ailleurs, les laboratoires de R&D travaillent activement sur de nouveaux matériaux susceptibles de remplacer le classique silicium, ce qui pourrait enore retarder l'échéance prévue de la fin de la loi Moore (régulièrement annoncée... et, tout aussi régulièrement, reportée dans le temps).


  
LE PARADOXE DE SOLOW : "On voit des ordinateurs partout, sauf dans les statistiques de productivité"
C'est en 1987, Robert Solow, Américain et prix Nobel d'économie, a énoncé son fameux paradoxe, selon lequel l'informatique serait partout, sauf dans les statistiques de productivité (cf. article illustrant le paradoxe de Solow).
En d'autres termes, le progrès technique apporté par les nouvelles technologies de l'information et de la communication n'aurait pas autant d'impact sur l'ensemble de l'économie que les précédentes révolutions industrielles qui ont dégagé d'importants gisements de productivité, eux-mêmes à l'origine de longs cycles de croissance (les fameux cycles de Kondratieff).


  
LA  LOI DE METCALFE : "L'utilité d'un réseau est proportionnelle au carré du nombre de ceux qui l'utilisent"
Robert Metcalfe est l'un des inventeurs de la norme technique qui donna naissance au réseau internet.
Son affirmation selon laquelle la valeur d'un réseau croissait de manière exponentielle en fonction du nombre de ses utilisateurs, a servi d'argument de poids à de nombreux sites commerciaux sur le web, dotés d'un peu de trafic pour séduire de nouveaux partenaires financiers.
Si les investisseurs potentiels, échaudés par l'éclatement de la bulle spéculative créée autour des valeurs des NTIC, sont désormais plus difficiles à convaincre du degré de pertinence de cette "loi", son utilisation peut-être étendue à de nombreux autres domaines (cf. pages consacrées à la loi de Metcalfe)... Ainsi, tout responsable de la communication confirmera que la capacité de nuisance d'un groupe de pression croît exponentiellement avec la taille de son réseau d'influence !




> retour au sommaire des ressources documentaires <