Adoption et compétition technologique

Site: Plateforme pédagogique de l'Université de Bordeaux (Sciences & Techno.)
Cours: Innovation : théories et pratiques
Livre: Adoption et compétition technologique
Imprimé par: Visiteur anonyme
Date: mardi 12 novembre 2024, 20:55

Description

Beaucoup d’innovations ne dépassent pas le stade du projet, beaucoup d’inventions ne rencontrent jamais leur public. D’autres, après un début de notoriété, disparaissent du fait du succès d’autres innovations concurrentes. Une innovation ne se développe pas de manière isolée ; certaines périodes au contraire voient se multiplier les solutions nouvelles à des problèmes donnés. Ce chapitre abordera la compétition entre innovations, entre innovations techniques en particulier.

1. Les biens "en réseaux"

Le concept de relation est central pour la question de la diffusion des innovations et donc la notion de "réseau" aussi. Un réseau, c’est une organisation qui relie des personnes, des institutions et/ou des équipements. Ces relations sont des flux de force, d'énergie ou d'information. On parle de « réseaux » pour désigner ces biens et services. Virtuels ou physiques, les réseaux sont partout et ils sont multiples.Les infrastructures (routières, ferroviaires, aériennes...) sont des réseaux. Tout comme les bien-nommés réseaux de télécommunications (Internet, le téléphone), réseaux d’entreprise, réseaux sociaux, etc... Ils incluent aussi les technologies dites en réseau tels que les logiciels, la téléphonie, certains sites internet (les sites de rencontre ou les plateformes d’échanges).

1.1. Réseaux et diffusion

Le concept de relation est central pour la question de la diffusion des innovations et donc la notion de "réseau" aussi. Un réseau, c’est une organisation qui relie des personnes, des institutions et/ou des équipements. Ces relations sont des flux de force, d'énergie ou d'information.

On parle de « réseaux » pour désigner ces biens et services. Virtuels ou physiques, les réseaux sont partout et ils sont multiples.Les infrastructures (routières, ferroviaires, aériennes...) sont des réseaux. Tout comme les bien-nommés réseaux de télécommunications (Internet, le téléphone), réseaux d’entreprise, réseaux sociaux,  etc... Ils incluent aussi les technologies dites en réseau tels que les logiciels, la téléphonie, certains sites internet (les sites de rencontre ou les plateformes d’échanges).
De manière simple, on peut retenir la définition proposée par Michel Callon en 1991 :

"Un réseau est un ensemble de relations entre des acteurs et des techniques entre eux et ensemble." (Callon, 1991)

Mais pourquoi les réseaux sont-ils très importants pour la question de la diffusion des innovations ?

En raison d’une particularité économique : la présence d’interconnexion [Une interconnexion désigne une relation entre deux ou plusieurs éléments ou phénomènes. Ces éléments sont alors interdépendants] des deux côtés, de l’offre et de la demande.

  • Du côté de l’offre, l’interconnexion concerne celle des éléments techniques. La diffusion d’un élément dépend ainsi de celle d’un (ou plusieurs autres) élément(s). On trouve des tonnes d’exemples, et pas seulement dans les nouvelles technologies (nous verrons cela dans le niveau PREMIUM). Mais l’un des plus connus est celui des consoles de jeux et des jeux vidéo. Si l’ensemble des jeux vidéo pouvaient fonctionner sur n’importe quelle console de jeux, il n’y aurait pas de problème. Est-ce le cas ? Non. Et c’est bien là toute la question que nous allons étudier.
  • Du côté de la demande, l’interconnexion est celle des utilisateurs. Elle signifie que la valeur de connexion au réseau (l’attraction de celui-ci) dépend du nombre des autres personnes connectées. On parle d’économies d’échelle liées à la demande.

Prenons un exemple pour bien expliquer : les sites de rencontres. L’intérêt de vous inscrire à un site de rencontres est dépendant du nombre d’inscrits, car cela augmente vos chances de rencontrer l’âme sœur. Constatez qu’il en va de même dans les réseaux sociaux. Il n’y a de la place que pour 1 Facebook, par exemple.
Une caractéristique particulière est qu’elles se renforcent quasiment sans limitation. C’est en ce sens que se définit la diffusion technologique : comme un processus dynamique auto-renforçant (c’est-à-dire qu’il se renforce de lui-même, sans influence externe), basé sur le fait d’adopter la technologie en question. Pour expliquer ce processus, W. Brian Arthur a développé la notion de rendements croissants d’adoption. [Phénomène par lequel une décision voit sa valeur pour un agent amplifiée par le nombre de fois où elle a été prise par d’autres ou par l’expérience qu’il en a pour l’avoir déjà prise par le passé].
Notons tout de suite que la question de l’adoption se pose dès lors qu’il faut choisir entre plusieurs solutions techniques rivales (et non compatibles comme dans le cas des consoles de jeux). A moins de capacité financière illimitée, vous devez choisir un modèle parmi l’ensemble des solutions proposées.


1.2. Adopter et contrôler

La notion de rendement croissant d'adoption est une notion centrale de l'économie de l'innovation. Nous allons vous expliquer ici cette notion essentielle.

1.3. Les notions clés: externalités de réseau et rendements d'échelle

On parle de rendements croissants d’adoption pour expliquer le phénomène par lequel une décision (l’adoption de la technologie) voit sa valeur (pour l’agent qui adopte la technologie) amplifiée par le nombre de fois où la même décision a été prises par d’autres (avant et après).

On doit l’analyse présentée ici aux travaux de Brian Arthur (mathématicien) et de Paul David (historien) [Cf. appendice]. Le processus d’adoption est le résultat du jeu de cinq sources de rendements croissants d’adoption (RCA).

1) Les externalités de réseau désigne l’interconnexion des utilisateurs dont nous venons de parler. Plus la technologie est adoptée et plus son utilité augmentera pour l’usager, en raison de l’accroissement de la base installée, donc de la taille du réseau. C’est l’exemple du téléphone. Qui ne sert à rien si on est le seul à en posséder un et dont la valeur d’usage augmente avec le nombre de personnes connectées.

2) Les économies d’échelle de production : Plus la technologie est adoptée, plus les éléments matériels qui la constituent sont fabriqués en grande série et donc plus le coût de production diminue (et avec lui le prix de vente). Prenons le cas des logiciels. Les économies d’échelle de production sont directement liées à la taille de la base installée en raison de la répartition des coûts de conception (les coûts fixes, très importants) sur l’ensemble des exemplaires produits.

Une économie d’échelle de production correspond à la baisse du coût unitaire d’un produit obtenu par l’accroissement de la quantité de production. L’un des principaux facteurs d’économies d’échelle est la répartition des coûts fixes incompressibles (comme les machines ou les bâtiments) sur un plus grand nombre d’unités produites.

3) L’apprentissage par l’usage : Plus une technologie est adoptée, plus important sera l’apprentissage lié à son utilisation et plus elle deviendra performante. C’est l’exemple du clavier Qwerty que nous aborderons dans la dernière capsule.

4) Les rendements croissants d’information : Plus la technologie est adoptée et moins l’aversion au risque constituera un facteur de blocage à sa diffusion. Ceci revient en réalité à se rallier à la solution dominante parce qu’elle est dominante. On parle d’aversion au risque. On ne prend pas le risque de retenir une solution moins diffusée. Car si on se trompe, on peut se dédouaner d’un « j’ai fait comme tout le monde ». Mouton de panurge ? En économie on parle d’effet pingouin. [L’effet pingouin désigne les comportements mimétiques qui résultent de l’incapacité des agents à recueillir toute l’information nécessaire à la prise de décision. ] => On suit la majorité.

5) Les interrelations technologiques : Plus la technologie est adoptée, plus les technologies affluentes qui structurent son environnement technique se font nombreuses et plus la technologie sera attractive. On retrouve ici l’exemple des jeux vidéos et des consoles ou, plutôt, celui des environnements informatiques, des grappes d’innovations.
Les travaux initiés par Arthur et David montrent que l’adoption est un processus indépendant de la qualité initiale des technologies en compétition. Nous allons voir cela.


2. Technologie et marché

La compétition technologique s'engage alors entre les différentes entreprises pour imposer leur technologie. Comment s'opère-t-elle ? L'issue est-elle prévisible ? La sélection d'une nouvelle technologie face à une autre sera-t-elle efficiente ?

2.1. Les propriétés fondamentales


Mini-Disc contre CD, MAC face à PC, VHS contre Betamax, DIVx face à DVD, HD-DVD contre Blue-Ray : on ne compte plus les cas de compétition technologique où l’une s’impose et l’autre est évincée (ou presque).
Pour comprendre, il faut partir d’un cas où deux technologies (A et B, VHS et Betamax par exemple) à rendements croissants s’affrontent. Il faut aussi considérer qu’il existe, au tout début du processus, deux classes d’utilisateurs aux préférences naturelles distinctes et de même taille.
Les préférences « naturelles » sont celles qui dicteraient son choix à l’agent, en l’absence des rendements croissants d’adoption. On peut préférer une technologie pour de multiples raisons, là n’est pas la question. Ce que va montrer le modèle de la compétition technologique est qu’il vient un moment où les préférences naturelles ne jouent plus sur le choix.
Je vous épargne la modélisation proposée par Arthur. Allons à ses enseignements : la compétition technologique possède quatre propriétés fondamentales.
1) La non-prédictibilité : l’issue de la compétition est imprévisible. Elle ne peut pas être connue en tout début du processus. Pourquoi ? Car aucun critère de qualité intrinsèque des technologies ne peut pas être pris en compte. On parle de bien d’expérience. C’est-à-dire des biens qu’il faut consommer pour en connaître les caractéristiques, qui se révèlent dans le temps.
C’est particulièrement le cas des technologies de réseau mais d’autres exemples peuvent être cités. Un repas au restaurant est un bien d’expérience.
2) La possible inefficience : le risque d’une sélection non pertinente, qui découle de la première propriété. Suspens sur l’exemple du clavier QWERTY que je vous exposerai en conclusion.
La sélection non pertinente peut être illustrée par la « victoire », dans le domaine des réacteurs nucléaires, de la méthode de refroidissement par eau. La sélection est non pertinente car les spécialistes s’accordent aujourd’hui pour affirmer que le refroidissement par gaz aurait été plus efficient s’il avait été « choisi » au départ et donc si on lui avait consacré autant de ressources qu’au développement du système de refroidissement par eau. Comment expliquer cette « erreur » ? Par les modèles de compétition technologique.
3) Le processus de « path-dependence » : l’adoption générale de l’une des technologies en compétition plutôt que l’autre peut provenir du fait que les agents préférant cette technologie se manifestent en premier. Tout simplement. Avec David, on reconnaît depuis le rôle des « petits événements historiques » dans le processus d’adoption.
4) L’inflexibilité : enfin, la quatrième propriété est le résultat fondamental des modèles de compétition technologique : le lock-in, ou verrouillage. Le verrouillage de la situation débute lorsque les agents ayant une préférence naturelle pour la technologie B, sont contraints d’adopter la technologie A en raison de la localisation du progrès technique sur celle-ci. Le progrès technique représente l’amélioration des techniques, y compris organisationnelles, qui sont utilisées dans le processus de production d’un bien ou d’un service.
C’est la dure loi de la compétition technologique. Deux questions se posent alors : quelles en sont les conséquences et que peut-on alors faire ?

2.2. Un marché verrouillé

La compétition technologique conduit à la domination d’une technologie, les adopteurs faisant le choix de la compatibilité. S'en suivent ensuite des stratégies qui conduiront les firmes à verrouiller le marché. La stratégie de verrouillage au sein d’une entreprise consiste à se protéger du risque des nouveaux entrants et développer sa stratégie afin d’obtenir un avantage concurrentiel.

2.3. Un monopole temporaire

La compétition technologique conduit à la domination d’une technologie, les adopteurs faisant le choix de la compatibilité. S'en suivent ensuite des stratégies qui conduiront les firmes à verrouiller le marché. La stratégie de verrouillage au sein d’une entreprise consiste à se protéger du risque des nouveaux entrants et développer sa stratégie afin d’obtenir un avantage concurrentiel.

Première conséquence : le verrouillage de marché.

Un grand apport des modèles de compétition technologique est de montrer qu’au-delà des monopoles temporaires (ceux nécessaires à la dynamique du capitalisme pour Schumpeter), la compétition peut conduire au verrouillage.
Dans une situation de verrouillage, le monopole n’est pas simplement temporaire. Il se perpétue dans le temps. C’est le cas de Microsoft avec son système d’exploitation.

La situation est-elle réversible ?

Tout dépend des sources de rendements croissants d’adoption ayant entraîné la sélection. Si ne sont concernées que les externalités de réseau, la situation est réversible. La conversion peut être contrariée, ou ralentie, par des excès d’inertie. Mais dans ce cas, l’avantage de la technologie dominante n’est lié qu’à un problème de masse critique. Les excès d’inertie peuvent conduire au maintien de cette situation, mais ils ne constituent pas une source d’irréversibilité. Le verrouillage apparaît largement irréversible lorsque les perfectionnements effectués au cours de l’adoption portent sur l’apprentissage, les économies d’échelle et l’interdépendance des éléments techniques.

Que deviennent les « perdants » ?

Jean-Michel Dalle (professeur, spécialiste de l'économie et du management de l'innovation) relativise quelque peu les résultats par l’existence de niches technologiques comme c’est le cas pour Betamax en Colombie ou chez les professionnels de l’image (globalement évincé par VHS). De même, le maintien de Mac face au PC, doit beaucoup à la niche des graphistes. Ces niches peuvent être pérennes, voire, à terme, conduire à un retournement de la situation (les MAC gagnent chaque jour des parts de marché face au PC, non ?)
Les RCA sont naturellement incorporées aux technologies de réseau. Elles sont aussi de plus en plus exploitées par les firmes leaders qui cherchent à maintenir le verrouillage dont elles bénéficient.
Les réseaux sociaux dépendent principalement des externalités de réseau. La situation semble alors réversible, même si cela peut prendre du temps. Les acteurs économiques mettent alors en œuvre des stratégies pour générer l’irréversibilité. En jouant notamment sur l’interdépendance des éléments techniques.


3. La guerre des standards

Lorsqu’une industrie adopte un standard, cela provoque plusieurs impacts. Les standards possèdent plusieurs avantages et quelques inconvénients. Du point de vue de la distribution du produit, une standardisation permet à l’industrie la détenant de posséder le monopole du marché. Face à cela, 3 possibilités : la guerre, la paix ou le compromis.

3.1. De la guerre à la paix temporaire


Il existe toujours de nombreuses solutions techniques différentes lors de l’apparition d’une nouvelle technologie. Face à cela, trois possibilités : la guerre (la compétition entre acteurs privés), la paix (l’action publique) ou le compromis (l’action collective).
Pourquoi cette question est-elle importante ? Parce que les solutions techniques peuvent être protégées par des droits de propriété intellectuelle contrôlés par les acteurs privés.
La propriété intellectuelle définit un cadre juridique permettant la protection, sous forme de droits exclusifs et cessibles, des marques, des innovations techniques, des bases de données, des ouvrages littéraires, musicaux, cinématographiques, et même des variétés végétales. Chacune de ses catégories fait l’objet d’un cadre juridique spécifique et l’ensemble constitue les droits de propriété intellectuelle (DPI). La propriété intellectuelle recouvre la propriété littéraire et artistique (dont le droit d’auteur est le cadre juridique le mieux connu) et la propriété industrielle (avec le bien-connu brevet).
L’action publique est celle de la normalisation -dite de jure . Les normes sont  des biens publics, connues de tous et librement disponibles. Elles portent sur « interfaces de communication » [Une interface de communication est un dispositif qui permet des échanges et des interactions entre différents acteurs ou différents éléments.] entre les différentes solutions (et les technologies affluentes).
 
Raisonnons par l’exemple, celui du remplissage d’essence des voitures. Le fait que trappes de réservoir et tuyaux soient de taille normalisée permet une compatibilité de n’importe quelle marque de voiture avec n’importe quelle enseigne de station-service. Vous imaginez le bazar, sinon, pour faire le plein ? Cela permet la concurrence entre les constructeurs d’automobile (et entre les pompistes), qui usent d’ailleurs largement des brevets pour se protéger. Pas de lock-in donc.

A l’inverse, laissez faire le marché et vous obtiendrez un standard dit de facto (de fait), et avec lui, une possibilité de verrouillage. Pourquoi ? Parce que les droits de propriété peuvent concerner les interfaces de communication (incorporées, souvent de manière volontaire, à la solution technique). Le détenteur du standard est alors libre de céder, ou non, moyennant royalties, ou pas, à tout offreur potentiel  de la solution en question (un concurrent donc) ou de produits complémentaires (les technologies affluentes). Disons le simplement : il contrôle le marché ! Et des deux côtés, celui de l’offre comme celui de la demande.

Entre les deux, il existe une situation de compromis. C’est l’action collective, autrement dit la coordination des acteurs privés. La rencontre des principaux protagonistes doit donner lieu à une entente sur le choix de la norme afin de prévenir le risque de développement de solutions incompatibles sur le marché.


3.2. Normalisation de fait ou imposée par des institutions?

Nous allons ici vous expliquer les raisons qui poussent à la normalisation, soit du côté des firmes (normalisation de facto), soit du côté des institutions (normalisation de jure). C'est un processus important. Les institutions ne peuvent qu'intervenir en début de processus car si un RCA est installé c'est impossible de revenir en arrière.

3.3. Une histoire qui se répète, que faire ?

La compétition technologique semble conduire les marchés à attirer prématurément l’industrie vers une standardisation « de facto » : est-ce le bon choix ? Le mauvais ?

Mini-Disc contre CD, MAC face à PC, ok ok. L’histoire ne cesse de se répéter ! Que fait l’Etat, ce gendarme de l’intérêt collectif ?

Alors que nous sommes en présence d’une situation de défaillance de marché (où le seul jeu du marché ne permet pas d’aboutir à la meilleure solution). David a étudié le rôle de l’État pour enrayer les guerres des standards et, surtout, éviter que le progrès technique se concentre sur une solution sous-efficiente.
Résultat ? L’action de l’État arrive soit trop tôt, soit trop tard.

Trop tôt lorsque l’État intervient au début du processus. Il est trop tôt car l’information nécessaire à la prise de décision n’est pas encore disponible. Le temps que l’information se révèle, il devient trop tard pour agir. Car ce temps est celui pendant lequel se joue la compétition entre les acteurs. Celle qui voit s’établir les standards sur des solutions parfois sous-optimales. Et la possibilité du verrouillage, sans qu’il soit toujours possible d’envisager un « retour en arrière », c’est-à-dire de renverser la standardisation.

Fin du suspens, l’exemple pris est celui du clavier QWERTY (AZERTY pour les frenchies). L’ordre des lettres a été optimisé à l’époque des machines à écrire, pour que les touches s’entremêlent le moins souvent possible (d’où moins d’usure, moins de maintenance et plus d’efficacité). Avec le passage au clavier alphanumérique, rien n’imposait que l’on maintienne cet ordre et l’alternative DVORAK, alors plus efficace, aurait pu remplacer les claviers QWERTY. Rien, si ce n’est que l’apprentissage (par l’usage) acquis sur le clavier QWERTY rend les coûts de changements trop importants. Il faudrait non seulement remplacer l’intégralité du parc mais radicalement condamner plusieurs générations par l’édiction de nouvelles règles de dactylographie, reconcevoir l’ensemble des fonctionnalités des logiciels etcetera, etcetera. La liste est longue !


4. Et si le marché c'était vous?

Nous allons nous intéresser ici à des stratégies particulière dans lesquelles le client c'est vous, notamment lorsque les biens proposés apparaissent comme gratuits.

4.1. Le paradoxe de la gratuité

« Gratuit » est un adjectif qui qualifie un bien (ou un service) que l’on peut obtenir sans payer.
Malgré ce paradoxe apparent, la gratuité est une stratégie pour vendre. Et c’est même une stratégie ancienne. Voyons cela de plus près.

On cite souvent Gilette pour l’illustrer : Gilette « offrait » le rasoir et ne faisait payer que les lames. Les différents modèles de rasoirs-lames étant « incompatibles » entre eux, seules les lames Gilette pouvaient s’utiliser avec les rasoirs Gillette. A la longue, ça finit par coûter mais pour un premier achat, on a l’impression de faire une sacrée économie. Vous voyez la stratégie, non ? clin d’œil

Ce qui est nouveau, aujourd’hui c’est l’extension que prend le phénomène avec la numérisation de l’économie.
Or, la particularité des biens numériques est qu’il s’agit souvent de technologies de réseaux. Et l’on retrouve les deux éléments centraux : les économies d’échelle (l’importance des coûts fixes de production) et la présence des externalités de réseau.

Comment faire alors pour « capter » le marché ?

C’est là que le producteur (du bien ou du service) se retrouve face à un arbitrage entre deux grands types de stratégies :

    • La diffusion gratuite, d’un côté, pour faire adopter le produit (et générer l’effet réseau). Mais alors se pose la question de la génération des revenus …
    • La diffusion payante, de l’autre, pour rentabiliser les coûts fixes, au risque de n’avoir pas d’utilisateurs et, au final, de ne rien générer du tout.

Comment faire face au dilemme ?

Il faut combiner les deux ! Et il existe au moins 6 stratégies liées au « gratuit ».
Voyons les trois premières.

3 Stratégies gratuit

La stratégie de l’échantillon est, dans le monde du numérique, celui de l’arbitrage temporel. D’abord « donné », le bien est ensuite vendu. Une fois l’utilisateur accro.
Les deux stratégies de publicité et de base de données sont très répandues. On se finance par la pub ou par la vente des données utilisateurs.
C’est gratuit pour l’utilisateur, payant pour les annonceurs et les autres producteurs. Les deux peuvent même se combiner. Les utilisateurs d’Amazon reconnaîtront le modèle de publicité personnalisée.

Voyons les trois autres maintenant.
3 autres stratégies gratuit
La vente liée et les stratégies de package sont très liées.
Dans le premier cas, il s’agit de diffuser deux produits (et/ou services) en même temps ; en liant la vente de l’un à la gratuité de l’autre. Comme dans le cas de Gilette.
Dans le second cas, il s’agit de faire consommer plus. Une suite bureautique en « pack » coûte moins cher que l’ensemble des logiciels qui la composent. Tant pis si vous ne vous servez jamais de l’un (ou plus) d’entre eux, au moment de l’achat, vous avez eu l’impression de faire une économie. Un peu comme quand vous jetez, pour cause de date de péremption, les yaourts du pack promotionnel. Au final, vous constatez que vous avez dépensé plus (ou mangé plus) que ce qui vous aurait été nécessaire.
Enfin, la dernière des stratégies, mais non la moins connues, est celle des « versions ». Prenons le cas d’Adobe et des documents PDF. Tout le monde n’a pas besoin de générer des PDF (version payante) mais ceux qui le veulent ont besoin que les autres puissent les lire (version gratuite).
Le mot de la fin ? Dans notre système capitaliste, rien n’est jamais gratuit. Et le gratuit peut même être sacrément payant !

Deux articles de Presse pour bien comprendre le phénomène du gratuit :
Freemium : le gratuit ou presque comme modèle économique - Les Echos 
Le tout gratuit n'est pas le modèle économique du futur - L'usine digitale