Corps de l’article

De nombreux facteurs ont été mis en avant pour expliquer la création et le maintien d’un avantage concurrentiel pour les entreprises. Dans les industries technologiques, l’entretien d’un flux constant d’innovations s’avère être le moyen privilégié des entreprises pour maintenir leurs positions (Lengnick-Hall, 1992). Dans un environnement hypercompétitif, il s’agit, pour les entreprises, d’être en mesure de fréquemment mettre en place des mouvements concurrentiels (d’Aveni, 1994; d’Aveni, Dagnino et Smith, 2010). Plus que de leur positionnement concurrentiel initial (à travers les stratégies génériques porteriennes par exemple), les performances des entreprises sont dépendantes de l’enchainement des mouvements et des contre-mouvements ayant lieu dans l’industrie (Grimm, Lee et Smith, 2005) et peuvent se focaliser sur une dimension concurrentielle spécifique, i.e. sur une caractéristique du produit sur laquelle se focalise tant la concurrence que les consommateurs.

Plus généralement, deux principaux facteurs peuvent être retenus pour décrire cette dynamique concurrentielle : la vitesse d’évolution de la tendance centrale de l’industrie par rapport à une dimension concurrentielle spécifique (amélioration plus ou moins rapide, dans le temps, d’une dimension concurrentielle spécifique des nouveaux produits) et la dispersion des positions concurrentielles par rapport à la tendance centrale (positionnement relatif de l’offre des entreprises sur cette dimension concurrentielle spécifique des produits en un instant t). En combinant ces deux facteurs qui peuvent varier d’intensité, quatre archétypes de dynamique concurrentielle peuvent être identifiés (figure 1). Ces archétypes font apparaître différents tunnels d’évolution, englobant l’ensemble des positionnements de l’offre des entreprises dans le temps.

Dans les tunnels de stabilité convergente (cadrant en bas à gauche), où la vitesse d’évolution est lente et la dispersion des positions concurrentielles faible, les entreprises restent alignées autour d’une norme qui peut être liée à la maturité d’une technologie, à l’existence d’un design dominant (Tegarden et al., 1999), d’une pression institutionnelle (Suchman, 1995) ou à l’inertie des entreprises en place (Tripsas, 2009). Dans les tunnels de stabilité divergente (cadrant en haut à gauche), où la vitesse d’évolution est lente, avec une dispersion des positions concurrentielles élevée, les entreprises occupent des espaces différents qui peuvent correspondre à des stratégies de différenciation durable (Porter, 1996) ou à l’existence de niches écologiques (Hannan et Freeman, 1989). Dans les tunnels de dynamique divergente (cadrant en haut à droite), où la vitesse d’évolution est rapide et la dispersion des positions concurrentielles élevée, les entreprises entrent dans une logique d’hypercompétition, dans laquelle l’avantage concurrentiel est continuellement créé, érodé, détruit puis recréé à travers des manoeuvres stratégiques (d’Aveni, 1994).

Enfin, les tunnels de dynamique convergente (cadrant en bas à droite) dans lesquels la vitesse d’évolution est rapide, avec une faible dispersion des positions concurrentielles, correspondent à la situation dans laquelle les performances de chaque entreprise dépendent de sa capacité à égaler, voire à dépasser les actions de ses concurrents (Derfus et al., 2008). Des recherches ont montré qu’un tel tunnel correspondait à une dynamique particulière, le Red Queen Effect ou RQE (Barnett, 1997, 2008; Van Valen, 1973). L’industrie des microprocesseurs appartient à cette catégorie (Burgelman et Groove, 2007). Le rythme d’évolution des produits croît continuellement sur une dimension concurrentielle spécifique, la vitesse des microprocesseurs en l’occurrence. L’arrivée d’un nouveau produit, plus puissant, conduit l’ensemble des constructeurs à proposer, à leur tour, une puissance plus élevée pour leurs nouveaux microprocesseurs. Il en résulte que chaque concurrent peut, au final, ne pas observer de modifications significatives de sa position concurrentielle. Le RQE décrit ainsi « l’escalade continue d’activité des participants cherchant à maintenir leur adaptation relative dans un système dynamique » (Derfus et al., 2008 : 61).

Les recherches portant sur le RQE se sont tout d’abord intéressées aux liens entre cette dynamique et la performance de l’entreprise (Barnett, 1994, 1997; Barnett et Sorenson, 2002; Lampel et Shamsie, 2005). Ensuite, les travaux ont porté sur l’identification des principaux facteurs pouvant jouer un rôle modérateur sur cette dynamique (Barnett, 2008; Barnett et McKendrick, 2004; Barnett et Pontikes, 2008; Derfus et al., 2008). En s’inscrivant dans la continuité de ces derniers, l’objectif de cette recherche est de s’intéresser à un facteur non encore pris en compte : la dimension concurrentielle spécifique, i.e. une caractéristique technique du produit lancé sur laquelle se focalisent les entreprises en concurrence mais aussi les consommateurs.

Si les innovations sont généralement étudiées à travers le nombre de lancement nouveaux produits (e.g. Derfus, et al., 2008), leurs caractéristiques ne sont pas prises en considération. Or, dans certaines industries technologiques, il apparaît que la concurrence se focalise sur une dimension concurrentielle spécifique, comme cela a pu être le cas pour la puissance des microprocesseurs (Burgelman et Groove, 2007). Cette dimension concurrentielle spécifique, notamment par sa capacité à être observée tant par les entreprises que par les consommateurs, peut avoir une influence sur la dynamique de RQE. Vérifiées empiriquement, les lois de Moore ont, par exemple, prédit le doublement du nombre de transistors dans les microprocesseurs tous les dix-huit mois. Cette recherche ne s’attache pas à comprendre la manière dont une caractéristique technique devient une dimension concurrentielle spécifique focalisant l’attention des entreprises et des consommateurs, mais vise à étudier l’influence de cette dimension sur la dynamique de RQE au sein d’une industrie donnée.

FIGURE 1

Archétypes de dynamique concurrentielle

Archétypes de dynamique concurrentielle

-> Voir la liste des figures

Pour cela, deux facteurs principaux pouvant influencer cette dynamique sont retenus : la vitesse d’évolution de la tendance centrale de l’industrie par rapport à la dimension concurrentielle spécifique (amélioration plus ou moins rapide, dans le temps, de la valeur d’une dimension concurrentielle spécifique des produits au niveau d’une industrie), i.e. pente du tunnel et la dispersion des positions concurrentielles par rapport à la tendance centrale de l’industrie (positionnement relatif de l’offre des entreprises sur cette dimension concurrentielle spécifique des produits en un instant t), i.e. largeur du tunnel. Il s’agit alors d’observer un retard ou une avance sur la dimension concurrentielle spécifique par rapport à l’ensemble des produits concurrents, i.e. par rapport à la tendance centrale de l’industrie.

Dans une première partie, les mécanismes sous-jacents liés à la dynamique concurrentielle de RQE permettent de formuler des hypothèses quant à l’influence de la dimension concurrentielle spécifique sur cette dynamique. Dans une deuxième partie, une étude empirique, celle de l’industrie des appareils photographiques numériques de 1994 à 2011, est réalisée afin de tester ces hypothèses. Une troisième partie permet de présenter les résultats. Enfin, les résultats sont discutés dans une quatrième partie puis en conclusion, les limites et voies de recherche.

Revue de la littérature

Pour étudier l’influence de la dimension concurrentielle spécifique sur la dynamique de RQE, deux facteurs sont étudiés. Le premier, caractérisant la pente du tunnel, s’attache à étudier la vitesse d’évolution de la tendance centrale de l’industrie par rapport à une dimension concurrentielle spécifique en prenant en compte la densité de la population d’entreprises ainsi que celle des nouveaux produits lancés dans l’industrie. Le second (largeur du tunnel) porte sur la dispersion des positions concurrentielles par rapport à la tendance centrale de l’industrie. La tendance centrale est définie comme les performances techniques moyennes observées dans l’industrie de la dimension concurrentielle spécifique autour de laquelle se focalisent les relations concurrentielles, i.e. l’ensemble des interactions entre concurrents selon une approche structurelle (Le Roy, 2004). A l’instar des recherches portant sur la dynamique de RQE, différentes littératures sont mobilisées pour justifier les hypothèses.

Vitesse d’évolution de la tendance centrale de l’industrie (pente du tunnel)

Concernant la vitesse d’évolution de la tendance centrale de l’industrie, deux variables pouvant l’influencer sont prises en compte : la densité de la population d’entreprises et celle de nouveaux produits lancés. Tout d’abord, concernant la densité de la population d’entreprises, même en l’absence de moyens de communication directe entre les acteurs, les entreprises peuvent apprendre de manière vicariante à travers l’observation des actions des autres entreprises (Baum, Li et Usher, 2000). L’apprentissage vicariant est défini comme la forme d’apprentissage qui apparaît lorsque les entreprises modifient leurs comportements en réponse aux comportements des autres entreprises (Srinivasan, Haunschild et Grewal, 2007). Un apprentissage précis nécessite, pour les apprenants, d’avoir à disposition un échantillon représentatif de la population concernée (Denrell, 2003). Or, l’échantillon produit par la simple expérience est généralement plus la représentation des processus sociaux en cours dans l’industrie plutôt que la représentation d’un processus d’échantillonnage aléatoire. En effet, les structures sociales et les préférences individuelles déterminent les caractéristiques des individus et des institutions avec lesquelles les personnes sont en contact.

Ainsi, l’expérience fournit souvent des individus possédant des échantillons d’observation biaisés. Apprendre des autres implique de construire des inférences à partir de données incorporant du bruit. Accroître la taille des échantillons est un moyen efficace de résoudre ce problème. Plus il y a d’entreprises à observer dans l’industrie, plus un processus d’apprentissage précis est possible. La relation inverse, de l’intensité du RQE vers la densité de la population, est plus ambiguë. En effet, la vitesse d’évolution d’une technologie peut entraîner des sorties de l’industrie ou au contraire, l’arrivée de nouveaux entrants (Tripsas, 2009). Nous considèrerons néanmoins que ces variations sont en grande partie liées au cycle de vie de l’industrie, en termes de croissance du marché notamment, indépendamment du RQE.

Hypothèse 1. La densité de la population d’entreprises est positivement liée à la vitesse d’évolution de la tendance centrale de l’industrie.

Ensuite, la densité de nouveaux produits lancés par les entreprises est prise en compte. Lorsque l’intensité concurrentielle met à mal les avantages concurrentiels passés, les entreprises ont tendance à rechercher des performances supérieures à travers des avantages à court terme. Cela se traduit par une accélération des mouvements stratégiques et par conséquent, par une multiplication de lancements de nouveaux produits (Nayyar et Bantel, 1994). En effet, la dynamique concurrentielle du RQE oblige les entreprises à innover afin de saisir les nouvelles opportunités à travers une offre sans cesse renouvelée. Chaque action d’une entreprise entraîne des réactions de la part de ses concurrents. Le fait d’être en mesure de lancer de nouveaux produits traduit une capacité de l’entreprise à réagir dans les environnements fortement évolutifs (Bourgeois et Eisenhardt, 1988; Judge et Miller, 1991). Cette capacité de réaction rapide va de pair, pour les entreprises, avec des performances plus élevées que la moyenne (Bower et Hout, 1988; Stalk, 1988). Les concurrents qui souhaitent demeurer dans cette course sont dans l’obligation de lancer régulièrement de nouveaux produits leur permettant de maintenir, voire d’accroitre leur position concurrentielle. Par conséquent, la densité de nouveaux produits lancés influence la vitesse d’évolution de la tendance centrale de l’industrie (pente du tunnel).

Hypothèse 2. La densité de nouveaux produits lancés est positivement liée à la vitesse d’évolution de la tendance centrale de l’industrie.

Dispersion des positions concurrentielles par rapport à la tendance centrale de l’industrie (largeur du tunnel)

Après s’être intéressé à la vitesse d’évolution de la tendance centrale de l’industrie (pente du tunnel), il convient d’étudier l’influence de la position d’une entreprise par rapport à ses concurrents sur cette dynamique concurrentielle (largeur du tunnel). Il s’agit alors de considérer la dispersion des positions concurrentielles par rapport à la tendance centrale de l’industrie. Pour ce faire, la position de l’entreprise, en termes d’avance ou de retard par rapport à la tendance centrale de l’industrie, est étudiée.

Tout d’abord, en ce qui concerne l’écartement possible d’une entreprise par le haut vis-à-vis de la tendance centrale de l’industrie, tant des comportements de rationalité économique que de pressions sociales peuvent expliquer sa volonté de revenir vers la tendance centrale. En mettant en place une stratégie d’innovation, les entreprises cherchent régulièrement à être les premières à mettre sur le marché le produit le plus en avance technologiquement (Green, Barclay et Ryans, 1995). Cette stratégie procure un certain nombre d’avantages regroupés sous le terme d’avantages pionniers (Lieberman et Montgomery, 1998). Toutefois, cette stratégie ne s’avère pas être nécessairement optimale sur le long terme. Comme le souligne Porter (1996), l’entreprise qui obtient un avantage concurrentiel significatif, attire l’attention des concurrents qui chercheront à l’imiter, annulant ainsi l’avantage concurrentiel créé. En étant à la fois acteur et cible de la concurrence, les entreprises pionnières donnent des informations à leurs concurrents sur la manière de répondre et de les surpasser (Barnett et McKendrick, 2004). L’innovation génère pour les concurrents de l’information exploitable dans le but de répondre à la dynamique concurrentielle existante. La recherche régulière d’avantages concurrentiels peu importants peut alors apparaître comme une meilleure stratégie que la recherche d’un fort avantage qui ne sera que temporaire et risque, de surcroît, de conduire à une progression plus rapide de l’ensemble des concurrents.

Bien que l’approche ressources (Barney, 1991) avance que les entreprises peuvent obtenir un avantage concurrentiel durable à travers des ressources valorisables et rares (Hitt et al., 2001), il s’agit d’un positionnement concurrentiel relatif, un avantage concurrentiel n’étant imputable qu’au fait de détenir plus de ressources valorisables que ses concurrents (Peteraf et Barney, 2003). De plus, plutôt que de chercher des ressources spécifiques, les entreprises peuvent obtenir un avantage du fait de la détention de capacités dynamiques leur permettant de combiner mieux que leurs concurrents les ressources partagées (Eisenhardt et Martin, 2000). Ainsi, les entreprises cherchent avant tout à répondre à un mouvement concurrent afin d’obtenir un avantage concurrentiel relatif qui risque de s’avérer limité car fondé sur une combinaison différente des ressources existantes (D’Aveni, Dagnino et Smith, 2010).

Par ailleurs, le souci de se conformer à une pratique perçue comme légitime explique un certain nombre de comportements des entreprises (Suchman, 1995), à côté des explications relevant d’une certaine rationalité économique. Afin d’obtenir de la légitimité dans leur industrie, les entreprises répondent à des pressions régulatrices et normatives similaires (Orru, Biggart et Hamilton, 1991), imitent d’autres entreprises (Haveman, 1993) ou simplement adoptent les pratiques les plus courantes, propres à l’industrie dans laquelle elles évoluent. Ne pas chercher à se démarquer trop fortement peut relever de cette logique sociologique. Une entreprise qui se démarque trop sur la dimension concurrentielle spécifique de l’offre qui focalise l’attention sera incitée à revenir à des valeurs de cette dimension plus proche de la tendance centrale de l’industrie. En cas d’écart par rapport à la tendance centrale, les entreprises vont chercher à imiter les leaders, rattrapant ainsi leur retard (Merges et Nelson, 1994; Mukoyama, 2003). Parallèlement, les leaders innovent plus difficilement car en avance par rapport à la tendance centrale de l’industrie (Barnett et McKendrick, 2004). Un rôle d’attracteur sur la tendance centrale de la dimension concurrentielle spécifique des produits au sein du tunnel de dynamique convergente se met en place, maintenant ainsi la convergence des positions concurrentielles et leur faible dispersion.

Hypothèse 3. Les entreprises en avance sur la tendance centrale de l’industrie progressent moins vite que celles en retard.

En ce qui concerne le retour à la tendance centrale de l’industrie en cas d’écart vers le bas par les entreprises, le concept de capacités d’absorption peut être mobilisé. Plus une entreprise se trouve éloignée en termes de ressources et compétences de ses concurrents, plus elle doit développer ses capacités d’absorption afin d’être en mesure de s’adapter (Cohen et Levinthal, 1990). Or, l’investissement dans la capacité d’absorption doit être continu et les investissements nécessaires sont proportionnels à l’écart existant entre les ressources et compétences des différents concurrents. Lorsqu’un écart trop important existe entre les concurrents, l’entreprise subissant un retard conséquent cesse peu à peu d’investir dans cette capacité et n’est plus en mesure d’assimiler et d’exploiter les nouvelles informations qui arrivent.

De plus, la capacité d’absorption a une dimension cumulative. L’investissement marginal nécessaire dans la capacité d’absorption est d’autant plus grand en période t que l’investissement initial dans cette capacité a été réduit en t-1. Comme le souligne Reich (1987 : 64), « chaque nouvelle génération de technologie s’appuie sur celle qui est venue avant, une fois hors de l’escalator technologique, il est difficile d’y revenir ». Une absence d’investissement dans la capacité d’absorption peut in fine conduire l’entreprise à ne plus créer de nouveaux savoirs ou détecter les signaux externes. Le risque d’inertie comportementale induite par la réduction du champ des possibles est alors important. Un rôle de répulseur sur la tendance centrale de la dimension concurrentielle spécifique des produits à l’extérieur du tunnel se met alors en place. Une fois l’entreprise sortie du peloton à la manière des coureurs cyclistes, la progression de leur dimension concurrentielle spécifique devient plus difficile.

Hypothèse 4. Plus les entreprises s’éloignent de la tendance centrale de l’industrie, moins leur progression est forte.

Méthode

Pour tester ces hypothèses, l’industrie des appareils photographiques numériques est considérée.

Industrie des appareils photographiques numériques

Si cette industrie a été beaucoup étudiée selon l’angle de la rupture technologique (e.g., Tripsas, 2009; Benner, 2010), elle représente également un terrain d’étude de la dynamique de RQE. A l’instar de l’industrie des microprocesseurs (Burgelman et Groove, 2007), une dimension concurrentielle spécifique cristallise l’attention des consommateurs comme des entreprises. Il s’agit de la résolution maximale des prises de vue associée à chaque appareil photo exprimée en megapixels. La résolution d’un appareil photo reste l’un des seuls attributs objectifs comparables et ainsi, un facteur majeur de compétition (Hsee et al., 2009). Pour Watanabe[1] (2011), responsable du département planification d’Olympus, « les mégapixels sont, pour le marché des appareils photos numériques, l’équivalent de la puissance et du mégahertz - une métrique unique à laquelle les consommateurs et les spécialistes du marketing s’accrochent avec ténacité, même si elle ne représente guère la performance globale ».

Alors que le premier appareil numérique lancé en 1995 était doté de trois cents mille pixels, les appareils lancés quinze ans plus tard dépassaient les vingt millions. Il existe, par ailleurs, peu de limites techniques à l’augmentation du nombre de pixels, si ce n’est la capacité des infrastructures associées, comme les cartes mémoire ou la vitesse de connexion Internet permettant le transfert des prises de vue. Pour les fabricants, il s’agissait de proposer des appareils ayant une valeur relative forte par rapport à leurs concurrents. La valeur absolue importe assez peu, les consommateurs novices ayant une idée floue de ce que représente un megapixel (Nam, Wang et Lee, 2012). Si des variables spécifiques, comme l’expertise des consommateurs, peuvent réduire l’importance du nombre de pixels (Nam et al., 2012), cette dimension de l’appareil reste cruciale pour la plupart des consommateurs, leur processus de décision n’obéissant pas à une logique multi-attributs classique (Fishbein et Ajzen, 1980).

Comme l’accroissement continu du nombre de pixels freine l’innovation sur d’autres attributs de l’appareil photo qui permettraient d’en améliorer la qualité et peut à terme paradoxalement dégrader la qualité des photos, cette escalade devrait rationnellement prendre fin. Malgré tout, la course aux pixels a continué (Hsee et al., 2009) jusqu’à la fin des années 2010, le nombre de pixels restant crucial à cette époque pour la plupart des consommateurs (Nam et al., 2012). Le cabinet GFK[2] se pose alors la question du sens à disposer d’appareils à 18 ou 20 megapixels dont les photographes n’ont pas besoin : « les appareils dotés d’une haute résolution sont nécessaires dans l’industrie cinématographique et pour les éditeurs de magazine; pour le reste, ce n’est qu’un artifice ».

Depuis, l’industrie des appareils photographiques numériques s’est à nouveau transformée, en convergeant avec la téléphonie mobile. Avec le développement des smartphones, les ventes d’appareils photographiques compacts se sont effondrées à 1,5 million en France en 2016, selon l’institut GFK[3] contre un pic de 5,5 millions en 2010. Pour Watanabe (2011), « nous avons atteint la fin de la course aux megapixels des appareils photos ». Ce constat explique le choix de la période étudiée s’étendant de l’origine de cette industrie au 1er janvier 1994 jusqu’au 31 décembre 2011.

Collecte des données

Les appareils photographiques lancés par les 22 plus grands fabricants du secteur ont été recensés. Sur cette population, 14 entreprises étaient présentes sur le marché des 35 mm en 1994 (comme Eastman Kodak ou Leica), 8 venaient d’autres secteurs comme l’électronique (comme Sony ou Samsung) ou l’informatique (comme Toshiba ou Hewlett Packard). Cette distinction est d’importance car les choix de conception de nouveaux appareils sont en partie dictés par la représentation de l’industrie photographique, elle-même issue du secteur d’origine de l’entreprise (Benner et Tripsas, 2012). Ces fabricants sont considérés comme des leaders au niveau commercial (les onze plus gros cumulant en 2010, 93,3 % des parts de marché au niveau mondial) et au niveau technologique.

Une base de données a été construite incluant les informations (nom, marque, type d’appareil, date d’annonce du modèle, résolution maximale) de tous les nouveaux produits lancés par ces entreprises pendant la période considérée, soit 1887. Les informations collectées proviennent de la Digital Photography Review, qui recense, donne les caractéristiques techniques et des avis d’experts sur tous les nouveaux appareils numériques. La fiabilité de cette source de données a été vérifiée sur certaines marques et périodes grâce au site web des fabricants concernés et aux chapitres Photographic News and Review des publications de la Photo Marketing Association.

La figure 2 présente l’évolution de la résolution des nouveaux appareils numériques sur la période considérée.

FIGURE 2

Evolution de la résolution des nouveaux appareils numériques de 1994 à 2011

Evolution de la résolution des nouveaux appareils numériques de 1994 à 2011

-> Voir la liste des figures

A l’instar des lois de Moore pour la puissance des microprocesseurs, la progression de la résolution des appareils suit une tendance exponentielle (le coefficient de détermination de l’ajustement par une fonction exponentielle étant de 0,815), soit un doublement tous les quatre ans environ.

Mesures

Afin de tester les hypothèses appliquées à l’industrie photographique numérique, une opérationnalisation des différents concepts est nécessaire.

  • La dimension concurrentielle spécifique est le nombre de pixels de chaque appareil photo (megapixi, t-1). Comme nous l’avons observé précédemment (cf. figure 2), le nombre de pixels augmente dans l’industrie de manière exponentielle sur la période considérée. Par ailleurs, le nombre de pixels représente un indicateur utilisé par les acheteurs potentiels pour prédire leur consommation (Hsee et al., 2009).

  • La densité de la population d’entreprises (densipopi), liée à l’intensité de la concurrence et du dynamisme technologique (Curry et George, 1983), apparaît dans la figure 3. On peut noter une période d’entrées nettes d’entreprises sur le marché de 1994 à 2002, suivie par une période de sorties nettes de 2003 à 2011.

FIGURE 3

Evolution de la densité de la population d’entreprises dans l’industrie des appareils photographiques numériques de 1994 à 2011

Evolution de la densité de la population d’entreprises dans l’industrie des appareils photographiques numériques de 1994 à 2011

-> Voir la liste des figures

  • La densité de nouveaux produits lancés dans l’industrie (densprodi) est opérationnalisée par le nombre d’appareils lancés dans une période de temps donnée. Coombs et al. (1996) considèrent que le nombre de produits et l’information diffusée autour de ces derniers constituent un bon proxy de l’activité d’innovation d’une entreprise. Pour rendre compte de la saisonnalité de l’industrie, le mois a été choisi comme période de référence. On note ainsi que les mois de janvier et février sont ceux qui affichent les huit périodes au cours desquelles le plus grand nombre d’appareils (plus de 40 en moyenne) est annoncé. La figure 4 présente l’évolution du nombre d’appareils sur chaque mois allant de mars 1994 à décembre 2011. La technologie étant de plus en plus mature, on observe le phénomène de longue traine (Anderson, 2006), c’est-à-dire une augmentation dans le temps des appareils introduits sur le marché.

FIGURE 4

Lancement de nouveaux appareils dans l’industrie des appareils photographiques numériques de 1994 à 2011

Lancement de nouveaux appareils dans l’industrie des appareils photographiques numériques de 1994 à 2011

-> Voir la liste des figures

  • L’écart par rapport à la tendance centrale (ecartendi, t-1) est mesuré par la différence entre la résolution du dernier appareil lancé par l’entreprise considérée (megapixi, t-1) et la valeur prédite par le modèle de régression reliant la date d’annonce et la résolution des appareils (megapixt). Cette valeur prédite représente la tendance centrale imposée à l’ensemble des concurrents par le RQE, valeur qu’ils doivent chercher à égaler (Derfus et al., 2008). Une variable binaire a été créée (ecarposii, t-1) qui prend la valeur « 1 » si l’écart à la tendance est positif, « 0 » s’il est négatif. Cette variable indique si la performance technique du dernier lancement d’appareil se situe en avance ou en retard par rapport à cette tendance et permet ainsi de tester l’hypothèse 3. Par ailleurs, la valeur absolue de l’écart à la tendance centrale a été utilisée pour mesurer la distance entre la position technologique de l’entreprise et le rythme suivi par l’industrie (|ecartendi, t-1|). Cette variable permet de tester l’hypothèse 4.

Variables de contrôle

Les résultats des tests d’hypothèses sont contrôlés à l’aide de deux variables.

  • La date de sortie de l’appareil (date) compte tenu du fait que le rythme d’évolution de la dimension concurrentielle spécifique peut structurellement varier au cours du temps.

  • L’industrie d’origine de l’entreprise qui introduit sur le marché un nouvel appareil. Benner et Tripsas (2012) ont montré que les caractéristiques des nouveaux appareils numériques étaient impactées par la diversité des provenances sectorielles des entreprises. Deux variables muettes ont été créées : « photo » (induphot) et « électronique » (induelec) qui prennent la valeur « 1 » si l’appareil est commercialisé par un fabricant originaire de ce secteur, et « 0 » sinon.

Modèle

Pour tester les hypothèses, le modèle de régression multiple suivant est retenu, où (i) désigne l’entreprise étudiée et (t) fait référence à la période d’analyse :

La variable dépendante représente la progression de la résolution entre deux appareils sortis successivement par la même entreprise. Il s’agit d’un proxy des efforts de l’entreprise dans la course aux pixels. Les variables indépendantes sont la densité de la population, la densité de produits, le sens de l’écart par rapport à la tendance centrale de l’industrie et enfin l’écart, en valeur absolue, entre la résolution du dernier appareil lancé et la tendance centrale de l’industrie.

En recourant à un modèle de régression multiple (modèle OLS), il est possible d’anticiper un problème d’endogénéité (Hamilton et Nickerson, 2003; Semadeni, Withers et Certo, 2013). Hormis les causes classiques de l’endogénéité (simultanéité, hétérogénéité inobservée et erreurs de mesure), le modèle risque d’être particulièrement exposé à une endogénéité provenant de l’introduction de variables retardées dans la régression alors que les résidus sont auto-corrélés. Afin de limiter cet effet, la méthode des moments généralisés sur panels est mobilisée (Arellano et Bond, 1991; Arrellano et Bover, 1995; Blundell et Bond, 1998). Cette méthode s’avère particulièrement adaptée car, non seulement elle permet de régler les problèmes d’endogénéité, mais, de surcroît, elle atteint cet objectif sans impliquer un choix de variables instrumentales. Cette étape du choix des variables instrumentales, non corrélées avec les variables explicatives et le résidu, s’avère traditionnellement complexe à l’heure de traiter l’endogénéité (Navatte, 2016). Avec le type de données mobilisées dans cette recherche (données de type panel), la méthode des moments généralisés génère des variables instrumentales à partir des retards des variables. La méthode des moments généralisés a été mise en place à partir de données à travers le module xtabond2 (Roodman, 2015) du logiciel Stata.

Résultats

Le tableau 1 présente l’ensemble des variables quantitatives à travers des éléments de statistiques descriptives.

Tableau 1

Statistiques descriptives des variables quantitatives

Statistiques descriptives des variables quantitatives

-> Voir la liste des tableaux

Le tableau 2 présente les résultats pour le modèle retenu.

Tableau 2

Résultats du modèle

Résultats du modèle

Signification : + p<0.1 * p<0.05 ** p<0,01 *** p<0,001

-> Voir la liste des tableaux

Afin de s’assurer de la robustesse des résultats, le test de Sargan-Hansen (Hansen, 1983) permettant de s’assurer de la validité des variables retardées utilisées comme instrument et le test d’autocorrélation de second ordre d’Arellano et Bond (1991) ont été réalisés.

Si la colinéarité peut biaiser l’estimation des betas standardisés (Belsay, 1991), son niveau a été mesuré par les facteurs d’inflation de la variance (VIF), compris entre 1,07 et 1,21 pour les variables indépendantes, et entre 1,04 et 1,52 pour les variables de contrôle, soit largement inférieur au maximum (VIF=10) indiqué par Hair et al. (1998). Par ailleurs, l’absence d’hétéroscédasticité a été vérifiée. Les termes d’erreurs associées à la variable dépendante ne violent pas les conditions de normalité de leur distribution. De même, aucune des corrélations entre le terme d’erreur et chacune des variables indépendantes n’est significative.

Toutefois, comme la valeur de la dimension concurrentielle spécifique s’accélère avec le temps, il est logique que cette dernière soit reliée positivement à la variable de contrôle, date. Par ailleurs, une variable de contrôle liée à l’histoire industrielle des entreprises est significative (induphot). On peut conclure de la valeur des betas associés aux variables muettes que les fabricants historiques de l’industrie des appareils photographiques numériques ont, au cours du temps, rattrapé leur retard technologique sur les nouveaux entrants.

L’hypothèse 1 (la densité de la population d’entreprises est positivement liée à la vitesse d’évolution de la tendance centrale de l’industrie) est corroborée.

La présence d’un nombre plus important d’entreprises (dans le cas de l’industrie des appareils photographiques numériques entre 2000 et 2004) entraîne, toutes choses égales par ailleurs, une accélération de la vitesse d’évolution de la tendance centrale de l’industrie. Comme les travaux sur le RQE le suggèrent, la réponse à une intensité concurrentielle croissante, fonction du nombre d’entreprises présentes dans le secteur, conduit à une course toujours plus rapide et une augmentation de la pente du tunnel de dynamique convergente. Toutefois, au lieu de courir plus vite, les entreprises soumises à une concurrence forte devraient changer les règles. Comme le suggèrent Voelpel et al. (2005), les entreprises participant à une course de type RQE doivent réinventer leur modèle d’affaire si elles souhaitent un avantage concurrentiel durable.

L’hypothèse 2 (la densité de nouveaux produits lancés est liée positivement à la vitesse d’évolution de la tendance centrale de l’industrie) est rejetée.

La progression de la résolution en termes de pixels d’un appareil par rapport à l’appareil précédent n’est pas significativement reliée au nombre d’appareils lancés dans le mois. Si l’hypothèse 2 n’est pas corroborée au niveau du lancement d’un appareil au niveau global de l’industrie, elle l’est si l’on considère la dynamique de RQE au niveau de l’entreprise. En effet, dans les périodes au cours desquelles le nombre de nouveaux appareils est plus important, la course aux pixels s’intensifie.

Par ailleurs, le nombre d’appareils lancés par mois, même s’il est faiblement corrélé à la date de lancement en raison d’une forte saisonnalité, est de plus en plus élevé d’année en année. Le phénomène de longue traîne (Anderson, 2006) peut ainsi être assimilé à une prolifération des offres n’ayant pas ou peu d’impact sur l’équilibre des forces dans l’industrie. Comme le soulignent Derfus et al. (2008 : 66), « en ce qui concerne la concurrence de type Red Queen, les environnements à forte croissance fournissent un terrain fertile pour rechercher et apprendre au sujet de nouvelles opportunités d’action et au sujet de la manière de limiter l’effet de telles actions sur les concurrents ».

L’hypothèse 3 (les entreprises en avance sur la tendance centrale de l’industrie progressent moins vite que celles en retard) est corroborée.

Les résultats soulignent un effet élastique autour de la tendance centrale. La convergence vers la tendance centrale de l’industrie implique un rattrapage des concurrents en retard ainsi qu’un frein des concurrents en avance sur la tendance centrale d’une dimension spécifique. Pour Barnett (2008 : 4), « les membres des organisations essaient d’obtenir un niveau de performance satisfaisant. Quand la performance tombe en dessous de ce niveau, les personnes dans les organisations tentent de restaurer la performance ». L’objectif des entreprises semble clair : se maintenir dans le peloton dont la dimension concurrentielle spécifique des produits lancés (la résolution en termes de megapixels) progresse continuellement. Il apparaît que la progression de la résolution des appareils répond à une volonté de conserver face aux concurrents, une valeur relative forte. Ce n’est pas la valeur absolue de la résolution qui compte mais le fait qu’elle soit au moins égale à celle des appareils concurrents. Pour Nam et al. (2012 : 736), « les entreprises sont constamment en train d’établir des stratégies pour identifier un élément de différenciation permettant de marquer une différence avec ses concurrents ».

L’hypothèse 4 (plus les entreprises s’éloignent de la tendance centrale de l’industrie, moins leur progression est forte) est corroborée.

La progression des entreprises est d’autant plus rapide que les produits lancés se trouvent proches de la tendance centrale de l’industrie. Dès que l’évolution des performances techniques d’une entreprise la conduit à s’éloigner de la tendance centrale, elle ralentit (si la valeur prise par la dimension concurrentielle spécifique est supérieure à la tendance), ou décroche (si la valeur prise par la dimension concurrentielle spécifique est inférieure à la tendance). Ceci peut expliquer la sortie de plusieurs fabricants de l’industrie des appareils photographiques numériques. Se met alors en place un processus de sélection pour éliminer les entreprises les moins performantes techniquement, c’est-à-dire celles qui sont trop éloignées de la tendance centrale de l’industrie (Barnett, 2008).

Discussion

Ces résultats permettent d’enrichir la littérature sur le RQE par la prise en considération de la dimension concurrentielle spécifique, comme facteur pouvant influencer cette dynamique. Plus précisément, la vitesse d’évolution de la tendance centrale de l’industrie (pente du tunnel), ainsi que la dispersion des positions concurrentielles par rapport à cette tendance centrale de l’industrie (largeur du tunnel) sont étudiés. Ensuite, des contributions sont apportées sur l’intérêt de prendre en compte une dimension concurrentielle spécifique pour enrichir la littérature sur le RQE. Enfin, les conséquences au niveau global de l’industrie sont discutées.

Tout d’abord, concernant des variables influençant la vitesse d’évolution de la tendance centrale (pente du tunnel) et ainsi la dynamique de RQE, nos résultats corroborent les travaux existants (Barnett et Hansen, 1996) en soulignant que la densité de la population d’entreprises a un impact positif sur cette vitesse d’évolution. Les entreprises sont alors capables d’apprendre et de s’adapter et ce, même si les relations concurrentielles sont très fortes entre elles. Concernant la densité de nouveaux produits lancés, l’absence de résultat significatif au niveau de l’industrie peut être expliquée par le type d’innovations lancées. En effet, les entreprises en se focalisant sur une dimension concurrentielle spécifique de l’offre (ici le pixel), n’introduisent pas d’innovation radicale par rapport aux offres précédentes. La tendance serait plutôt à de faibles innovations incrémentales afin de maintenir sa position concurrentielle, ce qui n’impacte pas la vitesse d’évolution de la tendance centrale de l’industrie.

Ensuite, nos résultats mettent en évidence, à travers la prise en compte de la dispersion des positions concurrentielles par rapport à la tendance centrale de l’industrie (largeur du tunnel), un effet nouveau que nous appelons effet élastique. Si la littérature s’est déjà intéressée à la position des leaders qui peuvent soit voir leur capacité d’action se réduire (Barnett et McKendrick, 2004), soit au contraire les rendre plus compétitifs (Derfus et al., 2008), notre recherche va plus loin en prenant non seulement en compte les leaders, la réaction de leurs concurrents mais aussi les entreprises en retard. Contrairement aux travaux de Barnett (1997) et Barnett et McKendrick (2004) qui soulignent l’incapacité des leaders à rester compétitifs, les leaders continuent à proposer des innovations et ne s’isolent pas de la compétition (Derfus et al., 2008). Cependant leur rythme de progression, au niveau de la dimension concurrentielle spécifique, reste plus faible que ceux de leurs concurrents. Comme ce qui est en jeu est la position relative autour de la dimension concurrentielle spécifique et non absolue, ces leaders peuvent souhaiter rentabiliser leurs efforts déjà consentis et ne pas chercher à creuser encore plus l’écart, ce qui nécessiterait des investissements autres. Cette raison pourrait expliquer leur rythme de progression plus faible au niveau de la dimension concurrentielle spécifique.

Toutefois, pour leurs concurrents, se met en place un effet attracteur autour de la performance technique de l’innovation des leaders sur la dimension concurrentielle spécifique. Ceci les incite à les imiter et à les rattraper afin de ne pas se laisser distancer. A l’inverse, si une entreprise propose des innovations, en-deçà de la tendance centrale de l’industrie, elle va progressivement ‘décrocher’ de la concurrence, et ne plus être capable de lancer de nouveaux produits avec une performance technique supérieure au niveau de la dimension concurrentielle spécifique, l’effet répulseur agissant alors. Cette relation ambiguë faite d’attraction et de répulsion, souligne la difficulté pour les entreprises de survivre dans un contexte de RQE. Ce phénomène paraît accentué par la focalisation sur une dimension concurrentielle spécifique.

En effet, contrairement à la littérature qui prend essentiellement en compte le lancement de nouveaux produits (Derfus et al., 2008) pour étudier cette dynamique convergente de RQE, cette recherche va plus loin en s’intéressant à une caractéristique particulière des produits lancés, à travers la prise en compte d’une dimension concurrentielle spécifique. Cette dimension permet d’analyser comment peut se focaliser, voire se cristalliser la concurrence entre les entreprises dont il est difficile de sortir. Cette influence est d’autant plus importante que les concurrents trouvent un élément de comparaison objectif, partagé par tous, à savoir une dimension particulière de l’offre mise sur le marché. Comme le rappelle Watanabe (2011), « les fabricants d’appareils photo ont gonflé le nombre de mégapixels sur chaque modèle d’appareil photo successif, indépendamment du fait que de telles augmentations offraient des avantages réels ». Le photographe Ken Rockwell évoquant même en 2008, le « mythe du megapixel ». Ainsi, au lieu de se chercher à développer un avantage compétitif durable (Porter, 1996), les entreprises semblent plus focalisées sur l’observation des pratiques de leurs concurrents. Dans cet environnement de type hypercompétitif (D’Aveni, 1994), une réponse peut être d’adopter un nombre limité de règles simples à suivre (Eisenhardt et Sull, 2001), comme la résolution des appareils photographiques, à l’instar des conclusions des travaux sur la complexité (McKelvey, 1999). Cette règle simple intègre les modèles cognitifs qui structurent la logique sous-jacente de la prise de décision stratégique (Prahalad et Bettis, 1986). Elle agit alors comme un point focal (Schelling, 1960).

Enfin, cette dynamique de RQE, si elle incite les entreprises à aller toujours plus haut et plus vite, ne les rend pas forcément plus fortes, que ce soit au niveau des entreprises ou au niveau de l’industrie. En cristallisant leurs efforts sur une dimension concurrentielle spécifique, cela ne leur permet pas de développer de nouvelles compétences, de remettre en question le modèle existant (Voelpel et al., 2005) et ainsi, de se préparer à une nouvelle forme de concurrence, ce qui les rend vulnérables à terme comme nous allons l’expliciter dans les limites. Selon D’Aveni et al. (2010 : 1372), « les entreprises peuvent soit être épuisées par la transformation continue et l’innovation ou se complaire dans le succès en devenant aveugles et myopes face aux changements requis par l’environnement ». Un paradoxe peut alors être observé. Dans une situation de RQE, le risque est double pour les entreprises : ne pas innover et mourir ou suivre un rythme à en devenir aveugle et mourir également à terme.

Conclusion, limites et voies de recherche

L’objectif de cet article est d’étudier l’influence d’une dimension concurrentielle spécifique sur la dynamique de RQE. Plus précisément, nous nous sommes intéressés à deux facteurs (la vitesse d’évolution de la tendance centrale de l’industrie, ainsi que la dispersion des positions concurrentielles par rapport à cette tendance centrale) influençant cette dynamique de RQE. A travers l’étude de l’industrie des appareils photographiques numériques de 1994 à 2011, les résultats soulignent que la vitesse d’évolution de la tendance centrale de l’industrie par rapport à une dimension concurrentielle spécifique, c’est-à-dire la pente de ce tunnel, est positivement lié à la densité de la population d’entreprises mais pas à la densité de nouveaux produits lancés au sein de l’industrie. Concernant la dispersion des positions concurrentielles par rapport à la tendance centrale de l’industrie, c’est-à-dire la largeur de ce tunnel, les résultats révèlent un effet élastique autour de la tendance centrale. Les entreprises en avance sur la tendance centrale, au niveau de la valeur de la dimension concurrentielle spécifique de leurs nouveaux produits mesurée en termes de pixels, progressent moins vite que celles en retard. Parallèlement, les entreprises les plus en retard s’éloignent progressivement. Un effet d’attraction / répulsion autour de la tendance centrale de l’industrie se met alors en place.

Les limites de ce travail, et les voies de recherche qui en découlent, sont liées à sa validité tant interne qu’externe Tout d’abord, l’industrie des appareils photographiques numériques a permis d’étudier la dynamique concurrentielle du RQE, en se focalisant sur une période de temps (1994-2011) et sur une dimension concurrentielle spécifique, la résolution des appareils en termes de megapixels. La résolution moyenne atteignait, sur les appareils numériques lancés en 2011, 12,8 megapixels, avec un maximum à 24 megapixels. Ce maximum est devenu un standard sur l’ensemble des segments (compact, bridge, hybride, reflex). Ainsi, les neuf appareils lancés sur le mois de janvier 2017 ont une résolution comprise entre 18 et 24 megapixels, soit à peine plus que leurs équivalents lancés six ans plus tôt. La dynamique concurrentielle du RQE apparaît comme terminée sur cette dimension concurrentielle spécifique. Il apparaît ainsi que cette dynamique sur cette dimension concurrentielle spécifique suit, à l’instar des produits, un cycle de vie, de son émergence à sa croissance exponentielle, jusqu’à sa stagnation, le déclin technique de cette dimension ne pouvant être possible.

Ensuite, nous avons centré notre étude sur une dimension concurrentielle spécifique, à savoir la résolution des appareils en termes de megapixels. Or il peut être intéressant de prendre en compte d’autres dimensions concurrentielles spécifiques, afin de mesurer leur influence réciproque ainsi que sur la dynamique de RQE. Par exemple dans l’industrie des appareils photographiques numériques sur la période étudiée, la taille des boitiers des appareils photographique est restée uniforme et n’a que peu évolué. Parallèlement, la puissance du zoom optique est historiquement répartie de l’absence de zoom à des objectifs x30. Enfin la capacité de stockage est passée de 1 Mo pour l’appareil Casio V10 sorti en 1995 à un éventail en 2011 allant de 4 à 128 Go.

Enfin, le design dominant de l’industrie a changé, du compact au smartphone ou au reflex, laissant de l’espace pour de nouvelles stratégies de différenciation dans une dynamique divergente (Gavetti et Ocasio, 2015). A ce propos, Watanabe (2011) déclare que « les fabricants commencent à se concentrer davantage sur les caractéristiques telles que les zooms plus larges ou plus longs, les objectifs de meilleure qualité, les performances de faible luminosité, les plages dynamiques et les fonctionnalités vidéo haute définition ». Les possibilités de comparaison sont alors multiples et les stratégies variées.