Lectures by Jean-Éric Pelet
LE CNAM
NOTRE DAME du GRANDCHAMP
IUT PARIS DESCARTES
EMLV
Brest Business School
PSB
EM Normandie
ProCompta
Töytäri, P., & Rajala, R. (2015). Value-based selling: An organizational capability perspective. Industrial Marketing Management, 45, 101-112.
Mots clés : vente basée sur la valeur, capacité organisationnelle, B2B, quantification, coût total de possession, co-création, levier
P. Töytäri et R. Rajala proposent une analyse approfondie de la Vente Basée sur la Valeur (VBS) en opérant un passage décisif d’une vision traditionnelle centrée sur le talent individuel du vendeur vers une vision moderne de capacité organisationnelle collective. Contrairement à la vente classique où le bon vendeur agit seul grâce à son charisme, la VBS est définie comme une routine collective reposant sur des ressources partagées et des outils structurés permettant de produire des résultats systématiques indépendamment du talent inné du vendeur (Töytäri et Rajala, 2015).
La VBS est conceptualisée comme une capacité organisationnelle collective plutôt qu’une compétence individuelle, s’inscrivant dans la logique de la Resource-Based View selon laquelle les routines organisationnelles constituent une source d’avantage concurrentiel durable (Barney, 1991). L’entreprise met à disposition des ressources partagées et des outils structurés pour produire des résultats systématiques, permettant ainsi de dépasser la dépendance au talent inné du vendeur individuel. L’objectif central de la VBS est de traduire des données techniques et opérationnelles en langage financier afin de prouver que l’investissement n’est pas un coût mais une source de profit futur pour le client (Anderson, Narus et Van Rossum, 2006). L’étude repose sur une démarche qualitative portant sur neuf entreprises industrielles mondiales, structurant le processus de vente en trois phases chronologiques composées de douze capacités clés (Töytäri et Rajala, 2015).
La phase de planification prépare le terrain avant la rencontre avec le client. Elle repose sur l’identification des parties prenantes au sein des centres d’achat (Johnston et Lewin, 1996), l’analyse des processus de production du client pour y déceler des opportunités d’amélioration, la création de bundles combinant produits et services répondant aux objectifs stratégiques urgents, et la préparation de calculateurs de valeur et de références crédibilisant le discours commercial (Hinterhuber, 2004). La phase de mise en œuvre constitue le cœur de la négociation. La confiance et la crédibilité en sont le prérequis indispensable : sans elles, le client refuse de partager ses données sensibles telles que ses coûts actuels et ses volumes, or ces données sont nécessaires pour calculer le gain futur (Doney et Cannon, 1997). La construction d’une vision partagée implique de s’engager tôt dans le cycle d’achat pour influencer les critères de choix avant que la concurrence ne fixe les règles. La quantification de la valeur constitue le point central de cette phase : le vendeur utilise des modèles financiers pour prouver mathématiquement l’impact de sa solution via des indicateurs tels que le TCO (Total Cost of Ownership), qui intègre l’ensemble des coûts sur la durée de vie du produit au-delà du prix d’achat, et le ROCE (Return on Capital Employed), mesurant l’amélioration de la rentabilité des capitaux investis pour le client (Töytäri et Rajala, 2015). La phase de levier (leverage) est souvent négligée mais permet de transformer un succès ponctuel en apprentissage durable. La vérification de la valeur consiste à documenter les résultats réels obtenus après la vente pour constituer une preuve irréfutable auprès des futurs prospects. La création d’un référentiel de cas institutionnalise cet apprentissage et renforce la crédibilité de la marque (Töytäri et Rajala, 2015).
Les auteurs identifient deux obstacles majeurs à la transition vers la VBS. L’immaturité des forces de vente, habituées à vendre des produits et non des profits, freine l’adoption des outils de quantification financière (Töytäri et Rajala, 2015). La focalisation excessive des acheteurs sur le prix facial, au détriment d’une analyse du coût total, constitue un obstacle symétrique du côté de la demande (Hinterhuber, 2004). Sur le plan managérial, les auteurs concluent que la VBS relève d’une ingénierie organisationnelle plutôt que d’une simple technique de persuasion. Les managers doivent former leurs équipes non plus sur des techniques de vente génériques, mais sur la compréhension fine du modèle d’affaires de leurs clients afin de maîtriser la traduction des données opérationnelles en langage financier (Anderson, Narus et Van Rossum, 2006). L’art de la VBS réside précisément dans cette capacité de traduction, condition nécessaire pour déplacer la conversation commerciale du prix vers la valeur créée (Johnston et Mora Cortez, 2018).
L’article de Töytäri et Rajala constitue une contribution majeure à la compréhension de la vente en contexte B2B industriel. En repositionnant la VBS comme une capacité organisationnelle collective ancrée dans des routines partagées, les auteurs dépassent les approches traditionnelles centrées sur le talent individuel du vendeur (Barney, 1991).
La structuration en trois phases, de la planification au levier post-vente, offre un cadre opérationnel complet qui souligne l’importance souvent négligée de la documentation des résultats comme vecteur d’apprentissage organisationnel. La double exigence de confiance relationnelle (Doney et Cannon, 1997) et de rigueur financière (Hinterhuber, 2004) révèle que la VBS requiert une transformation profonde des compétences commerciales, bien au-delà de l’adoption d’outils de calcul. La VBS représente ainsi un levier stratégique de différenciation pour les entreprises B2B capables d’investir dans cette ingénierie organisationnelle (Johnston et Mora Cortez, 2018).
Johnston, W. J., & Mora Cortez, R. (2018). Unit pricing and its implications for B2B marketing research. Industrial Marketing Management, 69, 32-39. https://doi.org/10.1016/j.indmarman.2018.01.026
Mots clés : prix unitaire, tarification basée sur la valeur, unit value-based pricing, marketing B2B, proposition de valeur, cadrage
W. J. Johnston et R. Mora Cortez partent du constat que le prix unitaire (UP), concept initialement développé en B2C par Monroe et LaPlaca (1972) pour aider les consommateurs à comparer les offres, présente un danger majeur s’il est transposé tel quel en B2B : il incite les acheteurs à se focaliser uniquement sur le coût le plus bas en ignorant la valeur ajoutée de l’offre (Hinterhuber, 2004). Les auteurs proposent un nouveau concept de tarification, le Unit Value-Based Pricing (UVBP), fusionnant la mécanique du prix unitaire avec la logique de la valeur perçue.
Les auteurs opèrent un glissement sémantique et stratégique en trois étapes. Le prix unitaire classique (B2C) se concentre sur le coût en définissant un prix par unité de mesure standard pour aider le consommateur à trouver l’offre la moins chère (Monroe et LaPlaca, 1972). La tarification basée sur la valeur (value-based pricing) fixe le prix selon la valeur perçue et la disposition à payer du client afin de capturer une part de la valeur créée (Hinterhuber, 2004 et Töytäri et Rajala, 2015). Le Unit Value-Based Pricing (UVBP) constitue la fusion de ces deux logiques en quantifiant la valeur en unités monétaires rapportées à une unité de mesure standardisée pour chaque élément de la proposition de valeur. Au lieu de présenter un coût au kilogramme, le fournisseur exprime la valeur générée par cycle d’utilisation ou par heure d’usage (Johnston et Mora Cortez, 2018). Ce cadrage repose sur la théorie des perspectives de Kahneman et Tversky (1979) selon laquelle la manière de présenter une information tarifaire modifie substantiellement la perception de l’utilité par l’acheteur. Enfin, le UVBP permet de focaliser la proposition de valeur sur les points de différence pertinents pour chaque interlocuteur du centre d’achat (Anderson, Narus et Van Rossum, 2006).
L’article est conceptuel et s’appuie sur une revue de littérature historique couvrant seize courants de recherche de LaPlaca entre 1972 et 2016, ainsi que sur neuf propositions théoriques et une étude de cas illustrative. Parmi les propositions clés, la première soutient que communiquer la valeur par unité a plus d’impact positif sur la décision d’achat que de présenter une valeur totale abstraite. La deuxième propose que le UVBP permet de segmenter le message au sein du centre d’achat en présentant la valeur technique unitaire à l’ingénieur et la valeur financière unitaire au directeur financier. La troisième affirme que ce système accélère le processus d’achat en standardisant la comparaison d’offres complexes (Johnston et Mora Cortez, 2018). Les propositions quatre et cinq soulignent le rôle critique du Big Data et de l’IoT pour mesurer et prouver ces unités de valeur en temps réel. L’étude de cas illustre concrètement le modèle à travers la négociation d’un fournisseur de boulets de broyage avec une mine de cuivre en Australie. En définissant comme unité standard le cycle d’opération du broyeur de six mois et en fragmentant la proposition de valeur selon les interlocuteurs (fiabilité logistique pour le responsable entrepôt, économie d’énergie de 13 % par cycle pour l’ingénieur, assistance technique pour la maintenance), le fournisseur a obtenu un contrat de cinq ans à un prix 9,5 % supérieur à celui du concurrent tout en générant 0,3 million de dollars d’économies par cycle pour le client (Johnston et Mora Cortez, 2018).
Sur le plan théorique, l’article démontre qu’un outil conçu pour le grand public peut être sophistiqué pour le B2B s’il est indexé sur la valeur et non sur le coût, réconciliant ainsi deux traditions de recherche longtemps distinctes (Monroe et LaPlaca, 1972 et Hinterhuber, 2004). Le recours au cadrage de Kahneman et Tversky (1979) enrichit la compréhension psychologique des mécanismes de perception tarifaire en contexte organisationnel. Les limites sont néanmoins significatives. Le modèle exige une transparence totale des données de production du client, ce qui suppose un niveau de confiance élevé dans la relation fournisseur-acheteur (Töytäri et Rajala, 2015). Par ailleurs, le UVBP peut se retourner contre le fournisseur dans les grands centres d’achat, car il révèle si clairement la valeur créée que les acheteurs experts peuvent l’utiliser pour négocier un partage de valeur plus agressif, réduisant ainsi la marge du fournisseur. Sur le plan managérial, les auteurs recommandent de substituer la vente d’un produit par la vente d’une performance d’usage exprimée en unités standardisées, de fragmenter la proposition de valeur totale pour adresser chaque interlocuteur du centre d’achat avec les éléments les plus pertinents à ses responsabilités, et d’investir dans les technologies IoT et analytiques pour prouver empiriquement la valeur unitaire promise après l’achat (Anderson, Narus et Van Rossum, 2006).
L’article de Johnston et Mora Cortez constitue une contribution conceptuelle originale à la littérature sur la tarification B2B. En proposant le Unit Value-Based Pricing, les auteurs résolvent l’antagonisme apparent entre la transparence du prix unitaire (Monroe et LaPlaca, 1972) et la sophistication de la tarification basée sur la valeur (Hinterhuber, 2004) en les combinant dans un cadre opérationnel unique.
Le principal apport réside dans la démonstration que la granularité de l’expression tarifaire, lorsqu’elle est indexée sur des unités de valeur perçue et non de coût, transforme la dynamique de négociation en déplaçant la conversation du prix vers la performance. L’ancrage dans la théorie des perspectives (Kahneman et Tversky, 1979) confère à ce modèle une robustesse psychologique qui va au-delà des approches purement économiques. L’étude de cas australien illustre que cette approche permet simultanément de créer de la valeur pour le client et de capturer une prime tarifaire pour le fournisseur, à condition de disposer des données et des capacités relationnelles nécessaires (Töytäri et Rajala, 2015).
Mora Cortez, R., & Hidalgo, P. (2022). Prioritizing B2B marketing capabilities: Crossvergence in advanced and emerging economies. Industrial Marketing Management, 105, 422-438. https://doi.org/10.1016/j.indmarman.2022.07.002
Mots clés : capacités marketing, crossvergence, B2B, économies avancées et émergentes, priorisation, performance
R. Mora Cortez et P. Hidalgo s’interrogent sur la hiérarchisation des capacités marketing B2B et leur universalité selon les contextes institutionnels. La littérature existante liste de nombreuses capacités sans indiquer lesquelles prioriser selon les objectifs de performance, et se concentre majoritairement sur les économies avancées (Vorhies et Morgan, 2005 et Morgan, 2019). En mobilisant la théorie de la crossvergence (Ralston, 2008) et celle des capacités dynamiques (Teece, 2007), les auteurs testent empiriquement si les mêmes capacités produisent les mêmes effets dans des contextes institutionnels distincts.
La théorie de la crossvergence dépasse l’opposition binaire entre convergence (standardisation globale) et divergence (adaptation locale) en proposant une hybridation où certaines pratiques convergent tandis que d’autres restent ancrées dans le contexte institutionnel local (Ralston, 2008 et Sheth, 2011). Les auteurs mobilisent également la théorie des capacités dynamiques de Teece (2007) pour classer les dix capacités marketing étudiées en trois fonctions. La fonction sensing regroupe la recherche marketing et l’intelligence digitale. La fonction seizing inclut la gestion des canaux, la vente personnelle et l’e-commerce. La fonction reconfiguring couvre la segmentation, le prix, le développement de nouvelles offres, la communication et les réseaux sociaux. L’étude compare trois pays aux profils institutionnels distincts, à savoir les États-Unis (grand marché avancé), le Danemark (petit marché avancé) et le Chili (marché émergent), sur un échantillon de 702 cadres dirigeants B2B. La collecte de données s’est effectuée en deux temps pour limiter les biais de variance commune, et l’analyse repose sur la modélisation par équations structurelles avec correction d’endogénéité via la méthode MIIV-2SLS, robuste pour isoler les effets causaux (Mora Cortez et Hidalgo, 2022).
Les résultats confirment la crossvergence en révélant un noyau dur universel coexistant avec des spécificités locales marquées. Trois capacités constituent des piliers universels quel que soit le contexte institutionnel (Wu, 2013). La segmentation et le ciblage constituent le prérequis indispensable au développement de toute capacité marketing de haut niveau. La gestion du prix est le moteur universel de la rentabilité dans les trois pays. Le développement de nouvelles offres est le moteur universel de la satisfaction client, confirmant que l’innovation produit est une clé en B2B quelle que soit la géographie (Vorhies et Morgan, 2005). Les divergences contextuelles sont tout aussi significatives. Aux États-Unis, les réseaux sociaux influencent positivement la satisfaction tandis que l’e-commerce l’affecte négativement, les clients percevant ce canal comme un manque de service personnel. Au Danemark, la vente personnelle influence à la fois la satisfaction et la rentabilité, la culture démocratique exigeant une attention égale pour tous les interlocuteurs. Au Chili, l’intelligence digitale impacte négativement les ventes en raison de la méfiance envers les données personnelles et des insuffisances technologiques, tandis que la gestion des canaux influence la rentabilité via les partenariats stratégiques propres aux clusters industriels locaux (Sheth, 2011). Sur le plan théorique, la convergence s’observe sur les dimensions les plus rationnelles du B2B tandis que la divergence émerge dès que les infrastructures digitales ou les relations humaines sont impliquées (Ralston, 2008). Les limites de l’étude incluent sa nature transversale qui ne permet pas d’observer l’évolution des capacités dans le temps ainsi que le recours aux perceptions déclaratives des dirigeants malgré les corrections statistiques apportées.
Les auteurs proposent un guide de priorisation des capacités selon l’objectif de performance visé (Mora Cortez et Hidalgo, 2022). Pour améliorer la satisfaction client, l’investissement dans le développement de nouvelles offres constitue la recommandation universelle, complétée par les réseaux sociaux aux États-Unis, la vente personnelle au Danemark et la construction de relations de confiance face à l’incertitude institutionnelle au Chili. Pour maximiser les revenus, la recherche marketing et la gestion des canaux s’imposent dans les économies avancées, tandis qu’au Chili une surenchère digitale est à éviter car mal perçue par les clients. Pour améliorer la rentabilité, la compétence en pricing constitue la priorité universelle (Teece, 2007), complétée par la vente personnelle aux États-Unis et au Danemark, et par les partenariats de distribution stratégiques au Chili.
L’article de Mora Cortez et Hidalgo apporte une contribution théorique et managériale significative à la littérature sur les capacités marketing B2B. En mobilisant conjointement la crossvergence (Ralston, 2008) et les capacités dynamiques (Teece, 2007), les auteurs démontrent que la mondialisation ne produit pas une uniformisation des pratiques marketing mais une hybridation où coexistent un noyau universel et des logiques contextuelles fortes.
Le principal apport réside dans la démonstration que la priorisation des capacités dépend à la fois de l’objectif de performance visé et du contexte institutionnel de l’entreprise (Morgan, 2019). La segmentation, le pricing et le développement de nouvelles offres constituent des investissements universellement justifiés, tandis que les capacités digitales et relationnelles requièrent une adaptation fine aux spécificités locales (Sheth, 2011 et Wu, 2013). Ce cadre offre aux dirigeants B2B opérant à l’international un outil concret de décision pour allouer leurs ressources marketing de manière optimale selon leur géographie et leurs priorités stratégiques.
Massiera, P., Trinchera, L., & Russolillo, G. (2018). Evaluation de la présence des capacités marketing : Proposition d’un index multidimensionnel et hiérarchique. Recherche et Applications en Marketing, 33(1), 31-55. https://doi.org/10.1177/0767370117741108
Mots clés : capacités marketing, approche PLS aux modèles à variables latentes, construit formatif hiérarchique, index composite, PME, matrice importance-performance
P. Massiera, L. Trinchera et G. Russolillo identifient une faille majeure dans les instruments existants de mesure des capacités marketing : les échelles de référence (Vorhies et Morgan, 2005) reposent sur une évaluation comparative des entreprises par rapport à leurs concurrents, or l’avantage concurrentiel dépend moins du différentiel de ressources que de l’habileté à les orchestrer en interne (Sirmon, Hitt et Ireland, 2007). Les auteurs proposent un index multidimensionnel et hiérarchique permettant une mesure absolue et descriptive du portefeuille de capacités marketing des PME.
Les auteurs proposent un modèle hiérarchique de troisième ordre structuré en trois niveaux d’abstraction. Le niveau global correspond au construit général des capacités marketing. Le niveau intermédiaire distingue les capacités stratégiques (étude de marché, planification) des capacités spécialisées liées à la gestion du mix marketing (Morgan, 2012). Le niveau opérationnel décompose ces dimensions en huit sous-capacités précises telles que la segmentation, la gestion des prix ou la communication (Massiera, Trinchera et Russolillo, 2018). Ce choix de modélisation repose sur un positionnement épistémologique central : contrairement à l’approche psychométrique classique dite réflective, les auteurs adoptent une approche composite formative selon laquelle le construit est formé par l’agrégation des compétences et non l’inverse (Diamantopoulos et Winklhofer, 2001 et Bollen et Bauldry, 2011). C’est la somme des compétences qui crée la capacité globale. Ce changement de paradigme permet de passer d’une mesure relative demandant si l’entreprise est meilleure que ses concurrents à une mesure absolue décrivant ce qu’elle sait réellement faire, favorisant ainsi l’étude de l’orchestration interne des ressources (Sirmon, Hitt et Ireland, 2007 et Moorman et Day, 2016).
L’instrument est validé sur un échantillon de 199 PME françaises de moins de 100 salariés, interrogées par téléphone via un questionnaire utilisant une échelle de Likert en quatre points sans point neutre afin d’éviter le biais de statu quo. L’analyse repose sur la méthode PLS-PM (Partial Least Squares Path Modeling), spécifiquement adaptée aux index composites et aux construits formatifs (Diamantopoulos et Winklhofer, 2001). Les tests de validité discriminante confirment que les différentes capacités sont bien distinctes statistiquement. La validité convergente est établie par la contribution significative de chaque indicateur à la formation de son construit. La validité nomologique est démontrée par le lien positif et très significatif entre la présence de capacités marketing et la performance organisationnelle (bêta = 0,458), le modèle expliquant 21 % de la variance de la performance, résultat comparable voire supérieur aux études comparatives antérieures (Vorhies et Morgan, 2005). Sur le plan substantiel, l’outil démontre que le déficit marketing des PME n’est pas une fatalité liée à la taille mais une question de gestion du portefeuille de ressources (Morgan, 2012 et Massiera, Trinchera et Russolillo, 2018).
Sur le plan théorique, l’apport central est le changement de paradigme opéré par le passage à une mesure absolue permettant d’étudier l’orchestration des ressources (Sirmon, Hitt et Ireland, 2007) et la structure hiérarchique permettant d’analyser la contribution de chaque niveau à la performance globale (Massiera, Trinchera et Russolillo, 2018). Les auteurs identifient deux limites. L’usage d’échelles de Likert traitées comme des données métriques dans le modèle PLS constitue une approximation statistiquement critiquable (Bollen et Bauldry, 2011). Le choix des dimensions repose fortement sur les travaux de Morgan (2012), d’autres cadres théoriques auraient pu conduire à une sélection différente d’indicateurs. Sur le plan managérial, l’index permet de construire une matrice importance-performance classant les capacités en quatre zones. Les forces correspondent aux capacités maîtrisées et cruciales à protéger. Les axes de progrès désignent les capacités cruciales mais insuffisamment maîtrisées, constituant la priorité d’investissement. La sur-qualité regroupe les capacités très maîtrisées mais peu utiles à la performance, invitant à optimiser les coûts. La zone neutre rassemble les capacités à faible maîtrise et faible impact, non prioritaires (Moorman et Day, 2016).
L’article de Massiera, Trinchera et Russolillo constitue une contribution méthodologique et théorique significative à la mesure des capacités marketing. En adoptant une approche composite formative et une structure hiérarchique à trois niveaux, les auteurs proposent un instrument permettant un diagnostic interne précis du portefeuille de capacités des PME, sans dépendre d’une comparaison externe subjective (Diamantopoulos et Winklhofer, 2001).
Le principal apport réside dans le changement de paradigme opéré, passant d’une logique de benchmarking concurrentiel à une logique d’auto-évaluation absolue orientée vers l’orchestration interne des ressources (Sirmon, Hitt et Ireland, 2007). La validation empirique sur 199 PME françaises démontre la robustesse de l’instrument et confirme le lien entre capacités marketing et performance organisationnelle (Morgan, 2012). La matrice importance-performance offre aux dirigeants un outil opérationnel concret pour prioriser leurs décisions d’investissement et de formation.
Coron, C., & Richet, J.-L. (2021). Une étude de l’appropriation d’un dispositif d’accompagnement de la transformation numérique en continu. Systèmes d’information & management, 26(3), 35-65. https://doi.org/10.3917/sim.213.0035
Mots clés : transformation numérique, appropriation, accompagnement du changement, dispositif d’accompagnement, complexité, transformation en continu
C. Coron et J.-L. Richet examinent comment un dispositif d’accompagnement de la transformation numérique (TN) est approprié par différents acteurs dans une logique de transformation en continu. La littérature existante se concentre sur le lancement des transformations et néglige les structures de soutien nécessaires pour les maintenir dans la durée (Besson et Rowe, 2012 ; Vial, 2019). En mobilisant le cadre théorique de De Vaujany (2006) sur l’appropriation, les auteurs analysent comment trois perspectives rationnelle, sociopolitique et psychocognitive se déclinent à trois niveaux d’acteurs distincts.
La TN est définie non comme un projet à fin définie mais comme un processus en continu requérant un effort permanent de coopération et d’apprentissage (Kohli et Melville, 2019 et Vial, 2019), que la littérature existante néglige en se focalisant sur son initiation (Besson et Rowe, 2012). Les auteurs mobilisent la grille de De Vaujany (2006) articulant trois perspectives de l’appropriation. La perspective rationnelle considère l’appropriation comme évidente si l’outil est performant. La perspective sociopolitique est centrée sur les relations de pouvoir et les stratégies des acteurs. La perspective psychocognitive conçoit l’appropriation comme un processus de construction de sens, ou sensemaking (De Vaujany, 2006). Ces trois perspectives sont croisées avec trois niveaux d’acteurs, à savoir la gouvernance, l’entité locale et l’individu (Coron et Richet, 2021). L’étude repose sur une démarche qualitative comparative portant sur trois grandes entreprises françaises (Num, Banque, Energ) ayant déployé le même dispositif de « Coaches Digitaux », combinant 22 entretiens semi-directifs, une observation participante de trois ans et l’analyse de documents internes (Chanias, Myers et Hess, 2019).
Au niveau de la gouvernance, le cabinet de conseil a conçu un dispositif volontairement souple relevant d’une appropriation rationnelle (De Vaujany, 2006), permettant aux entreprises de l’adapter à leurs besoins. Au niveau de l’entité, les responsables du déploiement constituent l’apport central de l’article. Acteurs hybrides à la fois utilisateurs du dispositif global et concepteurs de sa déclinaison locale, ils exercent un pouvoir de reconfiguration que la littérature sous-estimait (Dudézert, Fayard et Oiry, 2015 et Coron et Richet, 2021). Cette réinterprétation produit des résultats contrastés, avec une approche formalisée chez Num, conviviale via des « Digilunchs » chez Banque, et contrainte chez Energ où la hiérarchie lourde freine l’appropriation. Au niveau individuel, l’appropriation dépend du sens attribué à la TN et des intérêts personnels (De Vaujany, 2006). Certains coaches détournent le dispositif pour humaniser le travail, d’autres l’utilisent comme échappatoire, et chez Energ la formalisation administrative mène au désengagement. Sur le plan théorique, l’étude enrichit le cadre de De Vaujany (2006) en démontrant que l’appropriation traverse trois strates interactives plutôt qu’un simple couple concepteur-utilisateur (Dudézert, Fayard et Oiry, 2015).
Les limites incluent une application parfois redondante des trois perspectives à chaque niveau et une analyse insuffisante du détournement des usages comme mécanisme central de l’appropriation (Coron et Richet, 2021). Sur le plan managérial, le succès de la TN ne dépend pas de l’outil technique mais de la capacité des responsables locaux à adapter le dispositif à la culture organisationnelle (Vial, 2019). La gouvernance doit accepter un couplage faible laissant une marge de manœuvre suffisante. Vouloir tout contrôler peut tuer l’initiative, alors que la flexibilité favorise l’adhésion et le lien social, condition première de l’appropriation (Besson et Rowe, 2012 et De Vaujany, 2006).
L’article de Coron et Richet constitue une contribution théorique et empirique originale à la compréhension de l’appropriation des dispositifs d’accompagnement de la TN. En croisant le cadre de De Vaujany (2006) avec trois niveaux d’acteurs, les auteurs démontrent que l’appropriation est un processus complexe, différencié et non linéaire qui ne se réduit pas à une logique rationnelle de déploiement technique.
Le principal apport réside dans l’identification du responsable de déploiement comme acteur charnière, dont le rôle de reconfiguration locale est déterminant pour le succès ou l’échec du dispositif. Les résultats contrastés entre Num, Banque et Energ illustrent concrètement comment la culture organisationnelle et les ressources disponibles modèrent l’appropriation. L’étude souligne enfin que la TN en continu requiert moins une maîtrise technique qu’une capacité à créer du sens, du lien social et de la flexibilité à chaque niveau de l’organisation (Vial, 2019 ; Kohli et Melville, 2019).
Saoudi, L., Aubry, M., Gomot, T., & Renaud, A. (2023). Transformation digitale et performance des PME : une analyse bibliométrique pour comprendre et agir. Revue internationale P.M.E., 36(2), 13-38. https://doi.org/10.7202/1101642ar
Mots clés : transformation digitale, PME, performance, analyse bibliométrique, analyse de cocitation, couplage bibliographique
L. Saoudi, M. Aubry, T. Gomot et A. Renaud identifient un paradoxe majeur dans la littérature scientifique : si la transformation digitale (TD) fait l’objet d’une abondante production académique, celle-ci se concentre quasi-exclusivement sur les grandes entreprises, laissant largement inexploré le lien entre TD et performance des PME. Les auteurs réalisent une analyse bibliométrique combinant analyse de cocitation et couplage bibliographique pour cartographier les fondements théoriques et le front de recherche actuel de ce champ émergent.
Les auteurs distinguent trois niveaux conceptuels souvent confondus dans la littérature. La digitisation désigne la conversion technique de données analogiques en format numérique. La digitalisation correspond à l’utilisation des technologies pour modifier des processus existants. La transformation digitale (TD) est définie comme l’exploration de nouveaux possibles engendrant des changements organisationnels profonds (Vial, 2019 , Verhoef et al., 2021). Cette clarification est d’autant plus nécessaire que les PME, représentant 24 % de la valeur ajoutée en France, sont souvent traitées comme des modèles réduits des grandes entreprises, sans égard pour leurs contraintes spécifiques en termes de ressources financières, humaines et du rôle central du dirigeant (Saoudi et al., 2023). L’étude repose sur une analyse bibliométrique d’un corpus de 67 articles issus de Scopus, combinant deux techniques : l’analyse de cocitation (ACC), rétrospective, identifie le cœur intellectuel du champ à partir de 17 références fondatrices citées au moins cinq fois , le couplage bibliographique (ACB), prospectif, cartographie le front de recherche à partir de 55 articles récents (2018-2022).
L’analyse révèle un champ émergent marqué par une explosion des publications en 2020 (effet Covid-19) et une forte fragmentation, avec seuls 11 auteurs sur 208 ayant plus d’une publication. L’ACC identifie trois groupes théoriques disjoints : l’adoption et la performance des PME, le processus de transformation stratégique (Matt, Hess et Benlian, 2015), et la méthodologie de mesure fondée sur la Resource-Based View selon laquelle les ressources internes constituent la source d’avantage concurrentiel durable (Barney, 1991). La déconnexion entre ces trois groupes révèle une lacune centrale : l’impact réel des outils digitaux sur la performance reste mal évalué (Saoudi et al., 2023). L’ACB identifie cinq conversations actuelles : les processus et l’Industrie 4.0 où la performance est une motivation plutôt qu’un résultat mesuré (Muller, Buliga et Voigt, 2018) une approche techno-centrée analysant l’impact d’outils spécifiques selon une perspective capacitaire (Li, Su, Zhang et Mao, 2018), une approche organisationnelle mobilisant les capacités dynamiques comme variables médiatrices entre digital et performance (Cenamor, Parida et Wincent, 2019), des études en silo par fonction comme la supply chain, principalement dans les pays émergents et enfin le marketing digital liant orientation digitale et performance commerciale.
Les auteurs dressent un bilan sévère du champ en identifiant quatre limites. La confusion sémantique entre digitisation, digitalisation et TD nuit à la cumulativité des connaissances (Vial, 2019). La myopie de la performance, réduite à la dimension financière, néglige les aspects RSE, durabilité et bien-être du dirigeant (Saoudi et al., 2023). Une vision statique traite la TD comme une recette à appliquer plutôt que comme un apprentissage continu (Verhoef et al., 2021). Enfin, des silos géographiques séparent les études sur pays développés de celles sur pays émergents. En réponse, les auteurs proposent quatre axes : une approche holistique croisant processus et résultats, une vision dynamique du type learning by doing (Vial, 2019), un élargissement de la performance aux dimensions durables, éthiques et sociales, et une perspective écosystémique étudiant les PME dans leurs réseaux de partenaires technologiques, au-delà de l’analyse intra-firme (Saoudi et al., 2023).
L’article de Saoudi et al. constitue une contribution méthodologique rigoureuse à un champ de recherche encore peu structuré. En combinant analyse de cocitation et couplage bibliographique, les auteurs démontrent que la littérature sur la transformation digitale des PME est à la fois émergente, fragmentée et déséquilibrée : les piliers théoriques manquent de cohésion, les conversations actuelles restent cloisonnées, et les PME demeurent sous-représentées par rapport aux grandes entreprises.
La valeur ajoutée de cet article réside dans la clarification sémantique entre digitisation, digitalisation et TD, ainsi que dans l’identification précise des lacunes structurelles du champ. Les quatre recommandations proposées approche holistique, vision dynamique, élargissement de la performance et perspective écosystémique constituent un agenda de recherche concret et opérationnel pour les chercheurs.
Cet article représente un point de départ incontournable pour quiconque souhaite s’inscrire dans la littérature sur la TD des PME, en offrant une cartographie claire des acquis et des zones encore à explorer.
Référence de l’article :
Li, W. W., Leung, A. C. M., & Yue, W. T. (2023). Where is IT in information security? The interrelationship among IT investment, security awareness, and data breaches. MIS Quarterly, 47(1), 317–342.
https://doi.org/10.25300/MISQ/2022/15713
Mots-clés :
Contrôle de gestion, investissement IT, gestion des risques cyber, performance sécuritaire, gouvernance des systèmes d’information, sensibilisation à la sécurité (security awareness), pilotage des ressources, violations de données (data breaches)
Introduction synthétique :
Cet article examine la relation dynamique et bidirectionnelle entre les investissements dans les technologies de l’information (IT), les investissements spécifiques en cybersécurité et la survenue de violations de données. Le problème central réside dans le fait que, malgré l’augmentation des budgets de sécurité, les incidents prolifèrent, remettant en cause l’efficacité des approches réactives. L’objectif des auteurs est de démontrer que la sensibilisation à la sécurité (déclinée en conscience des menaces et des contre-mesures) est le “maillon manquant” qui permet d’intégrer efficacement les ressources IT pour améliorer la performance sécuritaire. Leur question de recherche interroge comment ces deux types de conscience modèrent l’impact des investissements sur la réduction des risques. Pour le contrôle de gestion, l’étude souligne que la cybersécurité ne doit pas être traitée comme un coût isolé, mais comme une composante intrinsèque du pilotage de la performance globale et de l’allocation des ressources technologiques.
Annonce du plan :
D’abord nous analyserons les définitions et concepts clés mobilisés par les auteurs. Ensuite nous examinerons les enjeux organisationnels ainsi que le rôle pivot du contrôle de gestion dans le pilotage du risque cyber. Enfin nous mettrons en évidence les outils méthodologiques, les résultats de l’étude et les implications pour la performance.
Développement structuré :
A. Définitions et concepts clés:
B. Enjeux organisationnels et managériaux du risque cyber
C. Rôle du contrôle de gestion dans la gestion du risque cyber
D. Outils, modèles ou mécanismes évoqués
E. Résultats, apports et implications
F. Limites de l’étude
Conclusion :
Cet article est fondamental pour comprendre que le risque cyber n’est pas un problème purement technique, mais un défi de pilotage des ressources. Il démontre que l’efficacité du contrôle de gestion dans ce domaine repose sur la capacité à orienter les budgets vers une modernisation des infrastructures IT plutôt que vers une accumulation de solutions de sécurité réactives. Pour un mémoire, il offre une base quantitative solide pour justifier l’alignement stratégique entre IT, sécurité et performance organisationnelle, tout en proposant des indicateurs innovants basés sur la communication financière des entreprises.
Références citées dans l’article :
Tanriverdi, H., Kwon, J., & Im, G. (2025). Taming Complexity in the Cybersecurity of Multihospital Systems: The Role of Enterprise-Wide Data Analytics Platforms. MIS Quarterly, 49(1), 243-274. https://doi.org/10.25300/MISQ/2024/17752.
Contrôle de gestion, gestion des risques, cybersécurité, pilotage de la performance, gouvernance décentralisée, systèmes d’information complexes, indicateurs de contrôle, plateformes analytiques.
L’article explore l’impact de la configuration organisationnelle et technologique des systèmes multi-unités (ici, les systèmes multi-hospitaliers) sur la fréquence des violations de données. Le problème de gestion traité réside dans la difficulté de maintenir des contrôles de sécurité efficaces face à une « complexité » croissante qui entrave la visibilité et la coordination managériale. L’objectif des auteurs est de démontrer comment les interactions non structurées (ad hoc) augmentent les risques, tandis que les interactions structurées via des plateformes de données (EWDAP) permettent de simplifier le système. Ils postulent que le risque cyber n’est pas seulement un problème technique mais découle de la structure de gouvernance et de la variété des services. Le lien avec le contrôle de gestion est établi par l’étude de la gouvernance et de l’efficacité des dispositifs de contrôle interne (techniques, processus et humains) pour assurer la performance globale et la continuité de service.
Cet article apporte une contribution essentielle au contrôle de gestion en démontrant que le risque cyber est intrinsèquement lié à la structure organisationnelle et au mode de partage de l’information. Pour un mémoire, il est particulièrement utile car il fournit un cadre théorique (science de la complexité) et empirique pour justifier le passage d’un contrôle technique isolé vers un pilotage stratégique par les plateformes de données, capable de “simplifier” les organisations multi-unités et de protéger leur performance boursière et opérationnelle.
Li, W. W., Leung, A. C. M., & Yue, W. T. (2023). Where is IT in Information Security? The Interrelationship Among IT Investment, Security Awareness, and Data Breaches. MIS Quarterly, 47(1), 317-342.https://doi.org/10.25300/MISQ/2022/15713
Contrôle de gestion, gestion des risques cyber, investissement IT, performance sécuritaire, sensibilisation à la sécurité (security awareness), gouvernance des SI, causes profondes (root causes), budgets de sécurité..
L’article explore la relation dynamique entre les investissements en technologies de l’information (IT), les investissements spécifiques à la sécurité et la survenance de violations de données. Le problème central réside dans l’inefficacité constatée des augmentations budgétaires massives dédiées uniquement à la sécurité, qui ne parviennent pas à freiner la prolifération des cyberattaques. L’objectif des auteurs est de démontrer que l’investissement IT général, lorsqu’il est modéré par une forte sensibilisation à la sécurité au niveau de la direction, est plus efficace pour réduire les risques que l’investissement de sécurité isolé,. Les auteurs testent l’hypothèse selon laquelle la sensibilisation aux menaces et aux contre-mesures permet d’identifier et de traiter les causes profondes des failles logées dans l’infrastructure IT sous-jacente,. Pour le contrôle de gestion, cela souligne la nécessité d’intégrer la cybersécurité dans le pilotage global des ressources technologiques plutôt que de la traiter comme un centre de coût isolé,.
L’apport majeur de cet article pour le contrôle de gestion est de démontrer que la cybersécurité ne doit pas être pilotée de manière isolée. L’étude prouve que la performance sécuritaire est une conséquence de la qualité de l’infrastructure IT globale et de la maturité culturelle de la direction (sensibilisation),. Pour un mémoire, cet article est un support précieux pour justifier que le contrôle des risques cyber passe par une modernisation des systèmes d’information plutôt que par une simple accumulation de logiciels de protection,.
D’Arcy, J., & Basoglu, K. A. (2022). The Influences of Public and Institutional Pressure on Firms’ Cybersecurity Disclosures. Journal of the Association for Information Systems, 23(3), 779-805. https://doi.org/10.17705/1jais.00740
Cybersécurité, gestion des risques, divulgation d’informations (disclosure), pilotage de la performance, théorie de la légitimité, pression institutionnelle, gouvernance des systèmes d’information, rapports 8-K.
Cet article explore les déterminants des divulgations opportunes d’informations sur la cybersécurité dans les rapports 8-K déposés auprès de la SEC. Le problème central réside dans la gestion de la communication après une violation de données, un événement qui engendre des coûts financiers et réputationnels substantiels menaçant la viabilité de l’entreprise. L’objectif des auteurs est de déterminer si des pressions externes, autres que réglementaires, incitent les entreprises à communiquer sur leurs risques et leur gestion de la sécurité. Ils testent l’hypothèse selon laquelle la pression publique (attention médiatique) et la pression institutionnelle (violations chez les pairs) agissent comme des moteurs de divulgation, modulés par l’origine interne ou externe de la faille. Pour le contrôle de gestion, cette recherche souligne que la cybersécurité n’est pas qu’un défi technique, mais un enjeu de pilotage stratégique de l’information pour maintenir la légitimité auprès des investisseurs.
Cet article démontre que la divulgation d’informations cyber est un acte de pilotage stratégique dicté par la gestion de la réputation et de la légitimité. Pour un mémoire en contrôle de gestion, il est crucial car il établit que le reporting cyber n’est pas seulement une réponse à la loi, mais une réaction aux attentes du marché et à la pression publique. L’étude offre un cadre pour comprendre comment les indicateurs de risque externes (attention publique) transforment les politiques de reporting interne et influencent la performance boursière.