Generative AI et Product Management : simple hype ou mutation d'un métier ?
5/7/2023
Le 30.11.2022, le monde réel rattrape la science-fiction. L’intelligence artificielle générative Chat GPT est offerte au monde. Un nouveau métier émerge : prompt engineer. Si avec les chatbots peu réactifs, un plafond semblait atteint, la generative AI le survole. Ainsi, comme toute révolution technologique, elle effraie. Est-ce que mon poste est en danger ? Est-ce que cette moissonneuse batteuse des temps postmodernes va se substituer à moi ?
En Avril 2023, Forbes sort un papier pour nous rassurer : Non, l’AI ne va pas nous remplacer. En revanche, il vaudrait mieux apprendre à la manipuler, à la maîtriser, ainsi qu’à identifier et composer avec les biais qui lui sont inhérents. Voilà qui est mieux. Nous pouvons décidément aborder sereinement cette avancée de taille et à l’employer à notre avantage. Et nous aurions tort de ne pas en profiter. Comme le souligne Victor Billette de Villemeur, Product Manager (PM) chez L’Oréal, elle est accessible au grand public, tant par le fait qu’il suffise d’une connexion internet que par son utilisation simple et intuitive. Jonathan Sabbah, PM indépendant, note de son côté que ce qui contribue à la magie de cet outil impressionnant est son universalité : le fait qu’il ne soit pas conçu dans un objectif précis. Ce n’est pas le concepteur mais bien l’utilisateur qui décide et en crée les usages, très larges. Quels sont-ils pour le PM de demain ?
Sommaire
Dès hier, certains ont commencé à s’approprier la generative AI et l’ont faite entrer dans leur quotidien. C’est le cas de nos deux intervenants. À titre d’exemple, Jonathan s’appuie dessus pour « s’aider à penser », se faire challenger. S’il a une idée de nouvelle fonctionnalité, il va demander à l’outil de lui expliquer pourquoi ça n’en est pas une bonne, ce qui pourrait mal se dérouler et ainsi améliorer la qualité de sa prise de décision. « Ce serait un tort de ne pas profiter d’un contradicteur rationnel ». Victor voit également la generative AI comme un professeur lorsqu’il est confronté à des sujets techniques. «Il n’y a pas besoin de déranger un dev pour des questions triviales ». L’outil semble même faire preuve de pédagogie, en rappelant à son utilisateur que le problème qu’il rencontre est commun et en lui expliquant step by step comment le résoudre.
Il ne s’agit pas tant de laisser l’AI faire les choses Ă notre place que de l’employer Ă la recommandation, au challenge. C’est en effet un outil de productivitĂ© pour sĂ»r, mais aussi un moyen de rĂ©flĂ©chir mieux et davantage. Et ce n’est pas pour autant que Victor ou Jonathan se reposent intĂ©gralement sur cette technologie. « La technologie a tendance Ă faciliter la vie », Ă rĂ©duire la pĂ©nibilitĂ©, ce qui permet de se recentrer vers l’humain; mais jusqu’à quelle limite ? Tout devient potentiellement simple, mais « est-ce qu’on a envie de faire que du GPS tout le temps ou est-ce qu’on a envie de se perdre un petit peu pour conserver son sens de l’orientation » ? Qu’est ce qui peut finalement nous orienter vers l’emploi de ce nouveau collègue ou non ?Â
- Quelle est la complexité du problème, l’ampleur des connaissances que je dois lui fournir pour accéder à une réponse vraiment pertinente ? Le fait qu’il s’agisse d’un projet à son stade initial ou d’un produit pour lequel il existe déjà un codebase énorme va être déterminant. D’un côté, les données d'entraînement vont suffire, de l’autre, il va falloir passer beaucoup de temps à rassembler et structurer les éléments de contexte nécessaires.
- Quelle est ma valeur ajoutée dans cette tâche ? J’en ai peut-être plus qu’une intelligence artificielle lorsqu’il s’agit de préparer un point avec mon stakeholder, structurer une réflexion, que lorsque je dois faire un post sur les réseaux sociaux.
Marty Cagan, qu’on ne présente plus, a publié il y a quelques semaines l’article Preparing For the Future. Il y développe les dix éléments de l’AI qui pourraient affecter les PM et tout corps de métier relié. Parmi ces dix points, quatre ont particulièrement retenu notre attention.
De l’autonomie des équipes
Les interactions, qui peuvent rĂ©duire la fluiditĂ© du fonctionnement intra- ou inter-Ă©quipes, sont moins nombreuses. Mais elles sont potentiellement davantage qualitatives. Comme l’explique Jonathan, le plus grand limitant de l’être humain au travail est la charge cognitive. Nous sommes obligĂ©s d’agrandir nos Ă©quipes de dĂ©veloppement afin de pouvoir engranger tout le savoir. Or en s’appuyant sur l’intelligence artificielle, une seule personne peut avoir connaissance d’une multitude de choses. L’équipe est alors moins Ă©tendue, la communication, la coordination, la recherche de l’alignement nĂ©cessaires sont drastiquement rĂ©duites, et le gain en autonomie Ă©norme. A un stade plus avancĂ©, peut-ĂŞtre mĂŞme que l’AI sera capable d’amĂ©liorer la topologie des Ă©quipes. En effet, bien alimentĂ©e en contexte concernant la complexitĂ© technique et organisationnelle d’une structure, on peut l’imaginer dĂ©passer l’humain grâce Ă sa facilitĂ© d’accès Ă la pensĂ©e systĂ©mique. Elle proposerait alors de nouveaux dĂ©coupages fonctionnels, de pĂ©rimètres, une organisation agile extrĂŞmement fine.Â
Ces modèles facilitent par ailleurs l’accès aux hard skills. Il s’agit effectivement, pour Victor, d’une commoditisation de l’expertise technique permettant de se recentrer sur les soft skills. L’autonomie reste toutefois un sujet de culture. MĂŞme si le dev, le PM ou le product designer est plus prĂ©cis et efficace, la culture du droit Ă l’erreur est nĂ©cessaire Ă son Ă©panouissement, son investissement et sa crĂ©ativitĂ©. « En innovant, on fait des erreurs (...). Avec Chat GPT, ils ne se planteront plus qu’une fois sur dix ; mais cette fois sur dix oĂą ils se planteront va te poser problème, tu auras du mal Ă les laisser libres de tester des choses » et ce problème de culture restera un frein Ă la prise d’autonomie.Â
 Le management des stakeholders
Le PM parle souvent un langage différent de celui du stakeholder, la valeur ne se situe pas toujours au même endroit pour l’un et l’autre. Surtout quand l’autre est multiple. Victor, avant une réunion avec plusieurs directeurs, afin de porter sa vision sans « essayer de faire rentrer des carrés dans des ronds », peut s’appuyer sur la generative AI pour se préparer. Elle lui permettra de se poser les bonnes questions, d’identifier les objections possibles et de les désamorcer en les abordant en amont. Il est même possible de créer des avatars entraînés de ses parties prenantes pour s’essayer à l’exercice. Bien sûr, elle ne sera pas capable d’anticiper les réactions de politique interne comme celles, plus évidentes, d’un directeur financier. Mais elle offrira à nouveau ce temps gagné en précision de réflexion, qui permettra de se concentrer davantage sur ses soft skills et fluidifier la relation.
La production d’artefacts
Si Marty Cagan craignait que la Product Discovery ne disparaisse au profit de roadmaps générées par l’AI en se basant sur les objectifs de l’année, cette dernière réaffirme en fait davantage la valeur de cet exercice préliminaire. D’abord, l’AI accélère le processus en formalisant la recherche au travers, par exemple, de la rédaction de scénarios, de l’analyse des résultats de ces tests et entretiens. Ensuite, ce sont toutes ces données préparées et traitées qui vont venir alimenter la pertinence de la roadmap. Elles constitueront le contexte, le plus opportun et précis possible, qui permettra la création d’une roadmap finement construite.
Nouveaux modèles de prise de décision
L’AI accompagne Ă©galement la priorisation par la valeur de manière mathĂ©matique. Ce qui est sans doute le plus difficile dans l’exercice de conception d’une roadmap est le fait d’être sĂ»r de la priorisation de ses releases, que c’est le bon item, celui qui apporte le plus de valeur sur lequel on se focalise. Et si, demain, les Generative AI allaient jusqu’à simuler la mise en place d’une feature sur un Ă©chantillon de population et gĂ©nĂ©rer des conclusions statistiques ? Cette technologie reprĂ©sente une vĂ©ritable aubaine d’aide Ă la sĂ©lection d'opportunitĂ©s. Choisir plus vite signifie savoir plus vite si le choix est bon ou s’il faut rectifier, itĂ©rer. Choisir plus vite signifie Ă©galement choisir plus, faire plus et faire mieux. Cela va Ă©galement clarifier les critères du choix en nous poussant Ă nous poser plus de questions. A nouveau, on ne va pas laisser le modèle choisir Ă notre place mais identifier un maximum de paramètres, leviers et inducteurs qui Ă©claireront notre dĂ©cision : « tout dĂ©broussailler pour laisser l’humain utiliser son bon sens, son humanitĂ© pour choisir ». Â
     Ces perspectives reluisantes pour les intervenants du product management sont bien sĂ»r Ă contrebalancer. Introduire les Generative AI au sein d’une organisation reprĂ©sente un challenge en soi et ne se fera pas en un jour. Jonathan entrevoit qu’il y aura les entreprises prĂ©-AI et post-AI, comme ce fut le cas avec l’émergence d’Internet. C’est-Ă -dire que certaines vont naĂ®tre avec cette technologie quand d’autres vont prendre plus de temps Ă passer au-dessus de leurs rĂ©ticences, Ă s’adapter, Ă©vangĂ©liser et Ă former Ă son utilisation.Â
Les craintes se justifient, comme a pu le prouver l’expérience de Siemens Energy, victime d’une fuite de données. L’acculturation passera d’abord par les décideurs. La valeur que l’AI peut apporter se lit en premier lieu au travers du prisme économique: par l’augmentation de la productivité des équipes product comme abordé précédemment. Mais aussi par le biais d’autres activités. Prenons une campagne marketing. Aujourd’hui elle représente un centre de coûts conséquent du fait de visuels très chers et rend impossible, de fait, d’itérer, de multiplier les clichés. Avec sa capacité à générer des images, la Generative AI représente une économie considérable en termes d’efficacité, d’énergie et de dépenses.
Le second enjeu est la conduite de ce changement auprès des équipes opérationnelles. Pour aborder les sceptiques, il s’agit de dédier du temps à la didactique, l’explication des rouages, la dédramatisation et l’appropriation de l’outil. En ce qui concerne les enthousiastes, l’enjeu est celui de la distance critique, de continuer à se référer à l’expertise métier acquise dans la prise de décision plutôt que d’appliquer à la lettre ce que l’algorithme dicte.
      L’autre limite que l’on peut opposer Ă la gĂ©nĂ©ralisation de l’utilisation de l’AI revĂŞt un caractère Ă©thique. La dernière proposition de campagne de la marque Lacoste a Ă©tĂ© gĂ©nĂ©rĂ©e intĂ©gralement par l’AI… jusqu’à ce qu’elle soit recommencĂ©e de 0. La crainte de plagiat a motivĂ© ce revirement de situation. En effet, le principe mĂŞme de l’outil est l'entraĂ®nement sur de grandes quantitĂ©s de donnĂ©es pour en apprendre les patterns et structures. Une fois entraĂ®nĂ©s, ces modèles gĂ©nèrent de nouveaux exemples de contenus qui correspondent Ă la distribution statistique des donnĂ©es d'entraĂ®nement. Toutefois, il n’y a encore aucune transparence concernant les sources des donnĂ©es ingĂ©rĂ©es. Par ailleurs, les biais des contenus de training sont dissimulĂ©s dans les contenus gĂ©nĂ©rĂ©s. Ils peuvent ressortir sans que l’on s’en rende compte, selon les contextes. Si on lui demande un propos raciste, Chat GPT ne sera pas capable de rĂ©pondre. En revanche, si on lui propose un tableur excel avec des donnĂ©es racistes, il partagera les conclusions qu’il en aura tirĂ©es sans problème. « La perfectibilitĂ© de l’AI n’est que le reflet de la perfectibilitĂ© de ses concepteurs ». Si l’on prend l’exemple d’un algorithme de prĂ©diction de la qualitĂ© d’un candidat dans le cadre du recrutement dans une entreprise composĂ©e Ă 80% d’hommes, il va reproduire ses problèmes. Le pattern des donnĂ©es orientera vers le recrutement d’hommes uniquement. Des rĂ©glementations sont dans les tuyaux pour encadrer l’AI comme ça a Ă©tĂ© le cas ces dernières annĂ©es autour du sujet du RGPD.Â
L’AI a Ă©galement un très fort impact environnemental du fait de deux facteurs. La puissance de calcul nĂ©cessite des serveurs très puissants afin d'entraĂ®ner les modèles et de les faire tourner. S’ajoute le sujet du refroidissement : on estime que la consommation d’eau s’élève Ă 1L pour cinquante requĂŞtes. Pour Victor, le gros enjeu aujourd’hui est celui de la mesure pour laquelle nous manquons encore de data afin d’enrichir notre rĂ©flexion et monitorer notre impact environnemental. « Je consomme tant de C02 pour gĂ©nĂ©rer ce contenu qui pourrait ĂŞtre humain, comment j’arbitre entre les deux » ? Jonathan considère que l’apport n’est pas Ă la hauteur de l’impact pour le moment, mais que c’est vouĂ© Ă Ă©voluer. Des modèles en cours de dĂ©veloppement sont entraĂ®nĂ©s sur une sĂ©lection de contenus rĂ©duite car de très haute qualitĂ©. Ils sont ainsi nettement moins Ă©nergivores et peuvent tourner sur un ordinateur. S’ils se gĂ©nĂ©ralisent, la question demeurera du ratio entre l’utilisation accrue de l’outil et sa consommation Ă©nergĂ©tique rĂ©duite.Â
Enfin, est à noter la crainte d’une standardisation de la pensée. Un cercle vicieux pourrait être pressenti : l’algorithme est entraîné avec des textes d’origine humaine mais en produit lui-même de plus en plus. Mais Victor considère « qu’il y aura toujours une étincelle humaine, cette authenticité, cette originalité que l’on n’arrive pas à donner à l’outil » - pour l’instant. Jonathan, de son côté, insiste sur le fait que « pour éviter la pensée unique, la question ça va être le prompt engineering, comment tu vas tourner ta question ». On peut ainsi demander à l’outil de générer un contenu en tant que Elon Musk ou d’une personne sortant pour la première fois d’une cave. Le contexte partagé pourra lui aussi avoir un impact démesuré sur l'originalité de la réponse de la Generative AI. Open AI offre déjà , à ce sujet, une fonctionnalité de gestion de degré d’originalité de la réponse.
MINUTE SENSEI
« Les boĂ®tes vont ĂŞtre très vite powered by AI. Ça vaut le coup, dès aujourd’hui, de tout documenter. C’est ce qui va servir Ă nourrir les AI de demain. Je pense qu’il y a un vrai enjeu autour de la structure de l’information dès maintenant (renseigner les process, enregistrer les meetings, …). Toute cette info va permettre de crĂ©er l’AI de votre entreprise ».  Jonathan Â
https://jonathansabbah.com/ai-tools-for-pm
« L’AI a une accessibilité énorme, c’est une vraie opportunité, une vraie chance donc il faut aller tester un petit peu, il faut essayer soi-même ». Victor
« Essayer de comprendre un peu ce qu’il y a derrière : faire l’effort de se challenger pour comprendre ce qu’il y a derrière la machine, parce que ça va nous permettre d’éviter certains problèmes, comme les biais ». Victor Â
Events passés qui pourraient vous intéresser
Articles
Comment éviter les pièges courants lors de la création de personas utilisateurs
30/10/2024
Des tips activables pour créer des personas efficaces. Évitez les pièges classiques et alignez votre équipe sur le besoin réel de vos utilisateurs.
Rendre un produit plus Ă©co responsable
2/5/2022
Réponse : 3 réflexions à mener au préalable et 5 actions concrètes (quasi) immédiates. On vous explique.
Appliquer le Less Is More Ă ses indicateurs | TAK
24/8/2021
Dans cet article, découvrez grâce à Martin ce que sont des vanity metrics, leur fonctionnement et les “meilleures pratiques” pour les éviter.
Recevez la newsletter des experts Produit
Chaque mois, nous synthétisons les ressources et les inspirations partagées au sein de notre communauté.