IA générative : la future brique de base informatique ?
L’apparition de ChatGPT a fait émerger le thème de l’IA générative sur le devant de la scène. Or, l’IA générative n’est qu’un sous-ensemble de l’IA, axé sur la création de modèles qui sont entraînés à générer du contenu (texte, images, vidéos, etc.) à partir d’un corpus spécifique mais gigantesque de données d’entraînement. Et encore l’IA générative est-elle réduite ici aux modèles de type LLM (Large Langage Model) à savoir une catégorie spécifique de modèles d’IA générative qui peut générer du texte proche du langage naturel d’un être humain.
Bien que restrictive au sein du courant de recherche en matière d’IA, l’IA générative est néanmoins centrale car elle constitue la brique sur laquelle toute une industrie est en train de naître.
Des perspectives majeures
La technologie sur laquelle repose ChatGPT n’est pas limitée qu’à un usage sous forme d’un échange avec l’interface, le chat. Le texte qui est saisi est communiqué à un modèle, qui a été entraîné sur la base d’un corpus gigantesque (les données : texte, image, son, vidéo, etc.) pour apprendre à compléter ce texte, notamment sous la forme d’une réponse quand c’est une question.
Le véritable enjeu avec l’IA générative est bien le modèle sous-jacent et sa capacité d’entrainement qu’il s’agit d’étendre et de perfectionner. Ses concepteurs, assez rapidement, ont orienté leurs modèles autour de la réponse à deux questions clés :
- Le modèle ne pourrait-il pas être équipé d’outils informatiques pour étendre le champ de ce corpus, et ainsi celui de ses compétences ?
- Ne pourrait-il pas produire une réponse sous forme de commandes pour actionner de tels outils informatiques, allant de l’éditeur de texte au pilote d’un robot, en passant par la base de données, et même… un autre modèle !
Autrement dit, ces recherches s’orientent dans un sens où les modèles d’apprentissage profond pourraient devenir à l’informatique du XXIème siècle ce que le processeur a été à celle du XXème, à savoir la brique de base polyvalente capable de comprendre du texte, du son et de l’image, et d’en générer.
Rapidement pressentie, cette perspective a fait fleurir toute une industrie financée par des investisseurs qui misent gros. Inconnue fin 2022, OpenAI a déjà « levé » près de 58 milliards de dollars[1], et projette déjà un chiffre d’affaires de près de 13 milliards de dollars rien que cette année[2]. Plus généralement, les gains espérés sont astronomiques, s’agissant d’un marché qui générerait des revenus proches du trilliard de dollars dès 2030[3].
Des fragilités intrinsèques majeures
Chose extraordinaire, même pour ses concepteurs, un modèle est ce que l’on pourrait appeler une « boite noire ». Concrètement, personne, pas même OpenAI, n’est en mesure d’expliquer pourquoi le modèle fournit telle réponse à telle question posée. Il restitue des réponses à partir d’un corpus tellement gigantesque et accorde une telle place à l’aléatoire, que comprendre comment il fonctionne en production reste encore un défi.
Du coup, les risques ne sont certainement pas à négliger, car il est impossible de parfaitement les prévenir.
D’une part, le risque est celui de l’affabulation. Tout utilisateur d’un chat a pu le constater : l’outil parfois se trompe, et va même jusqu’à affabuler, si bien qu’il est impossible de le croire sur parole.
D’autre part, il faut compter avec le risque en matière de sécurité informatique. Il existe une foule de techniques pour convaincre un modèle de ne pas respecter les consignes qui lui ont été données, ce qui ouvre la porte à une foule d’exploitations : lui faire recracher des données qu’il devait garder confidentielles, lui faire produire une réponse mal intentionnée, etc. Quand le modèle peut actionner des outils, les conséquences de son hacking peuvent être catastrophiques. L’Agence Nationale de Sécurité des Systèmes d’Information a lourdement attiré l’attention là-dessus[4].
Quels impacts de l’IA sur le travail ? Pour l’instant, on n’y voit pas clair ! De la nécessité de se doter des compétences adéquates pour rentrer dans la boite noire
Si l’on sent bien que l’IA pourrait s’apparenter à un nouveau type de sous-traitance (tâches sous-traitées à un modèle entrainé qui a la particularité de capter les données de l’utilisateur et donc son savoir-faire) et produire des effets considérables, il s’avère toutefois impossible de porter sur l’IA un jugement global.
La raison en est simple : il n’y a pas une IA mais des IA avec plusieurs approches de l’IA, dont l’IA générative. Et encore, il n’y a pas d’IA générative en soi, mais des outils qui s’appuient dessus. Et ces outils peuvent être extraordinairement variés, tout comme les usages qui en sont fait.
Aussi, pour apprécier les effets de l’introduction de l’IA générative sur le travail et l’emploi, il faut avant tout comprendre le type d’outil auquel les salariés ont à faire face et son potentiel. Ce qui, en raison de la complexité du sujet, suppose de mobiliser une expertise technique spécialisée (compréhension des modèles mathématiques, expertise informatique et de sécurité, etc.). Une telle expertise ne permet pas seulement de voir ce qui présente un intérêt. Elle permet aussi, à l’inverse, de ne pas regarder trop longtemps ce qui n’en présente que peu, voire pas du tout ainsi que le ferait quelqu’un qui maîtrise mal son sujet.
Que l’on prenne l’introduction d’un chat comme ChatGPT par exemple. Le même outil sera très diversement utilisé par des ingénieurs qui cherchent à en tirer des faits avérés, que par des marketers qui voudront à l’inverse qu’il fasse preuve de créativité. Partant, quels dispositifs techniques l’entreprise met-elle en œuvre pour répondre aux besoins de chacun de ces publics ? Une technologie tel que Retrieval-Augmented Generation (RAG) pour exploiter une base de données locale pour les ingénieurs ? Dans quelle mesure cette base de données, que l’on doit supposer vectorielle, a-t-elle été constituée pour retourner des informations adéquates ? etc.
Evidemment, cette expertise technique n’est pas la seule qu’il faut mobiliser. L’observation du travail en nécessite d’autres, comme la sociologie, l’ergonomie ou encore la psychologie pour confronter les expériences des utilisateurs à la réalité de leur travail et de son organisation. C’est dans l’articulation des différentes expertises, la pratique de la pluridisciplinarité, que les effets de l’introduction d’un outil à base d’IA générative doivent être étudiés.
A ce jour, les études sur le sujet ne déploient pas ces approches mais parlent d’IA de manière générale et ne permettent pas de se faire un avis circonstancié.
CSE : comment agir face à l’introduction de l’intelligence artificielle ?
Dans ce contexte, que peut faire le CSE face à l’IA ?
Au moment de l’introduction, être informé et consulté
Depuis plusieurs années, la maîtrise des outils informatiques échappe de plus en plus aux utilisateurs, éloignant progressivement les représentants du personnel (CSE) de ces enjeux pourtant essentiels. Le rapport de la Commission sur l’IA[5] souligne que « le droit à l’information et l’avis éclairé des représentants des salariés sur les transformations au travail sont en pratique peu mobilisés par les entreprises et les administrations. Cela tient à ce que l’intelligence artificielle et le numérique en général sont présentés comme des sujets techniques avant tout (…) ».
- Le premier enjeu pour le CSE est donc d’obtenir le droit d’être informé et consulté lors de l’introduction de technologies à base d’IA.
- Dans la pratique, nous observons que les CSE doivent beaucoup batailler pour obtenir ce droit. DEGEST peut apporter une aide sur ce point.
Être informé régulièrement au gré des mises à jour
La notion même de « projet important » ou de « nouvelle technologie » (au sens de l’article L. 2312-8 du Code du travail qui permet d’encadrer le principe de l’information-consultation) doit être réexaminée à l’aune de l’IA. En effet, les technologies à base d’IA sont en constantes évolutions leur donnant une extraordinaire plasticité. Bien souvent, leur développement se caractérise par des évolutions incrémentales qui prises isolément ne donnent pas lieu à un projet important au sens juridique du terme. Or, sur le long terme, ces évolutions finissent par produire des changements majeurs. Comment le CSE pourrait-il jouer son rôle (maintien de l’emploi, formation, maintien des compétences, prévention des risques) s’il n’est pas au courant des évolutions ?
- Un autre enjeu pour le CSE est donc d’être informé régulièrement et si besoin consulté sur les évolutions des outils à base d’IA. Il ne s’agit pas de signer un chèque en blanc une fois pour toute lorsque l’outil est introduit dans l’entreprise mais d’être en mesure d’identifier les évolutions.
- Cet enjeu nécessiterait une évolution du Code du travail permettant aux acteurs du dialogue social de miser sur un dispositif de co-construction des usages et de régulation des risques des systèmes d’intelligence artificielle.
Se donner les moyens d’exiger un encadrement clair des évolutions et des usages de l’IA
- Le CSE peut choisir une approche proactive, en combinant
- des actions à court terme – comme le recours à une expertise ponctuelle qu’elle soit de type projet important ou sur les orientations stratégiques –
- avec une démarche de long terme, en instaurant par exemple un observatoire dédié à l’IA. Cet observatoire (avec l’accompagnement de DEGEST) pourrait permettre de former les représentants du personnel aux enjeux de(s) IA, de produire des éléments de discours face à la direction, des supports de communication à diffuser aux salariés, un référentiel des risques, etc.
- L’évaluation des risques professionnels liés à l’IA doit impérativement être intégrée dans le DUERP (Document unique d’évaluation des risques professionnels), ce qui implique une information et une consultation systématiques du CSE à chaque mise à jour.
- Enfin, il est recommandé de négocier un accord d’entreprise sur l’IA ou, à défaut, d’élaborer une charte encadrant son usage.
L’expertise DEGEST au service de votre CSE – CSSCT : un accompagnement sur-mesure
Face à ces enjeux, le cabinet DEGEST, expert économique et SSCT, vous propose un accompagnement adapté.
Nous pouvons organiser une formation sur-mesure à destination de votre CSE, centrée sur les enjeux de l’intelligence artificielle. Cette session abordera notamment les questions suivantes :
- Quel rôle peut jouer le CSE dans le déploiement de l’IA ?
- Comment protéger les salariés face à ces transformations ?
- Quels sont les enjeux économiques et stratégiques associés ?
Notre équipe compte des consultants et experts spécialisés en intelligence artificielle, disponibles pour accompagner le CSE dans le cadre d’un recours à expertise ou dans l’aide à l’élaboration d’une commission spécialisée IA ou encore dans l’aide à la négociation d’un accord sur l’IA. Leur mission : comprendre le déploiement de l’IA dans l’entreprise, analyser les conséquences d’un projet important ou de l’introduction d’une nouvelle technologie IA dans l’entreprise, afin d’éclairer les élus dans la formulation de leur avis.
[1] https://tracxn.com/d/companies/openai/__kElhSG7uVGeFk1i71Co9-nwFtmtyMVT7f-YHMn4TFBg/funding-and-investors
[2] https://markets.businessinsider.com/news/stocks/openai-forecasts-1-000-revenue-surge-as-chatgpt-growth-explodes-1034616334
[3] https://www.bloomberg.com/professional/insights/data/generative-ai-races-toward-1-3-trillion-in-revenue-by-2032/
[4] https://cyber.gouv.fr/publications/recommandations-de-securite-pour-un-systeme-dia-generative
[5] Commission de l’Intelligence Artificielle, « IA : notre ambition pour la France », Mars 2024