IA Act européen :
ce que les directions d’ESMS doivent réellement intégrer en 2026

IA Act ESMS

Du texte réglementaire au geste managérial

À la fin de l’année 2025, l’AI Act européen est entré dans sa phase opérationnelle. Sur le papier, il s’agit d’un règlement de plus. Dans les établissements médico-sociaux, il a pris une autre forme : celle d’une question qui revient, presque à voix basse, lors des échanges entre directions.

« Est-ce que nous avons encore le droit d’utiliser l’IA ? »

Ce n’est pas une question juridique. C’est une question de responsabilité. Elle surgit chez des directeurs déjà confrontés à la pression réglementaire, à la fragilité des équipes, à la nécessité de tenir l’organisation sans perdre le sens. L’IA ne vient pas comme une innovation enthousiasmante, mais comme un élément supplémentaire à intégrer dans un équilibre déjà tendu.

Progressivement, SOCIAFORM a compris que ce texte cristallisait moins une peur de la technologie qu’un besoin de cadre. Un besoin de savoir où l’on met les pieds avant d’autoriser, de tolérer ou de structurer des usages déjà présents.

Ce que le terrain montre avant ce que dit le texte

Avant même de parler de réglementation, il faut partir du réel. Dans les établissements que SOCIAFORM a accompagné, l’intelligence artificielle n’est pas arrivée par un projet institutionnel. Elle s’est glissée dans les pratiques par petites touches. Un cadre qui reformule un écrit. Un responsable qualité qui demande une synthèse. Un professionnel qui cherche à clarifier un texte trop dense. Ce sont des gestes discrets, rarement revendiqués, souvent individuels. L’IA n’est pas un outil de décision. Elle est un appui, parfois maladroit, parfois utile, jamais souverain. Et surtout, elle ne décide pas à la place.

C’est à partir de cette réalité qu’il faut lire l’AI Act.

Ce que l’AI Act encadre réellement

Le règlement européen ne vise pas l’IA en général. Il cible des systèmes bien précis, capables de produire des décisions automatiques ayant un impact direct sur les droits des personnes. Des outils qui classent, évaluent, notent, tranchent. Des systèmes qui, sans garde-fou, pourraient déposséder l’humain de sa capacité de jugement. Or, les usages observés dans les ESMS en 2026 ne relèvent pas de cette catégorie. Ils se situent ailleurs. Dans l’assistance. Dans la préparation. Dans la mise en forme. L’IA accompagne le geste professionnel, elle ne s’y substitue pas. Ce décalage est fondamental. Il explique pourquoi, dans la majorité des situations, les établissements ne sont pas exposés aux obligations les plus contraignantes du texte.

Là où la direction reste pleinement engagée

Pour autant, l’AI Act ne décharge pas les directions de leur responsabilité. Au contraire, il la rend plus visible. Il rappelle que, même assisté par un outil, le professionnel reste responsable de ce qu’il produit. Et que, par extension, l’établissement reste garant du cadre dans lequel ces outils sont utilisés. Ce point est souvent mal compris. Il ne s’agit pas d’interdire ou de contrôler systématiquement. Il s’agit de rendre les usages lisibles. De pouvoir dire, en tant que direction : voilà ce qui est autorisé, voilà ce qui ne l’est pas, voilà pourquoi. Ce travail de clarification n’est pas une formalité. C’est un acte managérial à part entière.

Ce que l’AI Act ne demande pas aux directions

Avec le recul, un constat s’impose : le texte ne demande pas aux directeurs d’ESMS de devenir experts en intelligence artificielle. Il ne leur demande pas non plus de transformer leur organisation en laboratoire technologique. Il n’impose ni certification spécifique, ni reporting européen, ni refonte complète des pratiques. Il demande autre chose, de plus sobre : de la cohérence. Entre les usages observés, les obligations RGPD, les exigences qualité et les valeurs du secteur.

Le véritable point de bascule : le flou organisationnel

Dans la plupart des établissements, le risque ne vient pas de l’outil. Il vient du non-dit. De l’usage isolé, non partagé, non nommé. Ce flou crée de l’inquiétude chez les équipes, de l’incertitude chez les cadres, et expose inutilement la direction. C’est souvent à ce moment-là que l’IA devient un sujet sensible. Non parce qu’elle est dangereuse, mais parce qu’elle n’est pas cadrée. Là où un cadre clair apaise, l’absence de cadre alimente les peurs.

Du geste à la preuve

En 2026, l’IA n’est plus une hypothèse. Elle est déjà là, dans les interstices du travail quotidien. Le rôle de la direction n’est pas de la promouvoir ni de la freiner, mais de transformer ces gestes dispersés en pratiques maîtrisées.

C’est ce passage — du geste individuel à la preuve organisationnelle — qui fait toute la différence. Une règle d’usage partagée. Un cadre explicite. Une acculturation commune. Rien de spectaculaire, mais quelque chose de solide.

L’AI Act, lu ainsi, n’est pas une contrainte supplémentaire. Il devient un appui pour exercer pleinement son rôle de pilotage dans un environnement numérique désormais installé.

— NOS INDICATEURS DE PERFORMANCES —

SOCIAFORM

Nous n'avons pas pu confirmer votre inscription.
Votre inscription est confirmée.

Newsletter

Inscrivez-vous à notre newsletter pour suivre nos actualités.