Aller au contenu principal

Market fit

Pourquoi parler de market fit sur une page qui traite de réglementation et d'hésitation autour de l'adoption de l'IA?

Il s'agit ici d'aborder brièvement les principaux challenges que les décideurs rencontrent. Nous voyons deux sujets : le réglementaire, que nous associons à une compétence purement système, et l'humain, sa perception de la valeur, des enjeux et des risques.

Réglementation

Bonne nouvelle : au plan de la réglementation, notre expérience dans la conception de systèmes industriels et sûreté de fonctionnement, ainsi qu'en matière d'ergonomie et facteur humain, nous permet d'intégrer cette expertise dans vos produits, au-delà des attentes réglementaires.

Nous voyons la réglementation comme opaque ou compliquée pour les acteurs du numérique qui n'ont pas de vision système au sens large. Ou pour ceux qui facturent de la complexification. De tels acteurs seront toujours enclin à interroger les textes, outre mesure, dans une démarche visant à pallier ce manque de connaissance des bonnes pratiques de l'ingénierie système.

Pour les autres, ces nouvelles réglementations IA traduisent ces bonnes pratiques industrielles, et en des termes plutôt simples et attendus.

Notre connaissance des bonnes pratiques en matière de design de systèmes et d'interfaces aéronautiques nous place (par hasard!) dans une position unique pour répondre à ces besoins nouveaux de conformité du marché de l'IA agentique. Tout cela sera ajouté et confronté à vos attentes sur les mêmes UI, expliqué et versé à l'audit.

Notre prestation fait appel à l'infrastructure cloud de Google et s'appuie en partie sur :

• du code propriétaire incluant des licences libres au niveau des frameworks et modèles, • des modèles open source hébergés, utilisés sans appel réseau vers les serveurs IA des fabricants, • des microservices et groupes de machines virtuelles (GCE MIG VMs), • du stockage permanent sur bases de données Elastic (société renommée, de nationalité néerlandaise).

Souveraineté

Les USA ont recours en matière d'IA au Cloud Act, et l'UE aux AI et Data Acts.

Le Cloud Act US prévoit que le gouvernement US puisse exiger des données transitant par notre fournisseur d'infrastructure (Google). Le Cloud Act ne s'applique pas qu'aux données "au repos" (de droit européen pour Elastic). Il s'applique à toute donnée sous le contrôle d'une entreprise américaine : les autorités US peuvent techniquement exiger l'interception des flux de calcul en mémoire vive (RAM) pendant le traitement sur VM.

C'est l'article 2713 du Stored Communications Act (SCA), tel que modifié par le CLOUD Act en 2018, qui en constitue la base légale (18 U.S. Code § 2713). Le texte stipule que les fournisseurs de services (comme Google) doivent divulguer le contenu des communications électroniques "peu importe que cette communication soit stockée, détenue ou sous le contrôle (-> RAM) du fournisseur, que ce soit à l'intérieur ou à l'extérieur des États-Unis".

L'UE a réagi en émettant des exigences envers Google qui probablement ne l'emporteraient pas sur ses obligations nationales. Le Data Act (Art. 27) oblige le provider cloud à prendre "toutes les mesures raisonnables" (techniques, juridiques, organisationnelles) pour empêcher l'accès (ce que Google fait, en un sens, qui propose des variantes de VMs « renforcées », plus coûteuses).

Secteurs régulés (dits à hauts risques, santé, finance, RH, éducation)

Il est de fait illégal de ne pas mettre en place des mesures supplémentaires pour empêcher les interceptions forcées vers un provider US. Des "mesures d'atténuation" ou "mesures techniques et organisationnelles" sont alors obligatoires.

Hors secteurs régulés

Le risque en cas d'absence de mesures pour les entreprises sans mesure d'empêchement est donc une perte de confidentialité possible (secret des affaires), sur demande active (non communiquée) du gouvernement US à Google, à fins d'enquête ou d'espionnage industriel.

Traçabilité - Auditabilité

L'EU AI Act (août 2026) prévoit pour les systèmes à "haut risque" une traçabilité totale et une supervision humaine.

Sur ce point, nous avons la possibilité d'inclure dans nos systèmes un objectif de traçabilité complète de haut niveau pour tout client qui le demande.

Et de conserver des versions des journaux qui soient infalsifiables, les évaluations des modèles qui témoignent de l'intérêt porté aux cas indésirables, et une amélioration continue de la performance du système en ce sens.

Explicabilité

L'article 13 de l'IA Act. Là encore, nous avons toute capacité à inclure des sorties explicatives complètes et à les inclure dans les journaux système.

Les humains en charge des systèmes doivent comprendre les critères de décision et l'intention derrière la délégation aux agents. Nous interprétons cela comme une transparence saine : rendre les choix visibles dans les interfaces, définis en amont de la réalisation, et évidents pour tous.

Supervision

L'exigence IA Act : L'humain doit avoir la capacité réelle de ne pas appliquer, de modifier ou d'ignorer la sortie de l'IA (Art. 14).

Nous avons la capacité de concevoir des systèmes HIL offrant ces choix, ce qui en pratique encore, se fera sur des cas limite à définir, car il est compris que la supervision humaine de chaque cas revient strictement à ne pas utiliser l'IA.

Notre expérience en facteurs humain fait que nous serons en mesure de clarifier les choses au moment des choix avec une compréhension complète des insuffisances classiques de design, telles que celles qui pourraient avoir des conséquences, et aussi poser des questions légales le moment venu.

Contrôle

Au delà des aspects évoqués, il s'agit du sentiment d'adéquation et de satisfaction des équipes qui ont participé aux spécifications et des collaborateurs appelés à opérer et superviser ces systèmes.

Ergonomie et charge de travail comptent autant que la prise en compte de votre expertise métier et jalons décisionnels. Il s'agit de s'épargner un système problématique à l'usage. Le sur-mesure, notre expertise systèmes et IA, ainsi que notre offre de maintenance évolutive répondent à ces objectifs légitimes.

ADOPTION ET confiance dans la clarté des process

Il est certain que l'IA et un audit préalable sont l'occasion d'une validation ou d'une remise en question des process. Cela peut être l'occasion de clarifier les choses, de les améliorer ou de les transformer radicalement (jusqu'à un changement de business model).

ADOPTION ET confiance dans les données ou leur traitement

Régulièrement mentionné, cet obstacle est aussi parfois nuancé (rapport Google, onglet Cas d'usage). Il semble possible de traiter les ajustements sur la politique de données en parallèle, en coordination avec les efforts IA, et de tirer profit des agents pour pallier des manques durables.

ADOPTION ET peur du remplacement

Chacun de nous est placé depuis quelques années dans une incertitude totale vis à vis de l'évolution de son métier et donc de sa carrière. Il est donc naturellement préférable de l'évoquer avec un maximum de sincérité au fil des réflexions dans un environnement sain, ou du moins à mesure que les choses se décident.

Nous abordons, dans l'onglet Vos process, la transmission, l'évolution des métiers et la formation des juniors. Selon les fonctions concernées et les systèmes mis en place, votre expertise métier peut être portée directement par les interfaces, qui deviennent médias d'échange.

Évoluer comme superviseur de système n'élude pas la question des conséquences sur l'emploi en général.

Sécurité

Les risques nouveaux sont liés aux interfaces conversationnelles et à la sensibilité éventuelle des données utilisées. Voir le document OWASP sur l'état actuel des dix principales menaces de sécurité pour l'IA agentique.

Nous les voyons comme des briques supplémentaires indispensables à poser après la première phase de prototypage naturellement.

Dépendance aux outils

Comme tout usage se fait au prix d'un apprentissage coûteux, il existe une forme de persévération dans l'action dès lors qu'une organisation investit du temps dans des outils. Les stratégies des fournisseurs diffèrent : OpenAI et Anthropic penchent vers l'enfermement propriétaire, tandis que la stack Google héberge plusieurs frameworks agentiques, ce qui va dans le sens du propos que nous tenons ici.

Un studio peut recycler des brouillons et des maquettes produits sur ces outils lorsque vous basculez vers un système dédié plus performant. Ce sera un bon point de départ pour aider les équipes à exprimer leurs besoins et formuler rapidement des spécifications précises.

Maîtrise des coûts

Il s'agit du fameux coût d'inférence, ou coût des "tokens". Les signaux à ce sujet paraissent contradictoires : on entend régulièrement que le coût de l'IA va baisser du fait de la concurrence ou d'une efficacité croissante des produits, alors qu'on observe plutôt l'inverse. Confère la tarification de Cursor pour les développeurs, ou encore de Starlink, qui lancent leur produit à perte avant d'augmenter les prix, contrairement à la logique inverse que fût celle de Tesla dans l'automobile.

Les modèles open source rencontrent un franc succès avec des performances similaires, qui interrogent la valeur boursière des pionniers US. Il est dit que plus de 85% des startup aux USA utilisent le modèle open source chinois Deepseek. Le fait est, pour rappel, que certains de ces modèles offrent une inférence gratuite (seul le coût de l'infrastructure demeure). Il existe un seuil assez bas à partir duquel cette solution open source devient plus économique. L'usage peut être hybride.

Un design sur mesure adapte les modèles selon la confidentialité des données et réduit astucieusement le volume à traiter au minimum. Ni les agences ni les prescripteurs ne proposeront de telles optimisations tant qu'elles ne seront pas activées dans leur écosystème.