Par Robbie Jameson, CEO & Co-fondateur, Tale of Data
À Techinnov 2026 à Paris, nous avons eu la même conversation une dizaine de fois.
Des profils différents. Des secteurs différents. Le même problème fondamental.
Tout le monde investit dans l'IA. Mais la question que personne ne pose vraiment est : que se passe-t-il quand les données qui alimentent ces modèles sont mauvaises ?
La réponse honnête : l'IA ne corrige pas les mauvaises données. Elle les amplifie.
Il existe une croyance répandue selon laquelle l'IA va d'une façon ou d'une autre nettoyer, corriger ou compenser les problèmes de qualité des données. Elle ne le fera pas.
L'IA amplifie les erreurs déjà présentes dans vos données. Elle les répète, les reformule, et les présente avec la confiance d'un système qui n'a aucun moyen de savoir que la source était défaillante dès le départ.
« L'IA ne résoudra pas les problèmes de qualité présents dans les données. Elle va amplifier les erreurs — les répéter, les reformuler. Mais l'IA ne va pas corriger ces informations. » — Robbie Jameson, CEO, Tale of Data
Pour que les données soient utiles à l'IA, elles doivent fondamentalement être de la bonne qualité avant d'atteindre le modèle. Pas après. Pas "suffisamment bonnes". Bonnes.
Ce n'est pas une opinion technique. C'est une réalité structurelle. Gartner projette que 60 % des projets IA seront abandonnés d'ici 2026 — non pas parce que les algorithmes sont mauvais, mais parce que les données qui les alimentent ne sont pas prêtes.
C'est la question que j'ai posée à Techinnov. Et la réponse que j'ai entendue le plus souvent était à la fois honnête et alarmante.
Tout le monde. Ce qui signifie personne.
Dans la plupart des organisations, la qualité des données n'est dans la fiche de poste de personne, mais c'est le problème de tout le monde. Le data engineer s'en occupe quand il a le temps. L'analyste métier contourne le problème. La DSI hérite des scripts vieux de trois ans que personne ne comprend vraiment.
La qualité des données est aujourd'hui le problème numéro un qui empêche les organisations d'exploiter correctement leurs données. C'est le sujet qui crée des blocages, fait échouer les projets, et qui est — en même temps — le plus mal traité dans les entreprises de toutes tailles.
Quand la responsabilité est partagée par tout le monde, elle n'appartient à personne. Et c'est exactement ainsi que l'on se retrouve avec 70 % des données d'entreprise inutilisées, inaccessibles, et inexploitables.
Tale of Data n'est pas né d'une idée produit. Il est né d'un échec.
Nous avons rencontré de grandes difficultés sur différents projets de données métier — incohérences, doublons, valeurs manquantes, formats qui ne faisaient aucun sens. Le genre de problèmes de données invisibles jusqu'à ce qu'ils deviennent catastrophiques.
Ce que nous avons compris, c'est que la solution technique seule ne suffisait pas. Les outils existaient. Le problème était que les personnes qui comprenaient les données — les équipes métier — n'avaient aucun moyen de participer à leur correction. La qualité des données était enfermée dans le département IT et entre les mains des ingénieurs.
« C'était l'étoile polaire de la société depuis le début : permettre aux métiers de participer au sujet de la qualité des données — qui était auparavant le domaine exclusif de l'IT. » — Robbie Jameson, CEO, Tale of Data
Tale of Data permet aux équipes métier et data de collaborer sur la qualité des données dans un environnement no-code. Il ouvre la boîte noire de la donnée en entreprise — la rendant traçable, corrigeable, et prête à être utilisée par l'IA et par les humains.
Les outils IA se multiplient. Des agents, de nouvelles architectures, de nouveaux produits chaque semaine. Le marché est en mouvement constant.
Mais les fondations ne changent pas.
Sans données fiables, rien ne fonctionne. L'implication des équipes métier dans la qualité des données reste nécessaire, quel que soit le modèle sous-jacent. La plateforme que nous proposons aujourd'hui est construite précisément pour adresser cette constante — pas les tendances qui s'accumulent au-dessus.
On m'a demandé à Techinnov de définir les données prêtes pour l'IA en une phrase. Voici la version complète.
Les données prêtes pour l'IA remplissent trois conditions :
1. Elles sont accessibles. Environ 70 % des données d'entreprise ne sont pas exploitées, pas utilisées, pas accessibles. Si l'IA ne peut pas trouver les données, elle ne les utilisera jamais. La disponibilité est la première condition — et c'est plus souvent un problème de gouvernance qu'un problème technique.
2. Elles sont alignées sur un cas d'usage. Les données n'ont pas besoin d'être parfaites dans l'absolu. Elles doivent être compatibles avec un cas d'usage bien défini. Cela nécessite une réflexion sur ce qu'on veut réellement faire avec les données, et une préparation qui sert cet objectif spécifique.
3. Elles sont propres. Pas de doublons. Pas d'incohérences. Pas de valeurs manquantes. Pas d'erreurs qui se propagent dans le modèle et ressortent sous forme de réponses fausses mais confiantes. Les données doivent être au bon niveau de qualité pour effectuer le travail prévu.
L'IA ne sauvera pas un projet construit sur de mauvaises données.
Mais de bonnes données — accessibles, alignées et propres — rendront chaque initiative IA que vous lancez significativement plus susceptible de réussir.
Ce n'est pas une prédiction. C'est ce que nous observons chaque jour en travaillant avec des organisations comme TotalEnergies, Manutan et France Travail.
→ Vous voulez savoir où en sont vos données ? Demandez un Audit Flash Data Quality gratuit
Robbie Jameson est CEO et Co-fondateur de Tale of Data, une plateforme de Data Quality alimentée par l'IA adoptée par des organisations leaders à travers l'Europe. Cet éditorial est basé sur une interview enregistrée en direct à Techinnov 2026 à Paris.