Produit 01
Fact-checker de débats en temps réel
Le produit phare. RTFC écoute les débats politiques et les émissions en direct, détecte les affirmations factuelles vérifiables dans le flux de transcription, lance des recherches en parallèle et publie les verdicts sur faktolumo.eu - pendant que l'orateur est encore à l'antenne.
Les résultats comportent un score de confiance, un verdict (Vrai / Faux / Partiellement Vrai / Trompeur / Invérifiable) et des sources citées. Un tableau de bord dédié permet aux journalistes et aux spectateurs de suivre le fact-checking en temps réel.
Composants du système
Produit 02
Six moteurs de recherche
La couche de vérification centrale. Six méthodes de recherche indépendantes, chacune avec des forces différentes, peuvent s'exécuter en parallèle pour chaque affirmation.
Une étape de pré-validation compare les résultats et sélectionne le verdict ayant le score de confiance le plus élevé - ou signale un conflit pour examen manuel. Détails complets sur la page Méthodologie.
Full documentation on the Methodology page.
Produit 03
Cadre de confiance des sources
Chaque verdict ne vaut que par ses sources. Le système actuel évalue manuellement plus de 50 domaines d'actualité selon une grille fixe - propriété, normes éditoriales, politique de correction, conformité réglementaire, antécédents sur les affirmations vérifiables.
La prochaine étape est un cadre de notation transparent et révisable par les pairs : méthodologie publiée ouvertement, scores mis à jour régulièrement, classement public et API pour que les fact-checkeurs tiers puissent utiliser les classements.
L'objectif est une infrastructure partagée pour la notation de la confiance dans les médias - pas une liste noire, mais un signal calibré sur lequel tout système de fact-checking automatisé peut s'appuyer.
Produit 04
Marché de données pour les éditeurs
Le problème structurel du fact-checking assisté par IA est l'accès aux sources primaires. Les archives de presse sont la matière première - et aujourd'hui, les LLM soit hallucinent des citations, soit s'appuient sur des données d'entraînement obsolètes. Les éditeurs perdent le contrôle de leur contenu et ne gagnent rien lorsqu'il est utilisé.
Ce produit inverse cette relation. Les éditeurs exposent leurs archives et leurs flux d'articles en direct via une interface standardisée. Les LLM consomment ces données directement dans le cadre des requêtes de recherche. Chaque extraction est enregistrée. Les éditeurs gagnent une micro-rémunération chaque fois que leur contenu contribue à un verdict de fact-checking.
Les éditeurs exposent leur contenu via une interface standardisée conçue pour l'IA. Chaque utilisation est suivie, chaque contribution à un verdict génère des revenus. Pas de scraping, pas d'ambiguïté sur les droits.
Le modèle de monétisation
Les éditeurs s'intégrent une seule fois. Leur contenu est consommé à la demande par les outils de recherche IA. Chaque extraction est journalisée et facturée - offrant aux médias une source de revenus directe provenant des systèmes d'IA qui s'appuient sur leurs reportages.