La détermination de la véracité des données et, par conséquent, de la crédibilité de la source de ces données, pose de nombreux défis de recherche et constitue l’un des enjeux majeurs dans le domaine du Big Data. En effet, la véracité est souvent citée, avec le volume, la vitesse, la variété et la valeur, comme l’un des cinq éléments (5V) à prendre en compte dans le cadre de la gestion de grosses masses de données.
Des outils efficaces doivent être développés pour pouvoir évaluer la véracité des faits des bases de connaissances disponibles, telles que DBpedia, Yago et GeoNames. Ces bases de connaissances jouent un rôle essentiel dans plusieurs applications pouvant être critiques, d’où l’importance de mettre en place de mécanismes efficaces de vérification de l’exactitude de leur contenu.
Par ailleurs, la propagation intentionnelle d’informations fausses sur le Web, en particulier les médias sociaux, est une plaie pour laquelle la presse a très récemment pris conscience et qui nécessite des contre-mesures efficaces.
Plusieurs problématiques majeures méritent d’être étudiées dans ce cadre telles que l’évaluation de la véracité tout en considérant les contextes spatio-temporels inhérents, la possibilité de considérer des vérités multiples, la détection de copies et de dépendance/influence entre sources et enfin le besoin de mécanismes d’explication de la véracité des faits.