index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

FOS Computer and information sciences Explicabilité Data Visualization GPU Realization theory AI System Characterization Conformal Prediction Adversarial attack AI-Based Critical Systems XAI Bayesian inference Confiance Fault tolerance Deep learning Anomaly detection System Identification Intelligence Articifielle Generative Models Trustworthiness Assessment AI-based systems Evaluation Custom search space Explainability Computer vision Automated vehicle Bayesian Optimization Neural network Branch-and-Bound algorithm Complexity Arcadia Method Fault detection Fault tolerant systems Computer Vision Engineering Processes Neural Network Neural ODEs Explainable AI Embarqué Robustness Data Analysis Long Short-Term Memory Decision tree Explicability Data Quality Anomaly Christoffel functions Attack transferability Distribution based method Deep Reinforcement Learning Monitoring Robustesse Data Stream Processing Hardware Counterfactuals Explanations Case-based Sûreté Computer Vision and Pattern Recognition Trustworthiness Attributes Machine Learning Adversarial attacks Cycle-accurate simulator Adversarial Training Embedded AI Confiance explicabilité Distributed learning Ingénierie algorithmique de l’IA Calibration Federated Learning Artificial intelligence Example-based Distributed Machine Learning AI-Based Systems Adversarial examples Anomaly Detection ODD Data Stream Enalty Bayesian Neural Networks Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Critical systems AI Cryptography and Security Deep neural network classifiers Recurrent Neural Networks Data-driven reachability Bias Detection Adversarial physical attack Conformal prediction Concepts Gas Distribution AI component evaluation methodology Influence Functions Mixed Integer Programming Artificial Intelligence Fiabilité AI engineering Adversarial Attacks Contextual Evaluation Semantic segmentation Sûreté de fonctionnement