index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Neural ODEs FOS Computer and information sciences Federated Learning Deep learning Automated vehicle Assurance case Neural network Artificial Intelligence Cryptography and Security Fault detection Complexity Data-driven reachability Conformal Prediction Intelligence Articifielle Fiabilité Example-based Machine Learning Distributed learning Explicability Monitoring Sûreté Adversarial Training Cycle-accurate simulator AI-based systems Attack transferability Adversarial Attacks Explainable AI Anomaly Critical systems Realization theory Enalty Bayesian Neural Networks Data Visualization Bayesian Optimization Confiance explicabilité Adversarial examples Explanations Trustworthiness Assessment Trustworthiness Attributes Mixed Integer Programming Sûreté de fonctionnement Decision tree Reliability AI-Systems Engineering Deep neural network classifiers Arcadia Method Bayesian inference Fault tolerance Adversarial attacks Generative Models Counterfactuals Explainability Data trustworthiness Robustesse Anomaly Detection Neural Network Recurrent Neural Networks Deep Reinforcement Learning Data Stream Processing Data Quality Engineering Processes Computer vision AI-Based Critical Systems Adversarial physical attack Custom search space Fault tolerant systems Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Data Analysis Computer Vision and Pattern Recognition Artificial intelligence AI component evaluation methodology Confiance Computer Vision Bias Detection Adversarial attack Evaluation Calibration Christoffel functions AI Long Short-Term Memory Conformal prediction Embarqué Anomaly detection Robustness Distributed Machine Learning GPU Contextual Evaluation XAI Embedded AI Case-based ODD Distribution based method AI engineering AI System Characterization Semantic segmentation Concepts Branch-and-Bound algorithm Explicabilité Data Stream AI-Based Systems System Identification