index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Explicabilité AI Governance Al monitoring Recurrent Neural Networks AI Complexity Neural ODEs Trustworthiness Assessment Distributed learning Computer vision Computer Vision Case-based Assurance case Trustworthiness Engineering processes Adversarial examples Certification Confiance explicabilité Adversarial Training Apprentissage automatique Neural Architecture Search Branch-and-Bound algorithm AI Robustness Aide à la décision Adversarial physical attack Body of knowledge Sûreté de fonctionnement AI-Systems Engineering Intelligence Articifielle Conformal Prediction Body-of-Knowledge Artificial intelligence Collaboration Human-IA Assessment Assurance Cases AI-Based Critical Systems Trustworthy AI engineering Bayesian optimization Confidence calibration Concepts Bayesian inference Bayesian Optimization AI component evaluation methodology Realization theory Data Visualization Anomaly Boosted Decision Trees BDT Uncertainty System Identification Explainable AI Knowledge extraction Reliability Christoffel functions Adversarial Attacks Mixed Integer Programming Anomaly Detection AI-Based Systems Bias Detection Trustworthy AI Explainability Attack transferability Machine Learning ML Engineering Anomaly detection Long Short-Term Memory Generative Models Robustesse Autonomous system Automated vehicle Neural Network AI systems Knowledge fusion Arcadia Method AI Safety Adversarial attacks AI System Characterization Adversarial attack AI-based systems Vision par ordinateur Tools Artificial Intelligence Machine learning Neural network Intelligence artificielle Robustness ODD AI explainability Data Analysis Trustworthiness Attributes Sûreté Knowledge graph Monitoring Multi-fidelity BO XAI Calibration Semantic segmentation Computer Vision and Pattern Recognition Classification Confiance