Contacter notre équipe$
Intelligence artificielle

Stanford AI Index 2026 : risques, incidents et responsabilité de l’IA

  • Auteur

    Quentin De Mauroy

Artificial Intelligence Index Report 2026

362 incidents liés à l’intelligence artificielle ont été documentés en 2025 par l’AI Incident Database, contre 233 l’année précédente, soit une hausse de 55 % en douze mois. Ce chiffre est extrait du rapport Stanford AI Index 2026 publié en avril par le Stanford Institute for Human-Centered Artificial Intelligence (HAI).

Le rapport documente l’écart croissant entre la vitesse de déploiement de l’IA et la capacité des organisations à en gouverner les conséquences. Pour les entreprises tech qui développent ou intègrent des systèmes IA, cette nouvelle analyse sur l’intelligence artificielle se traduit directement en exposition au risque.

Qu’est-ce que le rapport Stanford AI Index 2026 ?

Le rapport Stanford AI Index 2026 est un rapport annuel de référence qui synthétise des données indépendantes sur l’état mondial de l’IA à partir de sources comme McKinsey & Company, Epoch AI, Lightcast, LinkedIn et l’Anthropic Economic Index : performance technique, adoption, économie, emploi, gouvernance et opinion publique.

Sa particularité est d’être produit sans intérêt dans le succès commercial d’aucun modèle ni d’aucun lab. C’est cette neutralité qui lui confère son autorité.

Le rapport couvre neuf chapitres et 423 pages. La presse technologique retient principalement deux données :

  • La course entre modèles américains et chinois, réduite à 2,7 points d’écart sur l’Arena Leaderboard au 1ᵉʳ mars 2026 ;
  • Les 285,9 milliards de dollars d’investissement privé américain en IA sur 2025, soit 23 fois l’investissement chinois selon les seules données privées.
AI Index Report 2026

Stanford AI Index 2026, 423 pages, 9 chapitres. Sources : McKinsey, Epoch AI, Lightcast, Anthropic Economic Index

La lecture que nous faisons du rapport se concentre sur deux chapitres : le chapitre 3, consacré à l’IA responsable, et le chapitre 4, consacré à l’économie. C’est là que se trouvent les signaux les plus directement exploitables pour les dirigeants d’entreprises technologiques et les équipes techniques.

Adoption de l’IA : 88 % des organisations utilisent l’intelligence artificielle

IA générative : 53 % d’adoption mondiale en 3 ans

L’IA générative a atteint 53 % d’adoption mondiale en trois ans. Le PC personnel a mis plus d’une décennie à franchir ce seuil, Internet encore davantage. La source est le Harvard Project on Workforce cité dans l’AI Index 2026, et le chiffre est corroboré par plusieurs mesures : 88 % des organisations enquêtées déclarent utiliser l’IA dans au moins une fonction (McKinsey, 2025), et 80 % des étudiants universitaires américains l’utilisent pour leurs travaux (Chegg Global Student Survey, 2025).

Cette vitesse d’adoption n’a pas d’équivalent dans l’histoire des technologies d’entreprise. Elle signifie que vos clients, vos prestataires, vos concurrents et vos équipes ont déjà commencé, que vous ayez ou non formalisé une politique IA interne.

IA générative 53 % d'adoption mondiale 3 ans après son lancement grand public Harvard Project on Workforce, 2025
PC personnel ~20 % d'adoption 3 ans après le lancement de l'IBM PC (1981) Harvard Project on Workforce, 2025
Internet ~28 % d'adoption 3 ans après l'ouverture commerciale d'Internet (1995) Harvard Project on Workforce, 2025

Vitesse d'adoption comparée 3 ans après le lancement de chaque technologie. Stanford AI Index 2026, fig. 4.3.9. Données : Harvard Project on Workforce, 2025.

Plus une organisation adopte l’IA, plus elle concentre des incidents

La relation entre vitesse d’adoption et fréquence des incidents est directe dans les données du rapport. Les organisations qui ont le plus avancé dans le déploiement de l’IA sont celles qui concentrent le plus d’incidents : parmi celles qui ont signalé des incidents en 2025, la part déclarant 3 à 5 incidents sur l’année est passée de 30 % à 50 % entre 2024 et 2025 (McKinsey/Stanford AI Index, 2025).

Les fonctions les plus exposées sont celles où l’IA est la plus déployée. Le rapport McKinsey/Stanford signale que les secteurs IT, knowledge management et software engineering affichent les taux les plus élevés d’utilisation d’agents IA. Les éditeurs de logiciel (SaaS, PaaS, Open-Source), les ESN, les startups du numérique : tous sont dans le périmètre de risque documenté par le rapport.

362 incidents IA en 2025 : +55 % en un an et une capacité de réponse qui s’effondre

Qu’est-ce qu’un incident IA selon l’étude Stanford ?

L’AI Incident Database (AIID), lancée en 2020, est un dépôt ouvert de cas documentés où des systèmes IA ont causé ou failli causer un dommage. La définition adoptée par l’OECD AI Incidents and Hazards Monitor (AIM) est plus large : « tout événement résultant directement ou indirectement de l’utilisation ou du dysfonctionnement d’un système IA et entraînant un préjudice physique, une perturbation d’infrastructure, une violation de droits, ou un dommage à des biens, des communautés ou l’environnement. »

En 2025, l’AIID a enregistré 362 incidents, contre moins de 100 par an avant 2022, et 233 en 2024. L’OECD AIM, dont la méthodologie automatisée et multilingue capture un périmètre plus large, a enregistré un pic mensuel de 435 incidents en janvier 2026, avec une moyenne mobile sur six mois de 326. Les deux bases de données, avec des méthodologies distinctes, montrent la même courbe ascendante.

Ce que ces incidents recouvrent est important à préciser : ils ne se limitent pas aux cyberattaques ou aux violations de données. Ils incluent des erreurs de décision automatisée, des biais discriminatoires documentés, des hallucinations ayant causé des préjudices réels, des comportements imprévus d’agents IA et des cas de désinformation amplifiée par des systèmes IA.

Les adopteurs avancés concentrent les sinistres : 50 % déclarent 3 à 5 incidents en 2025

La distribution des incidents au sein des organisations a changé significativement entre 2024 et 2025. Le pourcentage d’organisations ayant déclaré au moins un incident est resté stable à 8 %. En revanche, la structure interne a évolué : ceux qui déclaraient 1 à 2 incidents représentaient 42 % du groupe en 2024, contre seulement 29 % en 2025. La part déclarant 3 à 5 incidents est passée de 30 % à 50 %.

Les incidents deviennent récurrents là où l’IA est le plus déployée, ce n’est pas le signe d’une malchance, c’est la conséquence logique d’une surface d’exposition plus grande.

Année
Incidents documentés /an
Variation
2024
233
-
2025
362
+55%

Source : AI Incident Database (AIID), Stanford AI Index 2026, chap. 3.

La capacité de réponse s’effondre au moment précis où les incidents augmentent

C’est le signal le plus préoccupant du chapitre Responsible AI. En 2024, 28 % des organisations évaluaient leur réponse aux incidents IA comme « excellente ». En 2025, ce taux est tombé à 18 %. Celles qui se décrivaient comme « bonnes » sont passées de 39 % à 24 %. La part qui déclare que sa réponse « nécessite une amélioration » a grimpé de 13 % à 21 %.

En termes de gestion des risques, ce cisaillement est la donnée la plus claire du rapport : plus d’incidents, moins de capacité à les gérer. L’espace entre ces deux tendances, c’est exactement là que se matérialise le besoin de couverture assurantielle.

Hallucinations, biais, erreurs : le risque de responsabilité que les benchmarks ne mesurent pas

La transparence des modèles chute de 58 à 40 en un an

Il existe une asymétrie frappante dans la façon dont les labs IA rendent compte de leurs modèles. Presque tous publient leurs résultats sur les benchmarks de capacité (MMLU, GPQA, SWE-bench Verified). Sur ces mêmes modèles, les benchmarks d’IA responsable (factualité, biais, sécurité, équité) sont quasi absents.

Le rapport Stanford 2026 documente ce gap avec précision : sur les benchmarks BBQ (biais et équité), HarmBench, SimpleQA (factualité), et MakeMePay (autonomie et agentivité humaine), la majorité des entrées du tableau sont vides. Seul Claude Opus 4.5 publie des résultats sur plus de deux benchmarks RAI parmi les modèles frontière testés (Figure 3.2.4, AI Index 2026).

La Foundation Model Transparency Index confirme la tendance : après être remontée de 37 à 58 entre 2023 et 2024, la note moyenne de transparence des modèles est retombée à 40 en 2025. Les domaines les plus opaques sont précisément ceux qui importent le plus pour l’évaluation du risque opérationnel : données d’entraînement, ressources de calcul, et impact post-déploiement.

Les taux d’hallucination : entre 22 % et 94 % selon les modèles et les contextes

Sur le benchmark AA-Omniscience (évaluation factuelle sur 6 000 questions dans six domaines dont le droit, la santé et l’ingénierie logicielle) le rapport Stanford 2026 mesure des taux d’hallucination allant de 22 % pour le modèle le plus fiable à 94 % pour le moins fiable, sur 26 modèles testés (Artificial Analysis, 2026). Cette dispersion est structurelle : elle ne reflète pas uniquement un écart de génération entre anciens et nouveaux modèles, mais une hétérogénéité réelle de comportement selon le domaine et le contexte.

Le rapport documente également un comportement spécifique, mesuré via le benchmark KaBLE (Suzgun et al., 2025) : GPT-4o obtient 98,2 % de précision quand les affirmations sont vraies. Ce taux chute à 64,4 % quand la même affirmation fausse est présentée comme la conviction de l’utilisateur. DeepSeek R1 passe de plus de 90 % à 14,4 % dans les mêmes conditions.

Ce comportement, valider ce que l’utilisateur semble croire plutôt que ce qui est correct, engage directement votre responsabilité dans les contextes d’analyse, de conseil ou de rédaction contractuelle assistée par IA.

À retenir : le rapport conclut sur ce point sans ambiguïté : les modèles actuels n’ont pas appris de manière cohérente à distinguer la connaissance de la croyance.

Taux d'hallucination de 10 modèles IA selon le benchmark AA-Omniscience : de 22 % (Grok 4.20) à 94 % (gpt-oss-20B). Source : Artificial Analysis, 2026 - Stanford AI Index 2026.

Source : Artificial Analysis, 2026 – Stanford AI Index 2026, fig. 3.2.6

Trois situations concrètes où une erreur IA engage la responsabilité de votre entreprise

Premier cas : votre logiciel SaaS intègre un LLM tiers qui produit une réponse erronée à un client final

Une recommandation incorrecte, un calcul faux, une information inexacte est présentée comme fiable. Le client subit un préjudice. Aux yeux du droit, c’est votre entreprise qui a livré le produit ou la prestation. L’argument « le modèle a halluciné » n’est pas juridiquement recevable : la responsabilité contractuelle ou délictuelle reste portée par celui qui a mis la solution en circulation. La question n’est pas de savoir si votre RC Pro Éditeur de Logiciel couvre théoriquement ce type de sinistre, c’est de vérifier que votre police le couvre explicitement dans le contexte d’un produit numérique intégrant un composant IA tiers.

Deuxième cas : votre équipe utilise un modèle IA pour rédiger un document contractuel

Une erreur factuelle, un biais dans l’analyse, ou une formulation ambiguë entraîne un préjudice. La prestation était la vôtre. La responsabilité l’est aussi, quelle que soit la part qu’a jouée le modèle dans la production du document.

Troisième cas : vous développez un algorithme de décision automatisée pour un client

Votre algorithme produit des décisions discriminatoires ou erronées sur des sujets de scoring de crédit ou présélection de candidats. L’AI Act européen, entré en pleine application en janvier 2026, classe ces systèmes comme à haut risque (annexe III). Vous, en tant que développeur, portez des obligations de traçabilité, de documentation et de tests de robustesse. Un manquement engage votre responsabilité, potentiellement longtemps après la livraison.

L’IA agentique : le prochain terrain de risque, déjà bloqué par la sécurité

L’IA agentique désigne des systèmes capables d’exécuter des workflows complexes de façon autonome, en accédant à des outils, des bases de données et des systèmes tiers sans intervention humaine continue. Sur OSWorld, benchmark qui teste des agents sur de vraies tâches informatiques, la performance est passée de 12 % à 66,3 % en un an (AI Index 2026, chapitre 2). Des systèmes capables d’agir semi-autonomement sur vos environnements IT sont déjà opérationnels.

Le problème est documenté : quand le Stanford AI Index 2026 a interrogé les organisations sur ce qui freine leur déploiement à grande échelle, la sécurité et les risques arrivent en tête à 62 %, contre 38 % pour les limitations techniques (McKinsey/Stanford, 2025). Un écart de 24 points. Les organisations ne peinent pas à déployer des agents IA par manque de technologie ou de budget. Elles peinent parce qu’elles ne peuvent pas gouverner l’accès aux données que ces agents requièrent.

Ce signal a une traduction directe en termes d’exposition : un agent IA qui accède à des données clients, interagit avec des API métier ou exécute une action erronée sur un système tiers crée des responsabilités que ni la RC Pro standard ni l’assurance cyber ne couvrent par défaut. Ces deux couvertures doivent être évaluées ensemble, en tenant compte du caractère IA-natif de votre environnement.

Attention : votre RC Pro et votre assurance cyber ont été souscrites avant que vous déployiez des agents IA ? Vérifiez si votre couverture sécurise leur utilisation.

Les 8 chiffres du rapport Stanford 2026 à retenir pour votre gestion des risques

362

incidents IA documentés en 2025 (AI Incident Database), contre 233 en 2024. Hausse de 55 % en un an.

88 %

des organisations utilisent l’IA dans au moins une fonction (McKinsey/Stanford, 2025).

53 %

d’adoption mondiale de l’IA générative en trois ans, plus rapide que le PC et Internet (Harvard Project on Workforce, 2025).

62 %

des organisations citent la sécurité et les risques comme frein principal au déploiement de l’IA agentique (McKinsey/Stanford, 2025).

94 %

de taux d’hallucination pour le pire modèle sur 26 modèles testés sur le benchmark AA-Omniscience (Artificial Analysis, 2026).

40 points

sur 100 : score moyen de la Foundation Model Transparency Index en 2025, contre 58 en 2024. La transparence des modèles recule alors que les incidents augmentent.

50,6 %

de réussite sur ClockBench pour le meilleur modèle disponible, contre 90,7 % pour les humains, illustration directe de la jagged frontier.

2,7 %

l’écart de performance entre les meilleurs modèles américains (Claude Opus 4.6, score Arena 1 503) et chinois (Dola-Seed-2.0 Preview, 1 464) au 1ᵉʳ mars 2026.

Gouvernance, supervision, responsabilité : pourquoi l’assurance IA n’est plus optionnelle

Ce que l’étude Stanford AI Index implique pour votre couverture d’assurance

362 incidents en 2025, une sinistralité concentrée chez les adopteurs les plus avancés, une capacité de réponse organisationnelle en chute libre, des taux d’hallucination qui atteignent 94 % sur certains modèles en conditions réelles. Ces données ont une implication directe : les entreprises tech qui déploient ou développent l’IA opèrent dans un environnement où la responsabilité peut être engagée à tout moment, souvent sans signal d’alerte préalable.

La gouvernance interne (politique IA, supervision humaine, documentation des choix de modélisation) est nécessaire, mais elle n’est pas suffisante. C’est le rôle de l’assurance de l’intelligence artificielle : couvrir ce que la gouvernance ne peut pas éliminer.

assurance et intelligence artificielle 4 bonnes pratiques pour assurer son IA

Le guide pour ajuster l’assurance de son intelligence artificielle

Ce livrable vous donne 4 pratiques indispensables pour assurer votre intelligence artificielle sans faille et avec la meilleure optimisation prix/garanties.

✅ Un contrat qui protège votre activité et celles de vos clients.
✅ Aucun vide de garanties entre RC Pro et Cyber.
✅ Une couverture adaptée à votre développement (R&D, PI, international, etc.).
✅ Une protection contre l’indisponibilité ou la défaillance de vos modèles.

Votre couverture actuelle intègre-t-elle les risques IA documentés par Stanford ?

Les données du rapport Stanford AI Index 2026 ne sont pas des projections. Avec 88 % d’adoption, 362 incidents et 55 % de hausse en un an : ces chiffres décrivent un marché en plein déploiement, dont la sinistralité est en croissance. L’assurance ne réduit pas le risque IA, elle permet de l’assumer sans que les conséquences menacent la continuité de votre activité.

Découvrir Tech360, l’assurance RC Pro + Cyber pour les métiers numériques ↗

Programmez un audit gratuit de votre exposition aux risques de l’intelligence artificielle ↗

Onlynnov est courtier spécialisé dans les entreprises technologiques. Tech360 combine RC Pro et Cyber dans un seul contrat, calibré pour les entreprises tech qui développent ou intègrent l’IA. Erreurs algorithmiques, défaillance de modèle, fuite de données, cyberattaque : une seule couverture, adaptée à votre stack.

Questions sur le rapport Stanford AI Index 2026 et les risques pour les entreprises

Qui produit le rapport Stanford AI Index ?

L
K

Le Stanford AI Index 2026 est le rapport annuel produit par le Stanford Institute for Human-Centered Artificial Intelligence (HAI). Coordonné par Sha Sajadieh sous la direction des co-présidents Yolanda Gil et Raymond Perrault, il compile des données indépendantes sur l’état mondial de l’intelligence artificielle : performance technique, adoption, économie, emploi, environnement, gouvernance et opinion publique. L’édition 2026 compte 423 pages et 9 chapitres. Sa particularité est d’être produit sans conflit d’intérêt avec les labs qui développent les modèles analysés. Il est référencé par des gouvernements, des institutions de recherche et des entreprises dans le monde entier.

Combien d'incidents liés à l'IA ont été documentés en 2025 ?

L
K

Selon l’AI Incident Database (AIID), citée comme source primaire par le rapport Stanford AI Index 2026, 362 incidents liés à l’IA ont été documentés en 2025 (contre 233 en 2024), soit une hausse de 55 % en un an. Ces incidents restaient sous la barre des 100 par an avant 2022. L’OECD AI Incidents and Hazards Monitor, qui utilise une méthodologie automatisée et multilingue plus extensive, a enregistré un pic mensuel de 435 incidents en janvier 2026.

Qu'est-ce que l'IA agentique et pourquoi représente-t-elle un risque pour les entreprises ?

L
K

L’IA agentique désigne des systèmes capables d’exécuter des tâches complexes de façon autonome, en accédant à des outils, des données et des workflows sans intervention humaine continue. Selon le rapport Stanford AI Index 2026 (McKinsey/Stanford, 2025), 62 % des organisations citent la sécurité et les risques comme principal frein à son déploiement à grande échelle, avec 24 points d’écart sur le deuxième facteur (limitations techniques). Le risque spécifique des agents IA tient à leur accès autonome à des ressources sensibles : une action erronée, une fuite de données ou un comportement inattendu engage la responsabilité de l’entreprise qui a déployé l’agent, indépendamment du comportement du modèle sous-jacent.

Une hallucination ou une erreur de mon système IA engage-t-elle ma responsabilité ?

L
K

Dans la grande majorité des cas, oui. Si votre entreprise a livré un produit ou rendu une prestation dans lequel un système IA a produit une information incorrecte, un biais discriminatoire ou une décision erronée ayant causé un préjudice à un tiers, c’est votre responsabilité contractuelle ou délictuelle qui est engagée. L’argument selon lequel « le modèle a halluciné » n’est pas recevable en droit : la faute est celle de la prestation ou du produit livré, pas de la technologie.

Le rapport Stanford 2026 documente des taux d’hallucination allant de 22 % à 94 % selon les modèles et les contextes (AA-Omniscience, Artificial Analysis, 2026), ce qui rend le risque concret et mesurable. Il est indispensable de vérifier que votre RC Pro couvre explicitement les sinistres liés à des erreurs produites par des composants IA intégrés dans vos produits ou prestations.

Quelle différence entre assurer une IA qu'on utilise et une IA qu'on développe ?

L
K

La position dans la chaîne de valeur IA change la nature de l’exposition. Une entreprise qui intègre des briques IA tierces dans ses produits ou ses process porte la responsabilité des dommages causés à ses clients, même si l’erreur vient du composant IA fourni par un tiers.

Une entreprise qui développe des systèmes IA pour ses clients porte une responsabilité potentiellement plus longue : elle peut être mise en cause longtemps après la livraison si le système produit des dommages. Sous l’AI Act européen, les développeurs de systèmes à haut risque (annexe III) portent des obligations de documentation et de traçabilité dont le non-respect engage leur responsabilité.

La couverture adaptée est de combiner RC Pro et cyber dans un seul contrat. Tech360 (RC Pro = Cyber) est conçu dans ce sens.

Source principale : Sajadieh, S., Fattorini, L., Perrault, R., Gil, Y., et al. « The AI Index 2026 Annual Report, » AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, avril 2026.
Données économiques complémentaires : McKinsey & Company Survey, 2025.
Données sur les hallucinations : Artificial Analysis, AA-Omniscience, 2026.
Données sur la fiabilité épistémique : Suzgun et al., KaBLE Benchmark, 2025.
Données sur les benchmarks : ClockBench (Safar, 2025), AIID (2025), OECD AIM (2026).