Intelligence Artificielle — Réglementation, Éthique et Actualité Mondiale
Chronologie inversée des textes réglementaires, enjeux éthiques et événements mondiaux impactant l’usage de l’IA dans la pratique architecturale. Focus : droit d’auteur et cybersécurité.
RGPD
Droit d’auteur
Stratégie nationale
Sécurité
LLM majeurs
IA 01 — Bases éthiques
IA 02 — Usages
IA 03 — Marketing
IA 04 — AO
IA 05 — Site
IA 06 — Conception
IA 07 — Images
IA 08 — Pathologies
IA 09 — Chiffrage
IA 10 — CCTP
IA 11 — Offres
IA 12 — Chantier
IA 13 — AMO
IA 14 — Humain
IA 15 — Gestion
IA 16 — Admin/Juridique
IA 17 — Former
|
Ma collection de livres IA
Sommaire thématique
- Réglementation européenne (AI Act)— 7 textes
- RGPD et protection des données— 6 textes
- Droit d’auteur et propriété intellectuelle— 5 textes
- Stratégie nationale France— 7 textes
- Sécurité et risques (DGSI, ANSSI, INESIA)— 5 textes
- États-Unis et politique internationale— 4 textes
- Modèles de langage (LLM) — Évolutions majeures— 8 jalons
- Fonctionnalités majeures des principales IA— 15 annonces
- IA et BIM dans le bâtiment— 4 textes
- Sources et bibliographie— 3 catégories
Réglementation européenne — AI Act
Échéances à venir
Union européenne
Dernière échéance d’application : les systèmes d’IA à haut risque incorporés dans des produits déjà soumis à une législation d’harmonisation de l’UE (jouets, dispositifs médicaux, machines, ascenseurs, équipements sous pression, etc.) devront être conformes.
Union européenne
Entrée en application des obligations pour les systèmes d’IA à haut risque déjà identifiés : biométrie, infrastructures critiques, éducation et formation professionnelle, emploi, services essentiels, forces de l’ordre, migration, justice. Exigences de conformité, évaluation des risques, documentation technique, traçabilité et contrôle humain.
Les systèmes d’IA utilisés pour évaluer les candidatures en marchés publics ou pour la formation professionnelle pourraient être classés « haut risque ». Obligation de documenter les systèmes d’IA utilisés dans les process métier.
Textes en vigueur et adoptés
France
Le Sénat examine le volet numérique du projet de loi portant diverses dispositions d’adaptation au droit de l’Union européenne (DDADUE). Le texte désigne une quinzaine d’autorités sectorielles pour la surveillance des systèmes d’IA, avec un rôle central confié à la CNIL. Chaque secteur (santé, éducation, emploi, justice, etc.) dispose de son propre régulateur, coordonné au niveau national.
La CNIL supervisera les systèmes d’IA utilisés dans la formation professionnelle et l’éducation. Les outils d’IA intégrés aux logiciels de conception (BIM, simulation) pourront relever de régulateurs sectoriels si classés « haut risque ».
Union européenne
Application des obligations pour les fournisseurs de modèles d’IA à usage général (type GPT, Claude, Gemini, Mistral). Obligations de transparence : publication de la documentation technique, respect du droit d’auteur, publication d’un résumé des données d’entraînement. Désignation des autorités compétentes dans chaque État membre. Règles renforcées pour les modèles présentant des « risques systémiques ».
Les LLM utilisés quotidiennement (ChatGPT, Claude, Gemini, Mistral) sont soumis à des obligations de transparence accrues. Les architectes peuvent exiger de leurs fournisseurs d’IA des informations sur les données d’entraînement et le respect du droit d’auteur.
Union européenne
Première échéance d’application de l’AI Act. Interdiction effective des systèmes d’IA considérés comme présentant un risque inacceptable : notation sociale (social scoring), manipulation subliminale, exploitation des vulnérabilités, catégorisation biométrique fondée sur des données sensibles, reconnaissance faciale en temps réel dans l’espace public (sauf exceptions limitées).
Union européenne
Entrée en vigueur du règlement européen sur l’intelligence artificielle, adopté par le Parlement européen le 13 mars 2024 et publié au Journal Officiel de l’UE le 12 juillet 2024. Premier cadre juridique contraignant au monde dédié à l’IA, fondé sur une approche par les risques (inacceptable, haut, limité, minimal). Application progressive jusqu’en août 2027.
Union européenne
Le Parlement européen adopte le règlement sur l’IA à une large majorité (523 voix pour, 46 contre). Le texte est le fruit de trois ans de négociations depuis la proposition initiale de la Commission en avril 2021.
RGPD et protection des données personnelles
Union européenne / Italie
Suite au lancement du modèle R1 par la startup chinoise DeepSeek en janvier 2025, l’autorité italienne de protection des données (Garante) ouvre une enquête formelle, suivie par la Belgique et le Portugal. DeepSeek affirme que le RGPD ne s’applique pas à son activité basée en Chine. Les régulateurs européens invoquent la portée extraterritoriale du RGPD dès lors que des données de résidents européens sont traitées.
L’utilisation d’outils d’IA non-européens (DeepSeek, mais aussi tout LLM hébergé hors UE) pour traiter des données de projet expose à des risques RGPD. Vigilance requise sur la localisation du traitement des données.
France / CNIL
La CNIL publie un outil de traçabilité dédié aux modèles d’IA publiés en source ouverte. Objectif : faciliter l’exercice des droits d’opposition, d’accès et d’effacement des personnes dont les données ont été utilisées pour l’entraînement de modèles IA.
France / CNIL
Délibération n° 2025-047 du 5 juin 2025. La CNIL clarifie les conditions dans lesquelles l’intérêt légitime peut servir de base légale au développement et à l’entraînement des systèmes d’IA. Encadrement strict des pratiques de moissonnage (web scraping) de données, avec des recommandations pour les acteurs privés et publics.
Les fournisseurs d’outils d’IA doivent justifier leur base légale pour l’entraînement des modèles. Un architecte qui alimente un LLM avec des données de projet doit vérifier que le traitement repose sur une base légale valide (consentement, intérêt légitime, contrat).
France / CNIL
La CNIL publie ses nouvelles recommandations pour accompagner une innovation responsable. Points clés : obligation d’informer les personnes dont les données servent à l’entraînement des modèles, possibilité d’adapter les modalités d’information selon les risques et contraintes, conformité RGPD jugée compatible avec le développement de l’IA.
France / CNIL
La CNIL dévoile ses premières réponses concrètes : fiches pratiques sur la finalité du traitement, la minimisation des données, la durée de conservation et le droit des personnes dans le contexte de l’IA générative.
Union européenne
Texte fondateur. Entré en application le 25 mai 2018, le RGPD encadre tout traitement de données personnelles sur le territoire européen. Socle juridique de référence pour l’encadrement de l’IA : consentement, minimisation, droit à l’effacement, portabilité, obligation de sécurité. Toute utilisation d’IA impliquant des données personnelles (photos de chantier, données clients, données de projet) relève du RGPD.
Droit d’auteur et propriété intellectuelle
Parlement européen
Le Parlement européen adopte un rapport (A10-0019/2026) exigeant transparence et rémunération juste pour les titulaires de droits. Trois principes : les titulaires de droits doivent pouvoir refuser l’utilisation de leurs œuvres pour l’entraînement de l’IA (opt-out effectif), les fournisseurs doivent être transparents sur les contenus protégés utilisés, et les titulaires de droits doivent être correctement rémunérés.
Les architectes sont titulaires de droits d’auteur sur leurs œuvres (plans, croquis, photos de réalisations). Ce rapport renforce leur capacité à s’opposer à l’utilisation de leurs créations par les modèles d’IA et à exiger une rémunération.
France / Sénat
Proposition de loi sénatoriale transpartisane instaurant une présomption d’exploitation des œuvres protégées par les systèmes d’IA. Inversion de la charge de la preuve : c’est au fournisseur d’IA de prouver qu’il n’a pas utilisé une œuvre protégée, dès lors que des indices rendent cette exploitation plausible. Le texte fait suite à l’échec des négociations volontaires entre ayants droit et fournisseurs d’IA (novembre 2025).
Si adoptée, cette loi permettrait à un architecte de contester l’utilisation de ses plans ou images par un modèle d’IA sans avoir à prouver lui-même l’exploitation — charge inversée au profit du créateur.
Allemagne / Jurisprudence
La 42ᵉ chambre civile du Tribunal régional de Munich qualifie la mémorisation interne de contenus protégés au sein des paramètres d’un modèle d’IA de « reproduction » au sens de la directive 2001/29/CE. Première décision de portée systémique en Europe établissant que l’entraînement d’un LLM constitue un acte de reproduction soumis au droit d’auteur.
France
Alexandra Bensamoun remet son rapport au CSPLA, présentant plusieurs solutions pour protéger les droits des auteurs face à l’IA : présomption d’exploitation, licences collectives obligatoires, renforcement de l’opt-out, obligation de transparence des fournisseurs.
Union européenne
Texte de référence. La directive prévoit une exception de fouille de textes et de données (Text and Data Mining, TDM) pour la recherche scientifique (art. 3) et une exception générale pour d’autres acteurs (art. 4), sous réserve que les titulaires de droits n’aient pas expressément réservé leurs droits (mécanisme d’opt-out). C’est ce mécanisme d’opt-out que l’AI Act impose désormais aux fournisseurs de modèles GPAI de respecter.
Stratégie nationale France
France / INESIA
L’Institut national pour l’évaluation et la sécurité de l’IA adopte sa feuille de route. Trois pôles : « Appui à la régulation » (expertise technique pour les régulateurs, détection de contenus synthétiques, méthodes de certification cybersécurité IA), « Risques systémiques » (recherche sur les risques des IA les plus avancées, étude des systèmes agentiques), et un axe transverse de coopération internationale. INESIA fédère ANSSI, Inria, LNE et PEReN.
France / Mistral AI
Mistral AI réalise un tour de série C de 1,7 Md€, portant sa valorisation à 11,7 Md€. Première décacorne de la French Tech. Mené par ASML (1,3 Md€), avec Bpifrance, Andreessen Horowitz, NVIDIA. Le fondateur Arthur Mensch annonce la construction du premier data center propriétaire en Essonne (Plateau de Saclay), stratégie de souveraineté numérique européenne. Objectif : 1 Md$ de chiffre d’affaires en 2026.
Mistral propose une alternative européenne (Le Chat, API Mistral) aux LLM américains et chinois. Hébergement souverain des données, conformité RGPD native, pertinence pour les agences soucieuses de la localisation de leurs données.
France
Le décret transforme l’ancien Conseil National du Numérique en Conseil de l’IA et du Numérique, pour mieux prendre en compte les transformations induites par l’IA. Composition réduite de 21 à 17 membres permanents, possibilité d’associer des personnalités extérieures à des groupes de travail thématiques.
Sommet international
Sommet international réunissant plus de 100 pays au Grand Palais. Adoption d’une déclaration finale signée par 60 pays en faveur d’une IA « inclusive et durable ». Lancement de la Coalition pour une IA durable (France, Chine, Inde et 60 pays). Lancement de l’initiative Current AI (2,5 Md€ sur 5 ans pour l’IA d’intérêt général). La Commission européenne annonce 50 Md€ de fonds européens pour l’IA. Engagement privé de 150 Md€ dans l’IA en Europe sur 5 ans. Le Président de la République annonce 109 Md€ d’investissements privés en IA en France.
France
Le comité interministériel sur l’IA lance la troisième phase de la stratégie nationale, organisée autour de quatre priorités : renforcer les infrastructures de calcul, soutenir les entreprises (400 PME/ETI accompagnées), former les talents (2 000 étudiants L, 1 500 M, 200 doctorants supplémentaires/an), et positionner la France comme hub européen de l’IA.
France / INESIA
Création de l’INESIA, structure fédérant ANSSI, Inria, LNE et PEReN. Mission : doter la France d’une capacité souveraine d’évaluation des systèmes d’IA avancés, au service d’une innovation sûre et de la protection des citoyens. Annoncé lors du Sommet de Paris.
Kheox / Bâtiment
Ouvrage de référence disponible sur Kheox traitant du droit d’auteur spécifique à l’architecture. Pertinent dans le contexte de l’IA générative qui peut reproduire, transformer ou s’inspirer de réalisations architecturales protégées.
Sécurité et risques — DGSI, ANSSI, INESIA
France / DGSI
La Direction Générale de la Sécurité Intérieure publie une alerte « Flash ingérence » détaillant trois cas concrets d’entreprises françaises victimes de risques liés à l’IA : traduction de documents confidentiels via un outil IA développé par une puissance étrangère, deepfakes utilisés pour des tentatives de fraude au président, extraction de données sensibles via des assistants IA publics. Le volume de deepfakes en ligne a été multiplié par 10 entre 2023 et 2025.
Alerte directe : ne jamais soumettre de documents confidentiels (plans non publiés, données clients, montages financiers) à un outil d’IA publique sans garantie de confidentialité. Privilégier les solutions avec hébergement souverain. Vigilance accrue sur les deepfakes dans les échanges professionnels.
France / ANSSI
L’ANSSI publie une étude qualifiant l’IA générative d’arme supplémentaire dans l’arsenal des cybercriminels et des groupes d’espionnage étatique. L’agence travaille avec INESIA et l’AMIAD (Agence ministérielle pour l’IA de Défense) sur les méthodes d’évaluation de la cybersécurité des systèmes d’IA.
International
La startup chinoise DeepSeek lance son modèle R1, revendiquant des performances comparables aux leaders américains (OpenAI, Anthropic) avec un coût d’entraînement très inférieur. Onde de choc sur les marchés financiers, questionnement sur la course au calcul (compute) et la dépendance aux GPU Nvidia. Relance du débat européen sur la souveraineté IA.
Kheox / Bâtiment
Dossier technique de la construction (revue Kheox) analysant l’intégration de l’intelligence artificielle dans les bâtiments connectés : gestion technique, optimisation énergétique, maintenance prédictive. Premier traitement structuré du sujet IA × bâtiment dans la littérature technique française.
États-Unis et politique internationale
États-Unis
Échéance fixée par l’Executive Order de décembre 2025. Le Secrétaire au Commerce doit publier une revue complète des lois étatiques sur l’IA, identifiant celles jugées excessivement contraignantes ou en conflit avec la politique fédérale (lois exigeant la modification de résultats « véridiques » ou imposant des obligations de divulgation contraires au 1er amendement).
États-Unis
Le Président Trump signe un décret visant à limiter la réglementation étatique de l’IA au profit d’un cadre fédéral minimal. Création d’une « AI Litigation Task Force » au sein du Département de la Justice (effective le 10 janvier 2026) pour contester les lois étatiques jugées anticonstitutionnelles. Conditionnement de 42 Md$ de financements fédéraux pour le haut débit à l’abrogation de réglementations IA étatiques jugées « excessives ». Approche diamétralement opposée à l’AI Act européen : dérégulation vs. encadrement.
Fracture réglementaire transatlantique confirmée. Les outils d’IA américains évoluent dans un cadre dérégulé, tandis que les architectes européens sont soumis à l’AI Act. Risque de divergence dans les garanties offertes par les outils selon leur origine.
Union européenne
La Commission européenne adopte son plan d’action pour positionner l’Europe comme « continent de l’IA ». Renforcement des capacités de calcul, soutien aux startups, cadre réglementaire compétitif. Réponse européenne au double défi de la compétition sino-américaine et de la dérégulation trumpienne.
États-Unis
Décret signé par le Président Biden établissant des standards de sécurité pour l’IA, des obligations de transparence et des tests de sécurité pour les modèles les plus puissants. Ce décret a été largement révoqué par l’administration Trump en janvier 2025, marquant un virage vers la dérégulation.
Modèles de langage (LLM) — Évolutions majeures
Les modèles de langage (LLM, Large Language Models) sont les moteurs de l’IA générative utilisée par les architectes. Leur évolution rapide impacte directement les capacités disponibles en agence. Cette chronologie recense les jalons majeurs.
Technologie
Modèle le plus avancé de la gamme Pro de Google. Fenêtre de contexte d’un million de tokens, capacités multimodales (texte, image, audio, vidéo). Performances de raisonnement en forte progression sur le benchmark ARC-AGI-2.
Technologie
Modèle open-weight revendiquant des performances comparables à GPT-4 et Claude 3.5 pour un coût d’entraînement très inférieur. Relance du débat sur l’efficacité vs. la puissance de calcul brute. Soulève des questions de souveraineté et de conformité RGPD.
Technologie
Modèle phare d’Anthropic, conçu avec une approche « safety-first ». Capacités de raisonnement étendues, fenêtre de contexte large, performances élevées en analyse de documents techniques et en rédaction structurée. Hébergement européen disponible via AWS eu-west.
Technologie
GPT-4.5 lancé en février 2025, suivi de GPT-5.2 avec une fenêtre de contexte de 400 000 tokens. Capacités multimodales renforcées. Intégration progressive dans les outils de productivité (Microsoft 365 Copilot, plugins architecturaux).
Technologie
Quatrième génération du modèle open-source de Meta. Accessible gratuitement, permet un déploiement local en agence (on-premise) pour les structures soucieuses de confidentialité. Écosystème de fine-tuning actif.
Technologie
Mistral AI consolide sa position avec Mistral Large 2 et son assistant Le Chat. Hébergement souverain en France (data center Saclay). Conformité RGPD native. Alternative européenne pertinente pour les agences d’architecture.
Technologie
Approche alternative à l’architecture transformer : modèle de diffusion appliqué au texte. Potentiel pour la génération de documents techniques et descriptifs architecturaux avec une cohérence accrue.
Technologie
Premier modèle de diffusion textuelle dédié au code. Approche innovante qui pourrait transformer la génération automatique de scripts BIM et de macros de conception paramétrique.
Fonctionnalités majeures — Annonces des principales IA
Au-delà des modèles, les éditeurs déploient des fonctionnalités qui transforment la pratique : agents autonomes, navigation web, analyse de documents, génération d’images, protocoles d’interopérabilité. Cette section recense les annonces qui impactent directement le quotidien des architectes.
OpenAI (ChatGPT)
Fonctionnalité
GPT-5.4 Thinking fusionne raisonnement avancé, capacités de codage de GPT-5.3 Codex et workflows d’agents. Support étendu des outils : feuilles de calcul, présentations et documents manipulables directement dans le flux de conversation.
Fonctionnalité
Deep Research (recherche approfondie multi-étapes sur internet) peut désormais se connecter à n’importe quel serveur MCP (Model Context Protocol) ou application externe. Possibilité de restreindre les recherches web à des sites de confiance. Suivi de la progression en temps réel.
Possibilité de connecter ChatGPT à des bases de données métier (Kheox, bases DTU, référentiels internes) pour des recherches réglementaires automatisées et sourcées.
Fonctionnalité
Application dédiée permettant d’exécuter plusieurs agents Codex en parallèle. Chaque agent travaille dans un environnement isolé (worktree git), génère des diffs examinables. Connexion via ChatGPT. Framework Apps SDK open-source étendant le protocole MCP.
Fonctionnalité
Lancement d’Operator, agent IA utilisant un modèle CUA (Computer-Using Agent) combinant la vision de GPT-4o et le raisonnement avancé. Capable d’interagir avec des interfaces graphiques : remplir des formulaires, naviguer sur des sites, réserver. Intégré ensuite directement dans ChatGPT comme « mode agent ».
Automatisation de tâches administratives : recherche de fournisseurs, remplissage de formulaires Cerfa, navigation sur les plateformes de marchés publics, veille normative automatisée.
Anthropic (Claude)
Fonctionnalité
Fenêtre de contexte d’un million de tokens. Capacités de codage renforcées, meilleure planification et débogage, amélioration de l’analyse financière. Capacité à ingérer des documents techniques volumineux (CCTP, études thermiques, rapports d’audit) en une seule session.
Fonctionnalité
Lancement du Model Context Protocol (MCP), protocole ouvert permettant de connecter Claude à des services externes (Google Calendar, Gmail, Slack, bases de données). Lancement des Agent Skills : dossiers de compétences spécialisées que Claude charge dynamiquement. Annuaire de skills avec des partenaires (Atlassian, Canva, Cloudflare, Figma, Notion, Sentry).
Possibilité de créer des skills métier personnalisés (rédaction CCTP, analyse DTU, chiffrage) et de les partager entre collaborateurs. Connexion directe aux outils de gestion de projet.
Fonctionnalité
Claude peut interagir directement avec l’interface graphique d’un ordinateur : cliquer, taper, naviguer dans des applications, remplir des formulaires. Commandes étendues : maintien de touches, défilement, triple-clic, attente. Exécution de workflows multi-applications.
Fonctionnalité
Les Artifacts permettent de créer des outils fonctionnels (analyseurs de données, générateurs, interfaces interactives) directement dans la conversation. Support de MCP pour connexion à des services externes. Approche « low-code » accessible aux non-développeurs.
Google (Gemini)
Fonctionnalité
Prototype construit sur Gemini 2.0 permettant de comprendre et raisonner sur le contenu affiché dans le navigateur. Système d’agents capables de traiter jusqu’à 10 tâches simultanément : recherche d’information, réservations, achats, recherche documentaire. Extension Chrome expérimentale.
Fonctionnalité
Compréhension vidéo en temps réel, partage d’écran et mémoire conversationnelle. Transition fluide entre téléphone Android et lunettes prototype sans perte de contexte. Mémorisation des détails clés des interactions passées (jusqu’à 10 minutes par session).
Fonctionnalité
Recherche multi-étapes sur internet avec synthèse de centaines de sources. Possibilité de charger ses propres fichiers et images comme sources pour les rapports. Accessible gratuitement via le modèle 2.5 Flash. API Interactions pour les développeurs.
Possibilité de charger un CCTP ou un programme et demander une recherche croisée avec les normes et DTU en vigueur. Rapport de synthèse automatisé et sourcé.
Mistral AI (Le Chat)
Fonctionnalité
Intégration du modèle Flux de génération d’images texte-vers-image directement dans Le Chat. Partenariat stratégique avec Black Forest Labs. Alternative européenne à DALL-E et Midjourney.
Fonctionnalité
Canvas : interface collaborative d’édition avec versionnage IA. Agents personnalisables (équivalent des GPTs) gratuits et partageables en équipe. Analyse documentaire multimodale via Pixtral Large : extraction d’informations de PDF volumineux, tableaux, graphiques, équations. Recherche web avec citations intégrée.
Alternative souveraine et gratuite pour l’analyse de documents techniques (DTU, rapports d’audit, études thermiques). Agents partageables entre collaborateurs d’une même agence. Hébergement France.
Meta (Llama) — Open Source
Fonctionnalité
Premiers modèles nativement multimodaux open-source. Scout : fenêtre de contexte de 10 millions de tokens (bases de code entières, bibliothèques de documents juridiques en une seule invite). Maverick : 400 milliards de paramètres (17 Md actifs par inférence), architecture Mixture-of-Experts. Llama Stack : framework pour construire des applications agentiques.
Déploiement local possible en agence (on-premise) pour garantir la confidentialité totale des données projet. Fenêtre de contexte géante permettant d’ingérer un dossier DCE complet. Gratuit et personnalisable.
xAI (Grok)
Fonctionnalité
Le DoD américain annonce l’intégration de Grok dans ses réseaux (classifiés et non classifiés). SpaceX acquiert xAI (valorisation 250 Md$). Partenariat de 300 M$ avec Telegram. Grok 4.1 lancé en novembre 2025. Génération vidéo (Imagine 1.0) en février 2026. Position atypique : IA liée à un écosystème industriel (Tesla, SpaceX, X/Twitter).
Grok illustre la convergence IA-industrie-défense. Alerte sur les enjeux de neutralité et d’indépendance des outils d’IA par rapport à leurs écosystèmes propriétaires.
IA et BIM dans le bâtiment
International / Normes
Les normes ISO 19650 s’imposent comme référence opérationnelle pour la gestion de l’information BIM. L’openBIM (IFC) est favorisé dans les marchés publics et industriels. L’intégration de l’IA dans le BIM permet la détection de conflits structurels, la prévention d’erreurs et l’anticipation des coûts. Exigences renforcées en cybersécurité, éthique IA et souveraineté numérique.
Technologie
Outils d’IA permettant de prédire les performances énergétiques d’un bâtiment dès les phases de conception. Anticipation des exigences RE2020/RT existant. Optimisation de la conception architecturale, automatisation de la détection des défauts structurels, amélioration de la gestion énergétique.
Kheox / Bâtiment
Dossier technique Kheox analysant le passage du BIM au CIM (City Information Modeling), intégrant l’intelligence artificielle à l’échelle urbaine. Jumeau numérique de la ville, gestion prédictive des infrastructures.
Kheox / Bâtiment
Premier dossier technique structuré sur Kheox traitant de l’intégration de l’IA dans la gestion technique des bâtiments : automatisation, régulation, optimisation énergétique via des algorithmes prédictifs.
Formations liées à cette veille
Ces textes impactent directement le contenu de nos 17 modules IA pour architectes.
IA 01 — Bases méthodologiques et éthiques
IA 16 — Administration et juridique
Voir le catalogue complet
Sources et bibliographie
Textes fondateurs
- Règlement (UE) 2024/1689 — AI Act européen : classification risques (interdit/haut/moyen/bas), obligations conformité, bannissement IA générative non-contrôlée.
- RGPD — RGPD et IA : droit à l’explication, traçabilité modèles, consentement données, droit à l’oubli.
Portails
-
ec.europa.eu/digital-strategy — Réglementations IA européenne, timeline conformité AI Act, secteurs obligatoires, exemptions PME.
Source : ec.europa.eu/digital-strategy -
cnil.fr — Guides CNIL IA générative, recommandations données personnelles, audits risques IA, traçabilité algorithmes.
Source : cnil.fr -
legifrance.gouv.fr — Ordonnances IA France, décrets conformité AI Act, arrêtés sectoriels, timeline applicabilité.
Source : legifrance.gouv.fr
Organismes
-
CNIL — Guides CNIL IA générative, cartographie risques, gestion droits auteurs, gouvernance algorithmes.
Source : cnil.fr -
ANSSI — Sécurité modèles IA, robustesse adversarial, risques hallucinations, chaîne de traçabilité données.
Source : anssi.gouv.fr
Note méthodologique
Cette page recense les textes réglementaires, normatifs et les événements majeurs impactant l’usage de l’intelligence artificielle dans la pratique architecturale. Les sources sont vérifiées et proviennent de : Légifrance, Journal Officiel de l’UE, CNIL, DGSI, ANSSI, Commission européenne, Parlement européen, Kheox Bâtiment, et des publications officielles des fournisseurs de modèles d’IA.
Cette veille est mise à jour régulièrement. Dernière actualisation : 16 mars 2026. Elle complète les formations IA 01 à IA 17 du catalogue Conseils d’Architecture.
Restez informé : veille réglementaire et formations
Ressources associées — Conseils d’Architecture