Le 11 septembre 2025, le Premier ministre albanais Edi Rama a officialisé la nomination de Diella, un « ministre » virtuel conçu par intelligence artificielle, en charge des marchés publics. Cette décision s’inscrit dans une démarche plus large de responsabilité sociétale de l’État, qui vise à restaurer la confiance citoyenne, renforcer la lutte anticorruption et aligner les pratiques nationales sur les standards européens en matière de bonne gouvernance.
L’intelligence artificielle comme levier de responsabilité publique
L’Albanie, candidate à l’adhésion à l’Union européenne d’ici 2030, devait apporter des garanties solides en matière de gouvernance. En plaçant Diella au cœur des marchés publics, le gouvernement répond à une exigence clé : la transparence. Selon les propos du Premier ministre, « tous les appels d’offres publics seront exempts de corruption à 100 % », cités par BFMTV. Cette ambition rejoint directement les principes de RSE appliqués à l’État.
Ce choix est aussi la continuité d’une expérience déjà amorcée. Depuis janvier, Diella officiait comme assistant numérique sur la plateforme e-Albania, délivrant environ 36 600 documents officiels et offrant près de 1 000 services en ligne selon Cointelegraph. En la promouvant au rang ministériel, l’exécutif albanais montre sa volonté d’institutionnaliser la technologie au service de l’intérêt général. La démarche s’inscrit ainsi dans une logique de gouvernance responsable, où la technologie devient un outil de reddition de comptes.
Limites, risques et enjeux de légitimité sociale
Cependant, intégrer une intelligence artificielle au sein de l’appareil d’État pose des questions essentielles en matière de responsabilité publique. Qui répondra devant les citoyens en cas d’erreurs dans l’attribution des marchés ? Reuters souligne que le gouvernement n’a pas encore détaillé les mécanismes de supervision humaine. Cette incertitude fragilise l’engagement de responsabilité, pilier de toute démarche de gouvernance durable.
Par ailleurs, les algorithmes ne sont pas neutres : leur efficacité dépend des données, des critères d’évaluation et des règles qui les encadrent. The Guardian rappelle que le transfert des compétences sera progressif, preuve que la confiance dans le processus reste limitée. Les risques de biais systémiques ou de décisions trop mécaniques pourraient entamer la crédibilité du dispositif. Sur le plan de la RSE publique, la transparence des paramètres de l’IA et l’instauration d’audits indépendants apparaissent comme des conditions indispensables pour garantir une légitimité durable.








