RGPD et préjudice moral, la consécration d’une notion autonome
dsheremeta/AdobeStock
Dans son arrêt du 4 septembre 2025 ( CJUE, 4 sept. 2025, n° C-655/23 ), la Cour de justice de l’Union européenne opère une clarification majeure du régime de sanctions prévu par le règlement général sur la protection des données. La principale avancée réside dans la consécration d’une notion autonome et extensive du « préjudice moral » au sens de l’article 82 du règlement général sur la protection des données. La Cour de justice de l’Union européenne a ainsi jugé que la simple « perte de contrôle » sur ses données constitue un dommage réparable, indépendamment de tout seuil de gravité. Elle rappelle également que la réparation civile (art. 82) a une finalité purement compensatoire, distincte de la fonction punitive des amendes administratives (art. 83), rendant la gravité de la faute inopérante pour l’évaluation du dommage.
Dans un contexte marqué par la dématérialisation des rapports sociaux (notamment réseaux sociaux professionnels) et l’essor de technologies de traitement massif de données, telles que l’intelligence artificielle (IA), qui interrogent la nature même du droit à la protection des données personnelles, l’effectivité des recours prévus par le règlement n° 2016/679 (règlement général sur la protection des données (RGPD)) soulève une question fondamentale. La Cour de justice de l’Union européenne (CJUE) a, dans son arrêt du 4 septembre 2025, relatif à l’affaire n° C-655/23, rappelé des principes fondamentaux.
Le litige soumis aux juridictions allemandes trouve son origine dans une candidature à un emploi adressée par l’intermédiaire d’un réseau social professionnel à une entreprise de droit allemand. Dans ce contexte, une salariée de ladite entreprise a, par le biais de la messagerie instantanée intégrée à la plateforme, transmis à un tiers non habilité un message initialement destiné au candidat, contenant, outre une notification de rejet de ses prétentions salariales, diverses informations à caractère personnel relatives à sa candidature. Ce tiers, par ailleurs connaissance du candidat, l’a informé de la réception erronée du message, révélant ainsi la divulgation non autorisée. Se fondant sur cette atteinte à la confidentialité de ses données, le demandeur a saisi les juridictions compétentes afin, d’une part, d’obtenir une injonction visant à faire cesser et prévenir toute répétition d’un tel manquement, et, d’autre part, de solliciter la réparation du préjudice moral subi, tant en raison de la perte de contrôle sur ses données personnelles que de l’humiliation engendrée. Après une décision de première instance suivie d’un appel, l’affaire a été portée devant le Bundesgerichtshof (Cour fédérale de justice allemande), appelé à se prononcer sur les contours de la responsabilité civile de l’employeur en matière de traitement illicite de données à caractère personnel dans un contexte de communication électronique professionnelle.
C’est sur cette base que le Bundesgerichtshof a saisi la CJUE. Face à ces interrogations, la Cour met en place une analyse tripartite qui définit avec précision les outils à la disposition de la personne concernée.
Par cet arrêt, la CJUE consacre le préjudice moral comme notion autonome (I), distingue nettement la réparation de la sanction (II) et reconnaît aux États membres la faculté de création de voie de recours (III).
I – Une conception autonome et extensive du préjudice moral (RGPD, art. 82)
La principale contribution de l’arrêt réside dans l’interprétation extensive et autonome de la notion de « dommage moral » au sens de l’article 82 du RGPD. La Cour établit deux principes directeurs.
Elle consacre une définition autonome du préjudice moral, indépendante des droits nationaux, et rejette toute exigence d’un seuil de gravité ( de minimis ). La Cour estime que des « sentiments négatifs » tels que la peur, la contrariété ou l’inquiétude, dès lors qu’ils résultent directement d’une violation du RGPD, constituent un dommage moral indemnisable (dispositif, pt 2).
Cette solution, qui s’inscrit dans la lignée de l’arrêt Österreichische P ost ( CJUE, 3 e ch., 4 mai 2023, n° C‑300/21 ), vise à garantir une protection équivalente et d’un niveau élevé dans toute l’Union, en prévenant des divergences d’interprétation qui affaibliraient le droit à réparation.
La Cour élève ainsi la maîtrise de ses propres données au rang d’attribut essentiel du droit fondamental à la protection des données. La seule charge qui incombe au demandeur est de prouver le lien de causalité entre la violation et le préjudice émotionnel ou la perte de contrôle subie, la Cour rappelant les trois conditions cumulatives du droit à réparation : une violation, un dommage et un lien de causalité entre les deux.
II – La réparation (art. 82) n’est pas la punition (art. 83)
Le second pilier de l’analyse de la Cour établit un clivage fonctionnel étanche entre le droit à réparation de l’article 82 et les amendes administratives de l’article 83.
La Cour affirme que la réparation prévue à l’article 82 poursuit une finalité exclusivement compensatoire.
Son unique objet est d’assurer une « réparation complète et effective » du dommage concrètement subi par la personne concernée, conformément à l’article 146 du RGPD, rappelé par la Cour. Elle se distingue ainsi radicalement des amendes administratives, dont la finalité est, elle, « dissuasive et punitive ».
La conséquence de cette pureté fonctionnelle est capitale : le degré de gravité de la faute du responsable du traitement (son caractère délibéré ou sa simple négligence) est un critère inopérant pour l’évaluation du montant des dommages-intérêts dus au titre de l’article 82 (dispositif, pt 3). Alors que ces éléments sont centraux pour la fixation d’une amende administrative (comme le prévoit le RGPD), ils ne sauraient ni augmenter ni diminuer l’indemnisation civile, qui doit correspondre strictement à l’étendue du préjudice, et rien qu’à celle-ci. La Cour écarte ainsi toute tentation d’introduire une logique de dommages-intérêts punitifs dans le champ de la réparation civile du RGPD.
III – La fonction préventive, un renvoi à l’action des ordres juridiques nationaux
Le troisième volet de la décision aborde la question de l’injonction préventive, c’est-à-dire la possibilité pour une personne d’obtenir du juge qu’il ordonne au responsable du traitement de s’abstenir de commettre une nouvelle violation et un traitement illicite de ses données.
La Cour constate que le RGPD ne contient aucune disposition créant explicitement un tel droit d’action préventif, dans l’hypothèse où la personne concernée ne demande pas l’effacement de ses données, au niveau de l’Union.
Cependant, ce silence du texte n’est pas interprété comme une interdiction. Au contraire, la Cour estime que le RGPD n’empêche pas les États membres de prévoir une telle voie de recours dans leur droit national (dispositif, pt 1).
S’appuyant sur l’objectif d’assurer une « protection effective » (RGPD, cons. 11), elle y voit une « clause d’ouverture » implicite (raisonnement tenu aux pts 49 à 52), respectueuse de l’autonomie procédurale des États membres, dès lors que de tels recours nationaux renforcent l’effet utile du règlement.
Toutefois, la Cour précise son raisonnement en rappelant la distinction fonctionnelle : une injonction préventive, qui vise à empêcher un dommage futur, ne peut en aucun cas se substituer à la réparation pécuniaire d’un dommage déjà survenu, ni même en réduire le montant. Les deux remèdes opèrent sur des plans temporels et fonctionnels distincts et ne sont pas interchangeables, car l’injonction « ne répare pas les dommages qui ont déjà été subis ».
Par cet arrêt du 4 septembre 2025, la CJUE rend une décision d’une grande importance. Elle consolide l’édifice des sanctions du RGPD en articulant avec une logique implacable les trois fonctions : compenser, punir et prévenir. En consacrant une conception large et autonome du préjudice moral tout en maintenant la pureté compensatoire de la réparation civile et en validant le rôle des droits nationaux pour organiser la prévention, la Cour renforce significativement la protection de la personne physique (et a fortiori de ses données), véritable clé de voûte du système.
À l’heure où des technologies telles que l’IA multiplient les risques de perte de contrôle (données personnelles stockées à la suite de conversations avec des agents IA, par exemple), cette consolidation de l’arsenal juridique n’est pas un simple ajustement technique mais une réaffirmation fondamentale du primat de la personne humaine sur le traitement de ses données.