Le dernier projet de traité des Nations Unies sur la cybercriminalité constitue un grand pas en arrière

Un nouveau projet de traité controversé des Nations Unies sur la cybercriminalité n’a fait qu’accroître les craintes que le traité criminalise l’expression et la dissidence, crée des pouvoirs de surveillance étendus et facilite la répression transfrontalière. 

Le traité proposé, initialement destiné à lutter contre la cybercriminalité, s’est transformé en un vaste traité de surveillance , augmentant le risque d’une portée excessive dans les enquêtes nationales et internationales. Le nouveau projet conserve une disposition controversée autorisant les États à contraindre les ingénieurs ou les employés à saper les mesures de sécurité, ce qui constitue une menace pour le cryptage. 

Ce nouveau projet non seulement ne tient pas compte de nos préoccupations, mais les approfondit également, en permettant aux nations d’élargir leur réseau en accédant aux données stockées par des entreprises à l’étranger, potentiellement en violation des lois sur la protection de la vie privée d’autres pays. Il étend dangereusement sa portée au-delà des cybercrimes spécifiquement définis dans la Convention, englobant une longue liste de non-cybercrimes. Ce projet conserve la question préoccupante de l’élargissement de la portée de la collecte et du partage transfrontalier de preuves pour tout crime grave, y compris les crimes qui violent de manière flagrante le droit des droits de l’homme. En outre, cette nouvelle version va trop loin dans les enquêtes et les poursuites pour des crimes allant au-delà de ceux détaillés dans le traité ; jusqu’à présent, ce pouvoir était limité aux seuls crimes définis à l’article 6-16 de la convention. 

Nous sommes profondément troublés par le mépris flagrant de notre contribution, qui éloigne encore plus le texte du consensus. Ce n’est pas seulement un oubli ; c’est un pas important dans la mauvaise direction. 

Initiées en 2022, les négociations sur le traité ont été marquées par des désaccords persistants entre les gouvernements sur la portée du traité et sur le rôle, le cas échéant, que les droits de l’homme devraient jouer dans sa conception et sa mise en œuvre. La nouvelle ébauche a été publiée le mardi 28 novembre ; les gouvernements tiendront des négociations à huis clos les 19 et 20 décembre à Vienne, pour tenter de parvenir à un consensus sur les crimes à inclure dans le traité, et le projet sera examiné lors de la session de négociation finale à New York fin janvier 2024, quand il est censé être finalisé et adopté. 

Deborah Brown, directrice associée par intérim de Human Rights Watch pour la technologie et les droits de l’homme, a déclaré que cette dernière version « est prêt à faciliter les abus à l’échelle mondiale, grâce à des pouvoirs transfrontaliers étendus pour enquêter sur pratiquement tous les « crimes » imaginables – comme la dissidence pacifique ou l’expression de l’orientation sexuelle – tout en sapant l’objectif du traité de lutter contre la véritable cybercriminalité. Les gouvernements ne devraient pas se précipiter pour conclure ce traité sans veiller à ce qu’il élève nos droits fondamentaux au lieu de les sacrifier. 

PAR 

KATITZA RODRIGUEZ

Cet article a été publié en partenariat avec EFF 

Démystifier le mythe des données « anonymes »

Aujourd’hui, presque tout ce qui concerne nos vies est enregistré numériquement et stocké quelque part. Chaque achat par carte de crédit, diagnostic médical personnel et préférence en matière de musique et de livres est enregistré puis utilisé pour prédire ce que nous aimons et n’aimons pas et, en fin de compte, qui nous sommes. 

Cela se produit souvent à notre insu ou sans notre consentement. Les informations personnelles que les entreprises collectent à partir de nos comportements en ligne se vendent avec des profits étonnants et incitent les acteurs en ligne à en collecter autant que possible. Chaque clic de souris et chaque balayage d’écran peuvent être suivis puis vendus aux sociétés de technologie publicitaire et aux courtiers en données qui les entretiennent. 

Pour tenter de justifier cet écosystème de surveillance omniprésent, les entreprises prétendent souvent anonymiser nos données. Ceci est censé supprimer toutes les informations personnelles (telles que le nom d’une personne) du point de données (comme le fait qu’une personne anonyme a acheté un médicament particulier à un moment et un lieu particuliers). Les données personnelles peuvent également être regroupées, les données concernant plusieurs personnes étant combinées dans le but de supprimer les informations d’identification personnelle et de protéger ainsi la vie privée des utilisateurs. 

Parfois, les entreprises affirment que nos données personnelles sont « anonymisées », ce qui implique un accès à sens unique où elles ne peuvent jamais être désagrégées ni réidentifiées. Mais cela n’est pas possible : les données anonymes le restent rarement. Comme le résume succinctement le professeur Matt Blaze, expert dans le domaine de la cryptographie et de la confidentialité des données : « quelque chose qui semble anonyme, le plus souvent, ne l’est pas, même s’il est conçu avec les meilleures intentions ». 

Anonymisation… et ré-identification ?

Les données personnelles peuvent être considérées sur un spectre d’identifiabilité . En haut se trouvent les données qui peuvent identifier directement les personnes, comme un nom ou un numéro d’identité d’État, que l’on peut appeler des « identifiants directs ». Viennent ensuite les informations indirectement liées aux individus, comme les numéros de téléphone personnels et les adresses e-mail, que certains appellent des « identifiants indirects ». Viennent ensuite les données liées à plusieurs personnes, comme un restaurant ou un film préféré. À l’autre extrémité de ce spectre se trouvent les informations qui ne peuvent être liées à une personne en particulier, comme les données de recensement agrégées et les données qui ne sont pas du tout directement liées aux individus, comme les bulletins météorologiques.

L’anonymisation des données est souvent entreprise de deux manières . Premièrement, certains identifiants personnels tels que nos noms et numéros de sécurité sociale peuvent être supprimés. Deuxièmement, d’autres catégories d’informations personnelles peuvent être modifiées, par exemple en masquant nos numéros de compte bancaire. Par exemple, la disposition Safe Harbor contenue dans la loi américaine HIPAA (Health Insurance Portability and Accountability Act) exige que seuls les trois premiers chiffres d’un code postal puissent être déclarés dans les données nettoyées.

Cependant, dans la pratique, toute tentative de désidentification nécessite la suppression non seulement de vos informations identifiables, mais également des informations permettant de vous identifier lorsqu’elles sont considérées en combinaison avec d’autres informations connues vous concernant. Voici un exemple : 

  • Tout d’abord, pensez au nombre de personnes qui partagent votre code postal ou votre code postal spécifique. 
  • Ensuite, pensez au nombre de ces personnes qui partagent également votre anniversaire. 
  • Maintenant, pensez au nombre de personnes partageant votre date de naissance exacte, votre code postal et votre sexe. 

Selon une étude historique , ces trois caractéristiques suffisent à identifier de manière unique 87 % de la population américaine. Une autre étude a montré que 63 % de la population américaine peut être identifiée de manière unique à partir de ces trois faits.

Nous ne pouvons pas faire confiance aux entreprises pour s’autoréglementer. L’avantage financier et l’utilité commerciale de nos données personnelles l’emportent souvent sur notre vie privée et notre anonymat. En réobtenant l’identité réelle de la personne impliquée (identifiant direct) ainsi que ses préférences (identifiant indirect), les entreprises sont en mesure de continuer à profiter de nos informations les plus sensibles. Par exemple, un site Web qui demande à des utilisateurs soi-disant « anonymes » des informations apparemment triviales sur eux-mêmes peut être en mesure d’utiliser ces informations pour créer un profil unique pour un individu. 

Surveillance de localisation

Pour comprendre ce système en pratique, nous pouvons examiner les données de localisation . Cela inclut les données collectées par les applications sur votre appareil mobile concernant vos déplacements : depuis vos déplacements hebdomadaires dans votre supermarché local jusqu’à votre dernier rendez-vous dans un centre de santé, une clinique d’immigration ou une réunion de planification de manifestation. La collecte de ces données de localisation sur nos appareils est suffisamment précise pour que les forces de l’ordre puissent placer des suspects sur les lieux d’un crime et pour que les jurys condamnent les personnes sur la base de ces preuves. De plus, toutes les données personnelles collectées par le gouvernement peuvent être utilisées à mauvais escient par ses employés, volées par des criminels ou des gouvernements étrangers, et utilisées de manière imprévisible par les dirigeants des agences à de nouvelles fins néfastes . Et trop souvent , une telle surveillance de haute technologie pèse de manière disparate sur les personnes de couleur   .

En pratique, il n’existe aucun moyen d’anonymiser les données de localisation individuelles puisque ces points de données servent eux-mêmes d’identifiants personnels uniques. Et même lorsque les données de localisation sont censées avoir été anonymisées, la réidentification peut être obtenue en corrélant les données anonymisées avec d’autres données accessibles au public telles que les listes électorales ou les informations vendues par des courtiers en données . Une étude de 2013 a révélé que les chercheurs pouvaient identifier de manière unique 50 % des personnes en utilisant seulement deux points de données de temps et de lieu choisis au hasard. 

Bien réalisée, l’agrégation des données de localisation peut contribuer à préserver nos droits personnels à la vie privée en produisant des décomptes non individualisés de comportements au lieu de chronologies détaillées de l’historique de localisation individuel. Par exemple, une agrégation peut vous indiquer combien de téléphones de personnes ont indiqué leur emplacement comme étant dans une certaine ville au cours du mois dernier, mais pas le numéro de téléphone exact ni d’autres points de données qui vous connecteraient directement et personnellement. Cependant, les experts chargés de l’agrégation sont souvent soumis à des pressions pour générer des ensembles de données agrégées granulaires qui pourraient être plus significatives pour un décideur particulier, mais qui exposent simultanément les individus à une érosion de leur vie privée.  

De plus, la plupart des services de localisation tiers sont conçus pour créer des profils de personnes réelles. Cela signifie que chaque fois qu’un tracker collecte une information, il a besoin de quelque chose pour relier cette information à une personne en particulier. Cela peut se produire indirectement en corrélant les données collectées avec un appareil ou un navigateur particulier , qui pourraient ensuite être corrélées à une personne ou à un groupe de personnes, comme un foyer. Les trackers peuvent également utiliser des identifiants artificiels, comme des identifiants publicitaires mobiles et des cookies pour atteindre les utilisateurs avec des messages ciblés. Et les profils « anonymes » d’informations personnelles peuvent presque toujours être liés à de vraies personnes , y compris l’endroit où elles vivent, ce qu’elles lisent et ce qu’elles achètent.

Pour les courtiers en données qui traitent nos informations personnelles, nos données peuvent être soit utiles à des fins lucratives, soit véritablement anonymes, mais pas les deux. L’EFF s’oppose depuis longtemps aux programmes de surveillance géographique qui peuvent transformer nos vies en livres ouverts soumis à l’examen de la police, des annonceurs basés sur la surveillance, des voleurs d’identité et des harceleurs. Nous dénonçons également depuis longtemps la fausse anonymisation . 

En matière de politique publique, il est essentiel que la vie privée des utilisateurs ne soit pas sacrifiée au profit du remplissage des poches des entreprises. Et pour tout plan de partage de données, le consentement est essentiel : chaque personne a-t-elle consenti à la méthode de collecte des données et à l’utilisation particulière ? Le consentement doit être spécifique, éclairé, volontaire et volontaire. PAR 

PAIGE COLLINGS

CET ARTICLE A ÉTÉ PUBLIÉ EN PARTENARIAT AVEC EFF 

Comment désactiver le suivi des publicités « Privacy Sandbox » de Google et pourquoi vous devriez le faire

Google a déployé « Privacy Sandbox », une fonctionnalité Chrome annoncée pour la première fois en 2019 qui, entre autres, échange des cookies tiers – la forme la plus courante de technologie de suivi – contre ce que la société appelle désormais « Sujets ». Topics est une réponse aux réactions opposées au projet d’apprentissage fédéré des cohortes (FLoC) de Google, que nous avons qualifié de « terrible idée » car il donnait à Google encore plus de contrôle sur la publicité dans son navigateur sans vraiment protéger la vie privée des utilisateurs. Bien que son fonctionnement ait été modifié depuis 2019, Topics continue de suivre votre utilisation d’Internet pour la publicité comportementale de Google.

Si vous utilisez Chrome, vous pouvez désactiver cette fonctionnalité via une série de trois paramètres déroutants.

Avec la version du navigateur Chrome sortie en septembre 2023, Google suit votre historique de navigation sur le Web et génère une liste de « sujets » publicitaires en fonction des sites Web que vous visitez. Cela fonctionne comme vous pouvez vous y attendre. Au lancement, il existe près de 500 catégories publicitaires , telles que « Prêts étudiants et financement universitaire », « Parentalité » ou « Sous-vêtements », dans lesquelles vous êtes renvoyé en fonction de ce que vous lisez en ligne. Un site prenant en charge Privacy Sandbox demandera à Chrome quel genre de choses vous êtes censé faire, puis affichera une annonce en conséquence. 

L’idée est qu’au lieu des dizaines de cookies tiers placés sur les sites Web par différents annonceurs et sociétés de suivi, Google lui-même suivra vos intérêts dans le navigateur lui-même, contrôlant encore plus l’écosystème publicitaire qu’il ne le fait déjà. Google appelle cela « confidentialité améliorée des publicités », s’appuyant peut-être sur l’idée qu’à partir de 2024, ils prévoient de « supprimer progressivement » les cookies tiers que de nombreux annonceurs utilisent actuellement pour suivre les personnes. Mais l’entreprise continuera à engloutir vos habitudes de navigation pour vous proposer des publicités, préservant ainsi ses résultats dans un monde où la concurrence en matière de confidentialité la pousse à éliminer progressivement les cookies tiers. 

Google prévoit de tester Privacy Sandbox tout au long de 2024. Cela signifie que pendant environ un an, les cookies tiers continueront à collecter et à partager vos données dans Chrome.

Les nouveaux sujets s’améliorent quelque peu par rapport au FLoC 2019. Il n’utilise pas l’ID FLoC, un numéro dont beaucoup craignaient qu’il ne soit utilisé pour prendre vos empreintes digitales. Les sujets de ciblage publicitaire sont tous publics sur GitHub , en évitant, espérons-le, toute catégorie clairement sensible telle que la race, la religion ou l’orientation sexuelle. Les contrôles de confidentialité des publicités de Chrome, que nous détaillons ci-dessous, vous permettent de voir dans quels types de catégories d’intérêt Chrome vous place et de supprimer tous les sujets pour lesquels vous ne souhaitez pas voir de publicités. Il existe également un moyen simple de se désinscrire, que FLoC n’a jamais vraiment eu lors des tests .

D’autres navigateurs, comme Firefox et Safari, ont intégré des protections de confidentialité contre les cookies tiers en 2019 et 2020, respectivement. Aucun de ces navigateurs n’a quelque chose comme Privacy Sandbox, ce qui en fait de meilleures options si vous préférez plus de confidentialité. 

Google qualifiant tout cela de « confidentialité » est trompeur. Même si c’est mieux que les cookies tiers, le Privacy Sandbox continue d’effectuer un suivi, il est effectué par une seule entreprise au lieu de dizaines. Au lieu de tergiverser entre les différentes méthodes de suivi, même avec de légères améliorations, nous devrions œuvrer pour un monde sans publicités comportementales .

Mais si vous vous en tenez à Chrome, vous pouvez au moins désactiver ces fonctionnalités.

Comment désactiver le bac à sable de confidentialité

Capture d'écran du navigateur Chrome avec la page « Confidentialité améliorée des publicités dans Chrome »Selon la dernière mise à jour de Chrome, vous avez peut-être déjà reçu une fenêtre contextuelle vous demandant d’accepter la « Confidentialité améliorée des publicités dans Chrome ». Si vous venez de cliquer sur le gros bouton bleu indiquant « Compris » pour faire disparaître la fenêtre contextuelle, vous vous êtes inscrit. Mais vous pouvez toujours revenir assez facilement à la page de désinscription en cliquant sur l’ icône à trois points (⋮ ) > Paramètres > Confidentialité et sécurité > page Confidentialité des annonces . Vous trouverez ici cet écran avec trois paramètres différents :

  • Sujets publicitaires : Il s’agit du composant fondamental de Privacy Sandbox qui génère une liste de vos intérêts en fonction des sites Web que vous visitez. Si vous laissez cette option activée, vous obtiendrez éventuellement une liste de tous vos centres d’intérêt, qui sont utilisés pour les publicités, ainsi que la possibilité de bloquer des sujets individuels. Les sujets sont renouvelés toutes les quatre semaines (au lieu d’une fois par semaine dans la proposition des FLOC) et des sujets aléatoires seront ajoutés pour faire bonne mesure. Vous pouvez désactiver complètement cette option en réglant la bascule sur « Désactivé ».
  • Annonces suggérées par le site : cette option au nom confus est ce qui permet aux annonceurs de faire ce qu’on appelle le “remarketing” ou le “retargeting”, également connu sous le nom de “après avoir acheté un canapé, tous les sites Web sur Internet me font la publicité de ce même canapé”. Grâce à cette fonctionnalité, le premier site donne des informations à votre instance Chrome (comme « cette personne adore les canapés ») et le site deux, qui diffuse des annonces, peut interagir avec Chrome de telle sorte qu’une annonce de canapé soit diffusée, même sans que le site deux sache que vous aimez. canapés. Désactivez cela en réglant la bascule sur « Désactivé ».
  • Mesure des annonces : cela permet aux annonceurs de suivre les performances des annonces en stockant des données dans votre navigateur qui sont ensuite partagées avec d’autres sites. Par exemple, si vous voyez une annonce pour une paire de chaussures, le site obtiendra des informations sur l’heure de la journée, si l’annonce a été cliquée et où elle a été affichée. Désactivez cela en réglant la bascule sur « Désactivé ».

Si vous utilisez Chrome, Firefox, Edge ou Opera, vous devriez également aller plus loin en matière de protection de la vie privée avec notre propre Privacy Badger , une extension de navigateur qui bloque les trackers tiers qui utilisent des cookies, des empreintes digitales et d’autres méthodes sournoises. Sur Chrome, Privacy Badger désactive également l’API Topics par défaut.PAR 

THORIN KLOSOWSKI

CET ARTICLE A ÉTÉ PUBLIÉ EN PARTENARIAT AVEC EFF 

Les négociations sur le traité de l’ONU sur la cybercriminalité se terminent sans consensus sur la portée et sans profondes divisions sur les pouvoirs de surveillance

Alors que la dernière session de négociation sur le projet de traité des Nations Unies sur la cybercriminalité s’est achevée à New York au début du mois, une chose était claire : alors que le temps presse pour finaliser le texte, peu de progrès et de consensus ont été atteints sur des points cruciaux , tels que la portée globale du traité. d’application et la portée de ses mandats de procédure pénale et de ses mesures de coopération internationale. Au lieu de cela, une multitude de modifications de mots proposées ont été ajoutées, encore compliquées par des amendements supplémentaires publiés dans des rapports informels.


Bien après la fin de la session de deux semaines, le 1er septembre. Nous avons vu bon nombre des mêmes infractions pénales et mesures de surveillance très dangereuses qui n’avaient pas été incluses dans le projet zéro, réintroduites dans le texte. Le projet zéro initial, ainsi que la dernière série d’amendements discutés lors de négociations à huis clos, se sont transformés en une mer de lignes rouges.

Il est devenu évident que de nombreux pays, dont la Russie, l’Érythrée, le Burundi, la Sierra Leone, le Zimbabwe, le Ghana, la Corée et d’autres, rivalisaient pour élargir la portée de la surveillance du traité proposé afin de couvrir pratiquement toutes les infractions imaginables impliquant un ordinateur, tant au niveau national qu’au niveau national. et à l’étranger.

« Nous pensons qu’une future convention devrait couvrir le plus grand nombre possible d’infractions pouvant être commises à l’aide des technologies de l’information et de la communication (TIC) », a déclaré le délégué du Burkina Faso.

Selon le chapitre sur la surveillance intérieure, la collecte de preuves pourrait être rassemblée contre tout acte considéré comme criminel tel que défini par les propres lois de ce pays. En ce qui concerne la coopération internationale, les projets initiaux et plusieurs amendements ultérieurs indiquent que la norme pour une telle coopération en matière de surveillance pourrait être des infractions passibles de peines allant de trois ans de prison ou plus ( le texte précédent la limitait à quatre ans).), entre autres alternatives. Ce projet de traité pourrait servir d’autorisation mondiale pour réprimer les dissidents, les minorités, les militants, les journalistes, etc.

Le Canada a mis en garde les délégués contre les conséquences potentielles. Dans une déclaration (à la minute 01:01) qui a suscité de rares applaudissements de la part de l’auditoire, il a exposé en termes crus que les efforts incessants visant à élargir la portée du traité proposé l’ont transformé en un traité général d’entraide judiciaire en matière pénale, ce qui le laisse complètement en marge. Il appartient à tout État de décider quelle conduite constitue un « crime » ou un « crime grave » et ouvre une série de mesures pour réprimer ces crimes.

« Cela représente le potentiel, voire l’inévitabilité, d’une portée et d’un contrôle orwelliens de la part des États qui choisiront d’abuser de cet instrument… »

« Critiquer un dirigeant, danser innocemment sur les réseaux sociaux, être né d’une certaine manière ou simplement dire un seul mot, tout cela dépasse de loin la définition d’un crime grave dans certains États. Ces actes relèveront tous du champ d’application de ce traité des Nations Unies dans le projet actuel.

« … il s’agit d’une Convention des Nations Unies, et en tant que telle, notre responsabilité est bien plus grande que nous-mêmes, elle est envers les populations des endroits où il n’y a aucune protection et où ce traité sera un outil multilatéral sans précédent pour étendre la portée et la collaboration de la répression. et la persécution.

De plus, a déclaré le Canada, l’ONU irait à l’encontre de ses propres pratiques si le traité sur la cybercriminalité permettait aux États membres de choisir les crimes qu’ils souhaitent couvrir et cibler dans le cadre de la convention.

« Nous ne trouvons aucun autre traité de justice pénale des Nations Unies, ni aucun autre traité sous l’égide de l’ONU, qui laisse entièrement entre les mains et les caprices des États membres le soin de définir l’étendue et le type de sujets qui entrent dans le champ d’application de la loi. instrument, à perpétuité.

La Nouvelle-Zélande, la Suisse, la Norvège, l’Uruguay et le Costa Rica, ainsi que Human Rights Watch, Article 19 , EFF , Privacy International , Global Partners Digital , et d’autres groupes de la société civile et des entreprises comme Microsoft , ont également tiré la sonnette d’alarme, comme nous l’avons fait depuis années , sur les risques inhérents aux droits de l’homme posés par le large champ d’application de la Convention. EFFa continué de plaider en faveur d’un champ d’application restreint du traité et de ses chapitres, en ajoutant de solides garanties en matière de protection des données et de droits de l’homme dans l’ensemble du projet de convention, en supprimant l’article 28.4, qui habilite les autorités compétentes à contraindre les personnes connaissant les fonctionnalités spécifiques d’un ordinateur ou d’un appareil à fournir des informations essentielles. pour effectuer des recherches ( En savoir plus sur nos demandes actuelles.)

La portée du traité proposé sur la cybercriminalité aura un impact profond sur les droits de l’homme. La question de savoir si la Convention doit s’appliquer largement ou être limitée dans son application affecte tout,des procédures pénales (telles que la surveillance nationale) à la coopération internationale (telles que l’espionnage ou l’assistance transfrontalière).

En termes simples, si le pays B choisit d’agir comme le « grand frère » du pays A, il pourrait accéder aux discussions en direct d’un activiste ou retracer sa localisation exacte, le tout sur la base des normes de confidentialité laxistes et des définitions pénales arbitraires fixées par les lois du pays B. L’absence de mandat dans le traité proposé pour qu’un même acte soit considéré comme un crime dans les deux pays ne fait qu’amplifier les risques.

Et le seuil de peine proposé de 3 ou 4 ans pour invoquer les pouvoirs de coopération internationale ne contribue guère à inspirer confiance. De nombreuses lois criminalisant la parole pourraient facilement s’adapter à ce moule, ouvrant la voie à un usage abusif de la surveillance à grande échelle.

La Sierra Leone a déclaré aux États membres lors de la séance de négociation à New York :

« Imaginez un scénario dans lequel un ressortissant particulier résidant dans un autre pays continue d’utiliser l’influence des médias sociaux pour diffuser de la propagande et des messages haineux et inciter à la violence qui conduit à des affrontements mortels avec les forces de sécurité », a déclaré la Sierra Leone. « Ces crimes peuvent potentiellement interférer avec la souveraineté des nations, ainsi que leur paix et leur stabilité, lorsque des individus sont incités par des opposants à semer le chaos dans un autre État en utilisant les TIC. »

Et tandis que des gouvernements comme les États-Unis déclarent qu’ils refuseront les demandes de preuves électroniques pour des raisons liées aux droits de l’homme, le projet de traité dans son ensemble risque de formaliser un système de coopération internationale qui encourage la surveillance et le partage de données, ancré dans les lois du pays qui demande l’obtention de preuves électroniques. l’assistance et les normes de confidentialité du pays fournissant l’assistance. À cet égard, Deborah Brown , chercheuse principale à Human Rights Watch , a souligné la gravité du non-alignement des lois nationales sur les normes internationales : « Il existe de nombreuses

des exemples de lois nationales incompatibles avec les normes internationales de liberté d’expression et passibles de peines de plus de 3 ou 4 ans, ainsi que des exemples de telles lois utilisées pour poursuivre en justice des journalistes, des défenseurs des droits humains, des libres penseurs et d’autres.

“Certains États affirment qu’ils exerceront leur droit de refuser toute assistance dans le cadre d’enquêtes pour des raisons liées aux droits de l’homme. Mais laisser des décisions aussi cruciales à la discrétion des autorités gouvernementales est extrêmement risqué. Et si le traité ouvre les portes à la coopération internationale pour chaque infraction imaginable , ces autorités vont devoir devenir des experts de tous les crimes commis dans le monde et de leurs utilisations abusives potentielles. Il ne s’agit plus d’un effort ciblé. Plutôt que de se concentrer sur les cybercrimes que cette convention visait à combattre, il existe un risque de dilution des efforts. et des canaux d’entraide judiciaire submergés par un déluge de demandes.

Mais même si certains pays choisissent d’adhérer au principe de double incrimination, l’adhésion au large champ d’application du traité suscite des inquiétudes. En effet, les États pourraient toujours appliquer la double incrimination sur la base d’infractions qui pourraient ne pas être conformes au droit des droits de l’homme. Essentiellement, le traité proposé jette les bases d’une coopération internationale sur des actes qui, dans certains endroits, sont davantage considérés comme l’expression d’une opinion que comme de véritables infractions pénales.

“En réduisant la portée de ce [chapitre sur la coopération internationale], nous préservons non seulement ces droits, mais nous empêchons également l’utilisation abusive potentielle du traité dans des juridictions où les libertés et les droits de l’homme ne sont peut-être pas aussi solidement protégés”, a déclaré Katitza Rodriguez de l’EFF aux délégués plus tôt ce mois-ci  . année .

Comme l’a dit le Canada,

« … il s’agit d’une Convention des Nations Unies, et en tant que telle, notre responsabilité est bien plus grande que nous-mêmes, elle est envers les populations des endroits où il n’y a aucune protection et où ce traité sera un outil multilatéral sans précédent pour étendre la portée et la collaboration de la répression. et la persécution.

Les nations qui respectent les droits et qui participent à ce projet de traité des Nations Unies doivent reconnaître la gravité de leur engagement. Se concentrer uniquement sur les intérêts de leur propre nation est une approche à courte vue alors que les ramifications mondiales sont si profondes.

Avec des points de vue aussi divergents, il est clair que parvenir à un consensus sera un processus méticuleux, et nous nous demandons si cela est même possible. La seule voie acceptable pourrait consister simplement à inclure les infractions telles que définies par la convention – toute mesure supplémentaire pourrait constituer un compromis trop ambitieux.

La prochaine étape des négociations sera la publication d’un nouveau projet, attendu d’ici la fin novembre. Avec si peu de consensus émergeant de la session de négociation de New York, il est probable que d’autres négociations auront lieu dans les mois à venir. Un projet complet était censé être finalisé et approuvé par les États membres au début de l’année prochaine – ce qui semble peu probable compte tenu de l’absence d’accord. Chaque fois qu’un projet est approuvé, il sera annexé à une résolution pour examen et adoption par l’Assemblée générale des Nations Unies l’année prochaine. Compte tenu des profonds désaccords entre les points de vue, il est de plus en plus probable que la résolution soit soumise à un vote, exigeant une majorité des deux tiers pour être approuvée.

La question reste de savoir si un traité de grande portée, légitimant potentiellement des pouvoirs de surveillance draconiens pour les enquêtes sur des actes jugés criminels ciblant les communautés vulnérables et la liberté d’expression et contenant peu de protections des droits de l’homme, devrait être adopté .être adoptée par l’ONU. Comme l’a souligné le Canada, l’ONU a été fondée pour réaffirmer la foi dans les droits de l’homme, l’égalité des droits et la dignité des personnes humaines. Il a également été créé pour établir les conditions dans lesquelles la justice et le respect des obligations découlant des traités et d’autres sources du droit international peuvent être maintenus. “Il est incompatible avec notre mandat à l’ONU d’avoir un aspect qui contredit l’autre, d’avoir un traité qui parle au nom de l’ONU mais avec une portée si large qu’il oblige, tolère et facilite la répression nationale et internationale contre une étendue de conduite presque illimitée », a déclaré le Canada.

Nous applaudissons cette déclaration et poursuivrons notre travail acharné pour garantir que les droits fondamentaux de ceux qui seront soumis au traité soient sauvegardés.

PAR KAREN GULLO

Cet article a été publié en partenariat avec EFF

Célébrons dix ans de cryptage du Web avec Let’s Encrypt

Il y a dix ans, le Web était un endroit très différent. La plupart des sites Web n’utilisaient pas HTTPS pour protéger vos données. En conséquence, les fouineurs pourraient lire des e-mails ou même prendre le contrôle de comptes en volant des cookies . Mais un groupe de chercheurs et de technologues déterminés de l’EFF et de l’Université du Michigan rêvaient d’un monde meilleur : un monde où chaque page Web que vous visiteriez serait protégée contre l’espionnage et les interférences. Pendant ce temps, un autre groupe de Mozilla travaillait sur le même rêve. Ces rêves ont conduit à la création de Let’s Encrypt et d’outils comme Certbot d’EFF, qui simplifient la protection des sites Web et rendent la navigation sur le Web plus sûre pour tous.

Il y avait un gros obstacle : pour déployer HTTPS et protéger un site Web, les personnes qui géraient ce site Web devaient acheter et installer un certificat auprès d’une autorité de certification. Le prix était un obstacle majeur à l’obtention de plus de sites Web sur HTTPS, mais la complexité de l’installation des certificats était encore plus importante. 

En 2013, l’Internet Security Research Group (ISRG) a été fondé , qui allait bientôt devenir le siège de Let’s Encrypt, une autorité de certification fondée pour aider à chiffrer le Web. Let’s Encrypt était radical en ce sens qu’il fournissait des certificats gratuitement à toute personne possédant un site Web. Let’s Encrypt a également introduit un moyen d’automatiser le risque et la corvée d’émettre et d’installer manuellement des certificats. Avec le nouveau protocole ACME , toute personne disposant d’un site Web peut exécuter un logiciel (comme Certbot d’EFF ) qui combine les étapes d’obtention d’un certificat et de son installation correcte.

Depuis lors, Let’s Encrypt et Certbot ont connu un énorme succès, avec plus de 250 millions de certificats actifs protégeant des centaines de millions de sites Web.

C’est un énorme avantage pour la sécurité et la confidentialité en ligne de chacun. Lorsque vous visitez un site Web qui utilise HTTPS, vos données sont protégées par un cryptage en transit, de sorte que personne d’autre que vous et l’opérateur du site Web ne puisse les voir. Cela empêche également les fouineurs de faire une copie de vos cookies de connexion et de prendre le contrôle des comptes.

La mesure la plus importante des succès de Let’s Encrypt et de Certbot est la proportion de la navigation Web quotidienne des gens qui utilise HTTPS. Selon les données de Firefox, 78 % des pages chargées utilisent HTTPS. C’est considérablement amélioré par rapport à 27% en 2013 lorsque Let’s Encrypt a été fondé. Il reste encore beaucoup de travail à faire pour arriver à 100 %. Nous espérons que vous vous joindrez à EFF et Let’s Encrypt pour célébrer les succès de dix ans de cryptage du Web et l’anticipation de la croissance future et de la sécurité en ligne.

PAR JACOB HOFFMAN-ANDREW

Cet article a été publié en partenariat avec EFF

Traité des Nations Unies sur la cybercriminalité – Lettre de la société civile

Le premier projet de Convention des Nations Unies sur la cybercriminalité supprime des dispositions troublantes, mais des pouvoirs de surveillance transfrontalière dangereux et illimités sont toujours sur la table

Traité des Nations Unies sur la cybercriminalité – Lettre de la société civile

Première partie d’un article en deux parties sur le premier projet de la Convention des Nations Unies sur la cybercriminalité. La première partie présente le contexte des négociations et analyse notre première vision de l’Avant-projet et de ses implications pour les droits de l’homme. La partie II analyse les dispositions les plus problématiques du projet.

Le premier projet officiel négocié très attendu de la proposition de Convention des Nations Unies sur la cybercriminalité – façonné par plusieurs mois de négociations menées par les États membres dans lesquelles l’EFF a été profondément impliqué – est maintenant public.

La convention, si elle est approuvée, entraînera la réécriture des lois pénales du monde entier traitant de l’accès des forces de l’ordre aux données personnelles au-delà des frontières, de l’utilisation des technologies de surveillance par un pays pour espionner les personnes dans un autre pays et de la mesure dans laquelle les pays peuvent s’obliger mutuellement à coopérer, par exemple pour l’interception en temps réel des communications des personnes. L’EFF et ses partenaires internationaux défendent les utilisateurs depuis que la convention a été proposée pour la première fois il y a plusieurs années, appelant à de solides protections des droits de l’homme, révisant le libellé de la convention proposée, soumettant des recommandations et s’opposant aux dispositions concernées, et s’adressant aux États membres en personne lors des sessions de négociation cette année et dernière.

Avec la sortie de ce « zéro brouillon,”Les États membres entameront des négociations article par article pour parvenir à un consensus sur un projet final lors d’une session marathon de deux semaines du 21 août au 1er septembre. L’EFF sera là, poursuivant nos efforts en faveur de solides protections des droits de l’homme dans le traité.

L’EFF et Privacy International se sont penchés sur l’avant-projet et ont envoyé aux États membres notre première série d’amendements . Mais avant de nous plonger dans les caractéristiques les plus préoccupantes du texte, voici un bref récapitulatif de la façon dont nous en sommes arrivés là.

Un récapitulatif rapide de la Convention des Nations Unies sur la cybercriminalité

Dès le début des négociations , l’EFF s’est opposé au projet de convention dans son ensemble, le jugeant inutile. Malgré nos réserves, nous nous sommes activement engagés de bonne foi à chaque étape du processus de négociation. Nous voulons nous assurer que la convention proposée est spécifique et limitée dans son champ d’application, et qu’elle n’incorpore pas d’infractions liées au contenu ou n’autorise pas des pouvoirs de surveillance intrinsèquement arbitraires, excessifs ou illimités. En outre, toutes les autorités de surveillance, y compris celles qui sont transnationales, devraient être soumises à des limitations appropriées.

Nous espérons ardemment que la convention proposée ne deviendra pas un instrument de répression transnationale, comme cela s’est produit par le passé avec d’autres mécanismes de coopération en matière d’application de la loi. INTERPOL , par exemple, est une organisation intergouvernementale de 193 pays qui facilite la coopération policière mondiale. Mais Human Rights Watch a documenté de nombreuses allégations sur la manière dont la Chine , Bahreïn et d’autres pays ont abusé du système de notices rouges d’INTERPOL , une liste internationale de “personnes recherchées”, pour localiser des critiques pacifiques des politiques gouvernementales ” pour des délits mineurs et surtout à des fins politiques”..” Le traité de l’ONU ne devrait pas donner aux gouvernements une base juridique pour justifier l’utilisation de pouvoirs de surveillance illimités pour des crimes mal définis qui pourraient être exploités à des fins politiques, des délits mineurs ou des crimes qui sont intrinsèquement incompatibles avec le droit international des droits de l’homme, en particulier lorsque cela peut conduire à des horreurs telles que la torture ou des disparitions forcées. Nous continuerons à plaider pour des garanties renforcées afin de limiter l’utilisation abusive des pouvoirs de surveillance par les forces de l’ordre.

La convention proposée devrait représenter une norme minimale plutôt qu’une limite maximale – elle doit servir de référence et non de seuil supérieur. Et il ne doit pas être utilisé pour saper les solides garanties nationales préexistantes en matière de droits de l’homme.

La convention proposée devrait être adoptée en janvier 2024. Nous prévoyons que les États membres s’efforceront de parvenir à un consensus pour encourager une adoption généralisée du projet de texte. Un vote peut avoir lieu si le consensus ne peut être atteint après avoir épuisé toutes les tactiques de négociation, car les enjeux et les menaces auxquels cette proposition de convention répond sont importants. Pour l’instant, il n’est pas clair si les États membres parviendront à un accord en janvier ou si le délai devra être prolongé.

Ce sont deux articles résumant nos premiers plats à emporter après un premier examen des brouillons zéro; nous aurons plus à dire avant la réunion de New York le mois prochain. Cela vaut la peine de réitérer le principe des négociations multilatérales selon lequel « rien n’est convenu tant que tout n’est pas convenu » – le projet de texte pourrait changer dans les négociations futures.

Qu’y a-t-il dans le Zero Draft ?

La plupart des propositions visant à inclure explicitement des infractions autres que la cybercriminalité sont atténuées, mais des textes ambigus persistent

Les textes précédents de dispositions non négociées  contenaient plus de 30 infractions , telles que le trafic de drogue, incluses uniquement parce que des systèmes informatiques avaient été utilisés dans la commission du crime. Le nouveau projet supprime certaines de ces infractions et ne fait plus explicitement référence aux infractions autres que la cybercriminalité. En effet, cela signifie qu’en vertu de cette convention, seuls les cybercrimes “essentiels” – pas les crimes où un auteur a utilisé le courrier électronique, mais les crimes ciblant les systèmes informatiques, tels que l’utilisation de logiciels malveillants pour s’introduire dans un système informatique – devraient être les seuls définis comme des “cybercrimes”. Cependant, c’est une victoire douce-amère.comme nous l’avons préconisé . Seuls 11 des 30 crimes sont explicitement répertoriés dans l’avant-projet. Malheureusement, ces infractions ne sont pas entièrement éliminées, bien qu’elles ne soient pas revenues sous leur forme originale. Les États ont fait un compromis, réduisant la longue liste de crimes, mais laissant plus de place aux pouvoirs d’espionnage transfrontaliers pour enquêter et poursuivre ces longues listes de crimes.

En outre, l’avant-projet de préambule (paragraphe 3) fait toujours référence aux préoccupations des États concernant l’impact des systèmes informatiques sur l’ampleur, la vitesse et la portée d’infractions pénales comme le « terrorisme », « la traite des personnes, le trafic de migrants », « la fabrication et le trafic illicites d’armes à feu, de leurs pièces, éléments et munitions » et « le trafic de drogue et le trafic de biens culturels ».

Cela suggère une volonté d’élargir la portée de la collecte et du partage des preuves, y compris au-delà des frontières, au-delà des crimes explicitement énoncés dans le texte, ce qui peut être tenté, par exemple, en invoquant l’article 17 à composition non limitée ou le concept de « crimes graves », « autres crimes » ou simplement d’actes illégaux. Le préambule n’est généralement pas juridiquement contraignant ou directement exécutoire, cependant, conformément à la Convention de Vienne sur le droit des traités, il joue un rôle crucial dans la détermination du contexte d’interprétation de la convention et la clarification de l’intention des rédacteurs.

Les infractions liées à la parole ne sont plus explicites dans le traité, mais des inquiétudes demeurent

Comme dans la section ci-dessus, les versions antérieures du texte non négocié menant à l’avant-projet avaient proposé des dizaines de nouveaux crimes liés au contenu en ligne. Cela aurait criminalisé certains discours en tant que cybercrime simplement parce qu’ils ont été publiés en ligne. Il comprenait des dispositions que nous avions critiquées comme étant trop larges, mal définies et subjectives; comme nous l’avons notéauparavant, des dispositions similaires dans différents pays ont été largement utilisées contre des journalistes, des militants et des défenseurs des droits humains. Il s’agissait notamment d’infractions dépourvues de définitions universellement convenues – dont de nombreux États ont abusé pour réprimer la liberté d’expression ou d’association – telles que la violation du droit d’auteur, les “infractions liées à l’extrémisme”, les “infractions liées au terrorisme” et la distribution de matériel “motivé par la haine politique, idéologique, sociale, raciale, ethnique ou religieuse”, et “la propagation de conflits, de sédition, de haine ou de racisme”, entre autres .

Cette longue liste d’infractions liées au contenu a été retirée du chapitre sur la criminalisation. Malheureusement, l’avant-projet de nouvel article 17 oblige les États à appliquer la convention aux crimes “établis conformément à d’autres conventions et protocoles internationaux”, ce qui pourrait être utilisé comme une échappatoire pour réintroduire certains de ces crimes au motif que d’autres traités les ciblent à des fins de collecte et de partage de preuves.

Les techniques d’enquête spéciales ont été entièrement supprimées, mais les pouvoirs de collecte et d’interception en temps réel demeurent Des versions antérieures du texte non négocié  autorisaient étrangement les États membres à adopter une législation qui permettra l’utilisation de « techniques d’enquête spéciales », sans définir ce qu’elles sont. Un tel langage aurait pu permettre n’importe quel type de technologie de surveillance, des logiciels malveillants aux capteurs IMSI, en passant par la police prédictive et d’autres outils de surveillance de masse. Cependant, il existe encore d’autres dispositions d’enquête dans l’avant-projet, y compris des pouvoirs très intrusifs pour la collecte en temps réel des données de trafic et l’interception des communications.

Ces deux pouvoirs de surveillance ont été écartés lors des « consultations informelles » lors des sessions précédentes, et sont maintenant de retour dans l’avant-projet, et seront discutés pour la première fois lors de la réunion plénière de la session d’août. Nous avons déjà demandé la suppression de ces pouvoirs parce que nous avons constaté un manque de consensus sur l’inclusion de solides garanties juridiques parmi les États membres. Mais nos préoccupations vont au-delà de cela: il existe d’énormes disparités entre les États membres en ce qui concerne le niveau de protection de ce type de données, y compris des préoccupations concernant l’État de droit et le manque d’impartialité et d’indépendance du pouvoir judiciaire.

Copier, coller, répéter : le langage de la Convention de Budapest de 2001 est revenu, maintenant avec des garanties diluées contre les pouvoirs de surveillance

Les propositions sur les pouvoirs d’application de la loi et la coopération gouvernementale dans les versions antérieures étaient souvent assez draconiennes, mais maintenant ces dispositions sont basées directement, presque mot pour mot, sur le texte préexistant de la Convention de Budapest de 2001 sur la cybercriminalité – qui a beaucoup de problèmes, mais que de nombreux pays ont déjà signé. Malheureusement, certaines dispositions problématiques de la Convention de Budapest ont été importées en masse et, lorsque des modifications ont été apportées, elles ont affaibli les garanties et les limitations des pouvoirs de surveillance.

Occasion manquée : les pouvoirs de surveillance de la police transfrontalière doivent être dotés de garanties à toute épreuve pour protéger la vie privée et la liberté d’expression des utilisateurs

La Convention de Budapest contient une disposition sur les conditions et les garanties qui mettent des freins et contrepoids à l’utilisation des pouvoirs de surveillance, un élément positif bien qu’il ne soit pas aussi solide que nous le souhaiterions. L’avant-projet, dans l’un des rares écarts par rapport à la langue de Budapest, dilue en fait les garanties. S’il conserve la référence au principe de proportionnalité, il omet d’inclure explicitement le principe de nécessité. Le projet de convention, à défaut d’autre chose, devrait non seulement conserver les principes énoncés à l’article 15 de la Convention de Budapest, mais devrait étendre l’article pour y incorporer des garanties supplémentaires.

Il devrait notamment nécessiterune base factuelle justifiant l’accès ou l’application des pouvoirs de surveillance ; et l’obligation d’exiger une justification valable et étayée pour invoquer et appliquer ces pouvoirs procéduraux. Ces pouvoirs devraient être fondés sur des faits objectifs et vérifiables et établir des normes minimales claires. Sans de telles dispositions, la convention pourrait permettre une utilisation arbitraire, biaisée ou spéculative de la surveillance. Une autorisation préalable indépendante, de préférence judiciaire, des pouvoirs de surveillance devrait être obligatoire. Cette garantie sert de couche de protection supplémentaire pour prévenir les abus potentiels, renforcer la responsabilité et faire respecter l’État de droit. L’article devrait également exiger des États qu’ils publient « la divulgation périodique de données statistiques sur l’utilisation des pouvoirs et des procédures », afin d’améliorer encore la transparence et la responsabilité.

Bien que le maintien et l’extension des garanties constituent une étape initiale cruciale vers l’adoption d’une convention qui respecte les droits de l’homme, ces garanties en elles-mêmes resteront insuffisantes. Comme nous l’avons noté précédemment, il y a une absence flagrante d’un système solide et efficace pour faire respecter les droits de l’homme au niveau international, et la majorité des pays occidentaux ont montré une hésitation à contrôler leurs propres pouvoirs de surveillance excessifs. Prenons, par exemple, les efforts de l’OCDE pour restaurer la confiance dans les flux de données transfrontaliers, à la suite des révélations de Snowden. L’initiative énonce les principes essentielsqui incluent le principe de proportionnalité, de nécessité et de légalité. Cependant, ironiquement, le texte indique également que les pratiques de surveillance des signataires sont conformes aux droits de l’homme, bien que de nombreux contre-exemples  suggèrent le contraire.

Enfin, pour que la convention devienne véritablement un instrument respectueux des droits de l’homme, elle devrait, à tout le moins, autoriser les organes des droits de l’homme de l’ONU à contrôler la mise en œuvre de la convention et à évaluer le respect par les États des garanties de la convention, ainsi que des obligations des États en matière de traités en matière de droits de l’homme.

Conclusion

Dans la partie II de nos analyses, nous passerons en revue les dispositions troublantes de l’avant-projet de texte qui élargissent la portée des mesures de procédure pénale, la coopération internationale, traitent la double incrimination comme facultative et laissent de côté les garanties des droits de l’homme. Nous continuerons à fournir des mises à jour au fur et à mesure que nous développerons nos positions et nous préparerons à discuter de ces préoccupations en personne le mois prochain à New York.

PAR KATITZA RODRÍGUEZ

Cet article a été publié en partenariat avec EFF

Pour sauver l’actualité, nous avons besoin d’un Web de bout en bout

Une fois, les agences de presse se sont entassées avec enthousiasme dans les médias sociaux. De nouvelles plateformes comme Facebook et Twitter étaient de puissants « entonnoirs de trafic », où des systèmes de recommandation algorithmiques mettaient des extraits de reportages devant un vaste public de nouveaux lecteurs, qui suivaient les liens à la fin de l’extrait pour découvrir les sources qui faisaient partie de leur nouvelles-régimes réguliers.

Alors que des plateformes comme Facebook devenaient essentielles aux activités des nouvelles entreprises, elles ont changé la donne. Premièrement, il s’agissait d’une « dépriorisation » générale des articles d’actualité .

Cela ne signifiait pas seulement que les articles des comptes d’actualités étaient moins susceptibles d’être recommandés aux utilisateurs qui n’étaient pas abonnés au compte de l’éditeur d’actualités. Cela signifiait également que les personnes qui suivaient explicitement les éditeurs – c’est-à-dire qui avaient explicitement demandé à Facebook de leur montrer les choses que ces éditeurs publiaient – seraient moins susceptibles de voir les publications des éditeurs.

L’explication publique à cela était que Facebook était en train de donner la priorité aux publications des “amis”, mais les éditeurs n’ont pas pu s’empêcher de remarquer que leurs gestionnaires de compte chez Facebook ont ​​intensifié la pression pour “booster” leurs publications .

Le message implicite était le suivant : “Alors que Facebook dit qu’il donne la priorité aux publications des amis des utilisateurs dans leurs flux, nous donnons en fait la priorité aux publications des amis des utilisateurs, ainsi qu’aux publications des éditeurs qui nous paieront pour remettre leurs publications dans les flux de les lecteurs qui ont demandé à les voir.

Facebook pariait que les éditeurs paieraient pour la “portée”. Il n’y a pas que Facebook : la nouvelle politique de Twitter est explicite : si vous voulez atteindre de manière fiable les personnes qui ont demandé à voir vos Tweets, vous devez vous inscrire à Twitter Blue . Si vous êtes une entreprise de médias, cela vous coûtera 1 000 $/mois .

La société mère de Facebook, Meta, a également redoublé d’efforts pour demander une rançon aux entreprises de médias, facturer la “vérification” et, avec elle, une douce promesse que le contenu que vous publiez atteindra les personnes qui ont demandé à le voir.

La logique des entreprises technologiques est simple : une fois que les utilisateurs finaux et les éditeurs sont enfermés dans leurs plates-formes, toute valeur qu’ils créent les uns pour les autres peut – et doit – être capturée par la plate-forme à la place. Le flux utilisateur idéal doit être composé d’ un nombre suffisant d’éléments que l’utilisateur a demandé à voir ou dont on prévoit qu’il appréciera, ce qui maintiendra cet utilisateur sur la plate-forme.

Naturellement, les nouvelles doivent être là où se trouvent les utilisateurs. Tant que les utilisateurs restent sur une plate-forme, la presse se sentira obligée de les rejoindre. Cela donne aux plates-formes un moyen de facturer les sources d’information pour le «boost» ou la «vérification» ou d’autres formes de Danegeld afin d’augmenter la probabilité que les nouvelles qu’elles publient atteignent les personnes qui ont demandé à les voir.

Cette conduite – où une plate-forme donne la priorité à la livraison du contenu qui lui rapporte le plus d’argent, indépendamment des souhaits de ses utilisateurs – viole le vénérable principe de bout en bout : le premier devoir d’une plate-forme devrait être de fournir les données envoyées par des expéditeurs volontaires à des destinataires, aussi rapidement et de manière fiable que possible.

Lorsque nous appliquons de bout en bout l’Internet lui-même, nous l’appelons la « neutralité du Net » : l’idée que votre FAI doit vous fournir les données demandées (une vidéo de votre service de streaming préféré, par exemple), et non les données qu’il les investisseurs auraient aimé que vous le demandiez (une vidéo d’un service de streaming concurrent appartenant à votre FAI).

Comme Internet lui-même, les premiers médias sociaux sont nés neutres : les premiers réseaux sociaux étaient de simples conduits reliant les utilisateurs, de sorte que la mise à jour de chaque utilisateur était montrée aux abonnés de cet utilisateur. Peu à peu, ces flux ont été complétés par des systèmes de recommandation qui ont aidé les utilisateurs à hiérarchiser les messages autrement excessifs des personnes qu’ils suivaient.

Mais comme les utilisateurs sont passés d’un défaut de montre-moi-les-choses-mes-amis-publiés à un défaut de montre-moi-les-choses-que-vous-pensez-que-je-devrais-voir, une puissante tentation s’est emparée des gestionnaires de plate-forme : pour violer le contrat implicite de fournir les choses demandées par les utilisateurs, puis se tourner vers les expéditeurs (éditeurs, interprètes, créateurs) et exiger une rançon pour atteindre leurs propres abonnés.

Payer pour « booster » le contenu est désormais omniprésent. C’est une autre façon – avec les commissions publicitaires et les paiements des applications mobiles – que les plates-formes technologiques détournent la valeur générée par les nouvelles.

Si les plateformes de médias sociaux respectaient le principe de bout en bout, cette rançon prendrait fin. Les utilisateurs des médias sociaux verraient les choses qu’ils ont demandé à voir et les éditeurs atteindraient les publics qui ont demandé à avoir de leurs nouvelles.

Il est possible que nous voyions une loi ou un règlement obliger la livraison de bout en bout pour les plateformes, mais nous n’avons pas à attendre une loi. Les plateformes sont incorrigibles dans leurs violations continues des lois existantes sur la fraude, la confidentialité et la concurrence. Après des années de tactiques dilatoires réussies, le temps est compté pour les plus grandes entreprises technologiques, qui font désormais face à des amendes colossales pour leur mauvais comportement .

Une amende à elle seule ne suffira pas à dissuader les entreprises d’enfreindre les règles. Une amende est un prix, et tant que le prix est inférieur aux profits illicites qu’elle achète, les entreprises la paieront.

Avec l’augmentation des amendes, les entreprises sont susceptibles de commencer à réclamer la paix : en proposant des colonies pour mettre fin à de longs combats meurtriers. Nous pensons que ces règlements offriront une belle opportunité aux régulateurs d’élaborer des règles de bout en bout spécifiques aux services.

Contrairement à d’autres recours – par exemple, des règles exigeant des plates-formes pour lutter contre le harcèlement – une règle de bout en bout est facile à administrer. Une règle de non-harcèlement nécessite : un accord sur la définition du harcèlement, un accord sur la question de savoir si un incident spécifique constitue du harcèlement et une enquête factuelle pour déterminer si la plateforme a pris des mesures raisonnables pour prévenir le harcèlement.

En revanche, si nous soupçonnons qu’une plate-forme ne délivre pas de manière fiable les messages qu’elle a promis de délivrer, nous pouvons simplement envoyer des messages de test et voir s’ils arrivent.

De plus, se conformer à une règle de bout en bout ne nécessite pas d’ingénierie coûteuse qui ferait de la règle une barrière à l’entrée pour les plates-formes plus petites et moins abusives. L’état par défaut des médias sociaux est la livraison des expéditeurs aux destinataires : ils retiennent les abonnés contre une rançon, ce qui nécessite une ingénierie supplémentaire.

Lorsque la technologie était un secteur concurrentiel, la majeure partie de l’innovation était consacrée à offrir plus de valeur aux utilisateurs finaux et aux éditeurs. Une fois que la technologie est devenue une industrie concentrée dominée par des entreprises gonflées qui s’étaient gavées en rachetant leurs plus petits concurrents, “l’innovation” s’est tournée vers la recherche de nouvelles façons de détourner la valeur des utilisateurs et des clients professionnels.

PAR CORY DOCTOROW

Cet article a été publié en partenariat avec EFF

La législation sur la confidentialité numérique est une législation sur les droits civils

Nos données personnelles et la manière dont les entreprises privées les récoltent et les monétisent jouent un rôle de plus en plus puissant dans la vie moderne. Les bases de données d’entreprise sont vastes, interconnectées et opaques. Le mouvement et l’utilisation de nos données sont difficiles à comprendre, et encore moins à retracer. Pourtant, les entreprises l’utilisent pour tirer des conclusions à notre sujet, ce qui entraîne la perte d’emplois, de crédits et d’autres opportunités.

Un fil conducteur de ce système omniprésent est la collecte d’informations personnelles auprès des communautés marginalisées, et l’utilisation discriminatoire qui en résulte par les entreprises et les agences gouvernementales, exacerbant les inégalités structurelles existantes dans la société. La surveillance des données est un problème de droits civils, et la législation visant à protéger la confidentialité des données peut aider à protéger ces droits civils. 

Collecte discriminatoire de données

Nos téléphones et autres appareils traitent une grande quantité d’informations personnelles très sensibles que les entreprises collectent et vendent pour des profits étonnants. Cela incite les acteurs en ligne à collecter autant de nos informations comportementales que possible. Dans certaines circonstances, chaque clic de souris et chaque balayage d’écran sont suivis puis vendus à des sociétés de technologie publicitaire et aux courtiers en données qui les desservent.

Lorsque les applications mobiles sont utilisées de manière disparate par des groupes spécifiques, la collecte et le partage de données personnelles peuvent aggraver les problèmes de droits civils. Par exemple, une application de prière musulmane (Muslim Pro) a vendu des données de géolocalisation sur ses utilisateurs à une société appelée X-Mode, qui à son tour a fourni l’accès à ces données à l’armée américaine par l’intermédiaire d’entrepreneurs de la défense. Bien que Muslim Pro ait cessé de vendre des données à X-Mode, la terrible vérité demeure : la collecte et la vente généralisées de ces données par de nombreuses entreprises rendent les utilisateurs vulnérables à la discrimination. Pourtant, beaucoup trop d’entreprises qui collectent des données de géolocalisation peuvent gagner rapidement de l’argent en les vendant. Et les forces de l’ordre et autres agences gouvernementales sont des acheteurs réguliers.

En 2016, il a été découvert que Twitter, Facebook, Instagram et neuf autres plateformes de médias sociaux avaient fourni à la société de logiciels Geofeedia des informations sur les médias sociaux et des données de localisation de leurs utilisateurs. Ces données ont ensuite été utilisées par les services de police des États-Unis pour retrouver et identifier les personnes participant aux manifestations de Black Lives Matter. Le FBI a également été un client de Geofeedia et un rapport de The Intercept a révélé que la société de capital-risque de la CIA, In-Q-Tel, avait investi dans Geofeedia. Ces exemples montrent comment la surveillance des médias sociaux, la collecte excessive de données et les divulgations par les plateformes numériques peuvent provoquer des conséquences inéquitables de grande envergure pour les Noirs.

De plus, les personnes à faible revenu sont souvent moins en mesure d’éviter la collecte de leurs données par les entreprises. Par exemple, certaines technologies moins chères collectent plus de données que d’autres technologies, comme les smartphones bon marché qui sont livrés avec des applications préinstallées qui divulguent des données et ne peuvent pas être supprimées. De même, certaines entreprises technologiques exigent aux clients payer un supplément pour éviter la surveillance des données, comme AT&T facturant 29 $ par mois aux clients FAI pour éviter de suivre leur historique de navigation. De même, certaines entreprises technologiques exigent que les clients paient un supplément pour les fonctionnalités de sécurité de base qui les protègent contre le vol de données, comme le nouveau plan de Twitter de facturer 11 $ par mois pour l’authentification à deux facteurs. Malheureusement, la confidentialité des données est souvent un luxe que les personnes à faible revenu ne peuvent pas se permettre. 

Utilisation discriminatoire des données dans la diffusion des publicités

Une fois les données personnelles collectées, des informations hautement sensibles sur des millions de personnes sont largement mises en vente. Les entreprises et les gouvernements l’utilisent de manière à cibler certains groupes vulnérables de la société pour un traitement défavorisé et à exclure d’autres d’opportunités importantes. Malgré les règles juridiques contre la discrimination fondée sur l’origine ethnique, le sexe et d’autres caractéristiques, de nombreuses entreprises ont utilisé des algorithmes qui ciblent les publicités sur ces mêmes caractéristiques.

De nombreuses plateformes et annonceurs utilisent des données personnelles pour cibler les publicités sur certaines personnes et pas sur d’autres. Par exemple, l’outil Tailored Audiences de Twitter permet aux annonceurs de cibler les utilisateurs sur des mots-clés, des centres d’intérêt et un emplacement géographique, tandis que Google utilise un outil de ciblage par liste de clients, Customer Match en anglais, pour que les annonceurs combinent leurs informations avec les données utilisateur de Google.

Un tel ciblage est souvent discriminatoire. Le Federal Reserve Board a constaté que « même les consommateurs qui recherchent des informations pour prendre des décisions éclairées peuvent être empêchés de faire les meilleurs choix pour eux-mêmes ou pour leur famille et peuvent à la place être soumis à une correction numérique ou à une orientation ».

Les entreprises ont dirigé des publicités risquées vers les groupes vulnérables. Des milliers de personnes âgées ont été ciblées par des annonces d’escroqueries à l’investissement par des prêteurs subprime. De même, des publicités politiques ont été ciblées sur des groupes ethniques minoritaires – ce qui a conduit à la suppression des électeurs. Cela est rendu possible grâce à la collecte massive d’informations personnelles et à leur compilation dans des dossiers qui identifient des caractéristiques telles que l’ethnicité. Une publicité ciblée utilisée par l’ancien président Trump comprenait un graphique animé d’Hillary Clinton qui cherchait à convaincre les électeurs noirs de ne pas voter le jour du scrutin.

Les données personnelles sont également utilisées pour empêcher certains groupes de recevoir des publicités pour des opportunités positives. En 2016, par exemple, ProPublica a révélé que Facebook permettait aux annonceurs d’empêcher les groupes raciaux protégés de voir leur contenu. Une revue universitaire a précédemment rapporté que les femmes recevaient moins d’annonces en ligne pour des emplois bien rémunérés que les hommes. L’impact discriminatoire peut se produire même lorsque l’annonceur n’a pas l’intention de discriminer. En 2018, Upturn a découvert que Facebook avait distribué son annonce pour un emploi de chauffeur de bus à un public composé à 80 % d’hommes, même si Upturn n’avait pas l’intention de cibler l’annonce en fonction du sexe.

Les annonces immobilières ont également été diffusées de manière discriminatoire sur le plan racial. En 2019, Facebook a fait l’objet d’une poursuite devant la Cour fédérale alléguant que la plateforme maintenait une « liste préremplie de données démographiques, de comportements et d’intérêts » pour les courtiers immobiliers et les propriétaires afin d’empêcher certains acheteurs ou locataires de voir leurs annonces. Le procès alléguait en outre que cela permettait « le placement d’annonces de logement excluant les femmes, les personnes handicapées et celles de certaines origines nationales ». Le système de Facebook a depuis évolué suite à un accord avec le ministère américain de la Justice. En annonçant le règlement, le gouvernement a expliqué que les algorithmes de Facebook violaient les lois fédérales sur le logement équitable.

Le système répandu d’entreprises qui collectent et monétisent des informations personnelles conduit dans de nombreux cas à la diffusion d’annonces discriminatoires. En conséquence, les groupes protégés passent à côté d’importantes opportunités d’emploi et de logement. Pour éviter une telle discrimination dans la diffusion des publicités, nous avons besoin de lois qui limitent la collecte initiale d’informations personnelles. 

Utilisation discriminatoire des données dans la prise de décision automatisée

Les banques et les propriétaires utilisent des systèmes de prise de décision automatisés pour aider à décider de fournir ou non des services aux clients potentiels. De même, les employeurs utilisent ces systèmes pour aider à sélectionner les employés, et les collèges les utilisent pour aider à sélectionner les étudiants. De tels systèmes discriminent les groupes vulnérables. Il existe de nombreuses solutions à ce problème, notamment la transparence algorithmique et l’application rigoureuse des lois contre les politiques organisationnelles qui ont un impact disparate sur les groupes vulnérables.

Une partie du problème est que les systèmes de prise de décision automatisés ont un accès facile au vaste réservoir de données personnelles que les entreprises ont collectées auprès de nous et se vendent les unes aux autres. Ces données alimentent les biais algorithmiques. Une partie de la solution consiste donc à vider ces réservoirs en limitant la manière dont les entreprises collectent nos données en premier lieu.

Des préoccupations particulières sont soulevées lorsque les magasins physiques utilisent la technologie de reconnaissance faciale pour filtrer tous leurs clients potentiels afin d’exclure les clients soi-disant indésirables. De nombreux magasins utilisent depuis longtemps cette technologie pour essayer de détecter les voleurs à l’étalage potentiels, en s’appuyant souvent sur des données de justice pénale sujettes aux erreurs et biaisées sur le plan racial. Madison Square Gardens a récemment été surpris en train d’utiliser cette technologie pour exclure les employés d’un cabinet d’avocats qui a poursuivi la société mère du lieu. Une entreprise pourrait facilement étendre ce type de « liste d’ennemis » aux personnes qui, en ligne ou sur le trottoir à l’extérieur, protestent contre les politiques discriminatoires d’un lieu.

De plus, la reconnaissance faciale ne fonctionne trop souvent pas, en particulier pour les Noirs et les femmes. La technologie a été utilisée pour expulser par erreur l’adolescente noire Lamya Robinson d’une patinoire publique à Detroit après l’avoir identifiée à tort comme une personne qui s’y serait prétendument battue. Encore une fois, il existe une solution de confidentialité des données à ce problème de droits civils : interdire aux entreprises de collecter les empreintes faciales de quiconque, sans avoir obtenu au préalable leur consentement volontaire, éclairé et opt-in. Cela doit inclure le consentement à utiliser le visage de quelqu’un (ou un identifiant similaire comme un tatouage) dans les données de formation pour les algorithmes. 

Discrimination dans la violation et l’utilisation abusive des données

La collecte et le stockage de quantités massives d’informations personnelles génèrent également des risques que les employés de l’entreprise abusent des données d’une manière qui viole les droits civils. Par exemple, en 2014 et 2015, 52 employés de Facebook ont ​​été licenciés pour avoir exploité leur accès aux données des utilisateurs. Un ingénieur a utilisé le référentiel Facebook de conversations Messenger privées, de données de localisation et de photographies personnelles pour rechercher pourquoi une femme avec qui il sortait a cessé de répondre à ses messages. Un autre ingénieur a utilisé les données de Facebook pour suivre une femme jusqu’à son hôtel. La collecte excessive de données par l’entreprise a permis ce harcèlement.

La collecte excessive crée également un risque de fuite de données, qui peut avoir un impact disparate sur les personnes à faible revenu. Le vol de données crée un risque collatéral d’usurpation d’identité, d’attaques de rançongiciels et de spam indésirable. Pour éviter ces attaques, les victimes de violation doivent consacrer du temps et de l’argent pour geler et dégeler leurs rapports de crédit, pour surveiller leurs rapports de crédit et pour obtenir des services de prévention du vol d’identité. Ces coûts financiers peuvent souvent être plus lourds pour les communautés à faible revenu et marginalisées. De plus, l’instabilité du logement pourrait rendre plus difficile d’alerter les personnes vulnérables qu’une infraction s’est produite.

Un moyen important de réduire ces types de risques pour les droits civils est que les entreprises collectent et stockent moins de données personnelles. 

Divulgation de données par les entreprises au gouvernement, qui les utilise de manière discriminatoire

Les pratiques gouvernementales discriminatoires peuvent être alimentées par l’achat de données personnelles auprès d’entreprises. Les gouvernements utilisent des systèmes de prise de décision automatisés pour aider à faire une multitude de choix concernant la vie des gens, notamment si la police doit inspecter une personne ou un quartier, si les responsables de la protection de l’enfance doivent enquêter sur un domicile et si un juge doit libérer une personne en attendant son procès. De tels systèmes « automatisent les inégalités », selon les mots de Virginia Eubanks. Le gouvernement achète de plus en plus de données aux entreprises pour les utiliser dans ces décisions.

De même, depuis que la Cour suprême des États-Unis a annulé Roe v. Wade, la santé reproductive est devenue un vecteur d’attaque de plus en plus important pour les droits numériques. Par exemple, les données de Google Maps peuvent informer la police si vous avez recherché l’adresse d’une clinique. Cette menace accrue pour les droits numériques est spécialement dangereuse pour les PANDC, les personnes à faible revenu, les immigrants, les personnes LGBTQ+ et d’autres communautés traditionnellement marginalisées, ainsi que les prestataires de soins de santé desservant ces communautés. Nous devrions réduire l’offre de données personnelles que les shérifs anti-choix et les chasseurs de primes peuvent acquérir auprès des entreprises. Et nous devrions également limiter l’accès de la police à ces données.

De plus, la police acquiert des services de surveillance faciale auprès d’entreprises comme Clearview, qui extraient les empreintes faciales de milliards de personnes sans leur permission, puis utilisent leur base de données d’empreintes faciales pour aider la police à identifier les suspects inconnus sur les photos. Par exemple, Clearview a aidé la police de Miami à identifier un manifestant pour la vie des Noirs.

L’utilisation par la police de ce type de service de données d’entreprise est intrinsèquement dangereuse. Les faux positifs de la reconnaissance faciale ont provoqué l’arrestation injustifiée d’au moins quatre hommes noirs. En janvier 2020, la police de Detroit a utilisé un logiciel de reconnaissance faciale pour arrêter Robert Williams pour avoir prétendument volé des montres. Williams a été détenu par la police pendant 30 heures. Après un long interrogatoire, la police a admis que « l’ordinateur avait dû se tromper ». Un an auparavant, le même détective de Detroit avait arrêté un autre homme, Michael Oliver, après qu’un logiciel de reconnaissance faciale l’ait identifié à tort comme un match. Nijeer Parks a été accusé de vol à l’étalage de collations dans le New Jersey et arrêté à tort après une erreur d’identification. Parks a passé 10 jours en prison et près d’un an avec des accusations qui pèsent sur lui. Plus récemment, le département de police de Baton Rouge a arrêté et emprisonné Randal Reid pendant près d’une semaine après une correspondance incorrecte avec un vol. 

Prochaines étapes

Les entreprises, les gouvernements et autres utilisent les données personnelles de nombreuses manières discriminatoires. Une approche nécessaire pour résoudre ce problème consiste à réduire la quantité de données que ces entités peuvent utiliser pour discriminer. Pour résister à ces violations des droits civils à leur source, nous devons limiter la manière dont les entreprises collectent et récoltent nos données personnelles.

L’EFF a demandé à plusieurs reprises une telle législation sur la confidencialité. Pour être efficace, il doit inclure une application privée efficace et interdire les systèmes de « paiement pour la confidentialité » qui nuisent aux personnes à faible revenu. La législation au niveau fédéral ne doit pas prévaloir sur la législation des États.

BY PAIGE COLLINGS AND ADAM SCHWARTZ

Cet article a été publié en partenariat avec EFF

Comment les différentes applications de messagerie cryptées traitent-elles les messages supprimés ?

Une caractéristique de diverses applications de messagerie cryptées de bout en bout (E2EE) et d’autres messages de médias sociaux non E2EE est la disparition des messages, qui sont automatiquement supprimés après une période de temps définie. Cette fonctionnalité peut être utile pour la confidentialité générale au sein de votre réseau étendu, les utilisateurs à haut risque et la suppression préventive des conversations secondaires facilement dans les discussions linéaires. Cependant, différentes applications de messagerie gèrent les messages supprimés et disparaissent un peu différemment, en particulier en ce qui concerne les messages cités, les sauvegardes de chat et les notifications de capture d’écran. Il est important de noter qu’il ne s’agit pas d’une vulnérabilité dans le logiciel, mais cela pourrait amener quelqu’un à modifier son modèle de menace , sa façon de penser à la protection de ses données et de sa vie privée. Ci-dessous, nous notons la variance qui existe entre les différentes applications.

Comment Signal gère les messages supprimés et disparus dans les réponses

Lorsqu’un utilisateur sur Signal supprime un message, si ce message a déjà été cité dans une réponse, l’application affiche toujours environ 70 caractères du message.

Si l’heure d’un message qui disparaît a été modifiée pendant que quelqu’un répond, le message cité reste pour la durée de la nouvelle heure définie sur la réponse.

Toutes les applications que nous avons examinées ont des options de suppression manuelle des messages, mais les intervalles de suppression automatique varient. Pour Signal, la période de suppression automatique la plus courte est de 30 secondes. Les sauvegardes de chat dans Signal sont automatisées sur une fenêtre de 24 heures ou à la demande. Si un utilisateur active les sauvegardes de chat, tous les messages visibles pendant une période donnée peuvent potentiellement se trouver dans son fichier de sauvegarde. Heureusement, Signal et WhatsApp ont des sauvegardes cryptées pour une protection supplémentaire dans les cas où un tiers pourrait essayer d’accéder à ces informations.

Comment WhatsApp gère les messages supprimés et disparus dans les réponses

WhatsApp reconnaît le scénario de réponse cité dans sa FAQ. Signal devrait également le faire dans sa documentation .

« Lorsque vous répondez à un message, le message initial est cité. Si vous répondez à un message qui disparaît, le texte cité peut rester dans le chat après la durée que vous avez sélectionnée.

L’intervalle de disparition automatique le plus court de WhatsApp est de 24 heures. Cette période prolongée peut permettre aux sauvegardes des messages supprimés automatiquement de WhatsApp d’être plus courantes.

Comment Facebook Messenger gère les messages supprimés et disparus dans les réponses

Dans les conversations FB Messenger Secret (E2EE), les messages originaux sont supprimés dans le texte entre guillemets après la suppression ou la disparition d’un message. Cependant, le message reste au-delà de son minuteur de suppression automatique si aucun utilisateur ne tape ou ne quitte le chat. Pas aussi inquiétant dans la pratique, mais c’est une bizarrerie notable.

Secret Conversation propose également des notifications de capture d’écran lorsque les messages sont configurés pour disparaître automatiquement. L’intervalle le plus court est de 5 secondes pour la suppression automatique, le temps le plus court parmi les trois messagers. Il n’y a pas non plus de mécanismes de sauvegarde de chat disponibles pour l’utilisateur sur le téléphone, mais il est enregistré sur la plate-forme Facebook. Les messages qui disparaissent sont également supprimés du stockage local peu de temps après.

La documentation est la clé

Nous nous sommes concentrés principalement sur les applications basées sur E2EE, mais il existe d’autres applications de médias sociaux comme Snapchat qui proposent des messages qui disparaissent. Nous n’avons pas testé cette bizarrerie de réponse dans Snapchat. Cependant, comme pour les autres applications que nous avons examinées, vous pouvez enregistrer des messages ou prendre des captures d’écran.

Il ne s’agit pas d’une vulnérabilité logicielle, mais souligner les différences de traitement des messages éphémères en vaut la peine, car les principales applications E2EE appliquent des paramètres différents. Les messages doivent être supprimés lorsqu’ils expirent ou supprimés manuellement. De petites erreurs se produisent tout le temps dans les discussions de groupe que vous voudrez peut-être supprimer immédiatement sans aucune preuve historique, y compris les citations. Par exemple, coller accidentellement un mot de passe dans une grande discussion de groupe où vous ne connaissez peut-être pas très bien tout le monde, ou des cas plus graves, où quelqu’un pourrait potentiellement être signalé aux forces de l’ordre pour avoir demandé des soins de reproduction.

Même lorsqu’ils sont associés à la crainte que quelqu’un puisse prendre des captures d’écran de conversations, les messages éphémères sont une fonctionnalité très utile pour de nombreux scénarios différents, et dans le climat actuel, où les communications privées sont régulièrement attaquées, l’amélioration de ces fonctionnalités et leur documentation , et l’utilisation des communications E2EE restera une nécessité importante pour l’exercice de votre droit à la vie privée.

PAR ALEXIS HANCOCK

Cet article a été publié en partenariat avec EFF

Chronologie du Traité des Nations Unies sur la cybercriminalité

 La Fédération de Russie présente une lettre à l’Assemblée générale des Nations Unies contenant un projet de Convention des Nations Unies sur la coopération dans la lutte contre la cybercriminalité, destinée à être distribuée aux États membres.

Novembre 2019
Une résolution, sponsorisée par la Russie – avec la Biélorussie, le Cambodge, la Chine, l’Iran, le Myanmar, le Nicaragua, la Syrie et le Venezuela – visant à mettre en place une convention internationale pour lutter contre la cybercriminalité passe devant l’Assemblée générale des Nations Unies. La résolution a rencontré l’opposition des États-Unis, de l’UE et d’autres nations. Les organisations de défense des droits de l’homme, dont l’Association pour le progrès des communications et l’EFF, ont exhorté l’Assemblée générale à voter contre la résolution, craignant qu’elle « ne puisse porter atteinte à l’utilisation d’Internet pour exercer les droits de l’homme et faciliter le développement social et économique ».

Décembre 2019
L’Assemblée générale des Nations Unies adopte une résolution pour créer un Comité ad hoc (AHC) chargé de rédiger une convention des Nations Unies « sur la lutte contre l’utilisation des technologies de l’information et des communications à des fins criminelles ». La participation au CAH est ouverte à tous les États membres du monde, ainsi qu’aux observateurs des États non-membres (comme l’UE et le Conseil de l’Europe), à ​​la société civile et aux organisations non gouvernementales (ONG) à des degrés divers. L’Office des Nations Unies contre la drogue et le crime (UNODC), par l’intermédiaire du Service de la criminalité organisée et du trafic illicite, de la Division des traités, assure le secrétariat du Comité spécial. Cependant, le calendrier de cet effort était controversé, car une autre résolution de l’Assemblée générale des Nations Unies avait soulevé des inquiétudes quant au fait que les lois sur la cybercriminalité « sont dans certains cas utilisées à mauvais escient pour cibler les défenseurs des droits de l’homme ou ont entravé leur travail et mis en danger leur sécurité d’une manière contraire au droit international ».

Août 2020
L’AHC reporte sa première réunion d’organisation à New York à 2021 en raison du COVID-19.

Janvier 2021
Human Rights Watch déclenche les alarmes sur le fait que les États membres de l’ONU entament le processus d’un traité sur la cybercriminalité dont « les champions sont certains des gouvernements les plus répressifs du monde… l’initiative soulève de graves préoccupations en matière de droits humains ».

Mai 2021
L’AHC convoque la session d’organisation inaugurale, avec des représentants de plus de 160 pays convenant d’un plan et des modalités des négociations. L’AHC appelle à au moins six sessions de négociation de 10 jours chacune à partir de 2022, qui se tiendront à New York et à Vienne. L’Assemblée générale adopte la proposition parmi des plaintes du Royaume-Uni et d’autres pays selon lesquelles les États membres n’ont pas été consultés sur le texte final et le processus de rédaction manquait d’inclusivité.

De nombreux orateurs avaient des objections similaires, dont plusieurs divergeaient sur la structure décisionnelle de l’AHC. Fixant les conditions des négociations, le Brésil a introduit un amendement exigeant que le comité obtienne l’approbation d’une majorité des deux tiers des représentants, plutôt qu’une majorité simple favorisée par la Russie, « avant laquelle le président informera le comité que tout effort pour parvenir à un accord par le consensus a été épuisé ». L’amendement a été approuvé par 88 voix contre 42, avec 32 abstentions. Dans une décision emblématique distincte visant à plus de transparence et d’inclusion, les États membres ont approuvé une liste de représentants des institutions universitaires, du secteur privé et des ONG concernés, notamment EFF, Eticas, Red en Defensa de los Derechos Digitales, Global Partenaires Digital, Hiperderecho et Instituto Panameño de Derecho y Nuevas Tecnologías, entre autres. Les ONG dotées du statut consultatif auprès de l’ECOSOC peuvent également y assister, telles que Privacy International, Human Rights Watch et Derechos Digitales.

Décembre 2021
Avant la première session de négociation de l’AHC, EFF, Human Rights Watch et plus de 100 organisations et universitaires travaillant dans 56 pays, régions ou dans le monde, exhortent les membres de l’AHC dans une lettre à s’assurer que les protections des droits de l’homme sont intégrées dans le produit final. Le projet de traité des Nations Unies sur la cybercriminalité est présenté au moment même où les mécanismes des droits de l’homme des Nations Unies sonnent l’alarme sur l’abus des lois sur la cybercriminalité dans le monde, indique la lettre. Les groupes soulignent : « Il est essentiel de limiter la portée de toute convention sur la cybercriminalité pour protéger les droits de l’homme ».

Janvier 2022
Le Comité pour la protection des journalistes (CPJ) avertit que le projet de traité de l’ONU sur la cybercriminalité pourrait mettre en danger les journalistes en donnant de nouveaux outils aux autorités qui cherchent à punir ceux qui rapportent l’actualité. « De nombreuses autorités à travers le monde invoquent déjà les lois sur la cybercriminalité ou la cybersécurité pour punir les journalistes – non pas pour avoir secrètement piraté des réseaux ou des systèmes, mais pour avoir ouvertement utilisé les leurs pour faire connaître des actes répréhensibles », a déclaré le CPJ dans un communiqué.

Février 2022
La première session officielle de 10 jours de l’AHC se réalise à New York et les négociations commencent. L’EFF et les ONG de défense des droits de l’homme participent à distance et en personne, et soulignent l’importance de la protection des droits de l’homme dans tout projet de traité des Nations Unies sur la cybercriminalité. La crise en Ukraine occupe une place importante dans les pourparlers, qui coïncident avec les rares sessions d’urgence de l’Assemblée générale et du Conseil de sécurité de l’ONU, où les membres ont condamné l’invasion de l’Ukraine par la Russie.

Une feuille de route et un mode de travail sont adoptés, abordant les objectifs, la portée et la structure de la convention. Il est important de noter que l’approbation a été donnée pour la tenue de consultations intersessions entre les sessions de négociation du CAH afin de solliciter la contribution d’un large éventail de parties prenantes, y compris des organisations de défense des droits de l’homme et du numérique, sur la formation du projet de traité.

Les soumissions des États membres à la première session démontrent un manque prononcé de consensus sur ce qui constitue un « cybercrime » et sur la portée du traité. Des États tels que le Brésil, la République dominicaine, l’Union européenne (UE), le Liechtenstein, la Norvège, la Suisse, le Royaume-Uni et les États-Unis plaident pour une approche plus étroite de la criminalité, mettant en garde contre l’utilisation de ce traité pour imposer des contrôles plus larges sur Internet. Certains États ont également appelé à l’inclusion des délits liés au contenu, tels que l’incitation au terrorisme (Chine, Russie), la désinformation (Chine, Indonésie) et la violation du droit d’auteur (Indonésie, Liechtenstein, Mexique, Norvège, Russie, États-Unis).

Mars 2022
La première consultation intersessions avec des organisations de défense des droits et d’autres multipartites s’est tenue à Vienne. Lors d’une table ronde devant les États membres de l’ONU, ARTICLE19 exprime ses inquiétudes quant à la nécessité d’une convention sur la cybercriminalité et les risques que la convention perpétue les abus existants des lois sur la cybercriminalité. AccessNow appelle à éviter les approches trop larges de la criminalisation. De la salle, l’EFF souligne l’importance de donner la priorité à la protection des droits de l’homme, car ne pas le faire peut avoir des conséquences désastreuses, et signale que le champ d’application de la convention devrait être limité uniquement aux affaires pénales.

Avril 2022
Human Rights Watch, EFF et Privacy International attirent l’attention sur le changement de dynamique géopolitique qui a conduit de nombreux États initialement opposés au traité (près d’un tiers des membres de l’ONU) à participer activement et même à assumer des rôles de leadership dans les négociations.

Mai 2022
Deuxième session de négociation tenue à Vienne. L’AHC sollicite les contributions d’un large éventail de parties prenantes sur le texte proposé pour les chapitres sur la criminalisation, les dispositions générales, les mesures procédurales et l’application de la loi du traité. EFF, Privacy International et Human Rights Watch soumettent une déclaration à l’AHC soulignant l’importance de n’inclure que les cybercrimes de base dans le traité et d’éviter des dispositions trop générales. Lors d’une déclaration orale devant les États membres de l’ONU, EFF, Privacy International et Human Rights Watch ont réitéré la nécessité de se concentrer sur les crimes qui ciblent spécifiquement les technologies de l’information et de la communication (TIC). L’EFF a défini les cybercrimes de base comme des infractions dans lesquelles les TIC servent à la fois d’objets directs et d’instruments des crimes. Les groupes demandent également que tout futur traité garantisse que les dispositions relatives à l’accès illégal, illégal ou non autorisé aux TIC ne criminalisent pas la recherche sur la sécurité, le travail des lanceurs d’alerte et d’autres utilisations nouvelles et interopérables de la technologie qui profitent en fin de compte au public. La session est suivie par des représentants de 143 États membres de l’ONU.

June 2022
La deuxième consultation intersessions avec plusieurs parties prenantes a lieu à Vienne. Avant la réunion, l’EFF exprime son inquiétude par le fait que certains États membres de l’ONU proposent des dispositions ambiguës pour lutter contre les discours de haine, l’extrémisme ou le terrorisme, qui pourraient considérablement compromettre la liberté d’expression. Par exemple, la Jordanie propose d’utiliser le projet de traité pour criminaliser “les discours de haine ou les actions liées à l’insulte aux religions ou aux États utilisant des réseaux d’information ou des sites Web”, tandis que l’Égypte appelle à interdire la “propagation des conflits, de la sédition, de la haine ou du racisme”. La Russie, en collaboration avec la Biélorussie, le Burundi, la Chine, le Nicaragua et le Tadjikistan, a proposé de criminaliser une série d’infractions liées au contenu, y compris des actes liés à l’extrémisme vaguement définis. La terminologie ambiguë utilisée pourrait potentiellement conduire à des interprétations trop larges, dans de nombreux cas, ne respectant pas les normes de la liberté d’expression en matière de droits de l’homme.

Le Haut-Commissariat des Nations Unies aux droits de l’homme (HCDH en français, OHCHR en anglais) a souligné que tout futur traité sur la cybercriminalité ne devrait pas inclure d’infractions fondées sur le contenu de l’expression en ligne, déclarant : « Les lois sur la cybercriminalité ont été utilisées pour imposer des restrictions trop larges à la liberté d’expression en criminalisant divers contenus en ligne tels que l’extrémisme ou le discours de haine ». La nécessité d’imposer l’adoption universelle de telles infractions liées au contenu, qui manquent de consensus parmi les États membres et ont été utilisées pour poursuivre des militants, est remise en question. Ces infractions incluent également la criminalisation de la distribution de matériel qui « incite à des actes illégaux motivés par la haine politique, idéologique, sociale, raciale, ethnique ou religieuse ». En outre, la même proposition oblige chaque État partie à légiférer contre l’humiliation d’individus ou de groupes par le biais des TIC sur la base de la race, de l’ethnie, de la langue, de l’origine ou de l’appartenance religieuse. L’adoption de ces dispositions reviendrait à criminaliser la parole protégée.

Les propositions de l‘Inde concernant les infractions de soutien au terrorisme sont tout aussi problématiques, car elles manquent d’une définition convenue à l’échelle mondiale. Le terme “terrorisme” a souvent été utilisé à mauvais escient pour cibler des militants critiques à l’égard de leurs gouvernements, soulignant l’absence de consensus mondial sur ce terme. Par conséquent, des dispositions aussi ambiguës risquent d’étouffer la dissidence politique et de menacer la liberté d’expression.

Juillet 2022
La société civile envoie une lettre au Comité ad hoc, demandant la réouverture du processus d’accréditation pour les acteurs qui ont manqué la période d’enregistrement initiale, qui a été refusée.

Août 2022
Troisième session de négociation tenue à New York, au cours de laquelle des organisations de défense des droits de l’homme, dont l’EFF, présentent des déclarations orales concernant les chapitres sur la coopération internationale, l’assistance technique et les mesures préventives. Avant les négociations, l’EFF a mis en relief que le chapitre sur la coopération internationale devait inclure un mécanisme de double incrimination et ne devrait pas avoir un champ d’application illimité qui s’applique à tous les types de crimes. L’EFF a également exhorté les gouvernements à investir davantage de ressources et de formation pour améliorer le fonctionnement des systèmes de traités d’entraide judiciaire (MLAT). La session est suivie par des représentants de 149 États membres de l’ONU.

Bien que la convention porte sur la cybercriminalité, certains États soutiennent qu’elle devrait constituer la base de la coopération internationale dans la collecte de preuves pour tout crime faisant l’objet d’une enquête. L’UE, par exemple, a proposé un langage de compromis, affirmant qu’elle reste ouverte au concept de coopération s’appliquant à la collecte de preuves non seulement dans les crimes graves, mais dans n’importe quel crime – une disposition de la Convention de Budapest – tant que de solides garanties en matière de droits de l’homme sont en place.

Les soumissions du Brésil et de la Russie suggèrent que la coopération pourrait inclure une assistance mutuelle pour les enquêtes et les poursuites dans les affaires “civiles et administratives” et d’autres enquêtes sur des “actes illégaux” non définis.

Novembre 2022
Troisième consultation intersessions avec plusieurs parties prenantes tenue à Vienne. L’EFF et le Haut-Commissariat aux droits de l’homme (HCDH) sont invités à présenter leurs points de vue aux États membres. L’EFF continue de plaider en faveur d’un traité plus ciblé qui comprend de solides garanties pour la protection des droits de l’homme afin de prévenir les abus potentiels à l’avenir. Le HCDH (OHCHR) a souligné que tout projet de traité des Nations Unies sur la cybercriminalité devrait faire référence aux lois internationales sur les droits de l’homme ou aux instruments et normes régionaux des droits de l’homme dans le préambule. Cela aiderait à guider les éléments, l’interprétation et l’application du Traité, en veillant à ce qu’il soit conforme aux principes des droits de l’homme universellement reconnus. La session a réuni des représentants de 149 États membres.

Après l’intersession, l’AHC publie le document de négociation consolidé (CND, Consolidated Negotiating Document), un projet de texte des dispositions de la convention proposée créé à partir des propositions des États membres. Le projet comporte trois chapitres, commençant par une déclaration d’intention et se terminant par des dispositions sur les questions de procédure et d’application de la loi. Le deuxième chapitre traite des mesures pénales à adopter au niveau national, et est divisé en 11 « clusters ». Les clusters traitent des infractions, telles que l’accès illégal à un système informatique et l’utilisation abusive d’appareils, et des procédures, telles que la collecte de données en temps réel et l’interception de données de contenu. Le texte comprend une longue liste de crimes qui interfèrent avec la liberté d’expression et ne respectent pas les restrictions autorisées à la liberté d’expression en vertu de l’article 19(3) du Pacte international relatif aux droits civils et politiques (PIDCP). En outre, l’Assemblée générale des Nations Unies a clairement indiqué que les États devraient éviter d’imposer des limites à diverses formes d’expression telles que la discussion des politiques gouvernementales, les débats politiques, les rapports sur les droits de l’homme et les activités gouvernementales et la corruption, les campagnes électorales, les manifestations pacifiques ou les activités politiques ; et l’expression d’opinions et de dissidences, de religions ou de convictions, y compris par des personnes appartenant à des minorités ou à des groupes vulnérables.

Décembre 2022
L’EFF et 10 autres organisations de la société civile écrivent à l’AHC, dans une lettre soutenue par des dizaines d’autres groupes et universitaires du monde entier, exprimant de vives inquiétudes quant au fait que le CDN « risque d’enfreindre le droit international des droits de l’homme ». La lettre recommande une série de révisions et de modifications à la CDN pour remédier aux dispositions troublantes qui pourraient amener les États membres à traiter divers types de discours, dont la plupart seraient pleinement protégés par le droit international des droits de l’homme, comme une infraction pénale. En outre, la lettre indique que les principales infractions de cybercriminalité dans le texte imposeraient certaines restrictions qui pourraient interférer avec les méthodes de travail essentielles des journalistes, des lanceurs d’alerte et des chercheurs en sécurité et doivent être révisées.

L’EFF et Privacy International soumettent leurs observations demandant aux États membres d’inclure des freins et contrepoids solides dans le projet de traité afin de l’aligner sur la jurisprudence existante des tribunaux et organes des droits de l’homme. Par exemple, le projet de texte devrait intégrer les principes de légalité, de nécessité et de proportionnalité, et exiger une autorisation indépendante préalable (de préférence judiciaire), un contrôle indépendant a posteriori et le droit à un recours effectif. L’EFF et Privacy International demandent également des garanties garantissant que tous les pouvoirs d’enquête énumérés dans la Convention soient exercés de manière à ne pas compromettre la sécurité des communications et des services numériques.

Janvier 2023
La quatrième session de négociation du Comité ad hoc (AHC) s’est tenue à Vienne, avec la participation de représentants de 149 États membres de l’ONU. Le comité discute de la CND. EFF, Derechos Digitales, R3D, Global Partners Digital et Access Now font des déclarations orales soulignant que parmi les caractéristiques les plus préoccupantes de la CND figure la liste longue et croissante d’infractions pénales proposées destinées à être incluses dans le projet de convention. La proposition de la Chine selon laquelle le traité criminalise la “diffusion de fausses informations” dans la dernière version de la CND, publiée le 21 janvier, alimente encore les inquiétudes.

Au cours des négociations, une grande partie de la discussion sur le chapitre sur la criminalisation s’est concentrée sur les infractions liées au contenu dans les groupes (clusters) 5 et 7. Le président de l’AHC a adopté une approche proactive pour aborder les questions les plus litigieuses, menant les discussions en dehors de la plénière formelle et dans des groupes informels qui étaient fermés aux acteurs concernés des ONG. Le matériel le plus controversé se trouve dans les groupes 3, 6, 8 et 9. Les infractions proposées dans ces groupes couvrent un large éventail de comportements pour lesquels il n’y a pas de consensus unifié sur la façon dont ils devraient être définis, allant de « violation du droit d’auteur », « encouragement ou la coercition au suicide », et « l’incitation à la subversion », au « terrorisme », à « l’extrémisme » et au « trafic de drogue », ainsi que l’interception de contenu, l’interception en temps réel et l’administration de preuves électroniques, entre autres. Le langage des propositions est vague, ce qui pourrait conduire à une interprétation et à une application excessives. Au cours des négociations, plusieurs pays, dont Singapour, la Malaisie et la Russie, cherchent à supprimer l’article 42, qui fournit des garanties essentielles en matière de droits humains contre les pouvoirs de surveillance.

Mars 2023
Quatrième consultation intersessions organisée avec de multiples parties prenantes à Vienne et en ligne, avec la participation de 61 États membres et États non-membres observateurs. Au cours d’une table ronde intitulée “Une coopération efficace et réactive et d’autres aspects du chapitre sur la coopération internationale”, un panéliste d’INTERPOL a remis en question l’efficacité des traités d’entraide judiciaire (MLAT), citant des processus bureaucratiques dans plusieurs juridictions et des contraintes de ressources. En réponse aux préoccupations d’INTERPOL, la société civile a émis des réserves sur son approche. Comme indiqué dans le principe 12 des Principes nécessaires et proportionnés, approuvés par plus de 400 ONG :

« Lorsque les États demandent une assistance à des fins répressives, le principe de la double incrimination devrait être appliqué. … Les États ne peuvent pas utiliser les processus d’entraide judiciaire et les demandes étrangères d’informations protégées pour contourner les restrictions légales nationales sur la surveillance des communications ».

INTERPOL soutient que la complexité de la conservation des enregistrements de communication détenus par des entreprises privées ou de la demande d’informations de base sur les abonnés, le trafic ou les données de contenu est encore compliquée parce que les pays détenant des données ont des normes de preuve différentes. Ces préoccupations ont été accueillies avec scepticisme. Lors de sessions précédentes, l’EFF a averti que de tels arguments pourraient présenter un « risque réel que, dans une tentative d’inciter tous les États à signer un projet de convention des Nations Unies sur la cybercriminalité, de mauvaises pratiques en matière de droits de l’homme soient prises en compte, entraînant une course vers le bas ».

Avril 2023 (programmé)
La cinquième session de négociation de l’AHC se tiendra à Vienne et en ligne. Les participants discuteront des chapitres du CND qui n’ont pas été abordés lors des sessions précédentes. Ces nouveaux chapitres couvrent le préambule, les dispositions sur la coopération internationale, les mesures préventives, l’assistance technique entre les États membres, le mécanisme de mise en œuvre et les dispositions finales du projet de convention internationale globale.

Juin 2023 (programmé)
Cinquième consultation intersessions avec de multiples parties prenantes qui se tiendra à Vienne.

Août 2023 (programmé)
La sixième session du CAH se tiendra à New York. Un avant-projet de texte de la convention est prévu.

Janvier – Février 2024 (dates précises à déterminer)
La session de clôture potentielle du CAH se tiendra à New York, qui comprendra la discussion, la finalisation et l’approbation du projet de texte de la convention. Le projet sera annexé pour examen et adoption par l’Assemblée générale des Nations Unies en 2024.

BY KAREN GULLO AND KATITZA RODRIGUEZ

Cet article a été publié en partenariat avec EFF