jeudi 20 septembre 2012

FCBK et votre vie privée





Comment  F a c e b o o k  lit vos messages privés (et peut les montrer à la police)

http://cryptome.org/isp-spy/facebook-spy3.pdf

 

Tout ce que vous écrivez sur Facebook – y compris la messagerie privée – est scruté par les ordinateurs de Facebook, à la recherche d’activités criminelles.
Si un comportement suspect – pédophilie, harcèlement... – est détecté par ses algorithmes, le cas remonte à l’équipe de sécurité du réseau social. C’est seulement à cette étape que des yeux humains se posent sur des discussions privées. Le cas échéant, le géant d’Internet se met en relation avec la police.
Toutes les entreprises surveillent ce qui se trame sur leur réseau. Mais une interview accordée à Reuters par Joe Sullivan, responsable de la sécurité à Facebook, est venue donner davantage de détails sur la manière dont Facebook a automatisé le processus de détection et comment, contrairement à d’autres géants, ce dernier est entièrement internalisé.

Une détection intelligente

Facebook se concentre en priorité sur les discussions supposées à risques. Le système accorde moins d’importance aux conversations entre deux membres qui ont l’habitude de discuter ensemble. En revanche, si deux membres ne sont pas amis, ont peu d’amis en commun, discutent pour la première fois et n’habitent pas dans la même zone, Facebook surveillera de plus près leurs échanges. Evidemment, les profils des mineurs font l’objet d’une attention particulière.
Mieux : les programmes de surveillance prennent également en compte des phrases utilisées dans leur chats Facebook par des délinquants interpellés par le passé.

Un sujet délicat

Facebook est généralement très discrète sur la façon dont elle surveille ses utilisateurs. D’abord parce que l’entreprise craint qu’on lui reproche son peu de précaution vis-à-vis de la vie privée (elle en a l’habitude). L’autre raison est avancée par Reuters : avec cette technologie, Facebook ne détecte que très peu de comportements anormaux.
L’interview de Reuters ne donne pas le nombre de cas transmis par Facebook aux services de police. Elle ne mentionne qu’un seul cas où Facebook est intervenu : un homme d’une trentaine d’années qui avait donné rendez-vous à une jeune fille de 13 ans au mois de mars. Mais Reuters cite « une demi-douzaine » d’officiers « louant » la manière dont « Facebook suscite des enquêtes ».
« J’ai l’impression que pour chaque personne que nous arrêtons, dix autres passent à travers les mailles du filet », confirme à Reuters Jeffrey Duncan, de la police de Floride.
Joe Sullivan, le chef de la sécurité de Facebook, est évidemment très prudent :
« Nous n’avons jamais voulu mettre en place un environnement dans lequel nos employés ont accès à des conversations privées, c’est donc très importants que nous utilisions une technologie de détection qui a un taux de faux positifs [fausses alertes, ndlr] très bas. »
Dans sa communication officielle, Facebook ne parle pas de ce sytème : ni dans sa page destinée aux forces de l’ordre, ni dans le document confidentiel à l’intention des autorités de police et de justice, fuité fin 2011.

« La question, c’est la transparence de Facebook »

Raphaël Rault, avocat au cabinet BRM, rappelle que ce type de technologie n’est pas nouveau :
« Les CGU [conditions générales d’utilisation, ndlr] du service utilisé peuvent prévoir ce “scan” des messages, à des fins de détection des comportements violents ou contraires aux bonnes mœurs. Quand on utilise un compte Gmail par exemple, un robot scanne nos e-mails pour proposer de la publicité ciblée. »
Au niveau du droit, la détection automatique ne change pas vraiment la donne :
« Il est possible d’avoir une modération automatique, basée sur des mots-clés par exemple, qui va systématiser le contrôle. Le code pénal, qui définit le statut des correspondances privées, s’applique, mais il faut également prendre en compte les finalités d’un tel traitement.
Cela peut par exemple permettre au prestataire technique [ici, Facebook, ndlr] de ménager sa responsabilité : en France, on doit retirer un contenu manifestement illégal qui lui est signalé, y compris par un moyen automatique.
La question, c’est la transparence, savoir si Facebook a informé ses utilisateurs. »

Aucun commentaire:

Enregistrer un commentaire