Archive

Archive for the ‘Informatique’ Category

XMind, un logiciel de mind mapping et de brainstorming

J’ai découvert en mai dernier XMind : c’est un petit logiciel open source de mind mapping édité par XMind Ltd. Après l’avoir utilisé à plusieurs reprises au cours des derniers mois, je suis convaincu de son potentiel et de son utilité (certains de mes camarades peuvent témoigner que je leur ai cassé les pieds avec) . Je vais donc vous le présenter plus en détail.

Le Mind Mapping, c’est quoi?

Tout d’abord, le Mind Mapping est souvent traduit en français par carte heuristique. C’est un joli mot mais à priori ça nous fait une belle jambe. Wikipedia, dans sa grande sagesse, nous rappelle que le mot heuristique vient « du grec ancien εὑρίσκω, eurisko, « je trouve » ». Il s’agit donc d’une carte d’idées ou carte mentale, ou encore carte conceptuelle ou schéma de pensée, qui est le plus souvent représenté(e) sous la forme d’une arborescence.

XMind est donc un logiciel qui permet de représenter très simplement ce genre de carte (voir ci dessous). Il est en particulier très utile pour organiser ses idées, préparer un projet, voir réaliser un brainstorming avec ses collègues.

 

Il peut permettre d’étayer une réunion ou un brainstorming en temps réel ou de réaliser facilement un petit compte rendu graphique. Pour ma part, je l’ai utilisé lors de mes différents stages pour faire la synthèse de réunions, pour m’aider à l’organisation et la présentation du travail mais aussi pour faciliter la gestion de projets en groupe.

En comparaison avec les autres logiciels de mind mapping (comme FreeMind ou MindManager), les points fort de XMind sont les suivants :

  • il est très simple de prise en main et quelques clics suffisent (majoritairement les boutons Enter et Tab) pour bâtir un arbre et l’organiser.
  • il est riche en options et en thèmes pour diversifier ses cartes (différentes structures de carte, icônes, flèches, structurations, mise en relief).
  • il est open source et multi-plateformes (et ça c’est déjà beaucoup) car écrit en Java et basé sur RCP (Eclipse Rich Client Platform).
  • le format est ouvert (format .xmind qui dérive du XML Document).
  • il est possible d’exporter ses cartes dans différents formats (Freemind, HTML, image .png et même en .pdf avec la version gratuite mais il faut ruser en utilisant l’imprimante virtuelle) et de les stocker/partager en ligne sur le site de XMind.
  • il est possible d’importer d’autre formats (Freemind, Mindmanager).

Enfin, ce logiciel a été primé à plusieurs reprises : il a été choisi comme « Eclipse RCP application 2008  » par la communauté de développeurs d’Eclipse, « Best project for academia 2009  » par la communauté de développeurs de SourceForge.net et séléctionné par PCWorld pour le « Productivity Software: Best of 2010 « .

Pour conclure, ce petit logiciel est très simple d’utilisation et très intéressant. Il peut vous offrir de nouveaux moyens pour développer vos idées, organiser votre travail ou illustrer une réunion. Je prends du plaisir à l’utiliser et je vous recommande vivement de le tester.

Vous pourrez télécharger XMind gratuitement sur xmind.net et trouver d’autres opinions sur ce logiciel ici et et des exemples de carte sur leur site.

Publicités
Catégories :Divers, Informatique

HTC Wildfire, un petit smartphone qui joue dans la cour des grands

30 octobre 2010 2 commentaires

Quand on dit smartphone, on pense d’abord à l’iPhone et à sa célèbre mouture numéro 4. En bon geek qui se respecte, j’ai été un inconditionnel de l’iPhone à ses débuts, mais après quelques mois, le désir de changement et de nouveauté s’est fait sentir.

Heureusement pour moi (ou malheureusement, c’est selon), ce dernier a succombé prématurément à ses blessures suite à une chute lors d’une soirée mouvementée. La question suivante s’est donc posée au smarthone-dépendant que je suis : dois-je réinvestir une somme prohibitive dans le grigri de la marque à la pomme ou me laisser tenter par les nouveautés des autres constructeurs?

J’ai finalement opté pour le taïwannais HTC et son smartphone HTC Wildfire. Le Wildfire, c’est le petit frère du HTC Desire, téléphone haut de gamme et concurrent direct de l’iPhone 4. A vrai dire, il n’a pas grand chose à envier à son grand frère, si ce n’est les détails techniques (comme le processeur, 528 MHz contre 1GHz, et la mémoire, 512 MB de ROM pour les deux et 384 MB de RAM pour le Wildfire contre 576 MB pour le Desire). Au niveau de la mémoire externe, il est équipé d’une carte microSD de 1875MB en série (et gère jusqu’à 32GB).

Au niveau de l’écran tactile, celui ci est plus que confortable (3.2″), même si il est légèrement plus petit que celui de l’iPhone (3.5″) et du HTC Desire (3.7″). Le tactile est un tout petit peu moins souple que sur l’iPhone mais en rien gênant. Vous devrez cependant faire attention avec vos gros doigts (tant que vous n’avez pas les paluches de Chabal, c’est bon). Je ne vais pas rentrer plus en détail dans les aspects techniques, ni faire de benchmarking, car vous trouverez toutes les caractéristiques techniques ici (à comparer avec celles du Desire ici et celles de l’iPhone 4 ici).

Une bonne nouvelle pour vous, c’est qu’il tourne sous Androïd 2.1 (Eclair) avec, confirmée par HTC (quelque part sur leur compte twitter… j’ai pas trouvé), une mise à jour vers Androïd 2.2 imminente (j’y ai cru aujourd’hui quand j’ai fait une mise à jour système mais apparemment non). Le bon coté, comparé à mon ancien iPhone, c’est que ça va vite et que ça gère le multi-tache (ne me parlez  pas de iOS4, sur un 3G ou 3GS, ça tue la bestiole). Au final,vous pouvez utiliser facilement plusieurs applications (4 ou 5, comme les mails, les widgets, FB, etc) sans ralentissement du téléphone.

Le deuxième bon point va à l’interface HTC sense (surcouche d’Androïd), très pratique et ergonomique, qui favorise « l’expérience tactile » (oui ce n’est pas de moi). On y retrouve les fameux widgets d’HTC. Ceux ci sont un vrai plus par rapport à l’iPhone et ses applications, surtout l’horloge météo, la barre de recherche google intégrée, FriendStream (mon préféré) un widget pour accéder en même temps à Facebook et Twitter, l’Agenda et les Actualités : plus besoin d’ouvrir une application, il suffit de glisser entre les différents écrans.

Un autre plus, dont je n’ai cependant pas trop l’utilité : le partage d’application; il est simplissime. Là, c’est à vous de convaincre vos copains d’acheter un HTC.

D’ailleurs, en parlant d’applications, vous trouverez tout le nécessaire sur l’Androïd Market, aussi simplement que sur l’iTunes Store. On y retrouve les grands succès de l’iTunes Store (AroundMe, SNCF Direct, Pages Jaunes, RATP, Air Controller, etc). Par ailleurs, je vous conseille d’installer, en plus des applications par défaut (GMail, YouTupe, GoogleMaps), l’excellent navigateur d’Opéra : OpéraMini.

Sinon, on va passer rapidement sur la connectique : Wifi IEEE 802.11 b/g (dommage pour le n), 3G, EDGE, GPRS, etc, rien que du bien classique (et normal) pour un smartphone. Il existe aussi une sortie jack 3,5mm pour les écouteurs (histoire de laisser tranquille votre voisin dans le métro ou le tramway) et une connectique microUSB (pour le connecter à l’ordinateur).

Au niveau de la batterie, il tient largement une journée en utilisation intensive et jusqu’à 5 jours sans les datas (quand vous êtes au milieu de nulle part par exemple).

De façon générale, il est d’une prise en main simple, mais tout de même un peu moins facile que celle de l’iPhone (il y a plus d’options et plus de possibilités de personnalisation). Pour la synchronisation, comme tout (mail, agenda, contact) passe par votre compte Google, plus besoin de le connecter à votre ordinateur. On regrette cependant que l’application HTC Sync (pour la musique et autre) ne soit disponible que pour Windows, et non pour Mac OS X ou Linux. Cela dit, vous n’avez pas besoin de cela (car le téléphone se monte comme une clé USB) pour ajouter de la musique et vous pouvez retrouver l’équivalent d’iTunes avec doubleTwist. On regrette aussi la synchronisation des signets, comme cela existe entre le Safari du Mac et celui de l’iPhone.

Pour conclure, le HTC Wildfire est un très bon produit et se classe très honorablement parmi les smartphones en cette fin de l’année 2010. Destiné à une clientèle plus jeune et moins fortunée (avec un prix nu autour de 250 euros et en dessous de 150 euros en renouvellement),  son prix en fait un smartphone abordable et très compétitif.

Catégories :Divers, Informatique, Smartphone

Ubuntu 10.10 Netbook Edition est arrivé.

15 octobre 2010 1 commentaire

Ça y est, la version 10.10 de Ubuntu (Maverick Meerkat) est arrivée : sortie le 10 octobre 2010 (101010, lire 42 en binaire) après plusieurs mois de travail, cette version amène quelques petites nouveautés.

Bien que ces temps ci je sois perdu au fond de la campagne et malgré une bande passante qui frôle le 56k, j’ai eu le plaisir de l’installer (et de la tester) pour vous.

En particulier, la version Ubuntu Netbook Edition. Elle change de sa grande sœur par sa nouvelle interface graphique, Unity : c’est, en gros, un interface très simplifiée, qui permet un accès rapide à internet et aux logiciels de base (Evolution pour les mails, Firefox pour la navigation, …). La barre de menu est verticale et placée par défaut sur la gauche : cela libère de la place sur la verticale pour profiter au maximum du petit écran de votre netbook. Elle a de plus été pensée pour être compatible avec les écrans tactiles.

Une petite astuce soit dite en passant : pour ajouter une icône sur le lanceur, lancer l’application, puis clic droit sur l’icône, et choisir « conserver dans le lanceur ». On va dire que j’ai cherché un petit moment… Pour supprimer, clic droit, « retirer du lanceur ». Et pour déplacer, un drag & drop, en passant par l’extérieur du lanceur.

Niveau réseaux sociaux, pas de grandes nouveautés par rapport à la vesion 10.04 LTS : Gwibber reste un client léger est simple pour consulter Twitter et d’autres réseaux.

On note par ailleurs une amélioration de Rhythmbox, qui ressemble de plus en plus à un iTunes pour Ubuntu : la Musique, les Podcasts, les Radios, les différentes boutiques en ligne, l’intégration de Ubuntu One, et la version 3 de la logithèque Ubuntu qui intègre des dépôts tiers, partenaires et propriétaires.

Pour conclure, Ubuntu Netbook Edition est une version pour les netbooks qui est : grand public, très pratique, facile de prise en main, ergonomique et rapide. Vous pouvez lire différents commentaires à son sujet ici et . Je ne peux que vous conseiller de la tester ou de faire la migration depuis votre version antérieure.

Catégories :Informatique Étiquettes : ,

Chiffrer son /home sous mac ou sous linux

Lorsqu’on a un accès physique à une machine, il est très facile d’avoir accès aux données présentes sur un ordinateur et sur ses disques durs. En effet, même lorsqu’on ne dispose pas du mot de passe de session, l’utilisation d’un bon live cd fait l’affaire : on démarre via le live cd, on « monte » le disque dur et le tour est presque joué.

Pour éviter quelques mauvaises surprises en cas de perte ou de vol de votre matériel, chiffrer ses partitions est un moyen efficace de se protéger et de protéger ses données. Evidemment, si on perd les clés, cela peut aussi poser quelques problèmes pour récupérer ses données.

Les solutions sont nombreuses, et elles ont chacune leurs avantages et leurs inconvénients. Vous pouvez choisir de chiffrer le disque en entier, certaines de vos partitions, votre swap et votre home, votre /home, ou juste certains dossiers ou fichiers. A chacun selon ses besoins…

Ici, je me propose de vous présenter deux solutions simples pour chiffrer votre dossier de départ ou /home/you sur Mac OS X et sur Ubuntu : une protection simple, relativement sure (bien sur les paranoïaques diront que c’est insuffisant mais on parle de protection de la vie privée, non de secrets d’état), qui chiffre et déchiffre à la volée et est relativement peu gourmande en ressources.

Chiffrer son dossier de départ son Mac OS X avec FileVault:

Sous Mac OS X, la solution est presque livrée clé en main avec l’outil FileVault : c’est un outil qui permet de chiffrer votre dossier de départ avec AES-128.

La mise en place est extrêmement simple : vous devez à priori vérifier que vous avez autant d’espace libre sur votre disque, que la taille de votre dossier de départ (en effet il va être copié). Ensuite, dans les préférences, choisir le menu sécurité, puis l’onglet FileVault. Définissez le mot de passe principal (un mot de passe filet de sécurité qui vous permettra de récupérer vos données si vous oubliez votre mot de passe de session). Cliquez, sur « Activer FileVault ». C’est gagné. Vous n’avez plus qu’à attendre, l’opération pouvant être relativement longue.

Pour plus de détails, vous trouverez la notice officiel en français sur le site d’Apple ici.

Cependant, FileVault permet seulement de chiffrer le dossier utilisateur et pas malheureusement le disque entier ou de simples fichiers ou dossiers. Il limite aussi les possibilités offertes par TimeMachine, le logiciel de sauvegarde automatique de Mac OS X: les sauvegardes ne sont plus effectuées fichiers par fichiers, avec sauvegarde des modifications, mais désormais en copiant le dossier protégé par FileVault en entier, ce qui à pour conséquence d’allonger le temps de sauvegarde et l’espace occupé par les sauvegardes.

Chiffrer son /home/me sous ubuntu:

Sous Ubuntu, choisir de chiffrer son /home lors de l’installation est encore plus trivial : il suffit de cocher « Demander mon mot de passe pour ouvrir une session et déchiffrer mon dossier personnel ». C’est tout (pour le moment).

Pour récupérer vos données, il vous faudra rentrer votre mot de passe de session (passphrase de login). C’est ce mot de masse qui sert à chiffrer la passphrase de montage (passphrase qui sert à chiffrer votre dossier). A l’image de mot de passe principal sous Mac OS X, il est bon de garder dans un coin votre passphrase de montage au cas où vous oublieriez votre mot de passe de session.

Pour récupérer cette passphrase de montage, ouvrez un terminal et tapez:

ecryptfs-unwrap-passphrase

Puis entrez la passphrase de login dans le shell. Gardez là dans un coin (pas sur un post-it sur l’écran!), on ne sait jamais.

Si vous désirez chiffrer votre /home après installation, les choses se compliquent (un peu).

Vous devez tout d’abord vérifier que vous disposez de beaucoup d’espace libre (2,5x la taille de votre dossier utilisateur, soit un /home/ remplissant au maximum 1/(1+2,5)=28,5% de la partition). Ensuite, installez le pacquet ecryptfs-utils :

sudo apt-get install ecryptfs-utils

Ensuite, vous devez exécuter le commande suivante, sans utiliser aucune ressource de l’utilisateur (pas même un shell), vous devez donc redémarrer, passer en TTY (Ctrl+Alt+F1), vous connecter en root et exécuter:

ecryptfs-migrate-home -u USER

Encore une fois, vous devez patienter un temps relativement long. Une fois terminé, vous pouvez vous connecter avec l’utilisateur et si tout c’est bien passé, ça marche nickel. En cas de pépins, vous aurez préalablement sauvegardé votre /home/you (hein!?) donc vous restez zen quoiqu’il arrive. Il ne vous reste plus qu’à effacer l’ancien dossier personnel (toujours en clair) qui est dans /home/USER.xxxxxx .

Je vous recommande vivement de lire un article très intéressant, détaillé et complet sur le chiffrement de votre dossier personnel sous Ubuntu sur le blog de Rom avant de réaliser cette opération. Vous pourrez alors saisir les détails, quelques subtilités et trouver des compléments (comment récupérer ses données chiffrer en montant son disque via un live cd et en entrant la passphrase de montage, etc).

Catégories :Informatique, Sécurité

Qu’est ce que l’Open Data?

14 juin 2010 2 commentaires

L’Open Data est un sujet à la mode. Avec la récente délibération lors du Conseil Municipal de la ville de Paris (du 8 juin 2010) à propos de la diffusion des données publiques et l’adoption d’une résolution, le sujet est brûlant d’actualité.

Qu’est ce que l’Open Data?
Avant tout, il s’agit de définir l’Open Data, et de façon plus générale l’Open Knowledge. On peut déjà rassembler différentes notions (dont on pourrait traduire/franciser les noms bien qu’elles soient le plus souvent évoquées via leurs noms anglo-saxons) sous le nom d’Open Knowledge (Libre connaissance): l’Open Data (Données publiques/ouvertes), l’Open Content (Contenu libre) et l’Open Access/Services. L’Open Knowledge Foundation propose la définition suivante de « l’Open » (OKD) : une connaissance (une oeuvre, par exemple une musique, un livre, ou un film,  des données, par exemple une publication scientifique, un fait historique, une donnée géographique, une information gouvernementale ou une donnée administrative)  est « libre » (lire « Open » si vous êtes « adict » des anglicismes) si vous êtes libre de l’utiliser, la réutiliser et de la redistribuer, sous réserve d’en respecter la paternité et de la partager à l’identique (il y aussi d’autres subtilités comme l’absence de restriction technologique et autres que vous trouverez ici).

Cela nous rappelle assez clairement la définition de l’Open Source, et ça tombe bien puisque cela correspond aussi à 2 des 6 licences Creatives Commons (les deux dernières de la liste).

Quelle est la raison d’être de l’Open Knowledge?

Les défenseurs de l’Open Knowledge soutiennent que certaines données doivent être publiques dans l’intérêt général et pour le « plus grand bien ». Dans les faits, certaines données ne peuvent être considérées comme la propriété (intellectuelle) de quelqu’un, par exemple le génome humain (Kent, 2002), les faits historiques, les données géographiques, etc.

On retrouve la vieille opposition entre l’intérêt général qui suppose que la majeure partie des connaissances (exceptions faites des données personnelles, et de certaines technologies militaires) soient accessibles à tous (rendre le savoir universel, en médecine, en sciences, en mathématique, culture, etc) et l’intérêt privé qui cherche à valoriser ces mêmes connaissances (en contribuant à les produire et à les utiliser) et qui les protège via des brevets, des licences et des restrictions.

Quel est l’intérêt de l’Open Data/Knowledge?

Aujourd’hui l’OpenData, dans le cadre des grandes métropoles, des gouvernements, et des organismes publics de recherche, c’est en quelque sorte rendre accessible au citoyen les données publiques (qui il a souvent financé via ses impôts) sans le lui facturer (une deuxième fois).

C’est l’opportunité de développer des applications innovantes, d’améliorer les services et de créer de « la croissance » économique. C’est aussi une façon d’assurer la transparence publique, de créer une nouvelle sorte de gouvernance et de rapprocher l’état et ses citoyens.

Des exemples de par le monde :

Les exemples les plus récents et connus sont ceux des gouvernements américain et britannique (avec leur data.gov), et des grandes métropoles comme New York, San Francisco, Londres, Vancouver. Sous la pression de lobbys citoyens, les institutions ont rendu accessibles de nombreuses données (transports en communs, vélos, bureaux de vote, accessibilité des stations de métro, travaux en cours, etc.), qui sont utilisées aux travers d’applications innovantes (pour, par exemple, trouver un taxi, ou un quartier qui bouge, ou bien d’autres choses, ma préférée et la plus impressionnante étant Macrosense).

Des exemples en France :

En France, l’Open Data se met en place tranquillement, pour ne pas dire lentement. C’est l’APIE qui se charge de recenser les données publiques. Cependant, cette administration propose avant tout des licences propriétaires (voir la FAQ sur son site) dont le but est d’assurer le propriété intellectuelle des contenus, et donc logiquement de générer des revenus, au détriment des utilisateurs (citoyens ou entreprises qui ont parfois déjà financé ces données via leur impôts). C’est le cas avec les données de Météo France, ou les cartes de l’IGN ou du SHOM (voir cet article Etat des lieux de l’OpenData en France).

Pour ce qui est des réalisations, Rennes est la ville précurseur en la matière, avec depuis mars 2010 l’ouverture des données de l’opérateur de transport en commun Keolis Renne (voir ici). D’autres villes semblent vouloir suivre le mouvement d’ouverture des données publiques, comme à Paris (mais on est encore un peu loin de l’Open Data, voir ici).

Je vous conseille à ce sujet un article très intéressant du magazine numérique OWNI.

Comment traiter ces données?

La mise en place de l’OpenData, et cela semble évident pour des raisons d’inter-opérabilité et de portage, passe par la standardisation et l’utilisation de formats ouverts (voir définition ici). Face à l’immensité des métadonnées disponibles, des sites comme GapMinder permettent de traiter ces données et de générer ses propres graphiques.

OpenStreetMap

OpenStreetMap, un exemple populaire d’un travail libre et collaboratif

Un des exemple les plus connus (et parmi les plus utiles) de l’Open Data est le projet OpenStreetMap qui permet de contribuer grâce à vos propres enregistrements GPS à une base géographique libre. Ces cartes sont libres de droit (contrairement à celles de l’IGN ou celles du SHOM) et vous pouvez en toute liberté les reproduire, les modifier et les améliorer.

Enfin, nous pouvons faire une dernier clin d’oeil au site NosDéputés.fr qui récupère des informations publiques sur le site de l’Assemblée Nationale et du Journal Officiel pour rendre compte de l’activité de nos parlementaires.

Si le sujet de l’Open Data vous intéresse, vous trouverez d’autres articles sur le site RegardsCitoyens.org, sur le site de l’entreprise BearsTech et sur le blog Libertic.

Pourquoi il ne faut plus utiliser le (partage de fichiers via) peer to peer?

A priori, presque tout le monde (et à fortiori les amateurs de séries, de films et de musique) a déjà été amené à télécharger quelque chose (et si ce n’est pas vous, votre petite soeur ou votre fils l’ont fait pour vous) via peer to peer (P2P).

Le peer to peer (pair à pair en français), pour rappel, ce n’est pas un système de téléchargement mais une conception du réseau : le réseau est vue comme décentralisé, c’est à dire que chaque noeud (chaque pair) est à la fois client et serveur. C’est une conception du réseau à opposer au fonctionnement client vs. serveur.  Ses applications les plus connues sont le partage de fichiers (via différentes architectures, à l’origine centralisée avec Napster, puis décentralisée comme avec BitTorrent), la VoIP (par exemple avec le logiciel Skype) ou le calcul distribué (SETI@home, Folding@home).

Jusqu’à il y a peu, le téléchargement via peer to peer ne représentait pas de grands dangers (au niveau liberté individuelle, je parle pas des malwares, ou des virus) pour les utilisateurs car la mise en pratique pour les chercher/retrouver semblait plutôt ardue.

Il y a un mois une équipe de chercheurs de l’INRIA (Institut National de Recherche en Informatique et Automatique) a publié Bluebear, son outil de surveillance des réseaux peer to peer (non pas pour faire la chasse aux pirates mais pour sensibiliser les utilisateurs sur les risques d’atteinte à la vie privée sur BitTorrent). Vous trouverez le site du projet et les publications s’y rapportant ici.

L’abstract de leur article commence par « En utilisant cette faille pendant une période de 103 jours, nous avons collecté 148 millions d’IPs téléchargeant 2 milliards de copies de contenu. Nous avons identifié l’adresse IP des fournisseurs de contenu de 70% des fichiers de BitTorrent que nous avons espionné. Nous avons aussi montré que ce sont peu d’utilisateurs qui fournissent la majorité des fichiers initiaux de BitTorrent et que ces fournisseurs de contenu sont situés à l’étranger. » Le ton est donné, ça fait un peu/assez froid dans le dos, et ça leur fait une bonne publicité.

Le projet n’a rien de révolutionnaire en fait quand on y réfléchit bien : quand vous téléchargez un fichier (i.e. lorsque vous êtes un leecher, une sangsue) chez quelqu’un (une source, appelée seeder) via un torrent, il faut bien que vous puissiez trouver les adresses des personnes possédant le fichier (sinon comment télécharger?) : ceci ce fait via un tracker (un fichier hébergé sur un serveur, comme the PirateBay ou autre) qui montre qui possède quoi à l’instant t (qui est un seed (une source) ou un peer (pas toute la source, mais un bout de la source, comme la motié du film par exemple)).

Quand vous téléchargez un fichier, vous devenez vous aussi un peer (pendant le téléchargement) puis un seed (quand vous avez tout le fichier) : c’est le concept du BitTorrent. Vous êtes donc référencé par le tracker (serveur ayant la liste de tous les gens qui partagent un fichier).

Jusque là ça va?

En gros, si vous pouvez trouver les gens qui possèdent un fichier (pour le télécharger) pourquoi les gens qui cherchent ceux qui partagent (et ceux qui téléchargent aussi, voir remarque ci dessus) ne pourraient pas?

Bluebear, l’outil que vient de publier cette équipe de l’INRIA, est un outil de surveillance qui permet donc de démasquer les internautes qui téléchargent via peer to peer. Mais cet outil va plus loin, il permet :

  1. de trouver la première personne à partager le fichier (patient 0)
  2. d’identifier toutes les personnes (ip) qui partagent et/ou téléchargent un fichier
  3. d’identifier celles qui se cachent derrière un trafic détourné et crypté (comme Tor).

Pour identifier le premier fournisseur d’un fichier, Bluebear récupère en permanence la liste des nouveaux fichiers torrents sur les sites de partage (par exemple The PirateBay, MiniNova, etc), et se connecte ensuite immédiatement à ces nouveaux torrents (pour trouver l’IP du premier fournisseur, le patient 0). Une autre méthode pour identifier les fournisseurs si la précédente n’est pas possible (torrent privé devenu public, ou torrent en ligne depuis un certain temps) est de récupérer sur les sites webs/forums les nouveaux torrents et de les regrouper par nom d’utilisateur (login de l’uploader). Il recherche ensuite l’IP qui distribue le plus ces torrents, et par recoupement l’associe au login.

Pour identifier les personnes qui partagent et/ou téléchargent, les chercheurs ont d’abord récupéré la liste des identifiants uniques de chaque fichier partagé sur The PirateBay (via un des anciens trackers de The PirateBay). Une fois tout le catalogue récupéré, ils ont récupéré pour chaque fichier la liste des IP de chaque seeder et de chaque leecher, via le tracker et le client  BitTorrent de leur choix en faisait des requêtes de lancement et d’arrêt de partage jusqu’à ce qu’ils obtiennent 90% du nombre total de seeders et de leechers indiqués sur le tracker. L’étude précise que « Cette procédure prend aux alentours de 30 minutes pour entre 500 000 et 750 000 contenus ».

Enfin, pour identifier le trafic qui passe par Tor, il utilise une feinte sur les DHT (Distributed Hash Table), tables de routage distribuées, qui permettent de joindre de façon efficacement le pair lambda ayant le fichier mu sans avoir à connaitre tous les pairs et toutes leurs listes de fichiers. La DHT utilise le protocole UDP (User Datagram Protocol) qui lui n’est pas relayé par Tor. La véritable IP d’un pair apparait donc dans la DHT. Il suffit alors d’écouter la sortie d’un noeud Tor, et de rechercher ensuite dans la DHT le fichier observé en sortie du noeud pour l’associer à l’IP. Par ailleurs, une telle identification peut compromettre les autres trafics/flux passant par Tor (Web,HTTP,VoIP…) : il est facile de déterminer leur origine car ils empruntent tous le même chemin que BitTorrent (en gros ça veut dire coupez vos logiciels de peer to peer quand vous utilisez Tor).

Au final, tout cela pose un certain problème de confidentialité (même pour les fichiers légaux ou libres de droit) puisque n’importe qui peut savoir ce que vous téléchargez/partagez.

Si vous voulez en savoir plus vous pouvez consultez les articles suivant  :
http://www.korben.info/bluebear-bittorrent-p2p-inria.html
http://www.01net.com/editorial/516096/bluebear-la-surveillance-generalisee-de-bittorrent-est-possible/http://actualite.torrent-avenue.com/actualite/bluebear-surveillance-generale-bittorrent-possible

Vous pouvez retrouver le site du projet ici : http://www-sop.inria.fr/members/Arnaud.Legout/Projects/bluebear.html

Et les différentes publications de l’équipe de Arnaud Legout ici : http://hal.inria.fr/inria-00470324/en/, http://hal.inria.fr/inria-00471556/en/, http://hal.inria.fr/inria-00471556/en/ et http://hal.inria.fr/inria-00451282/en/.

Si vous voulez vous faire un peu peur ou jouer à super Hadopi, je vous conseille le site suivant qui vous présente un outil nommé bitAudit, comparable à BlueBear, et qui vous permet de traquer (pas de mauvais jeu de mot) les utilisateurs de bitTorrent sur les trackers publiques (en créant des logs des interactions clés au sein d’un essaim bitTorrent).

Pour ceux qui ne peuvent pas se passer de leur téléchargements (séries US super addictives par exemple), je vous conseille plutôt le téléchargement direct via des sites comme rapidshare, megaupload et hotfile. Vous pouvez retrouver des liens intéressants par exemple sur http://www.blogy.com.ar/.

Enfin, ces derniers temps je me suis fait la remarque suivante : la copie d’œuvres soumises au droit d’auteur sans l’autorisation de l’ayant droit est illégale … mais le nom et la taille d’un fichier ne sont en rien un preuve juridique du contenu du fichier. Donc en gros vous n’êtes pas en tort tant que vous n’avez pas téléchargé un fichier, tant que vous ne l’avez pas ouvert, et tant que vous n’avez pas constaté « ha oui c’est bien un fichier soumis au droit d’auteur ».

A bon entendeur, salut.

Signature numérique et certificat électronique

Dans le cadre de votre vie professionnelle, voir privée, vous êtes surement amené (ou dans un futur proche, vous serez surement amené) à recevoir de plus en plus de contrats sous forme électronique (format .pdf en général) : par exemple, un contrat de location à l’étranger ou un changement de contrat avec votre banque.

Comme vous l’avez remarqué, il assez fastidieux, voir absolument contraignant, d’imprimer les dits contrats, de les signer, puis de les envoyer par la poste avec accusé de réception.

Heureusement pour vous, depuis mars 2000, la loi française permet de signer électroniquement les documents, avec la même valeur juridique qu’une signature manuscrite (après je ne suis pas allé voir dans les détails).

La Loi c’est bien beau, mais comment cela se passe en en théorie?

En pratique la signature électronique doit remplir cinq critères : la signature doit être authentique (permet de retrouver l’identité du signataire), infalsifiable, non réutilisable (impossible de la déplacer sur un autre document), inaltérable (impossibilité de modifier le document signé) et irrévocable (impossibilité de nier la signature).

Concrètement, cela passe par de la cryptographie asymétrique : je ne vais pas vous raconter une histoire avec Alice et Bob (je comprends pas la manie de ces deux là à toujours vouloir échanger des messages pendant les explications sur la cryptographie et la sécurité), donc pour faire simple, à une message M, on applique une fonction f, dite fonction de hachage (MD5, SHA-1).

Cette fonction est généralement utilisée pour donner une empreinte, i.e. un identifiant à un message, en partant du fait que les collisions seront peu nombreuses (une collision, au passage, c’est quand deux messages M ont la même image par f, i.e. f non injective) et cela permet de gagner du temps/de l’argent (en gros vous lisez le nom du message plutôt que le message en entier pour l’identifier). Donc on fait s=f(M). Ce hash s, envoyé avec le message, permet donc de vérifier l’intégrité du message : vous recevez Mr et s, vous calculez f(Mr). si f(Mr)=s, le message n’a pas été modifié.

Cependant, cela ne garantit pas l’émetteur du message. Pour vérifier par qui a été envoyé/signé le message, on utilise un système clé publique/clé privée. L’émetteur crypte le hash avec sa clé privée c(s), et le destinataire décrypte avec la clé publique d(c(s))=s. En gros, je possède un seul cadenas, et j’envoie les clés à mes amis. Le hash envoyé porte un cadenas, si la clé de mon ami correspond au cadenas, c’est que je suis effectivement l’expéditeur.

Voilà pour la théorie.

Comment cela se passe t’il en pratique ?

En pratique, on utilise concrètement des certificats électroniques, dont le standard est X509.

Comme vous ne connaissez pas forcément la personne (le site, etc) avec qui vous voulez échanger, il est à priori assez compliqué d’échanger les clés ab initio. Pour cela vous allez faire appel à une tierce personne en qui vous avez confiance, l’autorité de certification (AC), qui va distribuer et vérifier des cartes d’identités : les certificats électroniques.

Quand Alice rencontre Bob (nous y voila, damn it), Alice demande ses papiers à Bob et vice versa, et ils vérifient tous deux auprès de la Police (autorité de certification), que les cartes d’identités sont conformes (je sais c’est une drôle de rencontre). Dans les faits, Alice et Bob utilisent le certificat de l’AC pour vérifier que leurs certificats respectifs sont intègres (même principe qu’expliqué ci-dessus).

Il existe différents types de certificats avec différents niveaux de sécurité (4 classes) : cela va de la simple vérification de validité d’un email, jusqu’à la vérification physique d’identité par l’autorité de certification.

Qui sont les autorités de certification ?

Les autorités de certification sont en général des entreprises privées (Verisign, GlobalSign, CertEurope, etc), des organismes publics (chambre  de commerce et de l’industrie, greffes des tribunaux de commerce, l’état espagnol ou belge, etc), des associations (CAcert), ou bien de simples particuliers, voir vous même dans le cadre de l’auto-signature.

La confiance dans un certificat dépend intrinsèquement de l’autorité de certification qui le délivre. Un certificat délivré par une autorité « publique » (celles citées précédemment) a plus de crédit que celui que je pourrais vous délivrer moi même. D’ailleurs, généralement, lors de votre navigation sur le web, si avez accédez à un site sécurisé, dont le certificat n’est pas valide ou dont vous ne connaissez pas l’autorité racine, votre navigateur vous renvoie un message d’alerte.

Avec quoi sont créés les certificats électroniques ?

Bonne question. Il ne s’agit pas d’une boite (complètement) opaque. Les certificats électroniques respectent un standard : le plus souvent le standard X509.

Pour créer simplement ces certificats, vous pouvez utiliser OpenSSL, le couteau suisse de votre ordinateur pour les questions de cryptographie : il sert pour tout, le plus souvent de façon transparente, par exemple lorsque vous vous connectez à un site en https (http sécurisé, via ssl), ou à votre boite mail avec le protocole imaps (imap via ssl).

Vous pouvez trouver des détails sur la création de certificats ici ou .

Vous pouvez trouver des infos simples et claires sur le SSL ici.

Dans quel cadre un certificat électronique est utile ?

Les certificats numériques sont utiles, vraiment utiles et vous vous en servez très fréquemment, et le plus souvent de façon transparente : par exemple lorsque vous vous connectez sur le site de votre banque, ou un site de e-commerce en https, etc. Il peuvent aussi être utilisés dans le cadre d’une authentification forte, ou pour signer des documents comme nous l’évoquions précédemment.

Comment se procurer un certificat?

Actuellement, ces moyens de signature numérique ne concernent majoritairement que les entreprises, et ils sont onéreux : pour se procurer un certificat, il faut faire une demande à une autorité de certification (AC).

Si par chance, vous êtes une entreprise, vous pouvez vous procurer un certificat auprès de la chambre  de commerce et de l’industrie (ChamberSign), auprès des greffes des tribunaux de commerce, ou auprès d’une entreprise privée (VerisignGlobalSignCertEurope, etc).

Si par malheur, vous êtes un particulier, ça se corse pour vous, et en plus ça risque de vous couter un bras si vous faites appel à une entreprise privée.

Contrairement à d’autres pays européens, l’Etat Français ne distribue pas encore de certificats électroniques à ses citoyens : en revanche, la Belgique et l’Espagne ont déjà instauré des cartes d’identité numériques, comportant un puce avec deux certificats électroniques X509, qui permettent à tous citoyens belges et espagnols de signer électroniquement et de s’authentifier en ligne (ceux-ci nécessitent cependant un lecteur de carte à puce).

Avec le développement des télé-services au sein de nos administrations (déclaration en ligne des revenus, etc), et l’augmentation du besoin d’identification forte sur le web et via les outils numériques, il probable que lors la prochaine décennie on voit l’arrivée de nouvelles cartes d’identité comprenant des certificats d’authentification délivrés par l’Etat.

En outre, il est cependant important de rappeler qu’un projet de carte d’identité électronique nommé INES (Identité Nationale Electronique Sécurisée) avait été élaboré en France dès 2003 : cependant celle ci devait aussi comporter des données biométriques et cela avait provoqué une levée de boucliers, et entrainé la suspension du projet.

Comment créer son propre certificat, ou être soi même autorité de certification ?

En attendant, vous pouvez créer vous même vos propres certificats (auto-signés) en utilisant OpenSSL, ou vous déclarer autorité de certification au sein de votre organisme, de votre institution, de votre entreprise ou de votre école si l’usage reste interne. Encore une fois je vous renvois ici ou .

Si le sujet vous intéresse, je vous conseille de lire un document du CNRS rédigé par Carine Bernard à propos de la signature électronique ici.