Saisir l’essentiel avec Wordle

Wordle est un site qui permet de créer un nuage de mots à l’aide d’un texte ou d’une url. Il permet de mettre en évidence les mots et les thèmes récurrents le long d’un texte, d’un discours ou d’un article. Une façon d’aller rapidement à l’essentiel et de détacher les mots clés. On obtient parfois des résultats surprenants avec les discours de certains de nos hommes politiques…

Wordle permet en autre de générer un image avec de nombreuses polices, couleurs et organisations. Un brin esthétique.

Pratique, mais ne nous dispense en rien de lire un texte avec attention, sous peine de passer à coté du fond.

Publicités
Catégories :Liens utiles Étiquettes : , , ,

Qu’est ce que l’Open Data?

14 juin 2010 2 commentaires

L’Open Data est un sujet à la mode. Avec la récente délibération lors du Conseil Municipal de la ville de Paris (du 8 juin 2010) à propos de la diffusion des données publiques et l’adoption d’une résolution, le sujet est brûlant d’actualité.

Qu’est ce que l’Open Data?
Avant tout, il s’agit de définir l’Open Data, et de façon plus générale l’Open Knowledge. On peut déjà rassembler différentes notions (dont on pourrait traduire/franciser les noms bien qu’elles soient le plus souvent évoquées via leurs noms anglo-saxons) sous le nom d’Open Knowledge (Libre connaissance): l’Open Data (Données publiques/ouvertes), l’Open Content (Contenu libre) et l’Open Access/Services. L’Open Knowledge Foundation propose la définition suivante de « l’Open » (OKD) : une connaissance (une oeuvre, par exemple une musique, un livre, ou un film,  des données, par exemple une publication scientifique, un fait historique, une donnée géographique, une information gouvernementale ou une donnée administrative)  est « libre » (lire « Open » si vous êtes « adict » des anglicismes) si vous êtes libre de l’utiliser, la réutiliser et de la redistribuer, sous réserve d’en respecter la paternité et de la partager à l’identique (il y aussi d’autres subtilités comme l’absence de restriction technologique et autres que vous trouverez ici).

Cela nous rappelle assez clairement la définition de l’Open Source, et ça tombe bien puisque cela correspond aussi à 2 des 6 licences Creatives Commons (les deux dernières de la liste).

Quelle est la raison d’être de l’Open Knowledge?

Les défenseurs de l’Open Knowledge soutiennent que certaines données doivent être publiques dans l’intérêt général et pour le « plus grand bien ». Dans les faits, certaines données ne peuvent être considérées comme la propriété (intellectuelle) de quelqu’un, par exemple le génome humain (Kent, 2002), les faits historiques, les données géographiques, etc.

On retrouve la vieille opposition entre l’intérêt général qui suppose que la majeure partie des connaissances (exceptions faites des données personnelles, et de certaines technologies militaires) soient accessibles à tous (rendre le savoir universel, en médecine, en sciences, en mathématique, culture, etc) et l’intérêt privé qui cherche à valoriser ces mêmes connaissances (en contribuant à les produire et à les utiliser) et qui les protège via des brevets, des licences et des restrictions.

Quel est l’intérêt de l’Open Data/Knowledge?

Aujourd’hui l’OpenData, dans le cadre des grandes métropoles, des gouvernements, et des organismes publics de recherche, c’est en quelque sorte rendre accessible au citoyen les données publiques (qui il a souvent financé via ses impôts) sans le lui facturer (une deuxième fois).

C’est l’opportunité de développer des applications innovantes, d’améliorer les services et de créer de « la croissance » économique. C’est aussi une façon d’assurer la transparence publique, de créer une nouvelle sorte de gouvernance et de rapprocher l’état et ses citoyens.

Des exemples de par le monde :

Les exemples les plus récents et connus sont ceux des gouvernements américain et britannique (avec leur data.gov), et des grandes métropoles comme New York, San Francisco, Londres, Vancouver. Sous la pression de lobbys citoyens, les institutions ont rendu accessibles de nombreuses données (transports en communs, vélos, bureaux de vote, accessibilité des stations de métro, travaux en cours, etc.), qui sont utilisées aux travers d’applications innovantes (pour, par exemple, trouver un taxi, ou un quartier qui bouge, ou bien d’autres choses, ma préférée et la plus impressionnante étant Macrosense).

Des exemples en France :

En France, l’Open Data se met en place tranquillement, pour ne pas dire lentement. C’est l’APIE qui se charge de recenser les données publiques. Cependant, cette administration propose avant tout des licences propriétaires (voir la FAQ sur son site) dont le but est d’assurer le propriété intellectuelle des contenus, et donc logiquement de générer des revenus, au détriment des utilisateurs (citoyens ou entreprises qui ont parfois déjà financé ces données via leur impôts). C’est le cas avec les données de Météo France, ou les cartes de l’IGN ou du SHOM (voir cet article Etat des lieux de l’OpenData en France).

Pour ce qui est des réalisations, Rennes est la ville précurseur en la matière, avec depuis mars 2010 l’ouverture des données de l’opérateur de transport en commun Keolis Renne (voir ici). D’autres villes semblent vouloir suivre le mouvement d’ouverture des données publiques, comme à Paris (mais on est encore un peu loin de l’Open Data, voir ici).

Je vous conseille à ce sujet un article très intéressant du magazine numérique OWNI.

Comment traiter ces données?

La mise en place de l’OpenData, et cela semble évident pour des raisons d’inter-opérabilité et de portage, passe par la standardisation et l’utilisation de formats ouverts (voir définition ici). Face à l’immensité des métadonnées disponibles, des sites comme GapMinder permettent de traiter ces données et de générer ses propres graphiques.

OpenStreetMap

OpenStreetMap, un exemple populaire d’un travail libre et collaboratif

Un des exemple les plus connus (et parmi les plus utiles) de l’Open Data est le projet OpenStreetMap qui permet de contribuer grâce à vos propres enregistrements GPS à une base géographique libre. Ces cartes sont libres de droit (contrairement à celles de l’IGN ou celles du SHOM) et vous pouvez en toute liberté les reproduire, les modifier et les améliorer.

Enfin, nous pouvons faire une dernier clin d’oeil au site NosDéputés.fr qui récupère des informations publiques sur le site de l’Assemblée Nationale et du Journal Officiel pour rendre compte de l’activité de nos parlementaires.

Si le sujet de l’Open Data vous intéresse, vous trouverez d’autres articles sur le site RegardsCitoyens.org, sur le site de l’entreprise BearsTech et sur le blog Libertic.

Pourquoi il ne faut plus utiliser le (partage de fichiers via) peer to peer?

A priori, presque tout le monde (et à fortiori les amateurs de séries, de films et de musique) a déjà été amené à télécharger quelque chose (et si ce n’est pas vous, votre petite soeur ou votre fils l’ont fait pour vous) via peer to peer (P2P).

Le peer to peer (pair à pair en français), pour rappel, ce n’est pas un système de téléchargement mais une conception du réseau : le réseau est vue comme décentralisé, c’est à dire que chaque noeud (chaque pair) est à la fois client et serveur. C’est une conception du réseau à opposer au fonctionnement client vs. serveur.  Ses applications les plus connues sont le partage de fichiers (via différentes architectures, à l’origine centralisée avec Napster, puis décentralisée comme avec BitTorrent), la VoIP (par exemple avec le logiciel Skype) ou le calcul distribué (SETI@home, Folding@home).

Jusqu’à il y a peu, le téléchargement via peer to peer ne représentait pas de grands dangers (au niveau liberté individuelle, je parle pas des malwares, ou des virus) pour les utilisateurs car la mise en pratique pour les chercher/retrouver semblait plutôt ardue.

Il y a un mois une équipe de chercheurs de l’INRIA (Institut National de Recherche en Informatique et Automatique) a publié Bluebear, son outil de surveillance des réseaux peer to peer (non pas pour faire la chasse aux pirates mais pour sensibiliser les utilisateurs sur les risques d’atteinte à la vie privée sur BitTorrent). Vous trouverez le site du projet et les publications s’y rapportant ici.

L’abstract de leur article commence par « En utilisant cette faille pendant une période de 103 jours, nous avons collecté 148 millions d’IPs téléchargeant 2 milliards de copies de contenu. Nous avons identifié l’adresse IP des fournisseurs de contenu de 70% des fichiers de BitTorrent que nous avons espionné. Nous avons aussi montré que ce sont peu d’utilisateurs qui fournissent la majorité des fichiers initiaux de BitTorrent et que ces fournisseurs de contenu sont situés à l’étranger. » Le ton est donné, ça fait un peu/assez froid dans le dos, et ça leur fait une bonne publicité.

Le projet n’a rien de révolutionnaire en fait quand on y réfléchit bien : quand vous téléchargez un fichier (i.e. lorsque vous êtes un leecher, une sangsue) chez quelqu’un (une source, appelée seeder) via un torrent, il faut bien que vous puissiez trouver les adresses des personnes possédant le fichier (sinon comment télécharger?) : ceci ce fait via un tracker (un fichier hébergé sur un serveur, comme the PirateBay ou autre) qui montre qui possède quoi à l’instant t (qui est un seed (une source) ou un peer (pas toute la source, mais un bout de la source, comme la motié du film par exemple)).

Quand vous téléchargez un fichier, vous devenez vous aussi un peer (pendant le téléchargement) puis un seed (quand vous avez tout le fichier) : c’est le concept du BitTorrent. Vous êtes donc référencé par le tracker (serveur ayant la liste de tous les gens qui partagent un fichier).

Jusque là ça va?

En gros, si vous pouvez trouver les gens qui possèdent un fichier (pour le télécharger) pourquoi les gens qui cherchent ceux qui partagent (et ceux qui téléchargent aussi, voir remarque ci dessus) ne pourraient pas?

Bluebear, l’outil que vient de publier cette équipe de l’INRIA, est un outil de surveillance qui permet donc de démasquer les internautes qui téléchargent via peer to peer. Mais cet outil va plus loin, il permet :

  1. de trouver la première personne à partager le fichier (patient 0)
  2. d’identifier toutes les personnes (ip) qui partagent et/ou téléchargent un fichier
  3. d’identifier celles qui se cachent derrière un trafic détourné et crypté (comme Tor).

Pour identifier le premier fournisseur d’un fichier, Bluebear récupère en permanence la liste des nouveaux fichiers torrents sur les sites de partage (par exemple The PirateBay, MiniNova, etc), et se connecte ensuite immédiatement à ces nouveaux torrents (pour trouver l’IP du premier fournisseur, le patient 0). Une autre méthode pour identifier les fournisseurs si la précédente n’est pas possible (torrent privé devenu public, ou torrent en ligne depuis un certain temps) est de récupérer sur les sites webs/forums les nouveaux torrents et de les regrouper par nom d’utilisateur (login de l’uploader). Il recherche ensuite l’IP qui distribue le plus ces torrents, et par recoupement l’associe au login.

Pour identifier les personnes qui partagent et/ou téléchargent, les chercheurs ont d’abord récupéré la liste des identifiants uniques de chaque fichier partagé sur The PirateBay (via un des anciens trackers de The PirateBay). Une fois tout le catalogue récupéré, ils ont récupéré pour chaque fichier la liste des IP de chaque seeder et de chaque leecher, via le tracker et le client  BitTorrent de leur choix en faisait des requêtes de lancement et d’arrêt de partage jusqu’à ce qu’ils obtiennent 90% du nombre total de seeders et de leechers indiqués sur le tracker. L’étude précise que « Cette procédure prend aux alentours de 30 minutes pour entre 500 000 et 750 000 contenus ».

Enfin, pour identifier le trafic qui passe par Tor, il utilise une feinte sur les DHT (Distributed Hash Table), tables de routage distribuées, qui permettent de joindre de façon efficacement le pair lambda ayant le fichier mu sans avoir à connaitre tous les pairs et toutes leurs listes de fichiers. La DHT utilise le protocole UDP (User Datagram Protocol) qui lui n’est pas relayé par Tor. La véritable IP d’un pair apparait donc dans la DHT. Il suffit alors d’écouter la sortie d’un noeud Tor, et de rechercher ensuite dans la DHT le fichier observé en sortie du noeud pour l’associer à l’IP. Par ailleurs, une telle identification peut compromettre les autres trafics/flux passant par Tor (Web,HTTP,VoIP…) : il est facile de déterminer leur origine car ils empruntent tous le même chemin que BitTorrent (en gros ça veut dire coupez vos logiciels de peer to peer quand vous utilisez Tor).

Au final, tout cela pose un certain problème de confidentialité (même pour les fichiers légaux ou libres de droit) puisque n’importe qui peut savoir ce que vous téléchargez/partagez.

Si vous voulez en savoir plus vous pouvez consultez les articles suivant  :
http://www.korben.info/bluebear-bittorrent-p2p-inria.html
http://www.01net.com/editorial/516096/bluebear-la-surveillance-generalisee-de-bittorrent-est-possible/http://actualite.torrent-avenue.com/actualite/bluebear-surveillance-generale-bittorrent-possible

Vous pouvez retrouver le site du projet ici : http://www-sop.inria.fr/members/Arnaud.Legout/Projects/bluebear.html

Et les différentes publications de l’équipe de Arnaud Legout ici : http://hal.inria.fr/inria-00470324/en/, http://hal.inria.fr/inria-00471556/en/, http://hal.inria.fr/inria-00471556/en/ et http://hal.inria.fr/inria-00451282/en/.

Si vous voulez vous faire un peu peur ou jouer à super Hadopi, je vous conseille le site suivant qui vous présente un outil nommé bitAudit, comparable à BlueBear, et qui vous permet de traquer (pas de mauvais jeu de mot) les utilisateurs de bitTorrent sur les trackers publiques (en créant des logs des interactions clés au sein d’un essaim bitTorrent).

Pour ceux qui ne peuvent pas se passer de leur téléchargements (séries US super addictives par exemple), je vous conseille plutôt le téléchargement direct via des sites comme rapidshare, megaupload et hotfile. Vous pouvez retrouver des liens intéressants par exemple sur http://www.blogy.com.ar/.

Enfin, ces derniers temps je me suis fait la remarque suivante : la copie d’œuvres soumises au droit d’auteur sans l’autorisation de l’ayant droit est illégale … mais le nom et la taille d’un fichier ne sont en rien un preuve juridique du contenu du fichier. Donc en gros vous n’êtes pas en tort tant que vous n’avez pas téléchargé un fichier, tant que vous ne l’avez pas ouvert, et tant que vous n’avez pas constaté « ha oui c’est bien un fichier soumis au droit d’auteur ».

A bon entendeur, salut.

Signature numérique et certificat électronique

Dans le cadre de votre vie professionnelle, voir privée, vous êtes surement amené (ou dans un futur proche, vous serez surement amené) à recevoir de plus en plus de contrats sous forme électronique (format .pdf en général) : par exemple, un contrat de location à l’étranger ou un changement de contrat avec votre banque.

Comme vous l’avez remarqué, il assez fastidieux, voir absolument contraignant, d’imprimer les dits contrats, de les signer, puis de les envoyer par la poste avec accusé de réception.

Heureusement pour vous, depuis mars 2000, la loi française permet de signer électroniquement les documents, avec la même valeur juridique qu’une signature manuscrite (après je ne suis pas allé voir dans les détails).

La Loi c’est bien beau, mais comment cela se passe en en théorie?

En pratique la signature électronique doit remplir cinq critères : la signature doit être authentique (permet de retrouver l’identité du signataire), infalsifiable, non réutilisable (impossible de la déplacer sur un autre document), inaltérable (impossibilité de modifier le document signé) et irrévocable (impossibilité de nier la signature).

Concrètement, cela passe par de la cryptographie asymétrique : je ne vais pas vous raconter une histoire avec Alice et Bob (je comprends pas la manie de ces deux là à toujours vouloir échanger des messages pendant les explications sur la cryptographie et la sécurité), donc pour faire simple, à une message M, on applique une fonction f, dite fonction de hachage (MD5, SHA-1).

Cette fonction est généralement utilisée pour donner une empreinte, i.e. un identifiant à un message, en partant du fait que les collisions seront peu nombreuses (une collision, au passage, c’est quand deux messages M ont la même image par f, i.e. f non injective) et cela permet de gagner du temps/de l’argent (en gros vous lisez le nom du message plutôt que le message en entier pour l’identifier). Donc on fait s=f(M). Ce hash s, envoyé avec le message, permet donc de vérifier l’intégrité du message : vous recevez Mr et s, vous calculez f(Mr). si f(Mr)=s, le message n’a pas été modifié.

Cependant, cela ne garantit pas l’émetteur du message. Pour vérifier par qui a été envoyé/signé le message, on utilise un système clé publique/clé privée. L’émetteur crypte le hash avec sa clé privée c(s), et le destinataire décrypte avec la clé publique d(c(s))=s. En gros, je possède un seul cadenas, et j’envoie les clés à mes amis. Le hash envoyé porte un cadenas, si la clé de mon ami correspond au cadenas, c’est que je suis effectivement l’expéditeur.

Voilà pour la théorie.

Comment cela se passe t’il en pratique ?

En pratique, on utilise concrètement des certificats électroniques, dont le standard est X509.

Comme vous ne connaissez pas forcément la personne (le site, etc) avec qui vous voulez échanger, il est à priori assez compliqué d’échanger les clés ab initio. Pour cela vous allez faire appel à une tierce personne en qui vous avez confiance, l’autorité de certification (AC), qui va distribuer et vérifier des cartes d’identités : les certificats électroniques.

Quand Alice rencontre Bob (nous y voila, damn it), Alice demande ses papiers à Bob et vice versa, et ils vérifient tous deux auprès de la Police (autorité de certification), que les cartes d’identités sont conformes (je sais c’est une drôle de rencontre). Dans les faits, Alice et Bob utilisent le certificat de l’AC pour vérifier que leurs certificats respectifs sont intègres (même principe qu’expliqué ci-dessus).

Il existe différents types de certificats avec différents niveaux de sécurité (4 classes) : cela va de la simple vérification de validité d’un email, jusqu’à la vérification physique d’identité par l’autorité de certification.

Qui sont les autorités de certification ?

Les autorités de certification sont en général des entreprises privées (Verisign, GlobalSign, CertEurope, etc), des organismes publics (chambre  de commerce et de l’industrie, greffes des tribunaux de commerce, l’état espagnol ou belge, etc), des associations (CAcert), ou bien de simples particuliers, voir vous même dans le cadre de l’auto-signature.

La confiance dans un certificat dépend intrinsèquement de l’autorité de certification qui le délivre. Un certificat délivré par une autorité « publique » (celles citées précédemment) a plus de crédit que celui que je pourrais vous délivrer moi même. D’ailleurs, généralement, lors de votre navigation sur le web, si avez accédez à un site sécurisé, dont le certificat n’est pas valide ou dont vous ne connaissez pas l’autorité racine, votre navigateur vous renvoie un message d’alerte.

Avec quoi sont créés les certificats électroniques ?

Bonne question. Il ne s’agit pas d’une boite (complètement) opaque. Les certificats électroniques respectent un standard : le plus souvent le standard X509.

Pour créer simplement ces certificats, vous pouvez utiliser OpenSSL, le couteau suisse de votre ordinateur pour les questions de cryptographie : il sert pour tout, le plus souvent de façon transparente, par exemple lorsque vous vous connectez à un site en https (http sécurisé, via ssl), ou à votre boite mail avec le protocole imaps (imap via ssl).

Vous pouvez trouver des détails sur la création de certificats ici ou .

Vous pouvez trouver des infos simples et claires sur le SSL ici.

Dans quel cadre un certificat électronique est utile ?

Les certificats numériques sont utiles, vraiment utiles et vous vous en servez très fréquemment, et le plus souvent de façon transparente : par exemple lorsque vous vous connectez sur le site de votre banque, ou un site de e-commerce en https, etc. Il peuvent aussi être utilisés dans le cadre d’une authentification forte, ou pour signer des documents comme nous l’évoquions précédemment.

Comment se procurer un certificat?

Actuellement, ces moyens de signature numérique ne concernent majoritairement que les entreprises, et ils sont onéreux : pour se procurer un certificat, il faut faire une demande à une autorité de certification (AC).

Si par chance, vous êtes une entreprise, vous pouvez vous procurer un certificat auprès de la chambre  de commerce et de l’industrie (ChamberSign), auprès des greffes des tribunaux de commerce, ou auprès d’une entreprise privée (VerisignGlobalSignCertEurope, etc).

Si par malheur, vous êtes un particulier, ça se corse pour vous, et en plus ça risque de vous couter un bras si vous faites appel à une entreprise privée.

Contrairement à d’autres pays européens, l’Etat Français ne distribue pas encore de certificats électroniques à ses citoyens : en revanche, la Belgique et l’Espagne ont déjà instauré des cartes d’identité numériques, comportant un puce avec deux certificats électroniques X509, qui permettent à tous citoyens belges et espagnols de signer électroniquement et de s’authentifier en ligne (ceux-ci nécessitent cependant un lecteur de carte à puce).

Avec le développement des télé-services au sein de nos administrations (déclaration en ligne des revenus, etc), et l’augmentation du besoin d’identification forte sur le web et via les outils numériques, il probable que lors la prochaine décennie on voit l’arrivée de nouvelles cartes d’identité comprenant des certificats d’authentification délivrés par l’Etat.

En outre, il est cependant important de rappeler qu’un projet de carte d’identité électronique nommé INES (Identité Nationale Electronique Sécurisée) avait été élaboré en France dès 2003 : cependant celle ci devait aussi comporter des données biométriques et cela avait provoqué une levée de boucliers, et entrainé la suspension du projet.

Comment créer son propre certificat, ou être soi même autorité de certification ?

En attendant, vous pouvez créer vous même vos propres certificats (auto-signés) en utilisant OpenSSL, ou vous déclarer autorité de certification au sein de votre organisme, de votre institution, de votre entreprise ou de votre école si l’usage reste interne. Encore une fois je vous renvois ici ou .

Si le sujet vous intéresse, je vous conseille de lire un document du CNRS rédigé par Carine Bernard à propos de la signature électronique ici.

Logiciel libre, Open Source, GNU et autres joyeusetés.

Entre logiciel libre, Open Source, GNU, GPL, gratuiciel, etc, on a vite fait de se perdre. Pour ne pas perdre le Nord, et s’y retrouver un peu dans ce bazar, je vous propose de clarifier un peu le tout.

Pour commencer, qu’est ce que le logiciel libre ?

Le logiciel libre c’est un logiciel dont l’utilisation, l’étude, la modification, la copie et la diffusion sont autorisées sans contreparties.

schéma explicatif du logiciel libre

Pour garantir ces droits, en se basant le droit d’auteur, ces logiciels sont publiés sous des licences (autorisation unilatérale) dites libres : celles ci peuvent être de deux types : copyleft ou non-copyleft (par jeu de mot avec copyright). Une licence copyleft implique que ces droits soient préservés pour les logiciels dérivés. Une exemple populaire et bien connu est la licence GNU General Public License. Au contraire, la licence non-copyleft (comme la licence BSD par exemple) n’impose aucune restriction sur l’utilisation du logiciel, que ce soit vers des logiciels dérivés libres ou propriétaires.

Classification des licences

Par ailleurs, la liberté d’étude et de modification supposent implicitement d’avoir accès au code source du programme. Un logiciel libre est donc un logiciel Open Source.

Mais Open Source ne signifie pas seulement accès au code source : un logiciel définit comme Open Source doit répondre à 10 critères précis dont la libre redistribution, l’accès au code, la liberté de modification et de logiciels dérivés, la non restriction à un produit ou la neutralité technologique (vous trouverez la définition complète ici).

Mais alors où sont les différences entre logiciel libre et logiciel Open Source ?

Les différences sont faibles, voir techniquement infimes. Elles viennent historiquement d’une scission au sein de la communauté du logiciel libre, et donc d’une différence entre les définitions de la Free Software Foundation (crée par Richard Stallman autour du projet GNU) et de l’Open Source Initiative (autour du mouvement Open Source). Pour ne pas vous mentir, il s’agit en fait d’une belle petite guerre de paroisses.

Puisque on en parle, GNU c’est quoi ?

Pour rappel, le projet GNU est un projet de développement d’un système d’exploitation complet (type Unix) qui soit un logiciel libre. D’ailleurs, GNU est un acronyme signifiant GNU’s Not Unix.

Par opposition au logiciel libre, qu’est ce qu’un logiciel propriétaire ?

Un logiciel est dit propriétaire, ou privateur ou fermé si il ne respecte pas les 5 libertés de logiciel libre , à savoir utilisation, étude, modification, copie, diffusion.

Mais quel est le lien avec les logiciels gratuits et commerciaux ?

Et bien en fait, il n’y en a pas directement. De facto, l’accès aux sources, la libre utilisation, copie et diffusion font du logiciel libre un logiciel le plus souvent accessible gratuitement. On peut cependant rencontrer toutes les configurations : un logiciel libre dont l’accès (le support CD, clé USB, les services associés) est payant (par exemple la distribution RedHat de linux), un logiciel libre gratuit, un logiciel propriétaire gratuit (freeware), et une logiciel propriétaire et payant. Il faut bien comprendre que les concepts antinomiques sont libre/propriétaire (sur le terrain de la propriété intellectuelle et des libertés) et gratuit/payant (sur le terrain de la distribution et des aspects économiques), et que ceux ci ne se recoupent pas.

Pourquoi utiliser des logiciels libres ?

L’avantage du logiciel libre ne réside pas fondamentalement dans ses qualités techniques, mais avant tout dans les libertés qu’il permet. Le logiciel libre est, dans son aspect éthique, un bien commun crée dans l’intérêt général, et non pour servir des intérêts privés.

Au delà de cela, ce sont les communautés d’utilisateurs et de développeurs qui font la force d’un logiciel libre : ils assurent un suivi, des mises à jours, la sécurité avec la correction des failles et des bogues; il existe par ailleurs une large base d’utilisateur-testeur, aidant à l’amélioration du logiciel, et une relation utilisateur-développeur d’entraide. La force de cette communauté renforce la qualité technique du logiciel : plus de gens pour tester, vérifier, modifier, corriger et améliorer le code.

Une autre force des logiciels libres populaires (comme Mozilla Firefox, Thunderbird, et bien d’autres) est qu’ils sont le plus souvent disponibles sur de multiples plateformes (Windows, Mac OS X, GNU/Linux, etc).

Par ailleurs, dans la majorité des cas, les logiciels libres sont tournés vers les formats ouverts, qui ont une « vocation universelle » d’interopérabilité : plus de galère, entre vos différents ordis sous des OS différents si vous utilisez les mêmes programmes.

Mais comment les logiciels libres sont financés ?

Il faut aussi garder à l’esprit que le développement de logiciel à un coût : cela va s’en dire dans le cadre d’entreprises employant des programmeurs professionnels mais c’est aussi valable dans les cas où il s’agit de communautés de bénévoles. Dans ce dernier exemple de développement de logiciels libres, le fonctionnement des associations et des organisations, la promotion des produits, etc, ont un coût. Cela soulève de façon intéressante la problématique du modèle économique du logiciel libre et Open Source, et celui des SSLL (Sociétés de services en logiciels libres) : leurs modèles économiques sont avant tout liés à la notion de service comme la vente d’un savoir-faire et d’une expertise plutôt que à un droit d’usage sur un logiciel. Pour résumer le financement des logiciels libres se basent sur plusieurs aspects comme les services aux professionnels et aux particuliers (support, expertise, besoins spécifiques), les services en ligne, le mécénat, les bounties, la publicité et les dons.

Si le sujet vous intéresse et que vous voulez en savoir plus, je vous recommande de consulter le site de l’April (Association Pour la Recherche en Informatique Libre), association qui promeut et défend le logiciel libre.

Gérer son identité numérique sur internet

Après vous avoir parlé d’anonymat sur le web, voilà que je vais vous parler d’identité numérique.

Les deux notions sont loin d’être contradictoires, elles sont même complémentaires : à l’ère du numérique, il est tout aussi important de protéger vos informations personnelles et de maitriser des outils qui garantissent votre sécurité et vos libertés (anonymat, échange de fichiers, communications) que de pouvoir se promouvoir et partager (idées, tweets, photos, liens, CV, etc).

Pour cela, il faut gérer consciencieusement son identité numérique, c’est à dire choisir ce que l’on veut partager de sa vie privée et professionnelle, le circonscrire, et surtout choisir ce que l’on ne désire pas partager ou voir révéler aux yeux de tous. Cela peut vite relever de la quadrature du cercle si on ne fait pas preuve d’un peu de méthode.

Avant tout, vous devez identifier et cibler vos besoins : qu’est ce que je veux partager, pourquoi, et avec qui. Votre formation, vos activités, vous goûts, vos publications, vos relations, vos connaissances, vos réseaux, vos photos, etc, sont autant d’informations qui regroupées peuvent servir votre image. Cependant, elles peuvent aussi servir contre vous : le Figaro titrait en 2009 « Usurpation d’identité : plus de 210 000 victimes par an« . Plus encore, reliées entre elles, elles permettent de construire des graphes sociaux et relationnels, ce qui permet de décrire les positions sociales des individus et leur préoccupations : ce n’est pas sans intérêt marketing, commercial, voir policier (lire l’article du Monde ici).

Une fois identifiés vos besoins et cernées les limites de votre vie privée, choisissez vos canaux de diffusion. Blog, microblogging, réseaux sociaux, réseaux sociaux professionnels, sites de CV On Line, sites personnels, sites de photos, sites d’upload, serveurs de clés… Les moyens et les canaux sont nombreux, voir divers et variés : ils répondent à des besoins différents et sont souvent complémentaires.

Schéma résumant les différents supports de l'identité numérique sur le Web

Parmi les dizaines de comptes que vous possédez, je vous conseille d’en dresser une liste rigoureuse et de les relier entre eux. Une page centrale renvoyant vers toutes les autres est un point clé : par exemple, une page de blog qui renvoie vers toutes vos pages publiques. Cela permet à celui qui s’intéresse à vous (un internaute, un ami, un lecteur, un recruteur, votre patron, la DCRI …) de s’y retrouver, et cela vous permet de gérer l’information que vous diffusez. Par exemple, faites un tour sur Facebook, Twitter, LinkedIn, etc et vérifiez vos paramètres de confidentialité. N’y a t’il pas une photo de vous en train de sortir d’un bar à 4 pattes qui traine? Faites le ménage. Contrôlez votre information plutôt que de la subir.

Pour conclure, l’e-réputation est votre carte de visite de demain, il est bon de la soigner, sans cependant la travestir (vos informations seront vérifiées tôt ou tard, ou pas). Pour en savoir plus, sur la construction d’une identité numérique, je vous conseille l’excellent site You On The Web et son e-guide. Je vous recommande par ailleurs l’article du Monde « Vers une vie privée en réseau » de Jean-Marc Manach qui traite de la vie privée sur Internet.

Comment rester anonyme sur internet

Tout le monde laisse des traces sur internet . Entre autres, votre ip, votre dns, vos cookies, votre historique, votre navigateur et votre système d’exploitation sont facilement accessibles. Vous ne me croyez pas? Allez voir ici ou . Alors pour ce qui est du reste, il faudrait commencer à s’inquiéter…

Pour rester « relativement » anonyme, il existe deux solutions simples. Vous pouvez utiliser un proxy, ou bien utiliser Tor.

Utilisation d’un proxy :

Un proxy (serveur mandataire) est un relais entre vous et le serveur cible sur lequel vous voulez vous connecter. Il relaye vos paquets, et le serveur ne voit que lui. Vous pouvez en trouver une longue liste ici. Cependant, il garantit assez peu votre anonymat car les données sont le plus souvent transmises en clair, le proxy sait tout de vous (man in the middle) et en plus un simple code exécuté (du javascript par exemple) sur le client (vous) peut permettre de récupérer les données précédemment masquées (les entêtes que l’on veut cacher). Une démarche similaire peut consister à passer par un serveur VPN (virtual private network) mais ne modifie pas la liste des inconvénients. Pour plus d’information sur les VPN, je vous conseille ce site.

Pour éviter ces complications, vous pouvez par exemple utiliser Tor.

Logo de Tor

Utilisation de Tor :

Tor est un réseau de tunnels virtuels. Il permet de prendre un chemin détourné (routage sur plusieurs noeuds) pour se rendre sur un site web (i.e de dissimuler les entêtes, notre problème précédent) et en plus de crypter tous les paquets que vous envoyez entre vous et l’avant dernier noeud. En résumé, Tor vous protège de l’analyse de traffic. Il doit s’utiliser en complément d’outils gestion des cookies (qui peuvent vous trahir) par exemple le proxy web Privoxy. Cependant le simple fait d’installer Tor ne vous protège pas comme par magie. Il faut configurer les applications pour qu’elles utilisent Tor. Utiliser Firefox et TorButton est une bonne combinaison pour naviguer tranquille (cela va cependant désactiver les extensions javascript, flash, etc qui peuvent révéler des informations sur vous comme votre ip).

Pour en savoir plus sur Tor, je vous recommande le site officiel http://www.torproject.org/.

Bonne navigation.

Catégories :Sécurité, Web Étiquettes : , , , , ,