OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Promouvoir le logiciel libre dès la maternelle http://owni.fr/2011/01/20/promouvoir-le-logiciel-libre-des-la-maternelle/ http://owni.fr/2011/01/20/promouvoir-le-logiciel-libre-des-la-maternelle/#comments Thu, 20 Jan 2011 12:30:29 +0000 Simon Descarpentries (Framablog) http://owni.fr/?p=43139 Il y a quelques temps nous recevions une question fort pertinente via le formulaire de contact du Framablog. Une question du genre de celles dont on n’improvise pas la réponse dans la foulée, et il arrive alors que les réponses se fassent attendre un moment. Toutefois, les réponses une fois construites peuvent valoir le coup d’être partagées… [1]

Le plus facile, en matière de réponses, est de demander à ceux qui savent. Et les forums sont là pour ça. Mais pour aider dans le processus, la piqûre de rappel est un instrument qui se révèle efficace, et ainsi, le jeune père d’élève dont émanait la question, croisé samedi dernier au cours de l’une des nombreuses manifestations d’opposition à la LOPPSI qui animèrent le pays, en usa avec talent…

Pour la petite histoire, c’est un candidat aux élections de parents d’élèves de son école qui posa la question et c’est entre autre à un élu que s’adresse cette réponse, avec toutes nos félicitations et nos encouragements.

La question se présentait de la manière suivante :

Bonjour
Je vais me présenter aux élections de parents d’élève pour ma fille de 3 ans, en maternelle des petits. J’ai souvent lu des articles très intéressants sur le libre à l’école dans le Framablog et je suis moi même pirate et libriste. Je me demande si vous pourriez me conseiller sur, au niveau maternelle des petits, quels sont les actions que je pourrais tenter et sensibilisations que je pourrais entreprendre au niveau de l’école et de la municipalité, depuis ce poste de représentant des parents d’élèves. […]

La réponse que nous avons à lui fournir, dans la droite lignée de la catégorie Éducation de ce blog, émane d’un directeur d’école et animateur TICE. Il l’a découpée en quatre volets que voici.

Des difficultés

À l’école, l’informatique pour les élèves ce sont les TICE (Technologie de l’Information et de la Communication à l’École) parfois appelées TUIC (« U » pour « usuelle »).

Eh bien les TICE, le matériel informatique, ne sont plus mentionnés pour le cycle maternel dans les programmes 2008 de l’Éducation Nationale. Pas interdits, mais pas mentionnés : même pas comme exemple de support d’écrit.

Le niveau de maîtrise de l’outil informatique est très inégal parmi les enseignant(e)s de maternelle.

La dotation en matériel, pour les écoles maternelles et élémentaires, est du ressort de la municipalité. Les écoles maternelles sont souvent les parents pauvres en matière d’équipement informatique : souvent un poste pour la direction d’école… et c’est tout. Les parents d’élèves peuvent apporter leur concours en trouvant du matériel de récupération.

Des aides

Une remarque préalable : les enseignant(e)s sont responsables de leur pédagogie. On peut les aider, voire les inciter, mais en aucun cas les contraindre à faire utiliser l’outil informatique par les élèves.

Le mode de fonctionnement de la plupart des classes maternelles (en ateliers à certains moments) est favorable à l’utilisation de postes, par petits groupes, parmi d’autres activités. Il est nécessaire que le matériel soit fiable, et que les logiciels soient adaptés pour permettre rapidement une autonomie des élèves à cet atelier.

Dans de nombreuses circonscriptions, il existe un animateur TICE : un enseignant partiellement détaché. Parmi ces missions, il doit apporter son concours aux enseignants désirant mettre en œuvre une pédagogie utilisant les TICE. Il serait judicieux de se rapprocher de lui.

Il existe des packs logiciels (regroupant système d’exploitation et logiciels ludo-éducatifs) très bien conçus, et utilisables dès la maternelle à l’école ou à la maison. Ils se présentent sous forme de live-CD (on fait démarrer la machine sur le lecteur de cédérom) et on est assuré que les données contenues sur le disque dur ne risquent rien. Pratique pour l’ordinateur familial. On peut aussi les copier sur une clé USB, et la rendre amorçable [2]. On peut enfin les copier sur le disque dur à la place du système d’exploitation déjà existant (intéressant dans le cas d’une vieille machine un peu à bout de souffle).

Des réalisations très intéressantes

Il existe aussi la version monoposte d’AbulEdu (notice Framasoft), l’excellent FramaDVD École (page projet) et enfin de très nombreuses applications pédagogiques libres fonctionnant sous Windows.

Une remarque pour finir

Il me semble très maladroit de se présenter comme «  pirate et libriste ». Ça ne peut que renforcer la confusion dans l’esprit de certains, qui assimilent les deux termes. Ça ne peut que rendre plus difficile votre démarche d’aide aux équipes enseignantes.

Soyons clairs : le piratage à l’école… on n’en veut pas.

Pour des raisons éthiques : nous avons une mission d’éducation civique et morale. Tricher, voler, utiliser des logiciels piratés est en contradiction totale avec une démarche éducative.

Item 2.3 du Brevet Informatique et Internet (B2i)
Si je souhaite récupérer un document, je vérifie que j’ai le droit de l’utiliser et à quelles conditions.

Pour des raisons militantes : on sait bien que les pirates de logiciels font le jeu des maisons d’édition en renforçant la présence de leurs produits, en les rendant plus utilisés, donc plus désirables.

Soyons fiers des logiciels libres !

Article initialement publié sur Framablog.com

Crédits photo Flickr CC : Stéfan / _O2_ / harry.f

]]>
http://owni.fr/2011/01/20/promouvoir-le-logiciel-libre-des-la-maternelle/feed/ 5
Le logiciel libre à l’ère du développement durable http://owni.fr/2010/11/19/le-logiciel-libre-a-lere-du-developpement-durable-green-it-open-source/ http://owni.fr/2010/11/19/le-logiciel-libre-a-lere-du-developpement-durable-green-it-open-source/#comments Fri, 19 Nov 2010 07:30:40 +0000 Simon Descarpentries (Framablog) http://owni.fr/?p=36056

Au détour d’une conférence sur les tendances 2010 de l’Open Source à l’OpenWorldForum, j’ai assisté à la présentation, captivante, des enjeux croisés de l’écologie et du logiciel libre, résumé en « FreenIT » par un duo peu ordinaire. En effet, l’un s’annonce comme journaliste et passionné d’environnement et l’autre (respectivement) comme ingénieur expert en « innovation ouverte et logiciel libre ». Leur présentation s’attachait à mettre en valeur les avantages intrinsèques des logiciels libres dans la quête d’une informatique écologiquement responsable vers laquelle l’industrie et les grandes entreprises se tournent enfin.

Enthousiasmé par leur démonstration, je pris contact avec eux à l’issue de la présentation, pour évoquer la possibilité de faire passer leur message jusqu’à vous chers lecteurs, dans la droite lignée de nos explorations de la société, à la recherche des applications de la culture du libre. Après les « AMAP », qui mettent de l’écologie dans les assiettes de collectifs qui s’auto-organisent pour échapper aux injonctions des grandes surfaces, voici donc le « Green IT » qui met de l’écologie derrière nos écrans.

On retrouve, dans ce texte de synthèse rédigé pour le Framablog, les notions clés du succès en matière de développement durable, tel que le fameux « penser global, agir local », que l’on retrouve dans le logiciel libre sous la forme d’un « bidouiller dans son coin, et penser aux autres », ou encore une évocation du « leadership par l’exemple » qui prévalut dès le début en matière politique sur Internet, cet espèce de laisser-faire, un peu utopique, sans laisser-aller. Enfin, je citerai encore la notion d’énergie grise, qui vient malheureusement contrebalancer les discours commerciaux des fabriquants en matière de décroissance de la consommation énergétique des nouvelles générations de composants informatiques.

Logiciel libre et Green IT : même combat ?

Les connaissances des communautés open source et les principales caractéristiques des logiciels libres sont particulièrement bien adaptées à la profondeur et à l’urgence des enjeux du développement durable. Démonstration.

L’humanité fait face à trois problèmes environnementaux majeurs : le dérèglement climatique, l’écroulement de la biodiversité et l’épuisement des stocks de ressources non renouvelables. La prise de conscience a été (trop) longue, et l’urgence aujourd’hui est réelle : nous n’avons qu’une génération pour trouver et mettre en œuvre les solutions à ces défis. Quel rapport entre ce constat, iconifié par des personnages tels que le Commandant Cousteau, Al Gore ou Nicolas Hulot, et notre quotidien d’informaticiens ? Que peuvent les geeks face à ces enjeux planétaires ?

Toujours poussés plus loin vers les mondes virtuels, nous avons tendance à oublier qu’octets et instructions consomment substrats et énergie. Une consommation qui se traduit par des nuisances que notre écosystème ne peut pas absorber indéfiniment. Les informaticiens peuvent, s’ils le souhaitent, réduire rapidement l’empreinte de l’informatique sur l’environnement. Mais plus encore, la communauté du logiciel libre détient des savoirs transversaux qui font défaut aux acteurs du développement durable. Explication.

Freen IT as in Free & Green IT

Le courant de pensée du “green IT”  cherche à réduire l’empreinte écologique des technologies de l’information et de la communication (TIC). Pour réduire l’empreinte des TIC, il faut se concentrer sur l’essentiel. Contrairement au discours marketing des éditeurs et des constructeurs, les phases de fabrication et de fin de vie d’un ordinateur consomment plus d’énergie et génèrent nettement plus de nuisances environnementales que la phase d’utilisation. En clair : si vous décidez de remiser tous vos serveurs et postes de travail, encore fonctionnels, pour les remplacer par d’autres nettement moins énergivores… vous faites fausse route. Les constructeurs vous remercieront, pas la planète. En effet, l’énergie grise liée aux équipements informatique ne cesse de croître, quand leur consommation en fonctionnement s’affiche à la baisse.

Les deux grands défis du “green IT” consistent à :

  • prolonger la durée d’utilisation des matériels existants;
  • et à réduire les besoins, en termes d’énergie et de ressources, sur la phase d’utilisation.

Ce qui signifie mettre le holà à la gloutonnerie des logiciels. Microsoft Office 2010 sous Windows Vista nécessite par exemple 70 fois plus de ressources qu’Office 97 sous Windows 98… Les documents produits sont-ils 70 fois plus percutants ou créés 70 fois plus vite ? Non. La gabegie logicielle est indéfendable.

Le logiciel libre comme modèle

C’est la couche logicielle qui pilote les besoins en ressources matérielles d’un ordinateur. Or, d’un point de vue technique, les logiciels libres sont bâtis autour d’un noyau qui répond à 80% des besoins essentiels. Autour de ce noyau viennent se connecter des extensions qui répondent aux besoins moins répandus. Cet écosystème évolue. Si une fonction devient incontournable, elle est intégrée au noyau. Cette architecture modulaire et évolutive minimise les ressources matérielles (puissance processeur, mémoire vive, etc.) nécessaires. On obtient donc des logiciels performants même sur des matériels modestes ou anciens, ce qui permet d’allonger la durée d’utilisation du matériel… ou de redonner une seconde vie à un matériel d’occasion.

Généralement alliée à une gratuité d’accès, la parcimonie des logiciels libres (systèmes d’exploitation en tête) rend viable la filière du reconditionnement des équipements d’occasion. Le « libre » apporte une réponse pragmatique, ici et maintenant, aux deux premiers défis du « green IT » : faire durer le matériel, économiser les ressources. En outre, le découplage entre logiciel et support technique (qui peut être fourni par différents acteurs de la communauté) évite l’obsolescence programmée et imposée par des éditeurs propriétaires et en position de monopole. En raccourcissant la durée de leur support technique, ces derniers poussent en effet à la consommation de nouvelles versions de logiciels plus gourmands, et donc de matériels plus puissants pour les faire tourner.

Au delà des aspects techniques, les communautés du libre reposent sur une organisation pyramidale dont les processus sont transparents. Ces deux propriétés garantissent un travail rapide et efficace qui pousse les chefs de projet et les développeurs à bien faire leur travail (un code efficace par exemple) et à prendre leurs responsabilités. Le pouvoir du créateur du logiciel est contrecarré par le pouvoir des utilisateurs. Les utilisateurs peuvent « forker » un projet du jour au lendemain. On ne peut donc pas verrouiller les utilisateurs et leur imposer un rythme de mise à jour.

D’autre part, le modèle économique du libre est quantitatif. Seule l’adhésion du plus grand nombre garantit au créateur du logiciel des revenus confortables et pérennes. Les communautés open source ont dissocié les revenus liés au service d’une part, de ceux potentiels liés à la vente de copies du logiciel d’autre part. Ainsi distribué gratuitement, et facilement localisé, les logiciels open-source peuvent toucher rapidement le plus grand nombre. Ouverture et gratuité facilitent une adoption large et rapide.

Des principes valables pour le green IT ?

A-t-on intérêt à appliquer ces principes – architecture modulaire, méritocratie éclairée par le contre-pouvoir des utilisateurs, standardisation, découplage des revenus directs du produit, etc. – aux problématiques du développement durable ? Tout porte à le croire.

D’une part, nous n’avons qu’une génération pour diviser notre empreinte écologique par un facteur 4 . Jamais l’humanité n’a fait face à un défi d’une telle ampleur. Pour tenir ce pari, nous devons aller plus vite que jamais auparavant dans l’histoire humaine. Le modèle d’adoption – très rapide – des logiciels libres doit donc être une source d’inspiration pour les acteurs du développement durable.

Que nous apprennent les communautés open source ? Sans standard, point de salut. La (presque) totalité des logiciels libres s’appuient sur des standards reconnus (qu’ils ont contribué à faire émerger et / ou à forger) pour s’assurer de la pérennité des développements. On touche ici au caractère « durable » des développements. Pour s’imposer dans le temps, les solutions du développement durable devront s’appuyer sur la même approche de standards ouverts. Et ce d’autant plus que les problématiques sont mondiales. Par exemple, pour être efficaces (c’est à dire économiser de l’énergie), les compteurs électriques intelligents devront tous parler le même protocole. Or, seul un protocole normalisé et ouvert sera adopté rapidement.

D’autre part, pour aboutir rapidement, ces standards devront être forgés par une méritocratie éclairée. L’échec de Copenhague l’a démontré, la recherche d’un consensus mondial est impossible en l’état. En revanche, rien n’empêche un ensemble de pays de proposer une solution pertinente, dont l’évolution sera dictée par toutes les parties prenantes.

Enfin, d’un point de vue plus philosophique, l’architecture technique d’un logiciel libre montre que ses créateurs sont « près de leurs ressources ». Ces « décroissants du logiciel » montrent à leur façon qu’une débauche de moyens n’est pas toujours nécessaire pour atteindre un objectif. En d’autres termes, le développement ne sera réellement durable que s’il ponctionne le strict minimum des ressources disponibles. Cette ascèse est déjà une règle fondamentale d’un grand nombre de projets open source.

    Pour conclure, il nous semble évident que :

  • les logiciels libres constituent une réponse pertinente pour réduire l’empreinte environnementale des TIC;
  • que les modes d’organisations des communautés correspondent bien aux enjeux mondiaux du développement durable;
  • et que les principes fondamentaux des projets open source garantissent une adoption rapide et durable des solutions, un point clé des enjeux du développement durable.
  • Votre avis ?

>>Frédéric Bordage et François Letellier sont auteurs et contributeurs du blog collectif GreenIT.fr

>>Article publié sur Framablog sous le titreLogiciel libre et développement durable, même combat ?”

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

>> Crédits photo Flickr CC : Stuck in Customs ShellyS

]]>
http://owni.fr/2010/11/19/le-logiciel-libre-a-lere-du-developpement-durable-green-it-open-source/feed/ 3
Les redirections, le cauchemar du web? http://owni.fr/2010/11/17/les-redirections-le-cauchemar-du-web/ http://owni.fr/2010/11/17/les-redirections-le-cauchemar-du-web/#comments Wed, 17 Nov 2010 07:30:20 +0000 Simon Descarpentries (Framablog) http://owni.fr/?p=35921 Titre original : Le contrôle des redirections

Si les redirections sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogging pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de raccourcisseur, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Une chaine vers le contenu moins pérenne

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… On peut se même se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix…

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  • Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  • En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  • Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  • Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

>> Article initialement publié sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

>> Illustrations FlickR CC : Kudumomo, Learning Futures Festival 2010

]]>
http://owni.fr/2010/11/17/les-redirections-le-cauchemar-du-web/feed/ 9
Facebook, petite analyse anthropologique http://owni.fr/2010/11/04/facebook-petite-analyse-anthropologique-avec-youropenbook-org/ http://owni.fr/2010/11/04/facebook-petite-analyse-anthropologique-avec-youropenbook-org/#comments Thu, 04 Nov 2010 07:33:00 +0000 Simon Descarpentries (Framablog) http://owni.fr/?p=34524 L’équipe Framalang s’est dernièrement attelée à la traduction d’un court article de Gene Weingarten, au sujet de ce grand site de réseautage social sur le web. Derrière une apparente naïveté, l’auteur se targue de réaliser une étude anthropologique à partir des données personnelles des millions d’utilisateurs de Facebook, qu’il collecte via YourOpenBook.org, un moteur de recherche dédié aux messages courts de statut de ce qui n’était à l’origine qu’un trombinoscope universitaire en ligne. Or, si jusque-là la fonctionnalité pouvait sembler manquer au site officiel, c’est aussi qu’elle met en évidence le faible degré de protection des données personnelles de ses utilisateurs que Facebook offre, au moins par défaut.

Ironie du sort, la semaine de sortie de l’article en question, Facebook fut secoué d’une quinte de toux numérique le rendant injoignable pendant plus d’une heure, ce qui anima de grandes conversations sur les autres grands réseaux sociaux, principalement à coup de gazouillis d’ailleurs…

Pas de quoi fouetter un chat me direz-vous, des sites web qui tombent en panne ça arrive, et même au plus gros. Par contre, dans le cas d’un site qui se propose de gérer vos albums photos, votre carnet d’adresses en fouillant dans vos boîtes à lettres électroniques (pour finalement proposer de les remplacer par son service de messagerie interne) et jusqu’à vos connexions aux autres sites web via un service doublon d’OpenID, l’incident peut être révélateur et s’avérer pédagogique.

Pour ma part, j’ai ouvert un compte Facebook sans grande conviction en 2006, parce que c’était de bon ton dans l’entreprise où j’étais en stage à l’époque, mais je ne prévoyais pas un plus grand avenir à ce compte qu’à mes comptes Orkut ou CopainsDAvant. Or, si pour ma part j’ai tenu parole, n’alimentant pas vraiment un réseau plus que les autres, force est de constater que l’un d’eux a pris au fil des ans de plus en plus de place sur le web. Et à vrai dire, chaque fois qu’une connaissance s’ajoute à mes contacts, j’ai l’indolence de ne pas aller chercher son adresse de courriel dans son profil pour la noter dans un fichier chez moi. Or, il s’avère que pendant cette fameuse interruption de service, je me suis retrouvé à devoir envoyer un message « urgent » à un ami dont je n’avais jamais noté l’adresse ailleurs… et je n’ai pas pu.

L’utiliser c’est se piéger

Finalement il apparaît que Facebook, l’utiliser, c’est se piéger, même en étant renseigné et modéré. Au moins, les mails stockés sur mon disque dur par Thunderbird, me restent accessibles, même hors ligne. Quel qu’en soit le parcours, je conserve ainsi mon courrier numérique sous mon toit (et j’en fais régulièrement des sauvegardes).

Cette anecdote me rappelle une petite phrase, innocemment lancée par Eben Moglen au milieu de son discours en plénière de clôture de la 1ère journée de l’OpenWorldForum la semaine dernière, et qui fut spontanément applaudie par le public, avec 3 secondes de décalage :

“For the moment, what we see is people that chose to put their pictures and personnal informations, their day-to-day emotional and friendships connexions all together in the computers of a single for-profit compagny, run by a fool.”

« Ce que nous voyons pour le moment, se sont des gens qui choisissent de mettre leurs photos et leurs informations personnelles, leurs amitiés et états d’âme au quotidien tous ensemble dans les ordinateurs d’une seule et même entreprise commerciale, menée par un fou. »

Cette fois c’est décidé, dès que j’ai un Diaspora, un GNU/Social ou une Nobox qui tourne chez moi, je ferme mon compte Facebook.

Gene Weingarten : Pourquoi je déteste énoooooooooorrrmément Facebook…

Gene Weingarten: I hate Facebook sooooooooooooooooooooooooooooooo much…

Gene Weingarten – 17 septembre 2009 – WashingtonPost.com
(Traduction Framalang : Julien Reitzel, Goofy, Siltaar)

Les critiques affirment que je suis injuste à l’égard de Facebook simplement parce que je l’ai décrit comme un océan de banalités partagées entre des gens avec une vie aussi vide à laquelle ils font écho. Je défends ma thèse mais admets que mon témoignage n’était pas basé sur des preuves scientifiques — totalement anecdotique — , mais basé sur mes plongeons occasionnels dans ce lagon tiède et morne de conversations fadasses.

Mais cela a changé. Je trouve qu’il est désormais possible de quantifier mathématiquement l’ennui, grâce à un nouveau site web. Openbook, accessible à l’adresse YourOpenBook.org, est un moteur de recherche pour les « messages de statut » de Facebook, le moyen principal utilisé par le « Facebookeur » pour communiquer avec ses amis. Avec Openbook, il est possible de rechercher un mot ou une phrase et de trouver non seulement combien de fois il a été utilisé dans des alertes de statut, mais aussi quand et par qui.

Les créateurs de ce site le présentent comme un outil de mise en garde, pour alerter les gens que le média social ne protège pas leur vie privée de façon adéquate. Mais entre les mains d’un chercheur objectif comme moi-même, Openbook peut être un précieux outil d’interprétation. À travers lui, on peut analyser Facebook anthropologiquement.

Bouton, WC, je t’aime, mdr

C’est d’ailleurs ce que j’ai fait, et voilà ce que ça donne :

- Quand les gens estiment nécessaire de faire savoir à leurs amis à quel point leur vie est insupportablement aride et abrutissante — ce qu’ils font à une fréquence d’environ 2 000 mises à jour de statut par heure — le mot qu’ils choisissent le plus souvent est « boring » (ennuyeux). Ils ont tendance à l’écrire avec des « o » ou des « r » en plus, pour en accentuer l’effet. Si vous cherchez « boooring » et continuez à rechercher en ajoutant à chaque fois un « o », vous trouverez à chaque fois au moins un résultat, jusqu’à obtenir 31 « o » consécutifs. Quand vous essayez « borrrring » et continuez à ajouter des « r », vous arrivez jusqu’à 47. Juste pour info, la personne qui, par cette méthode, souffre de l’ennui le plus invalidant sur la planète, « boring » avec 51 « r », est Heather S. de Waterloo, dans l’Ontario.

- Au cours des 16 derniers jours, 130 personnes ont alerté leurs amis du fait qu’ils « ont un bouton ». L’emplacement de l’imperfection est généralement spécifié, tout comme la taille. L’endroit le plus fréquent est le front, étroitement suivi par le lobe de l’oreille puis par la fesse, le plus souvent du côté gauche. La tomate a été la comparaison la plus colorée, tandis que la plus grosse était « Jupiter ». M. Mandel de New York a nommé son bouton Steve (elle est aussi fan de Justin Bieber ET des Jonas brothers, et, dans la rubrique livres favoris, écrit : « j’aime pas lirre »).

- Des milliers de gens envoient des communiqués décrivant leurs impératifs excrétoires. Souvent, ils contiennent la phrase « je dois aller aux WC ». Il serait incorrect et inique de conclure que toutes les personnes utilisant cette phrase sont vulgaires et/ou rustres. Le chercheur rigoureux a découvert, par exemple John Paul Weisinger de Lufkin, au Texas, qui n’était pas du tout en train de discuter de sa propre biologie. Il était simplement en train de partager avec ses amis une blague qu’il trouve drôle : « Un cochon rentre dans un bar et commande verre après verre après verre sans jamais aller aux toilettes. Le barman demande : “Tu n’as jamais besoin de te soulager ?”, et le cochon répond : “Non, c’est déjà fait, je fais pipi au fur et à mesure que je bois” »

- Il est possible de jauger mathématiquement la force de l’amour que se portent les gens en observant le nombre de « o » (dans le mot « love ») qu’ils utilisent dans l’expression « I love you so much » (« je t’aime tant »). Par exemple, Baker-Hernandez de Lakewood, Colorado, aime davantage son chat (57 « o ») que Lorne D. Stevens de Detroit aime Jolly Ranchers (10 « o »). Il ne semble pas y avoir de limite supérieure à l’amour que peuvent se porter les gens.

- Les utilisateurs de Facebook peuvent s’ennuyer, mais, paradoxalement, ils sont aussi facilement amusés. On sait cela, parce qu’ils sont toujours morts de rire. Les « LOL » et autres « MDR » surviennent avec une telle fréquence qu’ils sont littéralement impossibles à compter : des dizaines apparaissent à chaque seconde. Un sous-ensemble de ces rieurs sont en même temps en train de se rouler par terre — mais toujours en trop grand nombre pour en faire le pointage. C’est seulement avec un troisième critère — ceux qui sont à la fois pétés de rire et entrain de se rouler par terre — que le nombre devient palpable : 390 par jour.

- Dans un intervalle de 5 jours, 266 personnes ont fait référence au dirigeant des États-Unis en l’appelant Président « Oboma ». Soixante-sept autres l’ont appelé Président « Obamma ». Presque tous ces gens faisaient le constat qu’il est un stupide incompétent.

Billet initialement publié sur Framablog ; image CC Flickr Samael Kreutz et spcbrass

Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

]]>
http://owni.fr/2010/11/04/facebook-petite-analyse-anthropologique-avec-youropenbook-org/feed/ 10