Learning, Freedom, and the Web
Si l’on souhaite qu’Internet transforme la société, c’est bien par l’éducation qu’il faut commencer, ce que tentent de démontrer avec passion les porteurs de projets présents sur les lieux. De manuels scolaires fonctionnant sur le principe des wikis à la façon d’utiliser au mieux Wikipedia en classe, de l’importance des Creative Commons dans la diffusion du savoir aux bonnes pratiques pour les professeurs, OWNI vous propose sa couverture live de l’évènement. En commençant par une interview du président de Mozilla Europe, Tristan Nitot.
Mozilla aujourd’hui est connu principalement pour Firefox, qui est un succès avec 400 millions d’utilisateurs. Ce que peu de gens savent, c’est que la vocation de Mozilla n’est pas simplement de faire du logiciel ou un navigateur: on est une organisation à but non-lucratif.
Ce qu’on veut, c’est qu’Internet reste ouvert et participatif.
Il se trouve que Firefox est un outil au service de cette mission. Aujourd’hui, c’est bien parti, notamment en Europe. Il n’est pas question d’abandonner Firefox, et on continue à investir dans son développement, mais on commence à relever le nez du guidon. On a réussi à rétablir la concurrence au niveau des navigateurs, ça fonctionne: il y a Chrome, Safari, Internet Explorer 9 est prometteur…
Pourtant, on se dit qu’il faut voir plus large, plus loin. Et c’est là que Drumbeat entre en scène. C’est le tout début: on a eu quelques évènements locaux mais c’est le premier évènement de grande ampleur, qui réunit des participants du monde entier, avec des profils très différents. On se sent moins seuls, entourés de gens qui ont envie de réinventer la société autour de ce qu’Internet a déjà changé.
L’objectif est de mettre des gens ensemble, de recenser des projets et de les faire fructifier dans l’idée que le web ouvert devienne un mouvement plutôt que des initiatives isolées. Il s’agit donc de fédérer, de faire prospérer ces différents projets.
On vient du logiciel libre, on parle à nos communautés qui ont bien compris l’intérêt du hacking, au sens de bidouillabilité. Prendre l’objet, le transformer, en faire ce qu’on veut, le modéliser pour l’améliorer: tout cela est fait par une population extrêmement réduite et particulière. Il s’agit d’individus entre 20 et 40 ans, souvent des hommes… A côté de ça, il y a d’autres mouvements ou initiatives qui n’utilisent pas forcément les ordinateurs. Les créateurs de makemagazine par exemple, ont une approche comparable mais avec des compétences et outils différents: colle et scotch, plutôt que code… L’approche, pourtant, est comparable, tout comme celle des gens de Wikipédia ou des bibliothécaires présents ici aussi. On se dit qu’on a la possibilité de prendre l’Internet comme terrain de jeu. Les énergies de ces différents profils et les capacités techniques des bidouilleurs informatiques font émerger des projets qui peuvent vraiment changer quelque chose.
Et si on veut vraiment changer les choses, autant commencer par l’éducation.
Ce qu’on veut, c’est créer un bouillonnement créatif duquel émergeront des bonnes idées, et des moins bonnes. Il s’agit de faire remonter les meilleures idées à la surface, “bubble-up”, comme on dit. L’argent n’est pas particulièrement un problème. Déjà, on ne fait pas ça pour l’argent. Quand on parle de projets web, il n’y a pas besoin d’argent pour faire des choses extraordinaires. D’où l’importance de la neutralité du net, soit-dit en passant.
L’Internet est une formidable machine à copier de l’information et du code. A partir du moment où le code est écrit, il n’y pas de problème de passage à l’industrialisation. Internet est un levier qui fonctionne à merveille. Il s’agit donc de faire émerger les meilleurs idées et les meilleures pratiques à tous les niveaux: du code au niveau social, pour permettre aux gens de participer. Si on veut créer un mouvement, il faut que des gens qui sont pas des gourous de l’informatique puissent mettre le doigt dans l’engrenage, donner un peu de leur temps et obtenir rapidement une forme de gratification.
La barrière à l’entrée est suffisamment basse pour que les gens participent: même si il n’y a que quelques milliers de wikipédiens dans le monde, c’est suffisant pour qu’ils fournissent un service essentiel, et ce en quelques années. Je ne sais pas si on va aider à la découverte du prochain Wikipédia, mais l’idée est d’améliorer le monde: “hack the world” en faisant advenir un Internet, et je l’espère une société, plus ouverte et participative.
Il ne faut pas baisser la garde, tous les gens ici donnent énormément pour que ça marche. On assiste à l’éternel affrontement entre anciens et modernes. Les anciens sont toujours aux commandes, et ne comprennent pas ce qu’il se passe. Il faut donc rester vigilant, mais il y a un potentiel énorme: on sous-estime énormément la puissance de l’Internet. Ça fait des années que je compare Internet à l’invention de l’imprimerie. A l’ère de l’information, on a fait la télévision et la radio, qui sont fondamentalement centralisées, concentrées, avec un ticket d’entrée énorme: tant au niveau financier qu’à celui des régulations à respecter. Ce n’est plus le cas avec Internet.
Pour autant, je n’ai pas envie d’être perçu comme un révolutionnaire. Les gens de Mozilla, de façon générale, sont passionnés, engagés. On a été bénévoles pendant longtemps pour que Mozilla décolle. Fondamentalement, on a une opportunité au niveau de l’humanité aujourd’hui, et on veut lui donner la possibilité d’exister. Il s’agit de s’assurer que cette opportunité extraordinaire qu’est l’Internet ne succombe pas sous les coups de boutoirs des gens en place qui ont peur de ces changements, parce qu’il n’y comprennent pas grand chose.
Pourtant, on est face à la révolution du savoir. Il ne s’agit pas de savonner la planche de qui que ce soit. On veut la mort de personne, mais simplement que les gens aient accès au savoir: que l’humanité saisisse pleinement l’opportunité que représente Internet.
Crédits photos par homardpayette sur le compte FlickR de Mozilla, et ceux de Henrik Moltke et Zbigniew Braniecki
]]>Le projet Drumbeat que j’évoquais récemment vise à mobiliser autour de la notion de Web ouvert et libre les internautes bien au delà des milieux technophiles. Encore faut-il préciser ces notions et expliquer leur importance. Je vais tenter de résumer ici mes récentes lectures sur le sujet.
S’il est important aujourd’hui de s’intéresser au Web, c’est que de simple outil à usage essentiellement de loisir, il est en passe de devenir une véritable plate-forme qui va probablement prendre une place conséquente dans la vie d’un portion croissante de la population.
C’est un mantra que l’on entend souvent et qui désigne la prochaine étape du flux et du reflux entre le terminal et les serveurs. Du temps de nos grands-parent, dans les années 70, les terminaux étaient passifs, de simples Minitels connectés à des serveurs qui stockaient les données et les traitaient. Nos parents ont connu l’avènement du PC dans les années 80/90: le terminal devenait un ordinateur à part entière sur lequel s’exécutaient des applications et où on rangeait nos données. Aujourd’hui on assiste à un reflux : les données et les applications sont en train de repartir sur le réseau. Ou plutôt dans un sous-ensemble du réseau: le Web. Celui-ci devient la plate-forme sur laquelle se bâtissent les nouvelles applications, et qui pourrait bien remplacer le PC. C’est à dire que nos terminaux, netbooks, téléphones, etc, retournent vers un statut d’objets “passifs”, servant juste de support au programme qui nous connecte au Web : le navigateur. Au fur et à mesure que de plus en plus d’applications vont migrer vers le Web, leur installation locale va devenir inutile. Pour prendre une métaphore automobile, le Web est un châssis sur lequel chacun va pouvoir créer sa voiture. Une voiture dont le moteur sera les applications en ligne, et le carburant nos données.
On voit là le danger : il y a un risque de perte de contrôle. Nous contrôlions (relativement) ce qui se passait sur nos PC. Nos données étaient sur nos disques, à priori uniquement accessibles de nous-mêmes. Nous pouvions choisir nos logiciels. Si l’on était habitué à une version d’un traitement de texte et ne voulions pas passer à la suivante, rien ne nous y obligeait. Avec l’avènement de l’informatique dans les nuages (le cloud computing), nous sommes en train de perdre le contrôle. Nos données sont dispersées sur des serveurs, il est difficile de savoir qui y a réellement accès, il n’est pas toujours possible de les récupérer sous leur format brut pour en faire ce qu’on veut, on n’est pas vraiment sûr que ce que nous effaçons le soit réellement… De leur côté, les serveurs collectent toujours plus d’informations sur nous, qui nous échappent totalement. Peu à peu, nous sommes dépossédés. Quand aux applications en ligne, une fois qu’on en a choisi une, on y est souvent lié: pas moyen par exemple de refuser les évolutions du service, à moins d’aller voir ailleurs, si c’est possible. On ne pourra jamais les personnaliser à notre goût (par exemple par l’ajout d’extensions) autant qu’on le faisait avec les logiciels installés localement. Le caractère très pratique du nuage masque pour l’instant souvent la perte de contrôle.
Il faut donc faire attention à ne pas perdre les libertés que nous avions acquises au temps du PC. C’est un des enjeux du combat pour le Web libre.
Il n’existe aucune définition de l‘Open Web[1], et de billet en billet chacun y va de sa contribution. Pour essayer de résumer en une seule phrase, le Web libre est une plate-forme qui permet réellement à chacun et chacune de consulter, créer et diffuser librement de l’information. (je m’inspire d’une tentative de Brad Neuberg qui a publié une série sur le sujet).
Cette phrase est très incomplète, voici quelques uns des concepts qui reviennent le plus souvent pour décrire le Web ouvert :
Le Web devrait rester décentralisé. Encore une fois, il s’agit de savoir qui contrôle nos données et ce qui se passe sur la toile. Pour éviter que ce contrôle soit l’œuvre d’une seule entité qui déciderait à notre place, il est important que le Web garde son caractère décentralisé (la décentralisation est une des caractéristique fondamentale de l’architecture technique d’Internet). Aujourd’hui, à de rares exception près (DNS, points de peering), l’architecture du réseau fait qu’il est très compliqué de le contrôler. Chacun peut facilement créer un site et le connecter à la toile sans demander la permission à personne. Intercepter ou bloquer des communications est techniquement complexe. Évidemment la tentation est grande, pour des raisons pratiques ou politique, d’essayer de re-centraliser. Google peut-être vu comme un point de passage quasi-obligé, certains réseaux sociaux comme Facebook aussi. Mais il faut lutter contre cette tentation, car tout point de passage obligé nous fragilise, nous fait perdre en autonomie. Si tous les mails sont centralisés sur deux ou trois serveurs, va-t-on arrêter de communiquer le jour où un de ces serveurs tombera en panne ?
La transparence est évidemment importante. Pour que chacun puisse comprendre le réseau et contrôler son activité en ligne, il faut que le fonctionnement de la toile soit le plus transparent possible. Aussi bien techniquement, j’y reviendrai en parlant des standards, qu’au niveau des décisions plus “politiques”. Par exemple la gestion des noms de domaine, l’attribution des adresses IP… Ce sont des domaines qui peuvent paraître complexes, et il est important de rendre ces questions plus accessible et de faire en sorte que les processus soient publics et démocratiques.
L’informatique, comme la plupart des industries, s’appuie sur des standards, des normes. Ces standards définissent entre autre des protocoles, des formats, des langages. Prenons l’exemple de la consultation d’un site Web. Il faut d’abord que le client, votre navigateur, et le serveur, arrivent à communiquer. Ils utilisent pour cela un protocole, HTTP, qui formalise leurs échanges. donne-moi la page X
, la voici, c’est du HTML/une image/etc
. Une fois qu’ils ont établi la communication, ils vont échanger des informations que le navigateur va afficher. Ces informations sont représentées, traduites, par divers formats : HTML, CSS… Si la page contient des éléments dynamiques, elle exécutera un langage de programmation, JavaScript. Pour que tout cela fonctionne, il est indispensable que tout le monde parle la même langue, le navigateur et le serveur, mais aussi que la page et ses parties dynamiques soient écrites dans des langues que le navigateur comprenne et soit capable d’interpréter avec un maximum de fidélité. Cela repose sur l’utilisation de normes communes, les Standards Du Web.
Mais pour que ces standards concourent à augmenter l’ouverture et la liberté, encore faut-il qu’ils présentent certains caractéristiques, comme l’a par exemple expliqué Brendan Eich de Mozilla dans une présentation.
>les standards du Web doivent être librement consultables et utilisables par tout le monde. Librement signifie sans devoir demander la permission, signer un contrat, payer une licence, ou être menacé de poursuite, par exemple à cause de brevets. Idéalement, il devrait exister des implémentations complètes de ces standards avec des logiciels libres, afin que chacun puisse les utiliser, mais aussi bâtir de nouvelles applications qui se basent dessus;
> ces standards doivent évidemment être le plus universels possibles, donc ne pas se limiter à une plate-forme;
> la gestion de leurs évolutions doit être confiée à une entité impliquant les plus largement possible tous les acteurs. Pour favoriser le Web libre, les standards ne doivent pas être la propriété d’une seule entité (cf par exemple Flash: même si Adobe a ouvert les spécifications du format et que tout le monde peut théoriquement l’utiliser, Adobe en reste propriétaire et peut décider à sa guise des évolutions. Flash n’est donc pas un composant du Web libre);
> seuls les standards largement répandus participent vraiment à l’ouverture de la toile. Il existe de nombreuses normes répondant aux caractéristiques précédentes, mais trop complexes pour être largement adoptées. Les standards ouverts devraient encourager l’innovation;
Pour être libre, le Web a besoin de reposer sur des standards qui remplissent ces conditions. C’est partiellement le cas aujourd’hui (avec par exemple la grosse exception de la vidéo largement phagocytée par une seule entreprise, Adobe), et il est important de veiller à ce que ça le soit de plus en plus.
D’abord pour permettre à chacun, de quitter le statut de simple spectateur, de consommateur passif, pour devenir acteur, pour participer, pour créer collectivement. Si la toile est ouverte, chacun pourra l’utiliser à sa guise pour lire et écrire, c’est à dire consulter et créer des contenus, utiliser et développer des applications.
La notion de bidouillabilité (proposition de traduction des néologismes hackability
et generativity
) est aussi essentielle. C’est à la fois un pré-requis et une conséquence de l’ouverture de la toile. Pour être libre, le Web doit pouvoir être bidouillé; s’il est ouvert, il permet de bidouiller. La bidouillabilité, c’est la possibilité de pouvoir facilement modifier, adapter la plate forme pour en faire ce qu’on veut, c’est la possibilité de s’en servir pour aller plus loin, pour créer de nouvelles choses à partir d’elle. Pour reprendre un exemple de PierreM dans un billet consacré à l’ouvrage de référence The Future of the Internet and How to Stop It
de Jonathan Zittrain, le papier et le crayon sont des technologies bidouillables. Le grille-pain beaucoup moins.
Firefox fournit un excellent exemple d’applications de la bidouillabilité, et c’est une des raisons pour lesquelles je l’aime. Il fournit de nombreux outils pour hacker la toile. Ca a par exemple commencé il y a quelques années avec des extensions qui permettaient de modifier l’affichage d’une page automatiquement, que ce soit en modifiant la taille des polices ou les couleurs, en la ré-arrangeant, en supprimant des blocs qui gênent la lecture. Ensuite il y a eu Greasemonkey, aujourd’hui Ubiquity, demain Jetpack. Toutes permettent d’étendre le Web, de modifier à notre guise notre navigation.
Bidouiller le Web, ce sont aussi tous les mashups, qui agrègent les données de plusieurs services, et tous les petits scripts qui améliorent des applications existantes. On peut par exemple rajouter automatiquement à une page de résultat de recherche des liens pour traduire les résultats, rechercher de plus anciennes versions dans les archives, ajouter à chaque nom de lieu un lien vers une carte, sous des vidéos des liens pour les télécharger. Bref, modeler le Web à sa guise. L’ouverture permet tout cela très simplement.
Outre l’aspect pratique, bidouiller a une fonction très importante : cela permet de vaincre sa peur et de s’approprier l’outil. C’est en expérimentant qu’on apprend. Comme l’enfant qui s’initie à la mécanique en démontant des réveils[2], ou à l’informatique en modifiant avec un éditeur hexa le nombre maximal de vies dans un jeu. La bidouille est pour moi le point d’accès pour donner l’envie et le courage d’aller plus loin. On commence par bidouiller et peu à peu on prend conscience de ses capacités, on commence à créer de petites applications. Le but n’est évidemment pas que tout le monde devienne développeur, mais en sache suffisamment pour se débrouiller, créer ses outils, être autonome. Imaginons par exemple que je n’arrive pas à consulter les présentations sur un célèbre site parce que leur interface ne fonctionne pas avec mon équipement. Il suffit d’un peu de bidouille, mi questions en ligne mi écriture de code à partir d’exemples, pour remplacer le dit lecteur par un autre, compatible avec ma configuration. Ca ne va pas très loin mais c’est suffisant pour me faciliter la vie tous les jours.
En introduction d’une présentation, Designing for Hackability
, Brian Oberkirch titre If you can’t open it, you don’t own it
(si vous ne pouvez pas l’ouvrir, ça ne vous appartient pas). C’est évident pour bon nombre d’objet (qui imaginerait ne pas pouvoir ouvrir le capot d’une voiture ?), mais ça l’est aussi pour les logiciels (si vous n’avez pas le code source et l’autorisation de le modifier, il ne vous appartient pas vraiment) et pour le Web. Le Web est notre bien commun, il est essentiel de se l’approprier, et pour cela il faut pouvoir le bidouiller.
Si Drumbeat invite à prendre soin du Web libre, c’est que des menaces pèsent sur lui. Outre les problèmes déjà évoqués de maîtrise de nos données à l’heure du cloud computing, il y a également par exemple une bataille permanente entre les formats ouverts et les formats propriétaires. Pas forcément fermés, les spécifications peuvent être ouvertes, mais propriété d’une seule entité qui a donc la haute main dessus. Par exemple Adobe, Microsoft (Silverlight, .Net), ou Apple (spécialiste de l’asservissement de ses utilisateurs).
Les technologies les plus anciennes réussissent à rester globalement ouvertes. Difficile aujourd’hui pour quelqu’un d’essayer de s’approprier HTML ou les CSS. Leurs chantiers avancent donc en restant ouvert, même si c’est horriblement lentement (CSS3) ou avec de nombreux psychodrames ((X)HTML). Par contre, la guerre fait rage sur les nouvelles technologies, par exemple dans
> la vidéo, actuellement dominée par Adobe. La prochaine version de HTML commence à proposer une alternative ouverte à l’utilisation de Flash pour diffuser de la vidéo. Malheureusement le terrain est miné: la plupart des techniques offrant une qualité correcte sont bardées de brevets et soumis à licences. Trouver un chemin pour proposer de la vidéo sur le Web ouvert est donc ardu;
> les langages de script : EcmaScript (le standard) contre ActionScript (dans Flash). Un accord à été trouvé l’an dernier qui ménage les différents acteurs (Adobe d’un côté, plutôt en avance et Microsoft de l’autre, très en retard, pour changer), mais cet accord était surtout “politique”, pour éviter une scission, et Adobe comme Microsoft continuent à développer des langages spécifiques à leurs logiciels respectifs;
> la 3D et, aux confins de la 3D et de la vidéo, la réalité augmentée. La guerre est déclarée depuis longtemps, et s’annonce féroce. Chacun y va de sa solution, en essayant éventuellement de la faire standardiser à postériori. Pour l’instant les perspectives ne sont guère optimistes, puisque jamais un éditeur n’acceptera que la technologie développée par son concurrent soit standardisée au détriment de la sienne. Pourtant, sous la pression des jeux et des univers virtuels, ce sont des technologies qui vont de plus en plus débarquer dans les navigateurs. Espérons qu’une solution ouverte saura tirer son épingle du jeu[3];
> les terminaux mobiles actuels ont engagé une énorme régression. Apple et son Apple Store en sont l’exemple le plus marquant, mais le modèle fait hélas tâche d’huile. L’iPhone et la plupart des smartphones sont les plate-forme les plus verrouillées qu’on ait vues depuis longtemps. Vous ne pouvez installer sur votre téléphone que des applications téléchargées depuis le site d’Apple. Et Apple a le contrôle total sur les programmes disponibles. Les exemples d’applications refusées sont légions, que ce soit pour des raisons morales (cachez ce sein qui risquerait de choquer) ou commerciale (tout programme risquant de concurrencer ses intérêts financiers). Pire, le vendeur peut intervenir à sa guise sur votre terminal (on l’a vu récemment avec Amazon qui a supprimé à distance des livres du lecteur électronique de ses clients, mais Apple et Google ont également admis avoir la possibilité de le faire sur les iPhone et les téléphones Android).[4] Est-ce que vous imagineriez ne pouvoir installer sur votre ordinateur que des applications autorisées par son fabriquant ? Est-ce que vous imagineriez que Microsoft interdise l’installation de toute application qu’elle n’a pas explicitement autorisé[5] ? Si c’était le cas, je doute que vous ayez jamais pu installer le merveilleux Firefox avec lequel vous être en train de lire ces lignes, ou votre mule, le lecteur VLC, etc. C’est particulièrement préoccupant car il est possible que l’accès à Internet passe de plus en plus par ce type de terminaux, au détriment des PC classiques. Alors, est-ce que d’ici quelques années nous aurons complètement perdu le contrôle de nos terminaux, simplement parce que l’iPhone est trop hype et agréable à utiliser ? C’est toujours la même question : ce que l’on gagne en simplicité d’utilisation vaut-il le prix qu’on le paie en perte de liberté ?
> l’accès Internet mobile. Au delà des terminaux, l’Internet mobile est également victime d’une très mauvaise qualité de connexion, car la norme est aux contrats complètement bridés. On revient au modèle antique d’AOL, où les utilisateurs n’accèdent pas à la toile, mais à une toute petite partie sous le contrôle pointilleux des opérateurs. Je vous ai déjà signalé les prêches du Président Benjamin sur le sujet.
Toutes ces questions, si elles peuvent sembler très techniques, relèvent surtout de débats de société sur ce que sera le Web demain, et c’est pour cela que l’idée derrière Drumbeat est pertinente. L’avenir de la toile ne doit pas être l’affaire des seuls geeks et des sociétés pour lesquelles elle n’est qu’un marché. Tous les internautes présents et futurs devraient se sentir concernés et peser sur ces questions. Quand à nous, geeks “prescripteurs” comme on dit, notre responsabilité est lourde. Nous sommes régulièrement sollicités par nos connaissances pour leur donner des conseils. Ca serait bien de ne pas trop nous laisser aveugler par le caractère profondément bandant de toutes les nouvelles technos et des derniers gadgets, et de réfléchir aux implications de nos choix sur le long terme (enfin pour ceux qui croient en l’existence d’un futur).
Au delà du Web, il faudrait aussi se pencher sur l’infrastructure de bas niveau sur laquelle il s’appuie, le réseau. Et à des question comme la neutralité de celui-ci. Pour reprendre la métaphore automobile, le réseau est la route sous les roues de la voiture. Pour l’instant le réseau est neutre. La route ne sait pas grand chose de la voiture, peut-être son poids, son modèle, mais rien de l’identité de son conducteur ni de son trajet. La route transporte donc indifféremment tous les véhicules, du combi VW en route pour Katmandou à la bétaillère menant les brebis à l’abattoir. Depuis quelques années, de pressions de plus en plus fortes visent à en finir avec cette neutralité, soit en introduisant du contrôle au niveau du réseau, soit en essayant de prioriser certains flux au détriment d’autres, comme si la route pouvait se transformer dynamiquement en autoroute pour les 4×4 et en chemin de terre pour les 2×2ches[6].
La neutralité du réseau fait-elle partie de l’Open Web ? Pour moi, l’un ne va pas sans l’autre, la liberté globale d’un système ne dépassera jamais celle du moins libre de ses composants. On ne pourra être libre et autonomes dans nos vies numériques que si tous les composants le sont : le réseau, y compris son infrastructure matérielle, les logiciels pour y accéder, les matériels qui font tourner ces logiciels, et tous les composants du nuage.
Bien sûr, c’est encore loin d’être le cas, mais c’est l’Utopie vers laquelle il faut tendre. Le logiciel libre et le Web libre ne sont que deux pièces du puzzle. On peut choisir pour des raisons pratiques de se concentrer sur un aspect seulement, le logiciel, la plate-forme, le réseau, mais il faut bien être conscient que ce ne sont que des facettes d’un joyau à gagner, la liberté numérique. Je n’oublie pas par ailleurs que cette liberté numérique elle-même n’est rien sans liberté des individus analogiques, c’est à dire si les créatures de chair n’ont pas les moyens concrets politiques, économiques, intellectuels, d’exercer leur liberté numérique.
Pour conclure et en revenir à Drumbeat, j’avoue être assez pessimiste. La volonté de Mozilla d’inciter les gens à se mobiliser pour le Web ouvert n’est pas nouvelle, et je n’ai pas l’impression qu’elle ait jusqu’à présent rencontré beaucoup d’écho. La situation de l’humanité est catastrophique de longue date, alors que l’on aurait depuis longtemps les moyens de l’améliorer, mais on ne fait rien. Aujourd’hui, il ne fait plus guère de doute que la poursuite dans la même direction est suicidaire pour notre environnement, et donc pour nous, et malgré tout nous sommes incapables de prendre des mesures à la hauteur du péril. Alors la défense du Web Libre… Le seul espoir de ce côté est peut-être que c’est un combat qui demande bien moins de changements de nos habitudes que les deux précédents, donc pour lequel il sera peut-être plus simple de trouver des bonnes volontés. En matière d’écologie, les petits gestes ne suffisent pas. Nos actions quotidiennes seront dérisoires tant que les fondements de la société ne changeront pas. Pour ce qui est du Web, les petits gestes peuvent réellement avoir un impact. Ils demandent un effort, mais pas forcément une révolution effrayante. Donc peut-être… J’en doute, menfin, on peut toujours essayer, et j’espère que cette modeste contribution pourra être utile pour expliquer l’importance du Web libre et de le défendre. RMS m’entende.
[1] qu’après moult hésitations, je traduirai alternativement par libre et ouvert, la distinction entre les deux termes en matière de logiciels ne me semblant pas pertinente ici, pour l’instant;
[2] pardon, je précise, dans le temps les réveils étaient mécaniques, si si;
[3] je n’avais pas vu passer début Août cette annonce sur WebGL qui indique que ce projet visant à créer un standard ouvert pour la 3D dans le navigateur a reçu quelques soutiens de poids. Et techniquement, l’implémentation dans Gecko a également commencée en Août. Le tableau est peut-être moins sombre que je ne le pensais;
[4] et ne me parlez pas des solutions de déverrouillage, qui ne seront jamais utilisées que par un infime pourcentage d’utilisateurs. Ces terminaux sont défectueux dans leur conception même, defective by design et dans leur philosophie;
[5] oui je sais il y a eu des tentatives dans ce sens, notamment dans Vista;
[6] pour en savoir plus sur le sujet, outre Benjamin Bayard, Jean-Michel Planche en parle aussi très bien
—
]]>