OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 La dernière photo d’Henri IV et la vérité des images… http://owni.fr/2010/12/21/la-derniere-photo-d%e2%80%99henri-iv-et-la-verite-des-images%e2%80%a6/ http://owni.fr/2010/12/21/la-derniere-photo-d%e2%80%99henri-iv-et-la-verite-des-images%e2%80%a6/#comments Tue, 21 Dec 2010 09:46:54 +0000 Olivier Beuvelet http://owni.fr/?p=33697 Sur son profil Facebook, Gallica diffuse une série de portraits d’Henri IV en proposant la chose suivante à ses amis : “Comparez la tête d’Henri IV récemment retrouvée aux portraits du roi disponibles dans Gallica.” Or, à voir la photographie ci-dessous de la tête d’Henri IV récemment retrouvée, le travail de comparaison proposé par le site de la BNF semble difficile. C’est qu’Henri IV a bien changé durant ces quatre derniers siècles…

Photographie de la tête momifiée d'Henri IV

Il s’agit bien sûr de comparer la reconstitution de la tête du roi effectuée à partir du squelette de la momie retrouvée (voir plus bas) et non, bien sûr de comparer la momie aux portraits. Cependant, l’invitation iconographique de Gallica, dans sa formulation raccourcie et ambiguë, met en évidence  une relation entre le modèle et sa représentation imagée qui ne manque pas de m’interpeller.

J’avais déjà été frappé par le dévoilement du “vrai visage” de Jules César, suite à la découverte à l’automne 2007 de son buste dans la vase du Rhône près d’Arles, ville fondée par l’Empereur en 46 av. JC. La ressemblance probable entre le buste et son modèle reposait alors d’une part sur la datation scientifique de la sculpture de marbre, correspondant au vivant de l’homme ce qui laissait supposer que la représentation avait pu bénéficier de la présence du modèle vivant, d’autant qu’il s’était réellement rendu en Arles, sa ville, et d’autre part sur le réalisme de l’ouvrage finement ciselé qui faisait apparaître des rides et d’autres signes de l’âge, ainsi qu’une expression mélancolique conférant à l’ensemble un air d’instantané photographique. Allant à l’encontre des représentations habituelles de César, fondées sur le buste post mortem de Tusculum, qui montraient un visage plutôt émacié et tranchant, celui-ci faisait de lui un bon vivant aux traits doux et latins… loin du César d’Uderzo. Elle avait donc l’aspect d’un dévoilement, d’une révélation. Et cette représentation jouissait de l’aura que lui conférait une possible présence de Jules César devant le sculpteur. C’est le portrait le plus proche, c’est-à-dire le plus proche d’un contact, d’un contact visuel entre le modèle et la représentation. La sculpture apparaissait alors comme une photographie, ou tout au moins sa crédibilité s’appuyait sur l’idéal photographique (son illusion essentielle), selon lequel l’image conserve une empreinte du modèle présent et ainsi, un peu de la réalité de sa présence. C’était le processus de représentation qui authentifiait la ressemblance.

L’apparition de la “vraie tête” d’Henri IV, avant hier, dans les colonnes des grands quotidiens nationaux, pouvait elle aussi ouvrir à un certain nombre d’interrogations concernant cette question de la ressemblance. Contrairement à l’icône ou à l’idole, la relique ne se soucie pas de fonder l’illusion de la présence dans une (même vague) ressemblance au modèle, au prototype, elle est un pur morceau de présence, dissemblable mais ayant réellement été en contact avec le modèle, voire, ayant été une partie du modèle et ce contact est traditionnellement établi par un récit. La relique est donc à la fois le modèle (ou son empreinte) et sa représentation dissemblable. On peut dire qu’avec l’apparition de la tête d’Henri IV, c’est le modèle lui-même qui est réapparu, à la fois comme relique et comme portrait photographique le plus récent. Or, bien que photographie de la tête de Henri IV, cette image publiée dans la presse ne ressemble pas, à première vue, aux portraits qu’on connaît du roi (heureusement pour le vert galant qui n’aurait pas été si vert si cela avait été le cas!) et on ne reconnaît pas le roi dans ce modèle précieusement conservé.

Son authentification n’est venue que d’une enquête scientifique qui a la particularité d’avoir procédé à partir des représentations comme témoins de la vérité pour authentifier le modèle. Ne pouvant établir sans conteste l’authenticité de cette tête par le biais d’une analyse d’ADN, l’équipe de chercheurs dirigée par le docteur Philippe Charlier, s’est principalement appuyée sur des portraits pour authentifier le modèle qui ne se ressemblait plus. Comme nous le dit l’article du British Medical Journal, “CT scanning enabled the team to image the skull, and from this build up a facial reconstruction to compare to portraits.” C’est ainsi à partir d’une reconstruction faciale faite sur la base d’un scanner des os du crâne que des comparaisons ont été faites avec les portraits connus du roi.

reconstitution faciale

Et cette étude débouche sur des conclusions qui confirment que la momie ressemble bien, malgré les apparences, aux représentations du roi : “A digital facial reconstruction of the skull was fully consistent with all known representations of Henri IV and the plaster mould of his face made just after his death, which is conserved in the Sainte-Genevieve Library, Paris. The reconstructed head had an angular shape, with a high forehead, a large nose, and a prominent square chin. Superimposition of the skull on the plaster mould of his face and the statue at Pau Castle showed complete similarity with regard to all these anatomical features.”

Un des portraits proposés par Gallica

Dans un second temps, une comparaison a été établie entre des marques sur le visage et des éléments connus du portrait. Une boucle d’oreille à l’oreille droite comme c’était l’usage à la cour des Valois et une tache de 11 mm sur la narine droite ainsi que la trace d’une estafilade… L’article précise ainsi : “Two features often seen in portraits of the monarch were present : a dark mushroom-like lesion, 11 mm in length, just above the right nostril and a 4.5 mm central hole in the right ear lobe with a patina that was indicative of long term use of an earring. We know that Henri IV wore an earring in his right earlobe, as did others from the Valois court. A 5 mm healed bone lesion was present on the upper left maxilla, which corresponds to the trauma (stab wound) inflicted by Jean Châtel during a murder attempt on 27 December 1594.”


Comparaison entre les portraits et les marques retrouvées sur la tête momifiée d’Henri IV

D’autres études ont bien sûr été menées pour authentifier la tête, au carbone 14 par exemple, permettant de dater la momie entre 1550 et 1650, ce qui correspond bien à la date de la mort d’Henri IV, le 14 mai 1610. Par ailleurs des restes de plâtres témoignent des trois moulages successifs effectués sur la tête du mort, en 1610, 1793 et récemment par un des détenteurs de la tête. Il n’a pas été possible d’effectuer une comparaison de l’ADN, ce qui laisse le champ de l’interprétation encore ouvert, mais très peu.

Ce qui me frappe donc dans cette démarche, c’est la manière dont l’image vient témoigner pour le modèle revenu après coup. Ce qui est étonnant, c’est cette inversion des rôles de la représentation et du modèle, l’image devenant un modèle dépositaire de la vérité des apparences susceptible d’authentifier le modèle qui a perdu de sa ressemblance à lui-même et est étudié comme une représentation, sur des critères de correspondance des signes. Ce sont ces signes (piercing à l’oreille, tache, blessure) qui viennent comme des poinçons attester l’identité du modèle.

Alors que dans le cas du visage de César, la présence supposée du modèle au moment de sa confection authentifiait l’image comme ressemblance, selon les vertus illusoires du paradigme “photographique” de l’empreinte visuelle (ou de la peinture sur le motif/devant modèle) ici c’est l’image (comme recueil de la présence) qui vient authentifier le modèle et lui restituer une ressemblance perdue et, en fonction de cette dernière, son aura éventuelle. La relique n’est pas seulement un vrai morceau d’Henri IV, mais, malgré les apparences, elle lui ressemble, porte ses signes distinctifs et c’est de là qu’elle tient son aura. On peut maintenant regarder cette relique en se disant qu’on voit Henri IV, le vrai Henri IV. Dans les deux cas pourtant, c’est la croyance dans la capacité de l’image à conserver une empreinte visuelle (présence de César devant le sculpteur et d’Henri de Navarre devant le graveur ou le peintre) et donc à receler une vérité qui confère une authenticité à l’image… ou au modèle… Mais alors que pour César il s’agissait d’établir la vérité de la représentation, dans le cas de cette étude de la tête d’henri IV, la vérité de la représentation est un point de départ pour les expériences, la représentation est a priori exacte et vraie.

Certains extrêmistes de la République naissante avaient coupé cette tête momifiée de son origine en 1793, allant chercher toute les présences efficaces du roi jusque dans les tombeaux, ils avaient jeté le corps embaumé du bon roi dans la fausse commune comme ils avaient aussi décapité les rois de Juda sur la façade de Notre Dame, manifestant ainsi, de manière irrationnelle, leur croyance dans la puissance magique de la face royale qu’il s’agissait de mettre à bas…  Puis, la République renforcée s’était apaisée, considérant les rois comme de braves grands-pères devenus inoffensifs… seuls les royalistes croyaient en cette tête et en sa force…

Il est singulièrement saisissant que la tête momifiée d’un roi assassiné reparaisse aujourd’hui, retrouve son aura à travers un rayonnement médiatique, reconnecte la République à son inconscient monarchique et à cette “valeur mystique de la liqueur séminale” qui fondait le royaume ; comme le retour du refoulé d’une République dont la tête perd la tête, croit follement à ses propres représentations, et à sa lignée, une République en crise qui cherche, d’une manière étrange, à se fabriquer des reliques nationales sur la base d’une croyance idolâtre en la ressemblance et en l’identité.  La science vole ici au secours de l’idolâtrie en fondant la croyance sur des preuves objectives qui sont finalement les mêmes que celles qui ont toujours servi à authentifier les véroniques (vera icona) ; l’image authentique est l’image dont un récit nous dit qu’elle porte l’empreinte visuelle du modèle… qu’elle tient quelque chose de la relique…

Un film est à venir en février sur l’histoire de cette tête… Observons bien ce qu’elle deviendra par la suite…

Les illustrations scientifiques sont tirées de l’article du BMJ linké plus haut.

Lire sur cette question le livre de Hans Belting, La vraie image, (Le temps des images) Paris, Gallimard, 2007

Trouvé sur Le Figaro.fr … dans le genre problèmes d’identité nationale, c’est succulent, l’héritier de Henri IV en banquier américain…

Cliquer ici pour voir la vidéo.

Lire aussi cet article de Libé .

>> Article publié initialement sur Parergon, un blog de Culture Visuelle

>> Illustration CC FlickR : Nick in exsilio

]]>
http://owni.fr/2010/12/21/la-derniere-photo-d%e2%80%99henri-iv-et-la-verite-des-images%e2%80%a6/feed/ 2
Quelle filière industrielle pour la numérisation du patrimoine ? http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/ http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/#comments Thu, 01 Jul 2010 16:11:27 +0000 Christian Fauré http://owni.fr/?p=20934

Le contexte de la consultation sur le Grand Emprunt

La cacophonie et la mécompéhension autour du Grand Emprunt, et plus précisément sur le volet numérisation, font qu’on est actuellement dans une situation de crise, au sens propre du terme : quelque chose va se décider.

Au départ, c’étaient 150 millions qui devaient être alloués aux institutions pour qu’elles puissent poursuivre et accélérer les projets de numérisation ; au final ce ne sont plus que des montants de prêts (donc remboursables avec intérêts) pour favoriser la mise en place d’une filière industrielle du numérique, basée sur des partenariats publics/privés.

On sait que l’actualité de la crise économique de ces derniers mois a certainement beaucoup favorisé la formulation très libérale de la consultation publique (le développement du « machin numérique ») lancée par le secrétariat de la Prospective et du Développement de l’économie numérique. De plus, dans le cadre d’une période d’austérité et de restrictions budgétaires importantes dans les dépenses de l’État, le Grand Emprunt devient un dossier beaucoup particulièrement épineux pour le gouvernement : difficile de dire « on fait les valises et on rentre » après avoir fait de la relance par l’innovation un axe important de la stratégie française.

Deux tentations s’opposent donc entre celle du ministère de la Culture et celle du ministère des Finances : le premier veut continuer à croire à la nécessité d’une politique culturelle tandis que le second tente de radicaliser les choix qui devront être faits sur la base exclusive du principe de rentabilité. Il n’y a donc plus de consensus au sein même du gouvernement sur l’avenir du Grand Emprunt, et les différentes institutions qui doivent participer à la solution (BnF, bibliothèques municipales, INA, IRCAM, Cinémathèque, Cité des Sciences, archives, musées, etc.) ne comprennent plus la règle du jeu, qui semble par ailleurs changer chaque jour en ce moment.

La vision qui est présentée ici est une tentative de réponse à la consultation publique sur le volet numérique. Elle a l’ambition de sortir par le haut des apories dans lesquelles la question de la numérisation du patrimoine dans le cadre du grand emprunt se retrouve aujourd’hui.

La publicité est-elle la solution ?

L’activité industrielle autour de la numérisation de contenus culturels et patrimoniaux est l’activité de numérisation qui est aujourd’hui la moins rentable si on la compare aux archives, cadastres et autres documents administratifs (littérature grise). D’autre part, on sait que Google a beaucoup investi sur cette activité avec sa plate-forme Google Books dont on commence à peine à entrevoir l’ampleur. Quel industriel voudrait, dans ces conditions, prendre le risque d’investir sur un secteur d’activité à faible potentiel rémunérateur tout en ayant la machine de guerre de Google en embuscade ? Soyons clairs : personne. Il faut donc poser le problème différemment.

Commençons pour cela par évacuer toutes les fausses bonnes idées que l’on peut entendre sur le modèle d’affaire qui pourrait rendre cette filière numérique rentable. Pour cela il faut d’abord savoir que la numérisation d’un ouvrage n’est, en moyenne,  rentabilisée qu’au bout de vingt ans, uniquement en ce basant sur le service de reproduction que propose la BnF. C’est une moyenne car, bien évidemment, certains ouvrages ne font l’objet d’aucune demande de reproduction. Quand se pose la question de savoir comment ce seuil peut être abaissé ne serait-ce que sur dix années, la réponse que j’entends systématiquement est : la publicité.

La publicité est généralement le joker que l’on avance quand on est à court d’idées. Et c’est assurément le modèle d’affaire le plus simple à proposer : il me manque 100 millions ? Qu’à cela ne tienne, la pub fera le reste. Comment et sur quelles bases ? La réponse est généralement plus évasive. Faut-il monter un mécanisme et une régie publicitaire en propre ? Faut-il s’appuyer sur les solutions clés en mains proposées par Google ? Cette dernière réponse serait pour le moins ironique puisque Google aurait une part importante du bénéfice publicitaire sans avoir investi dans la numérisation. Faire sans Google, c’est à l’inverse prendre le risque de se retrouver dans le collimateur d’un industriel du web qui s’y connaît et qui a les moyens de ses ambitions.

On préférera donc essayer de composer avec Google plutôt que de le concurrencer sur son propre terrain en faisant « Cocorico ! ». Les arguments basés sur la valorisation via un modèle d’affaire fondé sur la publicité ne tiennent pas la route, encore moins quand l’on sait que la valeur publicitaire sur le web, comme l’avait écrit Tim O’Reilly dès 2007, tend à se diluer très fortement. C’est la raison pour laquelle Google doit indexer toujours plus de contenus, nativement numériques ou à numériser,  pour amortir la baisse tendancielle de la valeur unitaire et nominale de la publicité.

Que vaut le numérique ?

Retour à la case départ : comment valoriser la numérisation du patrimoine ? Songeons-y un instant, si l’on se donne tant de mal pour imaginer un modèle d’affaire viable pour une filière industrielle de numérisation, c’est peut-être parce que le numérique, de manière tendancielle, ne vaut rien. Le numérique a un coût, surtout lorsqu’on doit numériser, mais, une fois l’investissement réalisé, financièrement et en tant que tel, il ne vaut plus rien. Soyons plus précis : un fichier numérique ne vaut rien. Et c’est bien la raison pour laquelle le monde de l’édition freine des quatre fers lorsqu’il s’agit de faire circuler un fichier numérique existant (même pour en donner une copie pour archive à une institution, la plupart refusent). Un fichier numérique en circulation, c’est de la nitroglycérine pour celui qui en attend une source de revenu.

Acceptons donc cette thèse, qui est aussi une hypothèse de travail, que le fichier numérique ne vaut rien. Et vérifions cette proposition :

  • pour les institutions, c’est généralement le service de reproduction qui est la principale source de revenu, c’est-à-dire le retour à l’impression papier.
  • pour les plates-formes de diffusion de contenus numériques, on sait bien que ce n’est pas le fichier numérique que l’on paye mais un écosystème technologique (format de fichiers propriétaires, logiciels verrouillés, périphériques spécifiques, fonctionnalités d’achat rapide brevetées, etc.)
  • pour d’autres initiatives plus confidentielles mais notables (par exemple PublieNet), c’est la qualité d’une présence sur le web et la sensibilité de la communauté des lecteurs/clients qui fait la différence : entre l’éditeur numérique et les lecteurs/acheteurs, il y a un crédit et une confiance.

La valeur d’un fichier numérique a donc besoin d’un service autre que la simple diffusion pour pouvoir avoir une valeur financière.

Le service de reproduction doit devenir le premier industriel d’impression à la demande

Loin d’enterrer les poussiéreux services de reproduction, il faut les muscler. Ces services, qui aujourd’hui nous semblent d’un autre âge, doivent se doter d’un service d’impression à la demande digne des autres acteurs leaders sur ce créneau. L’économie d’échelle qu’ils peuvent avoir, qui plus est sur la base d’oeuvres particulièrement attrayantes ne peut qu’être profitable. Cette re-fondation peut ramener dix ans, au lieu des vingt actuels, le délai d’amortissement d’une numérisation.

La chose n’est pas gagnée d’avance pour autant : il faut une plate-forme web en self-service qui demande du travail, il faudra être très rapide et avoir une logistique aussi affûtée que celle d’Amazon, a minima sur le territoire français. L’objectif est clairement de livrer au domicile d’un client l’impression d’un ouvrage relié de qualité en moins de 48 heures, et à peine plus s’il y a une demande d’impression personnalisée.

Sur cette voie, il va y avoir des frictions avec les plate-formes de distribution des éditeurs de la chaîne du livre. Mais pas dans l’immédiat puisque les modèles sont actuellement différents (pas d’impression à la demande, pas de self-service et pas de livraison au particulier), mais si la plate-forme d’impression à la demande est un succès, elle pourra proposer ses services différenciants aux éditeurs (traditionnels, mais aussi numériques) : par exemple proposer des « templates » de formats variés et personnalisables. N’oublions pas que près des trois quarts du coût d’un livre représentent les coûts d’impression, de distribution, de diffusion et de points de vente.

Le cas Gallica

Comment doit s'articuler le lien entre la BnF et Gallica ?

La filière de numérisation peut donc trouver un premier modèle économique dans l’impression. Pour où l’on voit que la valorisation de la numérisation se fait d’abord sur… l’impression. Mais se pose toujours la question de la diffusion sous format numérique et en ligne. Premier constat : c’est la vocation de Gallica. On comprendra dès lors que la filière numérique qui est appelée de ses vœux par le gouvernement aura du mal à accepter de faire le travail de numérisation pour que le fruit de son investissement se retrouve diffusé en ligne gratuitement sur Gallica.

Gallica devra être repensée, et pour commencer il faut que la bibliothèque numérique quitte le giron exclusif de la BnF. Cela veut dire que Gallica aura le statut d’un établissement public-privé dans lequel l’ensemble de plate-forme technologique sera possédée et gérée par le consortium privé investissant dans la filière numérique.

Statutairement, la BnF doit garder le contrôle et la maîtrise de la politique culturelle que porte Gallica. Mais cette maîtrise ne sera plus exclusive, elle devra être partagée car si cette bibliothèque en ligne se nourrit des ouvrages numérisés, et il faudra bien un modus vivendi et des droits de quotas pour chacun : la BnF peut vouloir numériser en premier des ouvrages qui ne sont pas jugés commercialement opportun pour le partenaire privé. Un système de quotas, qui devra évoluer dans le temps, doit être mise en place. Par exemple, sur les cinq premières années, sur dix ouvrages numérisés, le partenaire privé pourra en choisir cinq, tout comme la BnF. Par la suite, les résultats de la filière numérique serviront de référent pour faire évoluer les quotas : si la filière est sur le chemin de la rentabilité le ratio peut s’infléchir en faveur de la BnF, ou l’inverse si la rentabilité tarde à se faire jour. L’essentiel est de ne pas figer la formule et d’y introduire une variable dépendant de la rentabilité, sans quoi tout l’édifice s’effondre.

Cette réorganisation du statut juridique de Gallica devra nécessairement initier une refonte de la politique de gestion des droits des oeuvres qui n’est pas opérationnelle en l’état actuel (une licence sur mesure que ne peuvent pas exploiter les robots, et que d’ailleurs personne ne comprend vraiment).

Bien évidemment, d’un point de vue technologique, la plate-forme de service d’impression évoquée précédemment sera nativement intégrée à Gallica, on peut même forcer le trait en disant que Gallica ne sera qu’un module de la plate-forme d’impression.

Les métadonnées : clés de voûte de la nouvelle filière industrielle

Aussi étonnant que cela puisse paraître, dans cette consultation publique sur « le développement de l’économie numérique », il n’y est jamais question de métadonnées. Le mot n’y apparaît même pas une seule fois le long des trente-neuf pages du document. C’est proprement sidérant. Et ça l’est d’autant plus que la politique industrielle qui va être mise en place devra placer la question des métadonnées au cœur de tout le dispositif industriel.

Si l’impression à la demande était le volet diffusion papier et Gallica le volet diffusion numérique, ces deux activités passent à une niveau supérieur grâce à la politique sur les métadonnées. La richesse numérique de notre patrimoine est directement proportionnelle aux métadonnées qui le décrivent. Le trésor des institutions patrimoniales réside aussi et surtout dans leurs catalogues et leurs thesauri : tout comme on ne peut gérer un patrimoine physique sans métadonnées la question devient encore plus urgente quand l’oeuvre est numérisée : une politique numérique sans politique des métadonnées n’est qu’une chimère, un délire, une schwarmerei comme disait Kant.

Plutôt que de me répéter, je vous renvoie ici à ma note sur Les enjeux d’une bibliothèque sur le web où il était question des orages sémantiques mais aussi d’étendre la pratique de gestion d’un catalogue d’oeuvres à une pratique de gestion d’un catalogue des discussions et des polémiques relatives à ces oeuvres. Ainsi, fort de ce nouveau positionnement, et sur la base de sa nouvelle plate-forme technologique, la nouvelle filière industrielle du numérique pourra proposer des outils avancés à l’Éducation nationale pour doter l’enseignement d’un outil d’annotation et de contribution qui dépasse la vision simpliste et fade des « like », et donne enfin le pouvoir aux enseignants d’enseigner.

Chaque plate-forme de diffusion des oeuvres numériques rencontre très vite sa limite dans les faiblesses de sa politique des métadonnées. Le cas d’iTunes est représentatif : c’est une panique monstre pour faire des découvertes dans le catalogue, c’est pourtant paradoxal quand on sait que, même sur iTunes, les métadonnées (titre, auteur, artistes, jaquette, etc.) sont la vraie valeur des fichiers numériques (Cf. Quand les métadonnées ont plus de valeur que les données).

Pour les oeuvres qui sont du ressort de la BnF, le travail de bascule de l’ensemble des catalogues au format du web sémantique avec leur diffusion sur le web a déjà été initié : cette démarche est la clé de voûte, à la fois technologique et économique, de tout le système. Pour les oeuvres audios et vidéos (des oeuvres de flux), les outils d’annotation contributives (avec des métadonnées BottomUp et TopDown) doivent être développés en complément des catalogues descriptifs existants.

Le catalogage des orages sémantique permet également d’obtenir tout un appareil critique issu des informations collectées via le dispositif des orages sémantiques Si celui-ci est géré par la BnF, on peut réussir à mener une politique industrielle des technologies numérique dont le coeur du dispositif s’appuie, et trouve son crédit, dans la politique culturelle. Une logique économique exclusivement consumériste n’est pas une fatalité, loin s’en faut, car ce qui est brièvement décrit ici est un chemin vers une économie de la contribution financièrement rentable.

*

On peut donc sortir de l’alternance destructrice entre :

  • d’un côté une logique libérable de la privatisation adossée à une vision exclusive sur les retours sur investissement à court terme, grâce au dieu de la publicité ;
  • de l’autre une politique culturelle maintenue sous perfusion publique, mais à perte (la logique de la réserve d’indiens).

Que le Grand Emprunt accouche de quelque chose ou non, nous n’échapperons pas à cette lancinante question : quelle politique industrielle pour les technologies de l’esprit ? La seule réponse crédible passe par le positionnement de la politique culturelle au cœur de l’outil industriel, pas à côté. « Trade follows film » disait le sénateur américain McBride en 1912 : on va peut-être arriver à le comprendre cent ans plus tard en France, notamment pour donner au commerce et à l’économie un autre visage que le consumérisme américain.

Enfin, par pitié, arrêtons de parler systématiquement de e-tourisme dès qu’il est question des territoires. Les territoires sont autre chose que des destinations touristiques, et les régions n’hivernent pas toute l’année pour se réveiller quand les Parisiens et les étrangers prennent leur vacances. Ces modèles d’affaire sur le e-tourisme sont dangereux et méprisants.

Billet initialement publié sur le blog de Christian Fauré

Images CC Flickr Troy Holden et ►bEbO

]]>
http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/feed/ 5
Google livres : par le petit book de la tablette (1/3) http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/ http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/#comments Tue, 16 Mar 2010 15:04:46 +0000 Olivier Ertzscheid http://owni.fr/?p=10168 google2

Photo CC Christopher Chan sur Flickr

[...] N’ayant en guise d’ouvrage que la chronique idoine de ce blog, je me décide à rédiger une nouvelle série de billets pour expurger l’amoncellement de nouvelles au sujet de Google Books.

Le premier de ces billets (que vous êtes en train de lire, bande de petits veinards), sera uniquement consacré au volet “numérisation d’ouvrages du domaine public”, autrement dit le programme “Library partners” de Google Books.

============================
Google Books : l’état c’est moi.
============================

Côté bibliothèques, il manquait encore à la stratégie de Google deux pierres essentielles, tant pour les “relations publiques” et l’image du projet (de plus en plus malmenée), que pour le précédent que cela permettrait de créer : ces deux pierres sont la signature d’un accord avec une bibliothèque nationale (d’où les négociations, dès l’été 2009 et probablement encore un peu avant, avec la BnF), et celle de la signature avec un état en tant que tel. Or voici donc que depuis le 10 Mars 2010, Google a signé avec le ministère de la Culture italien pour la numérisation et la mise en ligne d’un million de volumes, libres de droits (publiés avant 1860).

Coup double et coup de maître, puisque ledit contrat confère à Google un statut de prestataire étatique qui pourrait en inciter plusieurs autres – états – à revoir leur position, et lui donne également accès à non pas une mais bien deux bibliothèques nationales (Rome et Florence). Comme le souligne Le Monde, c’est donc bien d’une victoire politique qu’il s’agit. D’autant que ce nouvel allié politique devrait là encore pouvoir être cité comme témoin dans le procès en cours concernant la numérisation des ouvrages sous droits (et je ne parle même pas des – nouvelles – activités de lobbying ainsi autorisées …)

Modus operandi. Tout comme pour le projet de numérisation de la bibliothèque de Lyon, Google installera un centre de numérisation en Italie. La numérisation du million d’ouvrages – pour l’instant – concernés, devrait prendre deux ans. Sur les aspects concrets de ladite numérisation et les risques toujours actuels de dérive vers un eugénisme documentaire, on sait peu de choses. La dépêche AFP délayée dans Les Échos nous indique que :

- “le moteur de recherche s’engage à fournir aux bibliothèques des copies numériques de ces livres, “leur permettant ainsi de les rendre accessibles aux lecteurs sur d’autres plateformes, y compris d’autres projets européens comme Europeana“.

Rien n’est dit sur le type de copie numérique qui sera ainsi partagée, sur son ouverture à l’indexation par d’autres moteurs, sur l’exclusivité – ou non – d’indexation, bref sur l’ensemble des points qui posent habituellement problème dans les contrats signés entre Google et les bibliothèques.

À noter : la déshérence et le désengagement de l’État italien berlusconien dans le domaine des politiques publiques peut également apparaître comme un facteur non-négligeable à l’explication de cette “première mondiale”. Bon par contre on n’a pas réussi à prouver que la Camorra avait infiltrée Google mais bon entre pieuvres… ;-)

==========================================
Google Books : l’OPAC ultime en ligne de mire ?
==========================================

Quand on s’interroge sur le “pourquoi Google investit-il à perte dans la numérisation d’ouvrages du domaine public”, on dispose de plusieurs niveaux de réponse :

- d’abord – c’est l’argument que je ressasse depuis longtemps – parce que ce projet est tout sauf une danseuse et que Google, après avoir “gagné” la bataille de l’information, a compris – avant d’autres, y compris les états présidant au devenir financier de nos bibliothèques nationales numériques -  qu’il devait se positionner sur la bataille de la connaissance. Comme il a avant d’autres compris que l’essence de la bibliothèque, que les enjeux qui la fondent et lui sont indissolublement liés sont d’abord de nature politique. Et que de la maîtrise de cet échiquier politique dépendrait ensuite la maîtrise de secteurs économiques entiers (dont la “chaîne du livre” en tant que maillon – pas forcément faible – des industries de la connaissance)

- ensuite parce que cet investissement lui donne la légitimité (et la compétence) pour s’installer durablement sur le secteur de la numérisation d’ouvrages sous droits (second volet de Google Books)

- et tout un tas d’autres raisons, dont la constitution de la plus grande archive documentaire de corpus multilingue (ceci expliquant peut-être sa suprématie dans le domaine de la traduction automatique…)

Preuve est désormais faite que numériser des livres peut permettre de ramasser un beau pactole et que ces investissements dès le lancement du projet en 2004, l’étaient dans une perspective claire de monétisation. Dans la cadre de la “plateforme” Google Books, il est plusieurs manières de gagner de l’argent :

- pour les éditeurs… ben c’est tout l’enjeu du procès actuel aux États-Unis et en France… pour gagner de l’argent avec les éditeurs disais-je, il suffit à Google de casser la chaîne de médiation (en évacuant par exemple les libraires), ou tout au moins de s’y positionner comme un routeur incontournable préemptant au passage des droits de douane qu’il est le seul à fixer (c’est précisément le rôle du Google Books Settlement).

- pour gagner de l’argent avec les auteurs, il suffit d’augmenter leur commission, en se payant sur les commissions que ne touchent plus les éditeurs et/ou les libraires (et je maintiens qu’en juin 2010, date de lancement désormais officielle de Google Editions, on verra apparaître un outil de micro-paiement à destination des auteurs, construit sur le modèle pay-per-click des publicités Adsense … les paris sont ouverts ;-)

- pour gagner de l’argent avec les bibliothèques, c’est à peine plus compliqué : soit on leur propose des contrats léonins jouant clairement sur un abus de position dominante, (voir aussi ce qu’il pourrait en être de l’inaliénabilité du domaine public) mais il est probable que ce ne soit pas entièrement satisfaisant (et un peu risqué) sur le long terme. Soit on leur fait payer l’accès à la copie de l’ouvrage par le truchement de licences monopostes (volet bibliothèque du GoogleBooks Settlement). Soit on prévoit de leur proposer, à terme, un accès – payant – à ce qui ressemble chaque jour davantage à un OPAC planétaire de ressources en texte intégral (les OPAC planétaires classiques s’arrêtant aux seules métadonnées).

Il n’est ainsi pas improbable qu’en même temps qu’il lancera Google Editions pour (contre?) les libraires et éditeurs, Google, en s’appuyant sur la masse de documents du domaine public déjà numérisés, en s’appuyant également sur les fonctionnalités de plus en plus “bibliothéconomiques” de l’interface GoogleBookSearch, il n’est pas improbable disais-je que Google propose aux bibliothèques une architecture “full-web” leur permettant – et à leurs utilisateurs – de déporter “dans les nuages” une partie significative des composantes habituellement dévolues aux SIGB (Systèmes informatiques de Gestion de Bibliothèque). Fantasme de mon esprit malade ? Nous verrons bien :-)

google4

Image CC MikeBlogs sur Flickr

=========================================================================
Google Books : des rapports et des lois … mais pas vraiment de rapport à la loi …
=========================================================================

Après le rapport Tessier (exégèse disponible ici), c’est donc la très sérieuse commission des finances du Sénat qui planche sur le rapport Gaillard : “La politique du livre face au numérique“, dont une partie importante est entièrement consacrée à “l’affaire Google“. Pas grand chose à signaler dans ledit rapport, si ce n’est qu’il valide les conclusions du rapport Tessier (= la BnF doit signer avec Google en évitant l’exclusivité d’indexation et en se réservant les droits de mise à disposition immédiate auprès de son public). Le prochain rendez-vous est fixé au 28 avril prochain où la commission de la culture débattra pendant une table-ronde réunissant tous les acteurs de la chaîne du livre des deux points suivants :

– “l’avenir de la filière du livre et l’opportunité de fixer un prix unique au livre numérique,
- la politique de numérisation pour le livre, selon qu’il est libre de droits ou sous droits.

Le rapport Gaillard tient tout entier en une phrase clé : “avec les moyens actuels de la BnF, il faudrait environ 750 millions d’euros et 375 ans pour numériser l’ensemble des ouvrages. Selon M. Bruno Racine, la totalité des fonds de la BnF pourrait être numérisée en 10 ans par Google.Ita missa est. Sauf que … Sauf que l’expression même de “numériser l’ensemble des ouvrages” n’a aucun sens bibliothéconomique, Google pas plus que la BnF ne prétendant vouloir (et surtout pouvoir) numériser l’intégralité des fonds documentaires.

La numérisation est d’abord affaire de choix et de priorités définies selon des critères là encore bibliothéconomiques (rareté, ancienneté, fréquence des emprunts, etc …) et prendre prétexte comptable de l’éternel fantasme de la bibliothèque universelle me semble un raisonnement spécieux qui masque les réels enjeux politiques d’un tel projet.

Dernier point intéressant dans le rapport Gaillard, le tableau de la répartition des fonds du grand emprunt entre les différents organismes publics bénéficiaires.

A noter que, nonobstant la procédure toujours en cours (le procès Google Books donc), certaines universités (et pas des moins prestigieuses) déjà parties prenantes lors du lancement de Google Books,  n’hésitent pas à apporter publiquement leur soutien à la version “amendée” dudit Google Books Settlement. C’est le cas de Stanford, qui vient donc de resigner avec Google.

A noter encore, et toujours concernant les issues possible du procès en cours, vous avez la possibilité de vous coller un bon mal de crâne prendre la mesure des différents scénarios possibles, en consultant le schéma (pdf) disponible sous ce lien et produit par la très active et lobbyiste Library Copyright Alliance.

Et Europeana dans tout ça ?? Et bien, à parcourir le rapport sur les prochaines étapes de déploiement de ce projet, on est saisi de constater à quel point l’enlisement le dispute à l’atermoiement. Un saisissement que deux paramètres permettent d’éclairer : dans l’urgence et la vitesse à laquelle bougent les choses sur la question de la numérisation patrimoniale (grâce à l’effet de ricochet et/ou d’aspiration de la numérisation commerciale), l’échelon européen ne semble pas être le bon pour articuler un projet “à l’échelle” de Google. L’autre paramètre est naturellement financier, une majorité de bibliothèques européennes, du côté de l’Europe de l’Est notamment, s’interrogeant sur l’opportunité de passer du temps à alimenter un portail sans aucune visibilité là où des partenariats avec Google leurs permettraient d’économiser de la logistique, du temps, et surtout de l’argent. À n’en pas douter, la récente signature du partenariat avec le ministère de la Culture italien ne va pas contribuer à mobiliser les acteurs européens dans le sens du développement d’Europeana. Bref, ce qui était et qui demeure un beau projet souffre d’un énorme problème de positionnement, résultant lui-même d’un tout aussi important problème de calendrier et d’une implication parfaitement insuffisante (et insuffisamment répartie) entre ses différents acteurs supposés (soit, en théorie, l’ensemble des bibliothèques nationales européennes).

=============================================
Google Books ou le périmètre des biens communs.
=============================================

Comme l’illustre magnifiquement Asaf Hanuka, le monstre Google continue d’effrayer. Google est méchant. Google s’expose à une liste de plus en plus impressionnante (et documentée) de critiques. Les premiers cris d’effroi passés, il serait dommage de perdre de vue que la principale dangerosité du projet Google Books ne lui est pas intrinsèque. Bien au contraire, elle tient, en ce domaine comme en d’autres, au fait que les avancées de la firme nous obligent (et nos “états” avant nous …) en permanence à repenser la nature et le périmètre de ce qui doit être, devenir ou demeurer un ensemble de biens communs de la connaissance. Ce n’est qu’au prix d’une définition claire et politiquement argumentée desdits biens communs qu’un balisage efficace (efficient ?) de la frontière entre ce qui relève de la sphère publique et de la sphère privée pourra être établi sur la question de la numérisation en particulier, et sur la question de l’accès à l’information en général.

================================
Google Books : “A path to insanity”.
================================

Dans l’un de ses derniers essais (repéré sur Techcrunch), intitulé : “For the Love of Culture : Google, copyright and our future“, Lawrence Lessig se livre à la meilleure analyse – selon moi … – des dangers que représente Google Books non pas en tant que dispositif, mais en tant que processus d’aliénation de l’accès à la culture, en tant que processus d’industrialisation de la copie** (comme en écho aux lectures industrielles théorisées par Alain Giffard, ces deux-là – Lessig et Giffard – ayant depuis longtemps parfaitement cerné la réelle nature du problème de GoogleBooks). Le texte est un argumentaire absolument limpide et remarquable qu’il conviendrait de citer en entier. Quelques extraits pour vous mettre en bouche :

C’est ici le problème de la granularité documentaire que pose Lessig. Là où les bibliothèques se posent (parfois un peu trop …) la question de savoir quels types d’unités de connaissance peuvent “faire collection”, l’approche de Google Books transforme chaque opération intellectuelle d’indexation, d’extraction, de citation ou même de simple “lecture” en une “copie”, rendant toute tentative de collection aussi vaine que la lecture du Livre de sable de Borges. Résultat ?

Au-delà même des aspects législatifs et réglementaires qui complexifient et rendent monétisables les différentes traçabilités de ces copies (via, par exemple, les DRM “embarqués” dans icelles), la notion même de copie (telle que mise en œuvre par GoogleBooks et telle que combattue par Lessig), la notion même de copie est dangereuse parce qu’elle brise et révoque l’idée même de toute possibilité de continuité documentaire. Or sans continuité documentaire, toute agrégation, toute collection devient impossible. Sans continuité documentaire, toute culture cède la place à d’éphémères et innombrables acculturations temporaires.

La copie devient ainsi une fin en soi, éternellement “légiférable” et “monétisable” parce qu’éternellement reproductible et déconnectée de la totalité, de la complétude initiale qui lui permet d’exister en tant que telle. La copie devient une fin en soi, en même temps qu’elle cesse d’être l’instrument ou le support d’une pratique de recherche, de lecture, d’étude ou de partage. Elle s’industrialise**.

google3

Image CC ahhyeah sur Flickr

Lessig conclut son essai de la manière suivante :
The deal constructs a world in which control can be exercised at the level of a page, and maybe even a quote. It is a world in which every bit, every published word, could be licensed. It is the opposite of the old slogan about nuclear power: every bit gets metered, because metering is so cheap. We begin to sell access to knowledge the way we sell access to a movie theater, or a candy store, or a baseball stadium. We create not digital libraries, but digital bookstores: a Barnes & Noble without the Starbucks.” (…) “In real libraries, in real space, access is not metered at the level of the page (or the image on the page). Access is metered at the level of books (or magazines, or CDs, or DVDs). You get to browse through the whole of the library, for free. You get to check out the books you want to read, for free. The real-space library is a den protected from the metering of the market. It is of course created within a market; but like kids in a playroom, we let the life inside the library ignore the market outside.

We are about to change that past, radically. And the premise for that change is an accidental feature of the architecture of copyright law: that it regulates copies. In the physical world, this architecture means that the law regulates a small set of the possible uses of a copyrighted work. In the digital world, this architecture means that the law regulates everything. For every single use of creative work in digital space makes a copy. Thus–the lawyer insists–every single use must in some sense be licensed. Even the scanning of a book for the purpose of generating an index–the action at the core of the Google book case–triggers the law of copyright, because that scanning, again, produces a copy.

I have no clear view. I only know that the two extremes that are before us would, each of them, if operating alone, be awful for our culture. The one extreme, pushed by copyright abolitionists, that forces free access on every form of culture, would shrink the range and the diversity of culture. I am against abolitionism. And I see no reason to support the other extreme either–pushed by the content industry–that seeks to license every single use of culture, in whatever context. That extreme would radically shrink access to our past. (…) But this is too important a matter to be left to private enterprises and private deals. Private deals and outdated law are what got us into this mess. Whether or not a sensible public policy is possible, it is urgently needed.
Il y a effectivement urgence. Et cette urgence n’est pas comptable, elle ne se chiffre pas en nombre de millions de volumes numérisables à l’instant “t” ou en millions d’euros nécessaires à une numérisation exhaustive. Google ne fait que laisser se déployer son écosystème informationnel, il ne fait que laisser tourner à plein régime toute la force d’inertie générée par une tyrannie de l’accès à l’information érigée et maquillée en paradigme de l’organisation des connaissances. Mais la faute n’incombe pas à Google. Il n’appartient pas à Google de circonscrire son rayon d’action. Seule compte pour lui la possibilité de l’étendre, ce dont on ne saurait le blâmer tant nous profitons – pour l’instant – des effets de bord de ces incessantes extensions.

C’est aux états et aux théoriciens qu’il appartient de circonscrire le rayon d’action de ces écosystèmes aussi économiquement dérégulés qu’ils sont informationnellement cohérents. Et l’un des meilleurs et des plus sûrs moyens pour y parvenir est de délimiter un régime mondial des biens communs (ce qui n’est pas tout à fait la même chose que de parler de l’accès comme “d’un bien public mondial”). Des biens communs dont le centre de gravité est pour l’instant partout, ou tout du moins à chaque endroit dans ou pour lequel se pose la question d’une appropriation possiblement pérenne ; mais des biens communs dont la circonférence n’est pour l’instant… nulle part.

**sur la notion d’une industrialisation ad libitum de la copie, Ted Nelson au travers du concept de Versioning avait été une fois de plus, parfaitement visionnaire. Dans ses travaux, le versioning désigne : “l’ensemble des manières de gérer, indépendamment de tout niveau d’échelle, les procédures permettant de rattacher différentes versions d’un même document à un (des) auteur(s), tout en permettant à chacun de s’approprier tout ou partie des documents produits par d’autres ou par eux-mêmes, et en assurant un suivi des différentes modifications apportées.“) Soit le dispositif technique auquel Lessig réfléchit sans le nommer, permettant d’éviter toutes les “insanities” subséquentes à une gestion de la copie dont la finalité serait uniquement de marchandiser l’accès à tout fragment (= à toute copie) généré(e) ou inscrit(e) dans un parcours de lecture ou de navigation. Bon là j’ai pas trop le temps de creuser, mais pour les masochistes souhaitant approfondir la notion de versioning, une (petite) partie de ma thèse lui est consacrée (pp. 203 à 205).

Billet initialement publié sur Affordance.info

]]>
http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/feed/ 2
BnF et Google : contribution au débat http://owni.fr/2010/01/12/bnf-et-google-contribution-au-debat/ http://owni.fr/2010/01/12/bnf-et-google-contribution-au-debat/#comments Tue, 12 Jan 2010 10:02:22 +0000 Olivier Ertzscheid http://owni.fr/?p=6924 Vendredi dernier, se tenait à la BnF une journée de débat autour du futur-très-probable accord entre Google et ladite BnF, débat intitulé “Numérisation du patrimoine et moteurs de recherche“,  débat réunissant notamment Patrick Bazin, Roger Chartier et Robert Darnton, soit quelques analystes et acteurs les plus passionnants sur le sujet. Le programme complet de cette journée était initialement disponible sur le site de la BnF (ici) mais, étrangement, il a été “soit déplacé soit supprimé”. :-(

En ligne, très peu de traces de cette journée : merci à l’ADBS et à Livres Hebdo d’avoir assuré de rapides compte-rendu (si vous en avez repéré d’autres, les commentaires sont ouverts). Très peu de traces … et pour cause : les personnes présentes sur place n’ont même pas pu twitter étant donné l’absence de connexion Wikfi ou 3G.

Plus globalement, et alors même que depuis les plus hautes sphères de l’État jusqu’à la presse grand public, chacun se passionne pour ce sujet (ce qui n’est pas toujours le cas lorsque l’on parle de l’avenir et du modèle des bibliothèques), plus globalement donc, le fait que les organisateurs de cette journée n’aient pas envisagé de la webcaster ou d’en diffuser des extraits est atterrant.

Et à peu près aussi improbable que TF1 décidant d’organiser la soirée de l’élection de Miss France à huis-clos. C’est vrai quoi, on a un sujet passionnant, les meilleurs spécialistes (pro ou anti) de la question sur le plateau, une demande très forte d’information de la part du public, et on la joue “black-out”, on l’organise sur le mode “et ben vous aviez qu’à être présents”.

Dommage. Dommage. Dommage (et après on s’étonnera et on n’en finira pas de gloser sur l’incapacité des bibliothèques françaises à communiquer … question de culture ?). Bon, on va espérer que dans un sursaut de lucidité la BnF ait finalement filmé l’intégralité de la journée et qu’elle se prépare à la mettre en ligne sur son site :-)

Vous avez été nommé voilà deux ans de cela à la tête de la Bibliothèque Nationale de France (BNF)”

De mon côté, vendredi dernier, j’étais en train de corriger un paquet de copies. Petite contribution au débat donc, mais, pour une fois sur ce blog, cette contribution ne sera pas la mienne :-) Plutôt celle de mes étudiant(e)s en deuxième année métiers du livre à l’IUT de La Roche sur Yon. Après une petite vingtaine d’heures de cours passées sur le sujet de la numérisation, ils et elles ont eu les vacances de Noël pour plancher sur le sujet suivant :

  • Vous avez été nommé voilà deux ans de cela à la tête de la Bibliothèque Nationale de France (BNF). Voilà un an que vous travaillez sur le dossier de la numérisation patrimoniale et sur la possibilité d’un accord avec Google. Le 7 Janvier 2010, vous prononcez un discours à l’assemblée nationale pour faire part de votre décision sur ce dossier.
    En vous inspirant de l’actualité sur le sujet et en vous appuyant sur les éléments vus en cours vous rédigerez un discours indiquant si oui ou non vous avez décidé de travailler avec Google en mentionnant – en cas de réponse négative – quels sont vos arguments, et – en cas de réponse positive – quelles sont vos conditions.
    Le devoir devra être impérativement manuscrit et ne devra pas faire moins qu’une copie double (4 feuillets).

Résultat des courses : sur 26 étudiant(e)s, 16 copies pour un accord avec Google, et 10 contre. Naturellement, l’honnêteté m’oblige à indiquer que si leur professeur avait été différent, la proportion de leurs réponses aurait sensiblement pu varier ;-)

Du côté des “contre”, les arguments les plus massivement retenus sont les suivants :

  1. problème de l’opacité de l’algorithmie de la recherche de livre (= pourquoi tel livre et non tel autre en première position ? en fonction de quel critère ? Tant que l’on se saura pas comment ça marche, on ne signera pas)
  2. problème de la représentativité (par rapport à la charte des bibliothèques, article 7)
  3. problème de l’exclusivité (sur un temps variable mais globalement assez long) et de la “stérilisation” de la copie numérique remise à la bibliothèque (pour le même temps assez long)
  4. problème de l’exclusivité d’indexation (métadonnées non-accessibles aux autres bib/moteurs)
  5. problème de la compétence (= la numérisation doit être, rester et re-devenir) une compétence-coeur du monde des bibliothèques. Accepter de déléguer, c’est prendre le risque de perdre cette compétence.
  6. problème du monopole : “risque que Google devienne LE catalogue de référence.”

Du côté des “pour”, voici les raisons et les exigences retenues comme “non-négociables” pour finaliser l’accord :

Les raisons tout d’abord :

  • L’urgence et l’argent : “Nous devons accepter de déléguer à Google l’équivalent de nos numérisations annuelles. Cela rendra nos dépenses quasi-nulles (…) ce qui nous permettra d’élaborer un projet d’envergure dans les décennies à venir. (…) afin de développer en parallèle des structures de numérisation d’envergure au niveau national et européen.” Cette importance de structures (d’infrastructures en réalité) de numérisation alternatives me semble être le coeur du sujet. Dans une autre copie, Gallica est citée comme pouvant servir (à condition d’être financée et développée en conséquence) d’infrastructure type.

Les exigences ensuite (venant de copies différentes, certaines des exigences listées ci-dessous sont contradictoires) :

  • Opt-in. Étrangement (il me semblait avoir montré la difficulté voire l’inanité de la chose …) les étudiant(e)s sont “dans la loi” tout autant que dans la crainte d’une entorse au droit d’auteur tel qu’il existe aujourd’hui en France. Presque tous ceux qui acceptent de signer avec Google réclament donc qu’il respecte, pour les oeuvres orphelines, une procédure d’Opt-In en lieu et place de l’Opt-Out actuellement en vigueur. “Nous imposons à Google de ne diffuser les ouvrages numérisés qu’après avoir obtenu l’autorisation des ayant-droit“. Il y a peu de chances que cela soit le cas, mais il est intéressant de noter que même après mon bourrage de crâne volontariste, cette “option” reste plébiscitée ;-)
  • Money. “La BnF a exigé et obtenu que 60% des bénéfices tirés de ces ventes (sur les ouvrages numérisés depuis la BnF) lui revienne“.
  • Métadonnées : “Il serait nécessaire que chaque bibliothèque partenaire, lorsqu’elle prête l’ouvrage en vue de sa numérisation, fournisse les méta-données. les exemplaires numérisés seraient alors indexés d emanière fiable.” Noble proposition (déjà en partie réalisée, Google allant s’abreuver en métadonnées dans différents catalogues “ouverts”) mais qui risquerait, in fine, de fournir à Google le beurre, l’argent du beurre et une ristourne sur l’addition comme le dit le proverbe.
  • No-logo. “Les caractéristiques des ouvrages numérisés doivent être les mêmes pour tous : pages en noir et blanc, couverture en couleur de 200 à 400 dpi, format jpg ou autre format courant, et aucune présence de marque ou de logo.
  • Pas d’exploitation commerciale des œuvres libres de droit : “Google s’engage à prendre garde qu’aucune copie d’ouvrage, que celle-ci soit disponible dans GoogleBooks ou sur le site de la BnF, ne soit utilisée à des fins commerciales sans l’autorisation de cette dernière.
  • Échange de bons procédés : “Afin de pallier aux (sic) contraintes restrictives imposées à Google, chaque ouvrage numérisé de la BnF possèdera un lien redirigeant vers GoogleBooks afin d’éventuellement acheter l’ouvrage correspondant.
  • Du contexte. “Chaque fichier devra faire l’objet d’une contextualisation, on pourra y lier un site internet où l’information aura au préalable été validée sur l’auteur, ou le courant artistique et littéraire, ou une analyse de l’oeuvre (…). Chaque fichier provenant des archives de la BnF devra être clairement identifiable par la mention BnF. Un lien hypertexte devra être mis en place qui redirigera l’internaute sur un site de “service public” qui donnera de plus amples informations et des recommandations de lecture.
  • Recréer du lien (et du service) à l’aide d’un service de type Ask a librarian tournant sur GoogleBooks et piloté par la BnF : “Nous demandons qu’il soit ajouté, sur les pages des documents numérisés issus de la BnF, une adresse mail à laquelle les internautes pourraient envoyer leurs questions et demander des renseignements plus précis à des personnes qualifiées. Pour cela la BnF a obtenu les financements nécessaires pour recruter deux employés à plein-temps sur ce poste.” Malin non ? :-) En même temps, imaginez un peu “questionpoint” tournant sur GoogleBooks et piloté en réseau par l’ensemble des bibliothèques contractantes … le renouveau ou la mort du petit cheval ??
  • Traçabilité : “Sur le service de Google recherche de livres, pour chaque fichier numérisé, une mention devra oblgatoirement figurer pour identifier la provenance du livre. Dans la rubrique “présentation générale” vous trouverez donc la mention “issu de la BnF”.” Important. Essentiel même.
  • Simultanéité de la mise à disposition : “La copie numérique remise à la BnF devra être disponible et utilisable à des fins non-commerciales, y compris par un large public, en même temps et non pas 20 ans après celle de Google.” Vital. Juste vital.
  • Transfert de compétences : “Nous observerons les outils et la manière d’opérer de Google pour être capable, dans le futur, d’assurer nous-mêmes la numérisation.” Après tout, pourquoi pas, on régule bien le prix du marché des avions de chasse en négociant des transferts de compétence plus ou moins larges ;-) Ceci étant, la chaîne de numérisation de Google étant un “secret industriel”, la requête a peu de chances d’aboutir.
  • Récupérer le grisbi : “Nous donnerons à Google une copie numérique des ouvrages que nous numériserons avec le budget obtenu par Mr Frédéric Mitterand, en échange de quoi Google nous donnera un exemplaire numérique de tous les ouvrages francophones déjà numérisés dans Google Books.” :-) Ah ben là j’avoue, c’est culotté. Mais les idées les plus simples – et les plus culottées – sont parfois les meilleures :-)

Et puis comme les étudiants ont de l’humour et du second degré, je ne résiste pas à l’envie de vous faire partager 2 petites pépites :

  • Nous exigeons de pouvoir rencontrer les employés chargés du catalogage dans Google Books afin de pouvoir leur expliquer les notions du catalogage effectué dans les bibliothèques françaises.

Et le meilleur pour la fin :

  • Il est vrai qu’il est normal d’éprouver quelques craintes concernant la pérennité et l’exploitation des fichiers numérisés mais Google possède deux programmes qui permettent une certaine garantie. Adsense qui est un moyen pour les utilisateurs de dénoncer un abus sur les droits d’auteur et HathiTrust qui assure une protection et une sauvegarde des données et des documents diffusés.

Voilà. A mon avis il y a plein d’enseignements à tirer de l’analyse fournie par les étudiant(e)s. A la fois du côté des préconisations concrètes (certaines idées et exigences pourraient aisément être reprises dans un cahier des charges au simple effort d’une légère reformulation), et aussi du côté de la perception qu’ont aujourd’hui de ce débat ceux qui demain, seront aux avant-postes. En tout cas, cela fait longtemps que je n’avais pas pris autant de plaisir à corriger des copies. Merci donc aux A2-ML de La Roche sur Yon et à demain en cours pour reparler de tout cela plus en détail ;-)

» Article initialement publié sur Affordance.info

» Illustration de Une par kimdokhac sur Flickr

]]>
http://owni.fr/2010/01/12/bnf-et-google-contribution-au-debat/feed/ 2