Synthèse
Tout d’abord, nous nous réjouissons du succès rencontré par la journée d’étude discovery tools qui s'est déroulée le 8 septembre 2011 (dont vous trouverez le compte-rendu plus bas) : 120 personnes ont assisté aux présentations et débats. De nombreux contacts ont été tissés qui favoriseront les échanges et mise en commun des savoir-faire sur ces outils de découverte.
On commencera cette synthèse par une mise en garde : les DT ne répondront pas à toutes les attentes des usagers. L’interrogation des contenus avec une seule barre de type “Google” est ce qu’ils attendent. Les DT présentent désormais ce type dl’interface et donnent l’impression que tous les contenus sont enfin accessibles depuis ce point d’entrée unique. Or, si certaines bases centrales sont correctement interrogées, d’autres le sont mal voire pas du tout. A l’heure actuelle, les éditeurs juridiques en particulier et les éditeurs francophones en général, ne souhaitent pas que leurs ressources soient indexées dans les bases de connaissances des DT. D’autre part certaines bases spécialisées comme Pubmed possèdent elles-mêmes des outils de recherche puissants qu’un DT ne peut remplacer. Pour continuer à exploiter efficacement ce type de base, il faut donc les consulter avec leur propre interface de recherche. En conséquence, la mise en place d’un DT ne dispense ni des formations à l’utilisation des bases de données ni de la médiation documentaire assurée par les personnels des bibliothèques et centres de documentation.
Par ailleurs, l’intégration d’un DT avec un SIGB peut se révéler problématique. Le travail autour de l’outil avant et pendant sa mise en oeuvre est difficilement quantifiable (tâches de conversions, interface, etc.), et est gourmand en ressources humaines. La mise en route et la maintenance de l’outil après installation nécessitent au moins 1 ETP, voire plus.
La mise en place d’un tel outil, même si elle est relativement directe, peut aussi révéler d’autres besoins annexes difficiles à prévoir, et donc à inscrire au budget prévisionnel, des problèmes techniques pré-existants, restés jusque là “silencieux”.
Enfin, il est impossible de donner accès à toutes les ressources disponibles dans les établissements sans l’ajout d’une recherche fédérée.
On manque également encore de recul sur les statistiques d’utilisation des ressources électroniques avant/après l’installation d’un DT : les relevés de statistiques côté utilisateurs proviennent uniquement des Etats-Unis et sont “encadrés” par les fournisseurs.
Propositions Couperin
Couperin propose d’assurer une veille sur ces outils jeunes et en constante évolution, d’engranger et diffuser des informations sur les retours d’expériences (notamment sur la compatibilité des logiciels entre eux), de centraliser et diffuser des informations sur l’impact statistique concernant l’utilisation des ressources, de publier des orientations pour les choix à effectuer.
Par ailleurs, Couperin se propose de sensibiliser les éditeurs sur l’utilité de l’indexation de leurs ressources dans les index qui servent de “carburant” aux DT.
Compte-rendu de la table ronde de la journée d’étude Discovery tools (du 8/09/2011)
Les participants
a) Nathalie Watrin (université Versailles-Saint Quentin) + Maud Arnaud : Primo / ExLibris
b) Christophe Pion (université Paris Diderot) + Nazim Mohammedi : Summon / Proquest
c) Sophie Forcadell (HEC) + Mathieu Ponthenier : EDS / EBSCO
d) Catherine Furet : Worldcat local / OCLC
Le débat est animé par Jérôme Kalfon et articulé autour de trois questions :
- la mise en œuvre d’un discovery tool (DT), les difficultés/facilités rencontrées
- les limites des DT
- Comment choisir un DT ? Rédaction d’un appel d’offre, grille d’analyse, constitution d’un groupe de travail, etc.
La mise en oeuvre d’un DT
a) Université de Versailles Saint-Quentin (UVSQ)
Chronologie rapide du projet :
- publication d’un appel d’offre en juin 2008
- choix du prestataire en septembre 2008
- début du travail avec ExLibris en octobre 2008
- mise en production en mars 2010 seulement
Ce retard s’explique par différents facteurs, ou cumul de handicaps :
- Intégration avec un SIGB non ExLibris
- Travail de “lookage” coûteux en temps avant de pouvoir rendre le site public
- Le reverse proxy local n’était pas EZproxy (dont ExLibris a l’habitude)
L’effectif consacré à ce projet est une équipe de 4 personnes dont aucune n’était dévolue a plein temps lors de la mise en route. Maintenant que le DT est en production, le SCD de Versailles saint Quentin évalue l’effectif nécessaire à poste à profil technique, au moins à mi-temps.
Ce n’est donc pas le DT en lui-même qui pose problème mais tous les outils qu’on cherche à faire (ou qui vont devoir) travailler avec le DT. Cette constatation est décrite comme étant la “mauvaise surprise”.
Pour prendre un exemple concret, l’articulation du SIGB Absys et du DT est décrite comme “le mariage de la carpe et du lapin” car Absys ne permet pas de donner la disponibilité en temps réel, alors que c’est un avantage que fournit Primo. L’éditeur GFI du SIGB Absys n’a pas voulu fournir de développement complémentaire parce que ce logiciel n’est plus activement maintenu.
Maintenant que l’outil est en production depuis mars 2010, les choses s’améliorent pas à pas. Des choses sont souvent à reprendre, à vérifier. C’est un investissement en personnel qu’il faut prévoir, même largement et ce dès le début du projet !
b) Université Paris Diderot
L’expérience de Paris Diderot est différente mais basée sur le même constat : les postes consacrés aux applications web et à la gestion des ressources électroniques sont trop peu nombreux.
Il n’y a pas eu d’appel d’offre à Paris Diderot mais un simple abonnement.
Une décision est prise, celle de maintenir pour l’instant le SIGB historique et relativement unique VTLS Virtua, qu’on fera évoluer ultérieurement. La liste A-to-Z est le résultat d’un développement maison (réalisé par Christophe Broquet) qui rend de très bons services mais qui est désormais insuffisante et compliquée pour les utilisateurs. Le site web actuel sous SPIP est aussi temporaire et doit bientôt évoluer. La somme de ces outils font que les points d’entrées vers l’information sont jugés beaucoup trop nombreux.
L’idée est donc de laisser le SIGB “de côté” et d’aller vers la solution qui parait la plus simple et la plus rapide à mettre en oeuvre. Le SCD de Paris Diderot a donc opté pour un outil qui devra ensuite permettre une intégration, un paramétrage et une personnalisation progressifs et plus aboutis dans le courant de l’année puisque le nouveau site web sous Drupal (+ VuFind ?) devrait être prêt au même moment.
L’outil choisi est très facile à mettre en oeuvre dès le départ : Summon s’installe en copiant simplement un morceau de code “out of the box”.
L’interfaçage avec le SIGB mentionné plus haut (relativement fermé) se passe pour l’instant bien.
Le premier rendez-vous de formation Summon a eu lieu en juin 2011.
Les équipes ont bon espoir que l’outil sera en production et stabilisé (mais sans intégration ni personnalisation aboutie) à la fin de l’année, voire plus tôt.
c) HEC
Le contexte “grande école” n’est pas tout à fait comparable à celui d’une BU. Pour donner une idée d’échelle, HEC possède 85 souscriptions à des ressources électroniques hétérogènes et très consultées : recherche scientifique, bases de données financières, de marché, comptables, etc.
Quelques chiffres complémentaires : 16 000 périodiques électroniques, 200 000 visites sur le site/portail, 1 million de recherches effectuées dans les diverses bases de données au cours de l’année écoulée.
HEC est déjà acquis à la cause de la recherche fédérée, suite à l’acquisition en 2007 d’un moteur dédié. L’adoption du DT est parue plutôt naturelle. Il existe une vraie demande des lecteurs pour ce type d’outils, déjà à l’époque du moteur de recherches fédérées.
Au moment de la mise en oeuvre du DT, de gros problèmes d’intégration SIGB Ever (se nomme désormais Flora après migration) se sont présentés.
EDS d’Ebsco est en place seulement depuis quelques mois (depuis avril 2011) avec l’objectif de basculer malgré le manque de bases connectées (à la fois dans l’outil fédéré et dans EDS).
Un fonctionnement étape par étape est privilégié et un nouveau cahier des charges sera proposé bientôt à EBSCO pour les paramétrages restants, les développements complémentaires et le tri de ce qu’il est possible de faire soi-même, etc.
L’effectif est le suivant : 1 et ½ ETP sur EDS.
Une personne avec un profil d’informaticien est en cours de recrutement pour l’administration de ces outils.
d) Worldcat Local
N’ayant pas de client en France, c’est l’expérience des quatre bibliothèques espagnoles de Castille-Leon (Burgos, Valladolid, Salamanque, Leon) qui est décrite ici par Catherine Furet.
Ce projet commun aux quatre bibliothèques a démarré en début d’année.
L’ objectif premier était de mettre en oeuvre un catalogue collectif pour travailler ensemble, pas vraiment celui d’un DT !
Les quatre bibliothèques travaillent avec le SIGB Millennium, mais paramétrés différemment, notamment l’OPAC.
Comme dans tout projet OCLC / Worldcat, la première étape a été le versement de toutes les données dans Worldcat. Aucune des bibliothèques n’y versait encore ses données.
Les difficultés de mise en place sont les suivantes : les ressources humaines pour exporter leurs données sont insuffisantes et les personnels en place possèdent peu ou pas d’expérience pratique dans l’extraction régulière. Leur fournisseur leur a fait des propositions coûteuses pour ces versements.
Le versement de ces données s’est prolongé pendant un an, avant de pouvoir passer à la phase de paramétrage, qui elle a duré six mois.
En moyenne les effectifs :sont 1 personne par bibliothèque mais pas entièrement dédiée (et pas toujours la même : webmaster, mise-à-jour de la base de connaissance).
Les autres points de la discussion
Les problèmes annexes à prendre en compte
- look de l’outil (à voir avec les services communication)
- amène des questions comme l’organisation du PEB
L’adhésion des équipes à l’adoption de ce nouvel outil
Les équipes sont généralement convaincues de l’utilité d’un DT mais lui prêtent souvent un peu trop de vertus. Attention donc à ne pas croire que l’outil sera capable de tout faire ! On retrouve ici l’exemple des bases de droits qui sont inaccessibles.
Que se passe-t-il en cas de “divorce” ?
Quelles sont les données qu’on récupère, quelles sont celles qu’on perd quand on bascule d’un produit à un autre ?
La problématique du transfert est aussi dépendante du nombre d’outils qu’on veut migrer : A-to-Z, discovery, base de connaissance, etc.
La personnalisation de l’interface réalisée est perdue, dans tous les cas.
L’investissement technique, financier et humain est lourd : on n’adopte ni ne change donc pas ces outils sur un coup de tête (c’est un peu comme pour le changement d’un SIGB).
La complétude des index (contenus francophones difficiles à connecter)
Les éditeurs francophones et principalement les bases juridiques ne veulent pas comprendre l’utilité de récupérer toutes les métadonnées dans une seule base. Toutes les bases ne sont pas interrogeables aussi facilement que d’autres. Dans le pire des cas, encore fréquent, elles ne le sont pas du tout.
Il faut donc continuer à expliquer aux étudiants la différence entre bases intégrées et bases fédérées : la médiation documentaire, voire la formation, reste primordiale pour avoir accès et pouvoir tirer partie des ressources.
Des espoirs existent de pouvoir quand même interroger ces bases via de possibles “bidouilles” : certains récupèrent eux-mêmes des données sous excel, les convertissent en xml, etc. Ces solutions sont à voir au cas par cas et sont probablement difficiles à mettre en oeuvre régulièrement et d’une façon robuste.
Couperin pourrait envisager de publier une liste qui classerait avec un code couleur (rouge, orange et vert) les éditeurs/fournisseurs et leur niveau d’accessibilité dans les DT (présence complète ou partielle dans les index). Couperin peut aussi tenter de convaincre certains de ces fournisseurs à coopérer.
La négociation du contenu par les éditeurs de logiciels est difficile : quand elle est bloquée, cela peut prendre plusieurs mois avant de se résoudre (quand cela se résoud).
Les éléments du choix pour la rédaction d’un cahier des charges
Parmi les participants à cette table ronde, il n’y pas vraiment eu d’appel d’offre stricto sensu parce que, à l’époque des premières mises en oeuvres, les DT sont des produits émergents et souvent mélangés à d’autres produits. Donc pour l’instant, seuls des abonnements à ces produits ont été négociés.
OCLC est dans une situation particulière sur ce sujet parce qu’ils n’ont peu ou pas répondu à des appels d’offre en France (ce qui explique aussi peut-être pourquoi ils n’ont pas encore de client en France).
La nécessité est soulevée d’une collaboration avec le vendeur de DT qui ne s’arrête pas à la mise en oeuvre et aux tests mais qui se poursuive ensuite. Par exemple, via des clubs utilisateurs, listes de diffusion, mise en commun de développements avec les autres clients, etc.
A l’heure actuelle, des appels d’offre et procédures MAPA commencent à voir le jour.
Les clubs utilisateurs
- Information sur les nouvelles versions
- forums
- partage d’expérience entre bibliothèques
- documentation
- réunions d’utilisateurs
Utilité d’une grille d’analyse ?
En quoi Couperin pourrait-il aider ? faut-il prévoir la formation d’un groupe de travail ?
Tenir à jour une grille d’évaluation présente des difficultés certaines : les critères changent vite et les versions se succèdent. Une grille d’analyse risque d’être toujours parcellaire et obsolète.
L’évaluation de l’outil lui-même est une chose, mais c’est l’analyse du contexte dans lequel le besoin d’un discovery tool s’exprime qui est réellement importante.
Ce qui parait plus pertinent, c’est de centraliser les expériences, de mutualiser les tests :
- compatibilités SIGB, A-to-Z, résolveur de liens / discovery
- statistiques recueillies, pour quelles ressources ?
- quelles sont les ressources qui ne sont pas du tout visibles depuis un DT donné ?
- comparaison de la couverture par rapport à la recherche fédérée
- qualité des données recueillies
pour fournir une base factuelle de critères qui aidera à orienter les choix. Il est en effet très complexe de tester ces critères avant l’achat et la mise en oeuvre.
Le prix et son évolution
Les bibliothèques sont-elles en mesure de s’offrir ces nouveaux outils ?
Les établissements ne veulent pas s’offrir un outil de découverte si cela se fait aux dépens de l’achat de ressources.
Les formules proposées sont des abonnements annuels qui sont fonction du nombre de FTE. Les fournisseurs nde veulent fournir plus de détail.
Une voie, proposée par Christophe Pion, consiste à dépenser moins pour les SIGB, en passant à des outils libres (l’offre en matière de SIGB est désormais large et éprouvée) pour pouvoir s’offrir les outils qui permettent d’exploiter les contenus électroniques pléthoriques.
Le mot de la fin, sous forme de question
Veut-on attribuer des crédits conséquents pour l’exploitation de la documentation électronique et la mise en place des outils adéquats (de gestion, de signalement) qui soient à la hauteur des collections pléthoriques actuelles ?
Le risque est :
- d’utiliser de “gros” outils qui ne travaillent pas avec toutes les ressources
- ou d’avoir des ressources très abondantes qui sont sous-utilisées faute de signalement ?
La question en creux étant celle de la proportion de la dépense qu’on doit continuer à allouer à un SIGB : doit-on prévoir une répartition différente de la charge budgétaire ? ou un passage au libre ?