Subscribe: Bloc-notes de Jean-Michel Salaün
http://blogues.ebsi.umontreal.ca/jms/rss.php
Added By: Feedage Forager Feedage Grade B rated
Language: French
Tags:
aux  avec  ces  contenu  cours  dans  des  est  les  numérique  par  pas  pour  qui  sont  sur  une  web  été 
Rate this Feed
Rate this feedRate this feedRate this feedRate this feedRate this feed
Rate this feed 1 starRate this feed 2 starRate this feed 3 starRate this feed 4 starRate this feed 5 star

Comments (0)

Feed Details and Statistics Feed Statistics
Preview: Bloc-notes de Jean-Michel Salaün

Economie du document (Bloc-notes de Jean-Michel Salaün)



Repérage de données sur l'économie des documents dans un environnement numérique



Published: Tue, 28 Oct 2014 07:11:33 -0400

Copyright: Creative Commons BY-NC
 



Information Architecture and French Document Theory

Tue, 04 Jun 2013 05:23:00 -0400

(image) This image is the logo of a new Italian master in information architecture. It's a representation of information architecture in a pervasive information environment: the subway, where stations are information units and lines the possible paths and the construction of meaning.

Andrea Resmini and Luca Rosati published in 2011 a book on Pervasive Information Architecture . A Manifesto was published at the same time. Here are its subtitles:

1. Information architectures become ecosystems

2. Users become intermediaries

3. Static becomes dynamic

4. Dynamic becomes hybrid

5. Horizontal prevails over vertical

6. Product design becomes experience design

7. Experiences become cross-media experiences

I took these two references to highlight the relationship between the proposals of the authors and the discussions held in the Pédauque group on the evolution of the notion of document (see here or there). Just replace "information architecture" by "document" or better by "neodocument" in the Manifesto, or, conversely, replace "document" by "IA" in Pédauque's texts, and you'll see the similarities. More, the concepts of "UX"and "reading/writing contract" are interchangeable and the subway map is a visualization of this contract, as are codex and typographic rules for the book. So there are possible strong cross-fertilizations between the two movements.




Architecture de l'information omniprésente et Théorie du document

Mon, 03 Jun 2013 11:44:00 -0400

Andrea Resmini et Luca Rosati ont publié en 2011 un livre sur l'architecture de l'information omniprésente (''Pervasive Information Architecture''). J'ai reproduit ci-dessous, avec leur accord, la traduction du Manifeste qui accompagne le livre. Le Manifeste ne résume pas le propos du livre qui présente une méthode pour développer cette architecture, mais il le positionne dans l'évolution du numérique ubiquitaire. L'image ci-contre est le logo du master en architecture de l'information que Luca Rosati vient d'ouvrir à Pérouse (Italie). Il s'agit d'une représentation en architecture de l'information de la navigation informationnelle : celle du métro (à ne pas confondre avec l'interface de Windows 8) où les stations représentent les unités documentaires et les lignes les parcours possibles ou encore la construction du sens. J'ai repris ces éléments pour souligner la forte parenté entre les propositions des deux auteurs et les réflexions menées dans le groupe Pédauque sur l'évolution du document (voir ici ou là). Il suffit de remplacer "architecture de l'information" par "document" ou mieux par "néodocument" dans le manifeste pour retrouver des formulations quasi-identiques. Dès lors, on peut pousser le parallèle et montrer que les notions "d'expérience-utilisateur" et de "contrat de lecture/écriture" sont interchangeables ou encore que la carte du métro est une visualisation de ce contrat, tout comme le sont le codex et les règles typographiques pour le livre. Ainsi, Il y a de fortes fertilisations croisées à attendre entre les deux mouvements. Pour une architecture de l'information omniprésente - Manifeste concevoir une expérience utilisateur transcanal - Andrea Resmini et Luca Rosatti Version originale "Le cyberespace n'est pas un lieu où l'on va, mais plutôt une surface étroitement intégrée au monde qui nous entoure" Institute For The Future 1. Les architectures d'information deviennent des écosystèmes Lorsque différents médias et différents contextes sont étroitement liés, aucun artéfact ne peut plus se présenter comme une entité isolée. Chaque artefact devient l'élément d'un système plus large. Tous ces artéfacts ont des liens et des relations multiples entre eux et doivent être conçus dans le cadre d'un unique et homogène processus d'expérience-utilisateur. 2. Les utilisateurs deviennent des intermédiaires Les utilisateurs contribuent maintenant en participant à ces écosystèmes et produisent du contenu ou re-médiatisent du contenu par des mash-ups, des commentaires ou des critiques. La distinction traditionnelle entre auteurs et lecteurs, ou producteurs et consommateurs, se réduit au point d'être inutile et vide de sens. Tout cela construit de nouvelles relations et de nouvelles significations au travers des mash-ups, des agrégateurs et des réseaux sociaux, et tous les agents contribuent au contenu par le crowdsourcing sur le web, via les wikis, les blogs et les autres outils participatifs et sur les terminaux mobiles. 3. Le statique devient dynamique D'un coté, ces architectures agrègent et mélangent du contenu qui peut physiquement être hébergé ailleurs et avoir été réalisé pour des motifs complètement différents. D'un autre coté, le rôle actif des intermédiaires les rend perpétuellement inachevé, en changement continu, toujours ouvert à de futurs ajustements et manipulations. 4. Le dynamique devient hybride Ces nouvelles architectures comprennent différents supports (physique, numérique et hybrides), différentes entités (données, objets et personnes) et différents médias. Tout comme les frontières entre producteurs et consommateurs s'effacent, celles entre les médias et les genres s'amenuisent. Toutes les expériences sont des ponts trans-canaux reliant les différents environnements. 5. L'horizontal l'emporte sur le vertical Dans ces architectures nouvelles, la corrélation entre les éléments devient la caractéristique principale, au détriment des hiérarch[...]



MOOCs et ruptures documentaires

Tue, 28 May 2013 06:01:00 -0400

Quelques réflexions rapides pour ne pas oublier les MOOCs dans la problématique de ce blogue. Je ne reviens pas sur les éléments de cette histoire récente. Parmi d'autres, on trouvera chez Olivier Ertzscheid une bonne synthèse sur la question. Mais peut-on leur appliquer une analyse "document" ? Sans épuiser le sujet, voici quelques suggestions sur les ruptures documentaires crées par le phénomène. Rappelons (voir la première partie de ce billet) d'abord que : Le document fondateur dans l'université est le cours présenté en classe, construit sur une économie directe de l'attention. L'éditeur a cristallisé et externalisé ce document académique premier dans le manuel. Ce système documentaire très ancien n'était plus adapté à l'évolution des sociétés et au partage du savoir qui caractérise le 21è siècle. Après bien des tâtonnements numériques dans l'université, les MOOCs ont ouvert une brèche dans le système, sans doute au profit de pure players du web en déplaçant le marché de l'attention. Il n'est plus, en effet, direct, mais multiface et utilise le calcul et l'algorithmie. Sur ces deux points, les acteurs traditionnels sont faibles et incompétents. Concrètement, le nouveau système s'appuie sur des plateformes agrégatives et une puissance de calcul. Dès lors : Le "massif et ouvert" casse le lien direct entre les producteurs de contenus (professeurs et éditeurs) et les apprenants. Il casse aussi le lien formel de la communauté universitaire : l'inscription de l'étudiant avec ses droits et devoirs associés, qui fonde l'économie générale de l'université en l'organisant en une sorte de phalanstère. Le jeu de lego avec des briques de petite unités documentaires cassent le temps long du cours et l'unité du manuel. Le partage et les interactions entre pairs valorisent le travail direct des internautes et l'accessibilité des unités documentaires, court-circuitant l'autorité éditoriale. Les traces reconstruisent une économie de l'attention potentielle fondée sur le profilage indirect et non plus direct comme dans le rapport professeur-élève. On n'attend plus que le couplage de la plateforme au ecommerce et à la publicité. Tout ces éléments appartiennent à l'économie du web et non à l'économie traditionnelle de la formation ou à celle de l'édition, il s'agit de redocumentarisation ou encore de l'émergence d'un système néodocumentaire appliquée à l'université. On peut penser que si le succès du phénomène se confirme, on assistera prochainement soit à la domination d'un acteur, soit à la surenchère pour le rachat des mieux placés entre les membres de l'oligopole installé. Et il n'est pas surprenant que les universités américaines en pointe sur le sujet soient celles-là même dont sont sortis les entrepreneurs du web et qui sont encore étroitement associées à leurs succès financiers. Pour celles-là les MOOCs sont aussi une opération de marketing permettant d'attirer les meilleurs étudiants à l'échelle de la planète entière, tout comme les plateformes du web se rient des frontières. Reste une troisième voie, celle dite des biens communs documentaires. Aujourd'hui, le partage est l'argument principal des institutions académiques pour promouvoir les MOOCs. Il faut être lucide et se rappeler d'abord que le même type d'idéologie généreuse, contestant l'ordre documentaire ancien fondé sur la propriété intellectuelle, a fait le lit de l'oligopole actuel du web. Néanmoins, l'université est fondée sur une mission humaniste de transmission et de partage du savoir. Par ailleurs, défendre le bien commun peut être aussi prendre la mesure de la compétition internationale en cours et valoriser les systèmes néodocumentaires nationaux. Le défi alors est d'inventer des systèmes néodocumentaires, s'appuyant sur l'efficacité des outils numériques sans nécessairement rejeter tous ceux des oligopoles du web, ni s'y faire enfermer. A suivre.[...]



Bref bilan du cours ouvert Ecodoc

Thu, 16 May 2013 05:10:00 -0400

Le cours ouvert en ligne sur l'économie du document s'est achevé fin avril. Le cours n'en est pas à sa première version. Il a précédemment été proposé en format ouvert trois fois sur le web depuis 2008. La dernière version a bénéficié des expériences précédentes, mais elle a compris aussi de nombreuses innovations. En voici un bref bilan subjectif du côté enseignant. Pour éviter une trop grande dispersion, je n'ai pas mis de lien à l'intérieur du texte. Mais il est facile d'illustrer les propos par une navigation sur le site du cours. Audience Le cours était offert, cette fois, sur deux programmes comme cours optionnel, le master en architecture de l'information de l'ENS de Lyon (2 étudiantes) et la maîtrise en sciences de l'information de l'EBSI de l'Université de Montréal (27 étudiant(e)s) et il était librement accessible sur le web par l'intermédiaire d'un blogue sur Hypothèses.org. Les statistiques de consultation ne sont pas très détaillées. Mais voici néanmoins quelques leçons que l'on peut en tirer. En terme de pages vues, la présence écrasante de la France (60%) mérite d'être notée. Même s'il existe un biais dû aux concepteurs intervenant depuis l'Hexagone, la quasi-totalité des étudiants inscrits étaient canadiens et on aurait pu s'attendre à une première place du Canada. La place des US et surtout du Bénin est aussi notable. Il semble que dans ces deux pays, le cours ait été suivi assidûment par un ou plusieurs internautes. Ainsi, l'audience du cours a très largement dépassé les étudiants inscrits, sans atteindre les chiffres astronomiques que l'on trouve souvent dans les articles sur les MOOCS. Néanmoins au delà de l'audience, la participation active est restée confinée au noyau des inscrits, alors même que tous les outils étaient ouverts. Dès lors, il est difficile d'analyser l'activité de l'audience externe. Difficile de mesurer combien d'extérieurs ont suivi régulièrement le cours, on peut penser, par exemple, que plusieurs profs d'autres institutions ont conseillé à leurs étudiants telle ou telle ressource ponctuelle. Architecture Le cours a articulé plusieurs sites ou plateforme : Moodle, la plateforme de cours de l'Université de Montréal, a été réservée aux informations de gestion en direction des étudiants inscrits. Le blogue de la plateforme Hypothèses.org a servi de porte d'entrée à l'ensemble du contenu du cours. Mon blogue personnel a accueilli des billets des étudiants. Divers outils externes ont été utilisés : Twitter avec #ecodoc pour des références sur l'actualité, pad ou Gdoc pour des écritures collectives et des dépôts de devoir, Crocodoc pour des annotations collectives (préféré à Co-ment pour la mise en page du texte, mais pb l'embouteillage des annotations), Hang-out pour un webinaire, Zotero pour la bibliographie sans parler des sources externes diverses embarquées dans le blogue. Enfin un outil de capitalisation individuelle du cours était proposé aux étudiants. J'aurai l'occasion d'y revenir plus tard. Le cours a été rythmé par des séquences hebdomadaires pour lesquelles l'objectif était chaque fois précisé qui comprenait une contribution active et partagée de l'étudiant. Chaque élément pourrait faire l'objet de longs développements que je n'ai malheureusement pas le temps de détailler. Globalement l'ensemble a bien fonctionné sans dispersion des étudiants grâce à la colonne vertébrale constituée par le blogue Hypothèses. Contenu Le contenu du cours est constitué à partir de trois ressources différentes : Les apports du professeur (textes, diaporamas sonorisés, conférences enregistrées, tweets). Remarques : la variété des supports (écrit, image, son, audiovisuel) est importante pour maintenir l'attention et limiter la fatigue cognitive ; l'apport du professeur construit la cohérence de l'ensemble et en constitue le fil roug[...]



Le Net est-il véritablement « neutre » ?

Sat, 09 Mar 2013 04:54:00 -0500

Ce billet a été rédigé par Rafael Rangel BRAGA et David SAINT-GERMAIN dans le cadre du cours Économie du document. Le principe de neutralité du Net préconise l’égalité de traitement à tout trafic de données sur le réseau. C’est le principe du “End-to-End” dans lequel l’information transite du serveur jusqu’au terminal de l’usager sans interférence. (Source : http ://optiinfo.files.wordpress.com/2012/11/quality-web-traffic2.png) C’est le principe du “End-to-End” dans lequel l’information transite du serveur jusqu’au terminal de l’usager sans interférence. Pour Bill D.Herman (http ://law.indiana.edu/fclj/pubs/v59/no1/10-HermanFINAL.pdf), le réseau est “stupide” puisqu’il ne filtre pas ce qui passe dans les conduites. Cette stupidité du réseau a pourtant permis une très grande créativité puisqu’il y avait la possibilité de créer des applications sans être limité par des contraintes imposées. Par exemple, tous les développements de mise en réseau ont été développés sur la base que le Net est neutre. Cependant, on observe la gestion discriminatoire de certains flux d’information par les organisations commerciales concurrentes, tels les fournisseurs d'accès Internet (FAI), afin de défendre leurs intérêts politiques et économiques en dépit de l’intérêt des usagers. L’inspection approfondie des paquets (IAP) est une méthode de tri employée par les FAI sur le contenu des données avant de décider comment les livrer. Par exemple, en 2007, Comcast, l’un des plus grands FAI des États-Unis, avait bloqué les applications Peer-to-Peer (P2P) sous prétexte de la gestion de la bande-passante car leurs utilisations ralentissaient l’ensemble du réseau (http ://www.nbcnews.com/id/21376597/). La neutralité d’Internet n’est pas une question uniquement technique, car elle implique des acteurs économiques et politiques (FAI, fournisseurs de contenus et de services, gouvernements) qui jouent fortement pour défendre leurs intérêts. Le principe d’équité du traitement des données implique l’architecture de l’Internet, mais aussi des enjeux de pouvoir économique et politique touchant les droits d’accès aux contenus et l’innovation dans un marché concurrentiel. Débat sur la régulation : certains à faveur... d’autres contre... Le vif débat à savoir si les gouvernements doivent imposer une politique de communication sur Internet attire des opposants et des défenseurs. Tim Wu (http ://www.jthtl.org/content/articles/V3I1/JTHTLv3i1_Wu.PDF) critique autant les acteurs à faveur de la régulation («Openists») que les opposants («Deregulationists»). Les «Deregulationists» défendent la propriété privée sur le Web comme moyen d’atteindre son meilleur usage en argumentant que le plus grand facteur de succès de l'Internet jusqu’à maintenant était le fait que les gouvernements étaient restés à l’écart. Les «Openists», quant à eux, défendent l’infrastructure publique ouverte de l’Internet, car ils la considèrent comme différente des autres réseaux de communication telles la téléphonie et la télévision. Mais une question subsiste : devons-nous donner le contrôle au gouvernement ou à l'industrie ? Quelles seraient les véritables conséquences économiques de réglementer ou non la neutralité de l’Internet ? Le risque sur le potentiel d’innovation de l’internet est aussi l’un des points souvent soulevés dans le débat. Comme le souligne Wu (http ://campus.murraystate.edu/faculty/mark.wattier/Wu2003.pdf), certaines applications se retrouvent défavorisées par la structure actuelle du Net. Par exemple, les applications récentes sont souvent beaucoup plus sensibles aux fluctuations de la bande-passante. Il s’agit d’applications comme les VoIP (Voice over the Internet Protocol), telles que Skype, ou de visionnement (Netflix et Youtube). Ainsi, il existe une justification à gére[...]



Les start-up et les bibliothèques

Sat, 09 Mar 2013 04:37:00 -0500

Ce billet a été rédigé par Jean-François Caron dans le cadre du cours Économie du document. Avant mon entrée à l’EBSI, j’avais pris l’habitude d’effectuer une veille de l’actualité reliée au domaine de la technologie. Plus précisément, je m’intéressais à la scène des start-up de la Silicon Valley. C’était ma façon de me familiariser avec celle-ci. Je voulais comprendre l’effervescence entourant l’état actuel du développement des technologies Web. Pour les moins familiers, la fin des années 1990 a été marquée par ce qu’on appelle la « bulle internet », une période pendant laquelle la valeur des actifs des entreprises des domaines de l’informatique et des télécommunications a été entretenue artificiellement par un excès de spéculation quant à sa valeur réelle. C’est l’époque pendant laquelle émergeront Google, Yahoo! Amazon et eBay. Aux alentours du début des années 2010, le débat quant à l’existence d’une deuxième bulle internet battait son plein : le Web 2.0 était maintenant une expression courante; la technologie mobile nous permettait d’accéder du contenu et des contacts via une panoplie de services; Facebook, Twitter ainsi qu’une multitude de start-up étaient apparus dans l’espace de quelques années. Il se passait de quoi et toutes ces perturbations qui changeaient le tissu du Web m’interpellaient. En tentant de comprendre la culture des start-up, je réalisais qu’une mutation se produisait sur plusieurs plans à la fois. En épousant des modèles d’affaires alternatifs, voire innovateurs, ces jeunes entreprises réussissent à révolutionner les façons de faire. Par exemple, l’application AirBnB permet à ses usagers qui cherchent un endroit à louer pour une période définie d’entrer en contact avec d’autres usagers qui sont désireux de louer leur espace. L’usage de cette application sociale a de véritables répercussions sur le marché de l’hôtellerie, particulièrement aux États-Unis. Avec l’idée qu’il est possible de perturber des secteurs complets d’activités, je me suis demandé si les bibliothèques subissaient déjà de telles perturbations. Est-il possible qu’une perturbation plus profonde aille lieu ? D’abord, le numérique bouleverse depuis déjà un bout de temps les bibliothèques ne serait-ce que concernant le prêt numérique. Le modèle d’affaires des bibliothèques est assurément déranger par les différents services qu’offrent Google (Books, Scholar, News) et Amazon (Kindle), notamment par l’accès de plus en plus facile à des livres et des articles tant en format papier que numérique. Les articles de périodiques généralement disponibles à travers les services d’accès aux bases de données propriétaires qu’offrent les bibliothèques font également face à la popularité grandissante des dépôts numériques en accès libre. Dans les start-up, les espaces de travail ont une importance assez marqué dans la culture d’entreprise. Récemment, l’aménagement de l’espace dans les bibliothèques est aussi l’objet d’une forme de réorganisation. D’ailleurs, on assiste actuellement, au Québec, à la construction d’espaces de collaboration ou de co-travail. Espaces temps, une entreprise sociale, qu’on pourrait qualifier de start-up, commence à se faire un nom au niveau de la conceptualisation de ce genre d’espace. Espaces temps a notamment collaboré à la mise en place de l’Espace 3C à la bibliothèque de l’École de technologie supérieure à Montréal.   Enfin, un article a été publié dernièrement avec l’idée que les bibliothèques ont toutes les ressources nécessaires afin de jouer le rôle d’incubateur de start-up. De fait, plusieurs bibliothèques américaines ont fondé l’Alexandria Network qui se veut un réseau de bibliothèques pouvant favoriser le développement de start-u[...]



Internet : la gratuité pour l’un, c’est payant pour l’autre

Sat, 09 Mar 2013 04:24:00 -0500

Ce billet a été rédigé par Eve Morin Desrosiers et Nadir El Alami dans le cadre du cours Economie du document.  Moyennant certains coûts fixes associés à l’acquisition de matériels et d’un accès au web fournis par un fournisseur s’ouvre la porte vers un univers de possibilités et de découvertes. Le web est pour l’utilisateur une vaste étendue qu’il peut explorer pour glaner une information çà et là sans le moindre coût additionnel. Il offre des opportunités d’affaires et de partage infini pour l’utilisateur avisé. Toutefois, cette économie du gratuit ou freeecomics comme le nomme Chris Anderson profite grandement aux entreprises, qui, à coups de milliards de profits, dictent leurs règles d’utilisation du web. Gratuité : source de partage et d’échange pour les utilisateurs Qui n’a pas rédigé un blogue ? Qui n’a pas collaboré à un forum d’entraide ? Dans cet univers gratuit du web, deux logiques s’opposent, respectant un principe simple d’économie basé sur l’offre et la demande. L’utilisateur produit du contenu et consomme du contenu gratuit. En fait, le web est né de cet esprit de collaboration et d’échange. Les activités liées au commerce ne sont qu’une partie de ce qui est produit et offert sur le web. La gratuité du web n’est pas que basée sur une logique marchande. Elle est également basée sur celle du don, de la coopération et du partage où les utilisateurs jouent un rôle central (Dang Nguyen, 2012). Le web offre un espace de liberté où les utilisateurs donnent de leur temps pour animer des blogues; entretiennent des forums de discussions, d’entraide et d’échange; créent des sites et mettent au point des logiciels de façon collaborative libre de droit. Ce contenu est par la suite consommé, partagé par les utilisateurs qui eux même peuvent collaborer à améliorer le contenu. Afin d'illustrer l’ampleur de ce phénomène de partage, en 2012, 60 heures de vidéos ont été téléversées toutes les minutes  sur YouTube et plus de 4 milliards de vidéos y sont visionnés chaque jour (Landivar, 2012). À l’extrême, cette gratuité permet à certains utilisateurs de faire fi du respect des droits d’auteur et de la propriété intellectuelle qui régissent l’activité commerciale. Ces utilisateurs profitent du web pour pirater le contenu de sites; pour partager des logiciels, des films et de la musique populaire exprimant ainsi un certain esprit anticapitaliste. Gratuité : source de profit pour les entreprises À moins d'être des organismes à but non lucratif à l'instar de Wikipédia, les entreprises sur le web aspirent à créer de la valeur et à générer des profits pour leurs actionnaires tirant profit de cette gratuité du web. Elles ont de ce fait un modèle d'affaires dans lequel elles offrent un service leur permettant des rentrées d'argent suffisamment importantes pour couvrir leurs charges et dégager des bénéfices. La désillusion créée par la première bulle financière d'internet au début des années 2000 où nous avons assisté à la disparition d'entités proposant des services plus ou moins farfelus sur le web a eu au moins le mérite d'assainir le marché et de nous rappeler l'implacable logique économique qui ne rémunère que la création de la valeur. Et c'est désormais les entreprises qui s'appuient sur un modèle économique solide qui survivent, même si elles offrent leurs services sans contrepartie apparente aux utilisateurs. Aujourd'hui, la sphère productive virtuelle est traversée par deux courants diamétralement opposés, d'un côté un courant progressiste qui veut faire profiter les avantages de la révolution numérique à tous les usagers sans rétribution et qui milite en faveur de la gratuité. De l’autre, les conservateurs qui essayent d'appliquer la logique et les équilibres de l'ère indust[...]



L’ouverture des données favorise-t-elle l’économie ?

Sat, 09 Mar 2013 04:18:00 -0500

Ce billet a été rédigé par Adam Sofineti et Marilyne Veilleux dans le cadre du cours Economie du document. De nombreux arguments sont mis de l’avant pour justifier et expliquer les bénéfices émergeant de l’ouverture des données. Bien que les arguments politiques (démocratie, participation citoyenne, transparence, etc.) soient plus souvent qu’autrement mis de l’avant, les arguments économiques ne sont pas à négliger. Ce court billet présentera en premier lieu quelques éléments essentiels à comprendre au sujet des données ouvertes. Par la suite, deux initiatives concrètes nées de l’ouverture des données publiques seront rapidement présentées, afin d’illustrer comment les données ouvertes stimulent l’innovation et permettent d’améliorer la vie quotidienne des citoyens. 1. Éléments à garder en tête 1.1. Donnée ou information ? Ma situation géographique enregistrée dans mon téléphone intelligent, la vitesse de mes déplacements, la température extérieure, le nombre de citoyens utilisant les transports en commun, etc. : pratiquement tout ce qui nous entoure est « donnée ». Une donnée est, de par sa définition, brute. Elle n’est pas encore interprétée et c’est ce qui la différencie d’une information. En ce sens, une donnée est manipulable, interprétable, traitable et analysable, tandis qu’une information a été contextualisée et mise en forme. Par exemple, le fait que 74,61% des Québécois se soient rendus aux urnes en 2012 est une donnée brute qui n’a pas été traitée. Par contre, si je lis dans un journal qu’un plus grand nombre de Québécois ont voté l’an dernier que lors des élections de 2008, il s’agit d’une information : la donnée a été traitée et interprétée. 1.2. Donnée ouverte Pour qu’une donnée soit considérée comme étant « ouverte », elle doit répondre à plusieurs critères d’ordres technique, juridique et économique : elle doit être disponible dans un format facilitant sa réutilisation, ses licences d’utilisation ne doivent pas restreindre son utilisation et la réutilisation de cette donnée ne doit pas engendrer de redevances qui pourraient constituer un frein économique pour le citoyen. À ce sujet, la ville de Montréal a adopté une liste de 10 principes de la donnée ouverte allant dans le même sens : les données ouvertes sont complètes, primaires, opportunes, accessibles, exploitables, non discriminatoires, non propriétaires, libres de droits, permanentes et disponibles à moindre coût (pour des définitions de ces concepts, visitez http://donnees.ville.montreal.qc.ca/demarche/dix-principes/). 1.3. Transparence et respect de la vie privée Lorsque la décision de libérer des données est prise, la protection des informations personnelles est un enjeu de premier plan. Avant de publier des données publiques, l’institution détentrice doit s’assurer qu’elles sont bien anonymes. En ce qui concerne les données personnelles, l’accès à celles-ci ne doit être possible que pour l’individu concerné, via un portail web sécurisé. Trouver l’équilibre entre la transparence et le respect de la vie privée est essentiel afin de préserver la confiance qu’éprouvent les citoyens envers leurs institutions. Ces deux aspects (la transparence et le respect de la vie privée) sont compatibles aussi longtemps que de bonnes structures de gouvernance sont en place. Pour plus d'information à ce sujet, nous vous recommandons de consulter le Open Data White Paper: Unleashing the Potential du gouvernement britannique. 2. Exemples d’initiatives 2.1. Handimap Les données ouvertes de la ville de Rennes en France a donné lieu en 2011 à un concours nommé « Rennes Métropole en accès libre » (http://www.data.rennes-metropole.fr/) visant à récompenser les idées de services innov[...]



Économie de la contribution, économie de l'information en réseau ou économie de la pollinisation : des effets du Web

Sat, 09 Mar 2013 04:13:00 -0500

Ce billet a été rédigé par Julie Hermann et Christian Lachance dans le cadre du cours Économie du document. La prolifération des contenus créés et disponibles sur le Web fait en sorte que les créateurs sont devenus des compétiteurs sur le « marché de l’attention ». On pourrait pourtant argumenter qu’au contraire, les mécanismes du Web, ainsi que la plus grande accessibilité des contenus et des outils, offrent aux créateurs une possibilité jamais égalée de travailler non pas en compétition, mais en collaboration. C’est d’ailleurs la thèse du philosophe français Bernard Stiegler : l’essor du numérique et des réseaux – particulièrement d’Internet – permettrait rien de moins qu’un nouveau modèle économique qui concurrencerait les modèles dominants, l’économie de marché, l’économie publique (les savoirs publics) et l’économie du don. Il nomme celui-ci l’économie de la contribution. AMATEURS DE TOUS LES PAYS, UNISSEZ-VOUS... Le modèle de l’économie de la contribution suppose une transformation du profil des « travailleurs » parce que les contributeurs sont le plus souvent des amateurs non rémunérés qui agissent librement, suivant leurs motivations personnelles, leurs habiletés et leurs préférences. Ce modèle tranche avec l’économie de marché puisqu’il est fondé sur la participation active de plusieurs individus à des réalisations non par contrainte (salaire, licenciement), mais par intérêt. De plus, il se caractérise par une atomisation des efforts consentis, situation bien représentée par le concept similaire et très imagé d’« économie de la pollinisation » proposé par Yann Moulier-Boutang. La contribution est donc à la fois formatrice et bénéfique pour ceux qui la fournissent, stimulant chez eux l’acquisition de compétences, phénomène que Stiegler qualifie de « déprolétarisation des acteurs ». Sur le Web, l’organisation de la production de l’information change : c'est le passage au Web dit 2.0 et l'abandon progressif de la structure verticale, où l'information descendait d'un nombre restreint de producteurs vers une masse de consommateurs passifs, pour un modèle horizontal, où la circulation se fait de plus en plus en réseau, avec l'émergence d'une production plus décentralisée, hors marché et non propriétaire. Yoachai Benkler parle justement à cet effet d’une économie de l’information en réseau, concept très similaire à celui de l’économie de la contribution, et qu’il définit en ces termes dans le livre The Wealth of Networks : How Social Production Transforms Markets and Freedom : L’économie de l’information en réseau est caractérisée par le fait que l’action individuelle décentralisée (en particulier l’action collective et coordonnée, innovante et importante, mise en œuvre par le biais de mécanismes non marchands, distribués sans restriction, ne reposant pas sur des approches stratégiques propriétaires) joue un rôle beaucoup plus important qu’elle ne l’a fait, ou n’aurait pu le faire, par le passé, dans le cadre de l’économie de l’information industrielle. (Extrait de la traduction française, La richesse des réseaux, paru aux Presses universitaires de Lyon). Alors que seuls les industriels disposaient des moyens matériels et financiers nécessaires à la production et à la diffusion de l’information, le numérique change la donne. Il y a beaucoup moins de contraintes matérielles majeures; la barrière à l'entrée a été considérablement abaissée. Tous peuvent produire et diffuser de l’information. On assiste donc à l’avènement d’une production hors marché, à l’essor de projets collectifs innovants, efficaces et à grande échelle qui ne répondent plus à la stratégie essentiellement marchande des industriels-propr[...]



L’information à tous vents : quelques effets du numérique sur la presse

Thu, 07 Mar 2013 07:43:00 -0500

Le billet a été rédigé par Josée de Bellefeuille et Audrey Larivière  dans le cadre du cours Économie du document. Avec la multiplication des plateformes (ordinateurs, tablettes, téléphones intelligents), vient la multiplication des moyens de consommation de l’information. Alors qu’il n’y a pas si longtemps, l’humain se contentait de consulter les journaux écrits imprimés sur du papier, voilà qu’il se voit proposer la lecture des actualités à l’écran. D’abord contraint à la sédentarité avec l’ordinateur au début du Web, les nouveaux outils redonnent au lecteur sa mobilité. Dans ce contexte, le modèle de la presse, développé selon la tradition du papier, survivra-t-il au numérique ? Préférences générationnelles La consultation des actualités constitue une activité qui s’ancre dans le quotidien. Ainsi, elle sera dirigée par des habitudes de consommation. Celles-ci varient selon les individus et les générations auxquelles ils appartiennent. Selon un sondage du Pew Research Center for the People and the Press, les Étatsuniens âgés de plus de 65 ans sont les plus nombreux à recourir à la presse imprimée pour s’informer (48% d’entre eux le font) et les moins nombreux à consulter des sources numériques en ligne (23%). À l’inverse, les 18-24 ans, la tranche d’âge la plus jeune considérée pour le sondage, sont ceux qui lisent le moins les journaux papier (6%), préférant le contenu en ligne (41%). Toujours selon les résultats de ce sondage, les 18 à 29 ans consultent davantage la presse numérique que la presse papier, alors que c’est l’inverse pour les 40 ans et plus et égal pour la tranche d’âge de 30-39 ans. Selon ces chiffres, si les habitudes individuelles demeuraient les mêmes, la consommation de la presse papier perdrait du terrain au profit de la presse numérique puisque les plus âgés, plus grands consommateurs de l’imprimé, décéderont alors que se poursuivra la lignée des natifs numériques.  Bref, même indépendamment des changements de consommation individuelle, des changements de consommation humaine globaux s’opèrent. Mais les habitudes de consultation informationnelle des individus changent-elles réellement si peu ? Plateformes de consultation L’utilisation d’Internet et le modèle de partage qu’il présente ont engendré des habitudes de consommation qui sont maintenant ancrées chez les utilisateurs. L’accès à l’information est affecté par les attentes : on cherche la rapidité et la facilité lors de la recherche et la consultation de l’information. Les moteurs de recherche populaires - comme Google - permettent de trouver de nombreux articles en ligne. À partir d’une recherche portant sur un sujet précis, il est possible d’accéder à un contenu en lien avec le thème recherché. Les hyperliens et les références des articles en ligne sont d’autres façons de parcourir l’information numérique. Ces hyperliens sont même présentés comme une convention de base à respecter dans le journalisme numérique. Le lecteur sur le web s’attend à pouvoir rapidement vérifier les sources des journalistes et des rédacteurs. Par ailleurs, les appareils mobiles ont un rôle central à jouer dans le développement de la presse dans le monde numérique. En Amérique du Nord, l’augmentation des ventes d’appareils mobiles produit ce que certains appellent la migration de la consultation des journaux. La relation est simple : plus d’appareils mobiles sont vendus, plus le niveau de fréquentation des sites de nouvelles augmente. Les lecteurs consultent donc davantage les nouvelles à partir de leurs appareils. Selon une étude de Nielsen, en 2011, la fréquentation des 25 sites de nouvelles les plus visités a augmenté de 17%. To[...]



La télévision, en tant que média, est-elle sur le point de disparaître ?

Thu, 07 Mar 2013 07:38:00 -0500

Ce billet a été rédigé par Marc Rivest et Godefroy Clément dans le cadre du cours Économie du document. Il semble que ce ne soit pas le cas pour l'instant. Les statistiques démontrent que le pourcentage de la population qui consomme une télévision traditionnelle est encore très élevé. Cela s’explique principalement parce que la télévision jouit d’une crédibilité en tant que média, parce qu’elle a su fidéliser un public qui intègre la télévision dans ses habitudes de vie et parce que la machine  publicitaire s’insère bien dans les rouages de son infrastructure. Des signes évidents montrent que les “nouvelles” plateformes Web de diffusion de contenu audiovisuel tendent à gruger l’écart. En effet, la multiplication de nouveaux canaux de diffusion des contenus vient accaparer un pourcentage non négligeable du « temps loisir » des usagers. Quelqu’un qui passe des heures à visionner du contenu sur YouTube, ne le passera évidemment pas à regarder la télévision. Chaque usager a une limite de « temps loisir » à consacrer dans une semaine et il le partagera à sa guise selon ses intérêts. On remarque que le temps passé sur le Web augmente considérablement depuis la dernière décennie. Des aspects qui jouent en faveur des nouvelles plateformes Web pour visionner du contenu audiovisuel sont la grande diversité du contenu et la possibilité d’interactivité avec celui-ci. En effet, autrefois, un individu avait un choix limité de contenus à regarder et était plutôt passif face à son écran de télévision. Aujourd’hui, il a une multitude de choix. L’usager est en mesure de se bâtir une programmation sur mesure et n’est plus tributaire de l’agenda télévisuel. La télévision 2.0 caractérisée par l’interactivité et le contenu généré par les usagers sont des aspects attrayants qui contribuent à faire migrer les usagers vers les nouvelles plateformes Web de diffusion. Plateforme Web vs télévision, un modèle économique pas si différent ? La raison première de la télévision est de faire de l’argent. L'industrie de la télévision obtient ses revenus via les annonceurs (publicités en ondes) et via les abonnements pour les chaînes spécialisées. Bref, si on transporte sur Internet la diffusion d'un contenu audiovisuel, la même stratégie économique semble effective, c'est-à-dire avec la présence de publicité (ex: YouTube) ou par des abonnements payants (ex: Netflix). Il y a cependant des stratégies qui peuvent être utilisées au niveau des plateformes Web qui ne peuvent pas l’être via la télévision, c’est-à-dire l’exploitation des traces laissées par les internautes. L’interactivité est un plus pour expérimenter un contenu audiovisuel sur le Web, mais en revanche, les données publiées par les internautes peuvent être reprises à des fins commerciales. Les hommes politiques peuvent-ils se passer de la télévision ? L’impact de la montée en popularité de nouvelles plateformes vidéo comme Youtube a plusieurs aspects : il  n’est pas seulement économique ou culturel, il est aussi, semble-t-il, politique. On se rappelle tous des élections américaines avec l’utilisation des médias sociaux par l’équipe de  Barack Obama. Une nouvelle ère s’annonçait… mais les démocrates s’appuyaient encore sur les médias traditionnels comme la télévision. Or, en Italie, cette stratégie prend un nouveau tournant : avec un certain succès, le candidat populiste Beppe Grillo et son équipe font campagne en boycottant (pour reprendre le terme de l’article) la télévision. Bien que l’Italie connaisse de graves problèmes politiques et économiques, il s’agit d’une campagne électorale menée dans un pays important. L’Italie[...]



Finalement, Internet a-t-il tué l'industrie de la musique ?

Thu, 07 Mar 2013 07:32:00 -0500

Ce billet a été rédigé par Elaine Sirois et Annick de Vries dans le cadre du cours Économie du document. L'année 2011 marque un point tournant pour l'industrie de la musique dans le monde. Selon l'International Federation of the Phonographic Industry (IFPI), dans plusieurs pays les lois anti-piratages commencent à faire leur effet sur le comportement des internautes et sur les ventes. Par exemple en France, la loi Hadopi permet d'envoyer des notices aux usagers qui utilisent des services d'échanges de fichiers en ligne (peer-to-peer ou P2P). En effet, grâce à cette loi, plus de 700,000 notices ont été envoyées aux usagers1. La firme Nielsen, pour le compte de l’IFPI a constaté que l’utilisation des réseaux P2P non-autorisés a diminué de 26 % depuis octobre 20101, correspondant avec le début de l’envoi des notices. On constate le même phénomène en Nouvelle- Zélande, en Corée du Sud, aux États-Unis et en Allemagne. D’autres mesures concernent la collaboration avec les ISP (Internet Sercice Providers). Aux États-Unis, en Belgique et en Italie des ordres de la Cour ont forcé les ISP à bloquer l'accès à des sites pirates comme The Pirate Bay ou BTJunkie. Cela a eu pour effet de réduire ce genre de services aux internautes d’environ 70 %1. Ensuite, l’industrie de la musique a demandé une meilleure collaboration des compagnies d'engins de recherche comme Google, parce qu’il est trop facile, selon eux de trouver des fichiers mp3 gratuitement et illégalement. Avec la collaboration d’agents anti-piratage, l’industrie du disque a pu, via une nouvelle technologie automatisée, enlever 15 millions de tracks illégaux, une augmentation de 115 % par rapport à 20101. Des ventes en ligne en force La vente de musique en ligne commence à rapporter. En 2011, l'IFPI estime que 3,6 milliards de téléchargements ont été achetés à travers le monde1. C'est une augmentation de 17% par rapport à l'année précédente. La même année, iTunes s'est implanté dans 28 nouveaux pays, incluant tous les membres de l'Union européenne et seize pays d'Amérique latine.1 C'est donc un marché qui prend de l'expansion. Cependant, notons que l'achat de musique ne représente que 25% des opérations en ligne liées à la musique.2 Un nouveau joueur de taille : le streaming Dix ans après qu'iTunes ait révolutionné le monde avec ses iTunes Stores, l'industrie de la musique subit une nouvelle transformation numérique radicale avec les consommateurs qui migrent du CD et du téléchargement vers des services de streaming comme Spotify, Pandora, Deezer et Youtube, Anghami au Moyen-Orient et Dhingana et Saavn en Inde. C'est aujourd'hui le streaming qui occupe la plus grande place du marché numérique (les trois quarts des opérations liées à la musique en août 20112). Ben Sisario parle carrément de cannibalisation du téléchargement par le streaming.3 Pour les propriétaires de ces sites, qui versent des droits d'écoute auprès des compagnies de disques, le streaming est la voie de l'avenir. Bien que les revenus soient encore relativement modestes par rapport aux autres secteurs de l'industrie, ils augmentent d'année en année. Ainsi, en 2010 Spotify a augmenté ses revenus de 458% et ont atteint 99 millions de dollars US3. L'IFPI, quant à elle, estime à 13.4 millions le nombre d'utilisateurs inscrits sur des sites de streaming en 2011 comparativement à 8.2 millions l'année précédente3. C'est une augmentation de 65%. Mais ce n’est pas la manne (encore) Cependant, et c'est là le problème, les droits versés par ces sites de streaming aux compagnies de disques sont très faibles. Ils sont de l'ordre d'environ ½ cent par écoute3. C'est très peu comparativement à ce que rapporte la[...]



A l’heure du numérique, y’a-t-il encore photo ?

Thu, 07 Mar 2013 05:34:00 -0500

Ce billet a été rédigé par Mélissa Hernandez et Amandine Alcolei dans le cadre du cours Économie du document. Peut-on encore être photographe professionnel aujourd’hui ? Sous forme de réponse ouverte, ce billet esquisse des pistes de réflexion pour envisager le métier de photographe à l’heure de la révolution numérique. Qu’est-ce qu’un photographe professionnel ? Pour la photographie comme pour de nombreuses autres disciplines, la distinction entre le professionnel et l’amateur se fait sur un critère : l’aspect lucratif ou non lucratif de l’activité. Ainsi, ce qui distingue le professionnel de l’amateur, c’est que le premier exerce son activité contre rémunération tandis que le second ne touche pas d’argent pour le travail qu’il effectue, ce travail étant souvent assimilé à une passion. Mais n’existe-t-il aujourd’hui qu’une seule manière d’être photographe professionnel ? A en croire l’Union des Photographes Professionnels (UPP), il y aurait au moins 3 types de photographes professionnels : l’auteur-photographe (le créateur, proche de l’artiste), le journaliste (le photographe reporter) et l’artisan-commerçant (l’entrepreneur). Il s’agit donc de garder à l’esprit cette diversité et de voir que le numérique n’a pas nécessairement la même influence sur chacun de ces types de photographes. La photographie en 2013, une photographie au coeur de la révolution numérique Le terme de révolution numérique fait référence au bouleversement induit par l’arrivée des outils et technologies numériques dans nos vies. La photographie est un domaine qui a été réellement impacté par cette révolution numérique. Selon l’article de Sylvain Maresca et Dominique Sagot-Duvauroux, la révolution numérique en photographie se décline selon quatre dimensions : la numérisation des images professionnelles, la prise de vue avec des appareils numériques, la diffusion massive d’images à prix très bas dans des banques d’images et, plus récemment, le développement d’images en 3D. Vers une transformation du métier de photographe : moins de prises de vue, plus d’activités annexes La révolution numérique a notamment eu pour conséquence de forcer les professionnels à diversifier leur activité ; l’un des paradoxes du numérique est en effet d’avoir augmenté les coûts de production (matériel rapidement obsolète non rentabilisable) et diminué le prix de vente de la photo. Ainsi, il est devenu nécessaire de trouver d’autres moyens de gagner de l’argent, dérivés de la photographie : travail de post-traitement, indexation, édition, animation de stages et entreprenariat culturel. Appliquer les droits d’auteur sur le Web : une nécessité et un défi Comme dans d’autres domaines, à l’heure du numérique se pose la question des droits d’auteur et du respect de leur application sur le Web notamment. En effet, qu’il soit professionnel ou amateur, le photographe est considéré comme un auteur. Ses photographies, qui doivent tout de même avoir un caractère original, sont des oeuvres de l’esprit protégées par le code de la propriété intellectuelle (pilier de la singularité). Or, via notamment l'avènement du web 2.0, les photographies sont de plus en plus récupérées et diffusées sans égard pour le droit d’auteur, difficile à appliquer dans le contexte du numérique. En effet, contrairement aux photographies argentiques, les photographies numériques sont des biens non-rivaux, difficiles à supprimer, facilement multipliables et bien souvent le fichier original n’est pas conservé. Ce rapport du Ministère de la Culture et de la Communication, datant de 2010, affirme que le non-respect de[...]



© Sommes-nous devant l'obsolescence du droit d'auteur ?

Thu, 07 Mar 2013 05:29:00 -0500

Ce billet a été rédigé par Pascale Messier et Loubna Mebtoul dans le cadre du cours Économie du document. Nul ne peut nier le fait d’avoir partagé une vidéo sur Facebook avec la meilleure intention de se partager l’information ou le plaisir avec ses amis ou son réseau. Mais y a-t-il quelqu’un qui s’est demandé si cette pratique est tout à fait légale ? Tellement l’acte est devenu facile, commun, habituel qu’il ne suscite point un questionnement préalable sur sa conformité ou non avec les droits d’auteur. D'un autre côté, le droit d'auteur a-t-il sa place dans l'univers numérique? Si oui, peut-il garder sa forme actuelle? Avant d’embarquer sur le sujet des droits d’auteur dans le contexte numérique, voir ici une petite introduction aux notions de droits d’auteur et cadre juridique en France et au Canada. Téléchargement illégal et partage L’avènement du web a fait surgir une « voracité » de consommation chez les internautes. Le comportement de l’internaute s’est modifié avec l’apparition des médias sociaux. Avant, l’utilisateur se contentait de naviguer, s’informer, à la limite télécharger pour un usage privé ou encore pour un groupe restreint de son entourage. L’apparition des réseaux sociaux a malmené tout le paysage. On assiste de plus en plus à des partages sans cesse croissants de vidéos, de musiques, d’images, de livres, bref de tout contenu sur la toile. Plusieurs pensent que le web est une zone qui ne rime pas avec règles et privilégient plutôt liberté et échange. Dans cette perspective, la création de blogues et l’appropriation de contenu sans citation de sources sont devenues choses courantes dans le monde numérique. À ce propos, ce billet présente une petite revue d’évènements récents liés à l’usage de marques déposées. L’atteinte des droits d’auteur dans le contexte numérique se manifeste sous divers aspects. Le téléchargement illégal et le partage à grande échelle sont les principaux usages dénigrés par les industriels. Aucun domaine n’échappe à ce phénomène : du domaine médical, jusqu’aux industries culturelles passant par le domaine juridique. L’usage des P2P a favorisé les échanges. Il rend la censure et les attaques légales ou pirates plus difficiles, ce qui complique encore l’affaire au législateur. Mais est-ce que tout ce qu’on télécharge et partage est soumis aux droits d’auteurs ? Si tel est le cas où est la place du droit de savoir et de la démocratisation des connaissances? La réponse à ces questionnements se trouve « peut-être » dans la décision de principe rendue en 2004 dans la cause CCH Canadien Ltée c. Barreau du Haut-Canada. Selon cette décision, six facteurs permettent de déterminer si une utilisation est équitable ou non : le but de l’utilisation; la nature de l’utilisation; l’ampleur de l’utilisation; la nature de l’œuvre; les solutions de rechange à l’utilisation; et ’effet de l’utilisation sur l’œuvre Mais, en réalité, ces facteurs sont-ils respectés et suivis à la lettre? La réponse peut supporter « oui » et « non ». Un exemple illustrant l’usage équitable de la reproduction et la diffusion d’un article du journal médical « Médecin de famille canadien (MFC) » est fort éloquent à cet égard. Quoique si on change de domaine et on vise plus l’industrie musicale, l’affaire est tout à fait divergente et rien ne garantit le respect des six facteurs précités. Du moins le sixième facteur : l’effet de l’utilisation sur l’œuvre. Les répercussions du piratage des morceaux musicaux ou d’un album sont évidentes et bien lourdes. Le téléchargement i[...]



La définition de la valeur économique d’une bibliothèque publique, une nécessité pour sa survie ?

Thu, 28 Feb 2013 03:34:00 -0500

Ce billet a été rédigé par Monique Tremblay et Catherine Dugas dans le cadre du cours Économie du document. En cette ère de compressions budgétaires, tous les services gouvernementaux sont remis en question – et les bibliothèques publiques ne font pas exception à la règle. Pour survivre et prospérer, les bibliothèques publiques doivent démontrer que les avantages qu’elles génèrent pour la société surpassent les coûts. Mais les bibliothèques publiques n’étant pas des entités économiques standards – où les services rendus le sont contre rémunération – l’utilisation d’outils mesurant le rendement financier n’est pas approprié. Alors comment mesurer la valeur économique des bibliothèques publiques? Il n’y a toujours pas, à l’heure actuelle, de consensus sur la méthodologie à utiliser. Les chercheurs dans le domaine sont toutefois très actifs et continuent leurs travaux. Un éventail de méthodes Plusieurs bibliothèques utilisent la méthode de l’analyse coûts/bénéfices, qui consiste à demander aux utilisateurs de quantifier la valeur qu’ils accordent aux différents services rendus. Si le coût de ces services est moindre que les bénéfices, le ratio coût/bénéfice est positif. À ce jour, le ratio de la plupart des bibliothèques évaluées a été de 3:1 ou plus, ce qui est un résultat supérieur à ceux obtenus dans d’autres domaines du secteur public – entre autres en santé, éducation et transport.1 Une autre méthode souvent utilisée est celle de l’évaluation contingente (contingent valuation). Il s’agit d’une méthode qui se sert d’enquêtes pour estimer la valeur des biens publics. On crée ainsi un marché hypothétique, dans lequel les répondants doivent prendre des décisions économiques : combien sont-ils prêts à payer pour tel niveau de service (WTP : willingness to pay) ou encore de combien leurs comptes de taxes devraient-ils baisser pour accepter que ce service soit aboli (WTA : willingness to accept). En utilisant cette méthode pour évaluer les bibliothèques publiques de la Norvège, Aabo2 a obtenu un rapport coûts-avantages très positif de 1 pour 4 (2005). De son côté, la British Library3 a fait l’exercice en 2003. L’étude est arrivée à la conclusion que chaque année, la British Library génère une valeur 4.4 fois plus grande que ce qu’elle coûte en fonds publics. “ You must value yourself in today’s economy. If you don’t, you have no value.” — Tim Lynch, Florida State University Center for Economic Forecasting 1 Cette nouvelle pression pour donner une valeur « économique » aux bibliothèques publiques a toutefois quelques effets pervers, notamment dans le monde anglo-saxon. En effet, certaines études – dont Making cities stronger : Public library contributions to local economic development réalisée en 2007 par « Urban Libraries Council »4 - invitent les bibliothèques  publiques à accorder une plus grande place aux besoins du milieu des affaires afin d’accroître la valeur économique de celles-ci. Ce rapport recommande notamment aux bibliothèques publiques d’investir davantage dans les bases de données d’affaires et de former le personnel afin qu’il puisse répondre aux besoins de ce domaine. On incite ainsi les bibliothèques à devenir des partenaires du développement économique en bonifiant l'offre de services aux compagnies locales, aux chercheurs d'emplois ainsi qu'en offrant des formations sur l'utilisation des ordinateurs - ce qui diminueraient les coûts de formation pour les entreprises. On semble vouloir évacuer toute la dimension  « ludique » des bibliothèqu[...]



L’autoédition ; solution à la censure du marché ?

Thu, 28 Feb 2013 03:17:00 -0500

Billet rédigé par Sarah-Kim Poirier et Catherine Racicot pour le cours Économie du document L’autoédition est une pratique qui remonte à bien longtemps. Contrairement à l’auto-publication, l’autoédition implique une autonomie complète de l’auteur quant au contenu, à la forme ainsi qu’à la diffusion de son œuvre. Si l’auteur en question fait appel à des services d’autoédition, ces services sont limités à la seule production du document. En ce sens, l’autoédition est un moyen de pallier à la censure. Orchestrée par les joueurs les plus influents du milieu littéraire, la censure du marché est bien présente. L’autoédition est une avenue qui permet à l’auteur de contourner cet obstacle. Cette pratique comporte plusieurs avantages, mais également quelques inconvénients. Avantages de l’autoédition L’autoédition permet tout d’abord à l’auteur de s’affranchir des modèles traditionnels de l’édition et de la publication. Elle épargne à l'auteur « les douloureuses étapes de relecture et de corrections, lui permettant de dévoiler son œuvre sans filtre et d'entretenir une relation plus directe avec ses lecteurs, en plus de lui permettre un accès plus direct aux profits générés par la vente de son livre» (Couture, 2012). L’autoédition permet surtout à l’auteur de publier ses ouvrages malgré le fait que le contenu ou le ton de ces documents ne coïncident pas avec les lignes éditoriales des maisons d’édition ou avec la tendance littéraire du moment (Couture, 2012). Enfin, l’autoédition offre la chance à l’auteur de devenir «entrepreneur de sa notoriété». En effet, n’ayant pas accès au monde de l’édition traditionnelle, l’auteur qui choisit l’autoédition peut s’engager dans un « réseau d’auteurs-lecteurs qui fabrique un tissu dense de promotions croisées permet[tant] de progresser collectivement dans la visibilité» (Beaudouin, 2012). Le milieu de l'autoédition n'a pas souffert de l'émergence du numérique. Au contraire, certains quotidiens parlent de «résurgence» du livre indépendant car l'édition se démocratise et qu’il est plus facile que jamais de publier pour une somme modique (Laurence, 2011). Les ouvrages publiés selon ce procédé font également moins l’objet de préjugés qu’auparavant. « Il y a encore dix ans, autoédition rimait avec compte d’auteur et arnaque, aujourd’hui les préventions sont tombées » constate le gestionnaire de la plateforme Le Publieur (Alain Beuve-Méry). L’autoédition est finalement facilitée par l’apparition de plateformes offrant leurs services. LePublieur aide à définir le projet de l’auteur et gère les étapes de fabrication et de commercialisation. La Carte blanche offre quant à elle « la révision, la mise en pages et l’infographie. Viennent ensuite des conseils sur le tirage et la qualité du papier » (Levée, 2010). Enfin, le Kindle Direct Publishing (KDP) d'Amazon propose un service d'auto-publication (Salaün, 2012). Les tâches que l’auteur devra accomplir s’il opte pour l’autoédition sont nombreuses. En effet, « dans le système de l’autoédition numérique, des rôles qui étaient autrefois distribués se trouvent à la seule charge des auteurs » (Beaudouin, 2012). La correction, la mise en page, l’attribution d’un numéro ISBN, le dépôt à la Bibliothèque nationale, la remise à l’imprimeur, la vente et la création d’un site web sont autant d’étapes que l’auteur devra franchir avant de voir son ouvrage publié. Toutefois, les bénéfices semblent en valoir la peine. Inconvénients de l’autoédition L’au[...]



Batailles de titans : la stratégie d’Apple

Thu, 28 Feb 2013 03:10:00 -0500

Ce billet a été rédigé par Michael David Miller et Ariane Parayre dans le cadre du cours Économie du document. À la fin de l’année 2012, le Wall Street Journal prédisait que, pour 2013, la Grande guerre qui fait rage entre les titans des technologies, c’est-à-dire Apple, Google, Facebook et Amazon se livrerait sur les terrains du contenu (software) et des appareils (hardware), terrains aux contours de plus en plus flous. [...]



Le livre imprimé va t-il survivre au numérique ?

Thu, 28 Feb 2013 02:51:00 -0500

Ce billet a été rédigé par Arlette Lucie Ndetchou dans le cadre du cours Economie du document. L'existence du livre imprimé remonte à plus de cinq siècles. Il a longtemps été considéré comme le principal support des connaissances (du moins, depuis l'invention de l'imprimerie vers 1450 par Gutenberg, période au cours de laquelle il a connu son expansion). Le livre imprimé se voit aujourd'hui fortement concurrencé, voire menacé par la venue du numérique, soutenu par le web qui, en l'espace de quelques années, a connu une avancée exponentielle. La question qui se pose ici est celle de savoir si le livre imprimé va résister à la vague déferlante du numérique. En fait, en quoi la montée du numérique fait-elle craindre pour l’avenir du livre imprimé? Le numérique est-il si puissant et si bien implanté? Et le livre imprimé est-il tant que ça à l’article de la mort ? Le livre imprimé à l’agonie… Le numérique signe-t-il l’arrêt de mort de l’imprimé ? Telle est la question qui se pose et qui s’impose même pratiquement à tous, au regard de la grande envergure que prend le numérique et la multiplication des supports de lecture. Selon Florent Taillandier pour Cnet, les gens qui possèdent des liseuses lisent deux fois plus de livres (25 en moyenne par an), que les lecteurs sur support imprimé (14 en moyenne par an). De plus en plus, les gens délaissent même les liseuses au profit des tablettes, puisqu’ils considèrent que la lecture sur liseuse n’est pas différente de la lecture sur imprimé, dans la mesure où la liseuse ne livre qu’une transposition fidèle de l’imprimé. Pourtant, le lecteur veut être en mesure de manipuler le texte, de copier et coller au moyen de simples clics, des passages qu’il souhaiterait citer. Grâce au numérique et par l’intermédiaire de sa tablette, le lecteur peut transporter avec lui autant de livres qu’il souhaite et qu’il pourra consulter en tout lieu et en tout temps, sans aucune gêne liée aux contraintes de poids ou d’espace. Il peut, de plus, chercher et acquérir des livres sans avoir à se déplacer. Le numérique permet d’économiser aussi bien l’espace du lecteur que son temps. L’un des aspects du numérique qui fait son succès,  c’est la navigabilité qu’il offre au lecteur à travers les liens hypertextes qui permettent d’étayer et d’approfondir un sujet. Le texte s’en trouve enrichi et interactif. On en est arrivé, selon le Mobnotate (Ici) de Ricky Wong, à générer des liens entre des livres à l’aide d’algorithmes qui pourraient même aller chercher des articles en relation avec le sujet de lecture. Et comme l’affirme Hugh McGuire, grâce aux hyperliens qui conduisent d’un endroit à un autre,  les livres et l'internet vont fusionner d’ici cinq ans. Certaines maisons de presses, comme Les Presses universitaires de France (PUF) qui ont commencé à numériser leurs fonds, annoncent par ailleurs qu’il est probable, qu’en 2014, il n’existe plus de version imprimée de leurs revues. Avec les nombreux nouveaux appareils numériques (liseuses, tablettes, ordinateurs portables, ordinateurs fixes, smatphones), le nombre d’e-lecteurs s’est aussi accru et à l’inverse, on a assisté à la baisse des ventes des livres imprimés. Cette tendance s’est observée à travers le monde. Mais elle ne s’est pas maintenue très longtemps. Chute vertigineuse du numérique et résurrection du livre imprimé … Passé l’effet de mode ou l’attrait de la nouveauté observé, on assiste à un rale[...]



Rentabiliser le patrimoine documentaire: le cas de Google Books

Thu, 28 Feb 2013 02:41:00 -0500

Ce billet a été rédigé par Justin Bérubé et Marie-Claire Lefort dans le cadre du cours Economie du document. Google Books est bien connu pour la numérisation massive de livres contenus dans les collections des bibliothèques publiques et universitaires. À ce propos, une nouvelle entente signée avec le Committee on Institutional Cooperation permet à la société d’ajouter à sa base de données près de 50 000 titres des bibliothèques universitaires de l’État du Michigan. Ce type d’entente, conclu principalement avec de grandes bibliothèques américaines, est l’une des deux sources d’approvisionnement en livres de Google. La seconde est le programme partenaires, par laquelle l’entreprise invite les éditeurs et les auteurs à déposer leurs œuvres littéraires sur son site. Ce service est gratuit, et celui qui dépose ses documents peut choisir l’étendue des informations qu’il rend accessibles. Il peut s’agir des données bibliographiques, d’extraits du texte ou même de l’intégralité de l'oeuvre. Un modèle d’affaires axé sur des contenus Les moyens d'approvisionnement de Google Books, qui reposent en grande partie sur la numérisation de livres provenant des bibliothèques, a vite fait l’objet de poursuites judiciaires pour violation du droit d’auteur. C’est que plusieurs de ces livres n’appartiennent pas au domaine public. Le nombre de ces livres numérisés sans autorisation est estimé à 7 millions en 2009. À ce jour, la majorité de ces actions judiciaires ont débouché sur des ententes entre Google et les ayants droit. En France notamment, les éditeurs ont conclus un accord-cadre en 2012 avec Google sur la numérisation des livres épuisés. Celui-ci prévoit que Google doit obtenir au préalable l’autorisation des éditeurs pour numériser des livres épuisés sur lesquels ils ont des droits. Dans le cas des livres déjà numérisés, les éditeurs peuvent demander à Google de retirer ceux-ci de sa base de données. Un accord similaire a été signé aux États-Unis avec l’Association of American Publishers en octobre 2012 et prévoit que les éditeurs choisissant de ne pas retirer leurs oeuvres recevront une copie numérique de celles-ci. Bien que les modalités exactes de ces ententes demeurent secrètes, il semble que Google refuse de payer pour les contenus qui alimentent son modèle d’affaires. Certes, cette société est prête à accorder certaines compensations financières, comme celle consentie à la Société des gens de lettres (SGDL) pour le développement de son fichier des auteurs et des ayants droit, mais il serait erroné d’y voir des indemnisations financières pour les droits d’auteurs. À ce propos, on pourrait comparer Google Books à une autre plateforme, Google News, qui agit comme un intermédiaire entre les lecteurs et les médias. Nathalie Silbert de Les Echos, note concernant ce dernier que “Google a soigneusement évité d’entrer dans la logique d’une redevance rémunérant l’indexation des sites d’information”. Mais avec Google Books, l’entreprise va encore plus loin dans l’appropriation des contenus puisqu’il numérise et conserve sur ses serveurs des oeuvres pour lesquelles il ne détient pas les droits. Les revenus par l’affiliation Le droit d’auteur, qui entrave la diffusion intégrale de certains livres, devient en quelque sorte une source de revenus pour Google puisque les documents doivent être vendus plutôt que diffusés librement. Google Books présente ainsi des liens vers les librairies qui o[...]



Intégralité des publications INRIA dans HAL

Tue, 19 Feb 2013 10:55:00 -0500

Extrait d'un message envoyé par le directeur de l'INRIA aux responsables des équipes de recherche et à diffuser aux chercheurs :

Il est devenu indispensable de développer le libre accès et donc de dépasser ce seuil (70% de publications de l'INRIA déposées) pour atteindre l'intégralité des dépôts dans HAL. Après en avoir débattu en Comité de direction de l'Institut, je souhaite que l'intégralité de notre production scientifique publique soit disponible sur l'archive ouverte HAL, je vous demande donc de déposer systématiquement les publications des membres de vos équipes-projets dans HAL et je prends les mesures d'accompagnement suivantes :

  • dès octobre 2013, seules les publications déposées dans HAL seront prises en compte dans les fiches de synthèse rédigées par les équipes-projet qui sont remises aux experts dans nos séminaires d'évaluation,
  • dès novembre 2013, seules les publications déposées dans HAL seront prises en compte dans les rapports d'activité annuels (RAWeb),
  • les thèses préparées au sein de nos équipes-projets devront elles aussi être systématiquement déposées dans une archive ouverte.