Intervenants
Enrico Agostini Marchese (Université de Montréal), “Du tournant spatial aux SIG: l’espace en tant que prisme pour les humanités numériques »
Enrico Agostini Marchese est étudiant au doctorat à l’Université de Montréal. Après des études esthétiques sur le statut de l’image dans la littérature et la philosophie du XXe siècle, ses recherches actuelles portent sur la production et la structuration de l’imaginaire spatial dans la littérature numérique contemporaine. Il est membre de la CRC sur les écritures numériques, du CRIHN, de Figura et de la société internationale pour les études intermédiales. Il a publié, en 2015, Atlante di disorientamento. Un profilo di Gerhard Richter et plusieurs articles portant sur le rapport entre numérique, espace et littérature.
«Il ne faut pas que les géographes, sortant progressivement de leur fascination pour la carte, tombent dans une autre sidération : celui de l’imagerie numérique des SIG.»
Cette phrase du géographe français Michel Lussault, l’un des plus importants représentants de l’école de la Nouvelle géographie – un mouvement visant à refonder la géographie sur une approche plus axée sur la société et la culture – nous montre certaines des questions les plus critiques concernant l’espace contemporain, Des questions qui touchent également le domaine des sciences humaines numériques: par exemple, l’opposition entre une approche quantitative de l’espace et une approche qualitative ou l’impact du développement d’outils numériques pour les sciences sociales. En fait, le traitement de l’espace et du numérique dans les sciences sociales et les sciences humaines présente plus que quelques caractéristiques communes: ils sont tous deux devenus des phénomènes culturels transdisciplinaires, ils recoupent des méthodologies et des questions provenant d’un très large éventail de domaines, ils sont tous deux des changements culturels majeurs de notre époque contemporaine — nous parlons de virage spatial et de virage numérique, nous parlons d’humanités numériques ainsi que d’humanités spatiales. Ainsi, dans ma présentation, je soutiendrai que l’évolution de notre conception de l’espace au cours des cinquante dernières années, du virage spatial au SIG contemporain, peut être un prisme idéal permettant d’aborder l’état actuel des humanités numériques et de les repenser. Depuis le changement culturel majeur appelé «tournant spatial», qui peut se situer dans les années 1960 et 1970, l’espace est devenu l’un des problèmes les plus importants de notre culture, en rééquilibrant la prédominance des questions liées au temps tout au long du 20ème siècle.. Ainsi, dans un très grand nombre de disciplines – voire dans l’entièreté -, les spécialistes ont commencé à s’intéresser à l’espace et à la spatialité, et cela de plusieurs manières. Que ce soit en adoptant des concepts-clés ou des méthodologies provenant pour la plupart d’études géographiques ou en mettant de l’avant les questions spatiales dans leurs propres domaines, le détour spatial est devenu une pratique courante pour les chercheurs qui souhaitent explorer nos cultures, pratiques et objets.De nos jours, après ce que nous pouvons appeler un autre changement majeur dans la culture occidentale – le numérique -, l’espace est plus complexe que jamais. Les appareils mobiles, les réseaux sociaux basés sur la localisation, les services basés sur la localisation, l’informatique omniprésente et les SIG ont radicalement changé notre façon de vivre et de concevoir nos espaces. Si pour les exposants du virage spatial, l’espace était un objet de forme plus culturelle et sociale, l’espace semble aujourd’hui être le résultat de la technologie unique. Pourtant, de plus en plus de spécialistes soulignent que le virage technologique de l’espace est plus ancré dans la culture et la société qu’on ne le pense. En m’appuyant sur ce point de vue, je voudrais interroger comment la culture et la technologie ont façonné la notion d’espace à travers les décennies afin d’imaginer le futur de l’espace dans les humanités numériques.
Christine Bernier (Université de Montréal), “De la photographie numérique, avant d’y revenir, en passant par l’espace public : le cas de l’œuvre Bleu de bleu“
Christine Bernier est professeure agrégée au Département d’histoire de l’art et d’études cinématographiques de l’Université de Montréal et directrice du Programme de muséologie de la Faculté des arts et des sciences.
Cette communication porte sur des travaux en cours, amorcés au cours du printemps 2017. De manière générale, il s’agira d’examiner l’impact du numérique sur le processus de circulation d’une œuvre en arts visuels. Plus précisément, je souhaite montrer, à partir d’un cas d’étude, jusqu’à quel point l’édition artistique d’images numériques infléchit notre définition, en histoire de l’art, du statut institutionnel des objets. J’entends privilégier un moment particulier dans l’examen de cette recontextualisation de la forme et des contenus de « l’objet-œuvre » : son acquisition, par un musée, au sein de la collection permanente. L’étude examine le cas suivant : l’œuvre intitulée Bleu de bleu, inaugurée à Montréal en 2017 et réalisée par l’artiste Alain Paiement. Décrite techniquement comme étant une installation immersive de huit kilomètres, en bordure d’autoroute, qui accueille les visiteurs depuis l’aéroport Trudeau, elle propose un parcours jalonné la nuit de près d’une centaine de luminaires bleus et ponctué le jour d’éléments visuels bleus, peints sur les murs anti-bruit. Relativement éphémère, puisqu’elle sera démantelée après cinq ans de vie, l’œuvre intégrera néanmoins la collection permanente du Musée d’art contemporain de Montréal. À première vue, on n’y voit rien qui se rapporte au numérique. Le réflexe scientifique de l’historienne de l’art est d’ailleurs de rapprocher cette réalisation des célèbres œuvres de land art qui furent acquises par des musées. Œuvres colossales, fruit d’un travail d’équipe souvent titanesque, elles sont souvent localisées très loin du musée qui en a la garde. Certaines sont de véritables monuments à l’entropie, d’autres sont rigoureusement entretenues par l’institution muséale. Se pose alors la question cruciale des archives : que conserve le musée, outre ce site excentré ? Comment ont été présentées, lors des nombreuses expositions de ces œuvres célèbres des années 1960-70, les réitérations de l’objet collectionné ? On devine la réponse : c’est par la photographie que l’œuvre « entre » dans le musée. Deux faits importants méritent notre attention : premièrement, ces artistes du land art, à une ou deux exceptions près, n’avaient pas de pratique artistique en photographie et les images étaient réalisées par des photographes documentaires. Deuxièmement, et surtout, il s’agit à l’époque de photographies argentiques et non de photographies numériques. Des recherches récentes ont bien analysé le statut des photos documentaires des œuvres de land art des années 1960-70 qui ont acquis le statut d’œuvre, au fil du temps, notamment à cause du collectionnement muséal et du marché de l’art. J’ajouterai que ces images même font maintenant partie des œuvres considérées comme canoniques. Face à ce qui nous semblait être une évolution logique dans le monde de l’art, je constate qu’un renversement important peut s’opérer aujourd’hui, dès lors qu’un artiste crée des images numériques, avant et après la réalisation de sa gigantesque œuvre dans l’espace public. C’est précisément ce type de renversement qui se manifeste avec l’œuvre Bleu de bleu d’Alain Paiement. Voici en bref la circulation unidirectionnelle traditionnelle : 1- croquis dessinés sur papier par l’artiste; 2- œuvre physique dans l’espace par l’artiste et équipe; 3- documentation photographique par technicien photo; 4- validation muséale des photos… Cette circulation se transforme avec Bleu de bleu en parcours vraiment circulaire : 1- maquettes numériques de l’artiste; 2- œuvre physique dans l’espace par l’artiste et équipe; 3A- création de nouveaux éléments numériques par l’artiste; 3B- retour sur les maquettes par l’artiste; 3C retour sur la documentation photographique par l’artiste; 3D- acquisition par le musée d’un work in progress, avec corpus fixé et possibilité de re-création numérique. Et c’est donc ce passage au numérique, dans la conception de l’œuvre, tout autant que dans son adaptation pour l’acquisition par le musée, qui me semble être une innovation majeure dans la circulation re-contextualisée de la recherche-création en arts visuels. Puisque la pratique artistique du créateur de Bleu de bleu est d’abord fondée sur la photographie numérique, l’acquisition de cette œuvre par un musée d’état pourra certainement créer un précédent dans le champ de recherche de la muséologie et provoquer une remise en question stimulante dans la discipline de l’histoire de l’art, en relation avec notre culture visuelle numérique qui n’est pas toujours exposée de manière ostentatoire : le numérique n’est pas qu’un outil, il transforme de l’intérieur notre culture artistique et institutionnelle.
Julie Blanc (Université Paris 8, EnsadLab – PSL), “Imprimé, single source publishing et technologies du web »
Julie Blanc est designeuse graphique et doctorante en ergonomie et design en codirection dans le laboratoire Paragraphe (Paris 8) et EnsadLab–PSL. Elle travaille pour l’initiative PagedMedia et participe activement à PrePostPrint
De nombreuses initiatives ont été mises en place ces dernières années dans le champ de la publication académique pour répondre à la pluralité des modes de diffusion (format) et d’environnement de consultations (logiciels de lecture). Leur but est de favoriser une communication fluide entre les environnements de création et de production, les systèmes de distribution numériques et les environnements de lecture. D’autre part, l’évolution des pratiques de lecture a été fulgurante, notamment sur écran [Lantenois]. Elles peuvent être désormais mobile – sur smartphones ou tablettes tactiles – et s’inscrivent dans des usages toujours plus individualisés grâce à l’impression bureautique. Comment, fort de ce constat relatif aux mutations des pratiques de lecture, proposer des formats répondants aux enjeux contemporains de la publication académique ? Attentifs à la question de la publication et la diffusion multisupport — mais aussi dans un souci de gain de temps et d’interopérabilité entre plate-formes, supports et formats — les éditeurs académiques et universitaires ont mis en place des chaînes éditoriales (*workflows*) qui se basent sur le modèle du *single source publishing*. [Buard] Cette méthode s’appuie sur un même contenu source balisé (structuré sémantiquement) qui est utilisé pour produire plusieurs sorties et formats pouvant s’adapter à une diversité de contextes de lecture (écran fixe ou mobile, imprimé, liseuse, etc.) La chaîne de mise en forme des documents est essentiellement basée sur le langage CSS. Cependant ce modèle n’intègre pas tout à fait les publications imprimées (PDF puis sortie papier). Pour l’imprimé, il faut utiliser un format en plus, qui peut être le système de composition LaTeX ou un logiciel de PAO (Publication Assistée par Ordinateur), le plus souvent Adobe In Design. Ce constat selon lequel les technologies et les chaînes éditoriales ne sont pas arrivées à maturité dans le champ de l’imprimé, invite à investir cet espace de recherche afin de renforcer la place de l’imprimé dans le modèle du *single source publishing* et interroger la notion d’outil ouvert [Simondon] spécifiquement dans le champ de la mise en forme. Pour cela, les récentes avancées des technologies du web nous paraissent intéressantes. Le W3C a en effet publié des modules CSS décrivant des les façons de fragmenter un texte en page (*CSS Page Media Module*) et de générer du contenu spécifique aux publications imprimées (*CSS Generated Content for Page Media*). Ces spécifications ne sont qu’à l’étape de *working draft* (brouillon de travail) et ne sont donc que peu implantées dans les navigateurs. Cependant, elles laissent présager une solide alternative libre, standardisée et pérenne aux logiciels de publication assistée par ordinateur bien souvent propriétaires. La mise en forme des publications imprimées se ferait alors de la même manière que le reste de la chaîne éditoriale actuelle : avec le langage CSS. Le gain de temps potentiel est non négligeable et la séparation entre contenu et mise en forme, à la base du web et de ses langages HTML et CSS, permettrait de travailler avec un même contenu source réajustante à n’importe quel moment sur l’ensemble de la chaîne — imprimé compris. Cela ouvre la voie à de nombreux scénarios d’usages adaptés aux pratiques des lecteurs grâce à la génération du document à la demande. Enfin, du point de vue du design graphique, cette solution permettrait de réinventer les convergences éditoriales entre le papier et l’écran en utilisant les mêmes outils et méthodologies que le web pour les formats imprimés et en étendant jusqu’au papier les principes du *design responsive* (« adaptatif »). [Marcotte] Pour cette communication, nous reviendrons sur cette évolution récente des technologies du web pour la conception imprimée. Nous ferons aussi un état des lieux des expériences existantes allant dans le sens d’un utilisation et d’un développement d’outils permettant la conception de publications imprimées depuis les navigateurs web. Nous aborderons ainsi l’outil Vivliostyle, l’initiative Paged Media ou encore le groupe de recherche PrePostPrint, tous apparus durant ces deux dernières années. En abordant l’intégration des technologies du web dans les publications imprimées et des travaux en cours de réalisation sur ce sujet, cette communication s’inscrit dans l’axe « Production – Écritures numériques et Éditorialisation » (Axe 1) de votre appel à communication.
Marie-Julie Catoir-Brisson (Université de Nîmes), “Design d’information et physicalisation des données : une expérience pédagogique en Humanités numériques”
Marie-Julie Catoir-Brisson est Maîtresse de Conférences en Design et Communication à l’Université de Nîmes. Ses recherches portent sur l’innovation sociale par le design, les médias et nouveaux médias, les usages des interfaces numériques et objets connectés, le design d’interaction et la data-visualisation, qu’elle analyse dans une perspective interdisciplinaire entre les sciences de l’information et de la communication et le design.
Cette communication porte sur une expérience pédagogique en Humanités numériques, menée avec des étudiants de Licence Design (3ème année), à l’Université de Nîmes en 2018. La thématique du cours portait sur le design d’information et la visualisation de données. L’objectif pédagogique était double. Il s’agissait : 1/ d’amener les étudiants à réfléchir sur l’apport du design aux humanités numériques ; 2/ de les acculturer au design d’information (de la sélection des données à leur visualisation) par la conception d’un dispositif basé sur la physicalisation des données, c’est à dire la mise en scène de données matérialisées par des objets tangibles. Organisés en équipe, les étudiants devaient constituer leur set de données à partir de sources fiables sur un sujet de leur choix, trouver trois matériaux peu coûteux et signifiants pour concevoir leur dispositif, et documenter leur projet, du processus de conception à celui de la réception. Ils devaient prendre en compte la dimension manipulatoire des données et son incidence sur la construction du sens des données, et faciliter la compréhension des savoirs relatifs à leur sujet. Le résultat de cette expérience pédagogique s’est présenté sous la forme d’un atelier de physicalisation des données réalisé en temps limité, pendant lequel les 24 équipes ont pu concevoir puis faire tester leurs dispositifs de médiation des savoirs auprès d’autres étudiants, afin d’observer leur compréhension des données. Il s’est prolongé par la production d’un dossier visant à expliquer leurs intentions de conception, le choix des matériaux, et à proposer une analyse réflexive sur les tests réalisés en atelier. L’intérêt de cette expérimentation était de s’appuyer sur et de questionner la culture visuelle numérique des étudiants, liée à la fois à leur pratique quotidienne de réception de visualisations de données, et à leur culture graphique et matérielle acquise au cours de leur formation en Design. La problématique de cette communication est la suivante : en quoi la manipulation de données tangibles permet-elle de renouveler la recherche et la pratique du design d’information dans le champ des humanités numériques ? En quoi la tangibilité et la performativité propres à physicalisation des données transforment-elles la médiation des savoirs ? Pour répondre à ce questionnement, la communication, inscrite dans les sciences de l’information et de la communication et les sciences du design, se décomposera en trois parties. Il s’agira tout d’abord de présenter les sources d’inspiration du scénario pédagogique (en particulier le mouvement Kino dont la devise est « Faire bien avec rien, faire mieux avec peu, le faire maintenant ! ») ayant servi de base à l’élaboration des contraintes créatives de l’expérience pédagogique. Puis, à partir d’autres expériences récentes sur le design des données (Dumesny, 2018) et la data-physicalisation (Huron, Gourlet, Hinrichs, Hogan, Jansen, 2017), les différentes étapes du scénario pédagogique et les résultats produits par les étudiants seront analysés, en dégageant les apports et limites de cette expérience pédagogique. Enfin, la communication visera à dégager l’apport du design aux humanités numériques, à partir de cette expérimentation. À la croisée des axes 1 et 2, cette communication a donc pour objectif, au plan des pratiques : de questionner l’évidence perceptive de la data-visualisation en expérimentant de nouveaux outils s’appuyant sur des données matérialisées, et au plan théorique : de réfléchir sur la manière dont la dimension performative des dispositifs basés sur des données tangibles transforme notre rapport au savoir.
Emmanuel Château-Dutier (Université de Montréal)
Katherine Cook (Université de Montréal), “La muséologie numérique collaborative: Le patrimoine, les politiques, et les peuples »
Katherine Cook est professeure adjointe au département d’anthropologie de l’Université de Montréal. Sa recherche relie l’archéologie publique, les technologies numériques, et la muséologie, pour reconstruire des histoires multi-scalaires de mémoire, du paysage et d’identité dans les colonies atlantiques, reliant Canada et les Caraïbes avec l’Europe.
Au milieu des appels à décoloniser les musées et la pratique du patrimoine, à accroître l’accessibilité et l’inclusivité, et à rendre le passé pertinent pour les communautés contemporaines, la technologie numérique est de plus en plus utilisée comme solution. Le rapatriement virtuel et la numérisation des collections sont mobilisés pour aborder les politiques de contrôle et d’accès, tandis que les médias sociaux et les réalités augmentées / virtuelles sont déployés pour améliorer l’engagement et l’interaction. Mais la technologie n’est pas neutre et notre traitement de la race, du genre, de la diversité culturelle et des héritages de l’histoire coloniale dans les plateformes numériques continue de provoquer des tensions dans la présentation du passé dans les musées et les sites du patrimoine. Avec la pression de l’innovation et de la pertinence, risquons-nous de créer un nouvel empire de colonisation numérique, en reproduisant et en introduisant de nouvelles structures de contrôle, d’iniquité et de traumatisme? Comment s’assurer que la pratique du patrimoine numérique aborde les héritages politiques et éthiques problématiques du passé lorsque les technologies évoluent constamment et ne sont pas toujours pleinement comprises? Cet présentation examinera les projets numériques en cours dans les musées canadiens pour examiner les avantages et les obstacles actuels à la numérisation de l’archéologie, de l’histoire et de l’histoire de l’art. L’accent sera mis sur les projets qui utilisent des méthodologies collaboratives, engageant et coopérant avec les communautés descendantes, les professionnels des musées et du patrimoine, les universitaires, et le public. En particulier, il se concentrera sur des résultats d’une étude préliminaire menée en partenariat avec des étudiants universitaires, un musée et des communautés de descendants de Victoria, en Colombie-Britannique, afin d’explorer des modèles de collaboration pour créer des expositions hybrides (numériques et analogiques). S’inspirant de la culture maker et des communautés de hackers, ces projets exploratoires ont expérimenté des cultures visuelles, matérielles et même sonores, ainsi que des façons dont la technologie rassemble les gens (ou les divise dans certains cas). Il va également mis en évidence les domaines dans lesquels l’éthique et la politique de la numérisation, et plus généralement le patrimoine, sont encore tendus, controversés et vivement débattus. Il présentera des propositions pour aborder ces questions à l’avenir, y compris la reconfiguration des structures de carrière, les méthodologies numériques, et les façons dont nous comprenons les liens entre les matériaux culturels, les personnes et le passé dans des formats de plus en plus numériques. Enfin, cet présentation contemplera où nous mène la muséologie numérique et les tensions croissantes entre la démocratisation des idéaux du patrimoine et le contrôle néocolonial de l’accès, des données et du pouvoir. Il examinera également où les humanités numériques du Canada s’inscrivent dans les débats et les discours sur le patrimoine mondial. Il conclura qu’une révolution numérique qui met les peuples en premier, qui reconnaît et traite les structures de privilège complexes (qui précèdent plusieurs de ces technologies), et qui réévalue les méthodologies engagées sont essentielles pour créer des plateformes pour la culture et le patrimoine dans le futur.
Antoine Courtin (Institut national d’histoire de l’art) et Cécile Colonna (Institut national d’histoire de l’art), “Expérimenter autour des ventes d’antiques au XIXe siècle : de la mise en données à l’éditorialisation »
Conservatrice du patrimoine, depuis 1 an et demi conseillère scientifique à l’Institut national d’histoire de l’art (Paris) pour le domaine histoire de l’art antique et de l’archéologie. Avant en poste au Cabinet des Médailles de la Bibliothèque nationale de France.
Lancé en 2011 par l’Institut national d’Histoire de l’art et le musée du Louvre, le programme “Répertoire des ventes d’antiques à Paris au XIXe siècle”, grâce à un repérage et un dépouillement critique des catalogues de vente ainsi que de diverses sources d’archives, collecte et croise les informations sur les œuvres, les acteurs et les ventes de cette période, permettant ainsi de retracer le parcours des objets, l’évolution du marché et l’histoire de la formation et de la dispersion des collections. A l’heure actuelle (juillet 2018), la base de données associée au programme est l’une des 39 bases d’AGORHA, la plateforme fédératrice des bases de données de l’INHA. Cette méta-base développée à partir d’un socle d’un progiciel métier spécifique a connu, en 2018, une montée de version, certes pouvant apparaître anecdotique à l’heure du web de données, mais qui a permis en interne de se poser des questions importantes, prologue à une refondation en profondeur. Il nous apparaît en effet essentiel à la fois de ne pas négliger le passé et d’intégrer les données issues de programmes parfois anciens, mais aussi d’améliorer autant la production que la diffusion des données de la recherche, l’un n’allant pas sans l’autre. C’est dans ce contexte qu’a été lancée une expérimentation de visualisation des données du programme sur les ventes d’antiques, dont le site a été mis en ligne entre janvier et juin 2018 (ventesdantiques.inha.fr). A l’heure où les humanités numériques dans les SHS sont aujourd’hui assez bien intégrée, il nous semble que le numérique doit être une opportunité de rendre le savoir plus accessible et ce, à la fois à des publics pouvant être considérés comme éloigné de la recherche engagée mais également à l’intérieur même des communautés scientifiques (Dominique Bouiller). Ainsi, il faut revoir ce que doit être la « narrativité scientifique numérique » sans lui plaquer les modèles standard pré-existant. La réalisation de ce “nouvel objet numérique d’infovisualisation”, à la frontière entre de différentes notions, proches mais différentes, telles que la datavisualisation, l’infographie, le design d’information, la visualisation de données, a permis de révéler de manière heuristique quatre aspects essentiels de l’outil, qui permet : l’accès et l’exploration des ressources, une aide à l’interprétation, un accompagnement pédagogique, et enfin un contrôle qualité des données source. Ces quatres axes se matérialisent par des choix structurant dans l’application mais également par des éléments d’interfaces sur lesquels nous reviendrons tout à au long de l’intervention. Au-delà de ces axes fondamentaux et du résultat obtenu, ce projet expose également la nécessité, dans l’éditorialisation des données de la recherche, d’apporter un regard extérieur (en l’occurrence, le choix du data journalisme s’est révélé pertinent), tout en soulignant l’indispensable processus itératif sur les données que nous avons dû mettre en place avec les équipes. En détournant la célèbre phrase de William Playfair, le plus sûr moyen d’identifier les erreurs (et les manques) est de parler aux yeux ! Notre intervention propose donc d’exposer nos réflexions sur les processus engagés mais également sur les choix techniques, qui ont été faits en prenant systématiquement en compte la réalité à la fois des données, du système d’information existant et des compétences en interne. Enfin, cette intervention sera l’occasion d’aborder le travail, réalisé en parallèle à cette exploitation visuelle, d’alimentation des données de provenance dans wikidata afin de s’inscrire dans le linked open data avant même la refondation d’AGORHA.
Florent Di Bartolo (MCF Université Paris-Est MLV), “Systèmes génératifs et visualisations de données »
Florent Di Bartolo est maître de conférences en Arts et Technologies Numériques à l’Université Paris-Est Marne-la-Vallée (France). Ses recherches portent sur l’histoire et l’esthétique des dispositifs artistiques interactifs et des œuvres connectées. Son travail comprend aussi la création de performances audiovisuelles et d’applications de visualisation de données réalisées dans le cadre de l’étude de fonds d’archives.
Notre proposition de communication a pour objet d’études les systèmes génératifs et leurs aptitudes à révéler les principales propriétés d’un fonds d’archive (sous la forme de visualisation de données) de façon à faciliter l’accès aux notices et aux documents multimédia qui le compose. La première partie de la communication portera sur l’historique de ces systèmes dans le champ des arts visuels. La deuxième partie de la communication portera sur l’emploi de systèmes génératifs dans le domaine des humanités numériques et aux méthodes génératives utilisées pour constituer non seulement des bases de connaissances, mais aussi donner accès à celles-ci à l’aide d’interfaces graphiques évolutives. Il sera question d’établir un parallèle entre les méthodes utilisées pour créer des oeuvres d’art génératives au cours des années 80 et 90 à l’aide de systèmes dynamiques (appelés systèmes multi-agents) et les méthodes utilisées aujourd’hui pour rendre compte de la richesse d’un fonds d’archive et assurer son accessibilité. Les relations qu’entretiennent ces systèmes avec la théorie de l’information de Shannon et la cybernétique seront aussi évoquées tout comme leur efficacité à l’aune des changements que produit la massification des données et la puissance de calcul des supports de lecture numériques capables de produire en temps réel des visualisations de données individualisées qui prennent en compte l’historique d’un parcours de navigation au sein d’une base de données pour en livrer une représentation et approfondir la consultation d’un fonds d’archive. Enfin la troisième partie de la communication portera sur une application web comportant plusieurs visualisations de données et qui a été réalisée dans le cadre de l’étude du fonds IMEB (Institut international de Musique Électroacoustique de Bourges). Appelée Small Data cette application fait appel à plusieurs systèmes dynamiques qui ont la particularité de s’adapter à la nature des notices et documents qui constituent un fonds d’archive dans le but de faciliter sa représentation et sa consultation. La version en ligne de l’application Small Data n’a pas pour fonction de donner un accès direct aux documents qui composent le fonds IMEB et qui sont sous la protection du droit d’auteur. Les différentes visualisations de données qui la composent ont pour fonction de redonner forme aux évènements (concours et festivals) qui ont marqué l’histoire de l’IMEB. Il s’agit de restituer la structure de ces évènements, leur mode de classification mais aussi de faciliter la consultation des oeuvres qui composent le fonds IMEB en associant les données collectées, lors de l’étude du fonds, aux notices du catalogue général de la BnF (Bibliothèque nationale de France) où a été déposé le fonds IMEB. Le système dynamique qui met en scène les oeuvres primées sera utilisé comme principal exemple afin de montrer comment des agencements entre oeuvres et compositeurs peuvent être dynamiquement créés à partir des informations que partage leur notice. Le même système servira aussi à montrer comment des visualisations en ligne appartenant à des applications tierces peuvent faire appel à des services comme data.bnf.fr pour retrouver des informations complémentaires se rapportant à un artiste ou à une oeuvre, et donner une nouvelle visibilité à des collections archivées par la BnF.
Antoine Fauchié (Université Grenoble Alpes), “Vers un système modulaire de publication : éditer avec le numérique”
Antoine Fauchié est actuellement enseignant dans le département Information-communication de l’IUT2 de Grenoble et il intervient dans d’autres formations dont le Master Publication numérique de l’Enssib. Il vient de terminer un mémoire de recherche sur les chaînes de publication, et il mène également des projets autour du livre numérique en tant qu’indépendant.
Le domaine du livre, et plus particulièrement l’édition, connaît des mutations profondes au contact du numérique (Benhamou, 2014). L’une des manifestations les plus visibles de cette rencontre entre l’imprimé et le numérique reste probablement le livre numérique, constatant toutefois que les hybridations sont à la fois nombreuses et en devenir (Ludovico, 2016). Face aux bouleversements économiques et aux nouveaux modes d’accès aux textes, des changements plus profonds s’opèrent en creux (Epron et Vitali Rosati, 2018). Si l’ebook est une nouvelle approche de l’écrit tant dans sa diffusion que dans sa réception, n’y a-t-il pas en filigrane des transformations plus fondamentales dans la manière de faire des livres ? Depuis l’avènement de l’informatisation des métiers du livre, ou l’omniprésence des traitements de texte (Dehut, 2018) et des logiciels de publication assistée par ordinateur (Masure, 2011), les façons de concevoir et de produire des publications connaissent une révolution technologique récente (Eberle-Sinatra et Vitali Rosati, 2014). Des structures d’édition imaginent des nouvelles chaînes de publication originales et non conventionnelles. Celles-ci ne reposent plus sur un solutionnisme technologique – un problème a forcément une solution logicielle ou applicative (Morozov, 2014) –, elles repositionnent l’humain au cœur des machines ou des programmes (Simondon, 2012), et envisagent la publication comme un ensemble d’actions imbriquées. Les méthodes et les technologies issues du développement web influencent la manière de faire des livres, et permettent de considérer un système modulaire et non plus une chaîne linéaire (Fauchié et Parisot, 2018). Nous nous proposons d’analyser deux exemples de chaînes de publication non classiques dans les domaines de l’édition d’art (Evans Lan, 2016) et de l’édition scientifique (Rosenthal, 2017), et de leur donner des perspectives théoriques dans le champ de la philosophie de la technique. À partir de cet examen nous souhaitons avancer les trois principes d’un nouveau modèle de publication : interopérabilité, modularité et multiformité. Un système interopérable, modulaire et multiforme pourrait être en mesure de répondre à différentes contraintes ou exigences de publication. Tout d’abord l’interconnexion des outils qui composent une chaîne d’édition impose une interopérabilité, celle-ci peut par exemple se baser sur l’utilisation de langages de balisage léger plutôt que sur des formats fermés et liés à des logiciels spécifiques. La structure étant séparée de la mise en forme – une modification des contenus ne doit pas avoir d’incidence sur le rendu graphique de ceux-ci –, il faut considérer la dimension modulaire du système : chaque composant peut être interchangeable pour permettre une adaptabilité. Enfin, ce système doit pouvoir générer différentes formes d’une même publication : édition imprimée – offset ou impression à la demande –, versions numériques – web ou EPUB –, jeux de données. Nous souhaitons également exposer les limites d’une telle approche, tant dans son fonctionnement que dans son adhésion : la dépendance à des logiciels fermés se déplace vers des développements qui peuvent créer une dette technique conséquente (Jaillot, 2015) ; la facilité d’accès d’un tel système requiert la création d’interfaces utilisateurs accessibles (Garnder, 2017) ; l’hybridation de l’imprimé et du numérique réserve sans doute de nouvelles formes que nous ne pouvons pas prévoir actuellement (Ludovico, 2016).
Ich Fujinaga (McGill University): “Recent Developments at Distributed Digital Music Archives and Libraries Laboratory”
Ichiro Fujinaga is an Associate Professor in the Music Technology Area at the Schulich School of Music at McGill University. He has Bachelor’s degrees in Music/Percussion and Mathematics from University of Alberta and a Master’s degree in Music Theory and a Ph.D. in Music Technology from McGill University. Research interests include music theory, machine learning, music perception, optical music recognition, digital signal processing, genetic algorithms, and music information acquisition, preservation, and retrieval
Carolina Ferrer (UQAM), “Que peuvent les humanités numériques pour les études littéraires? Vers une modélisation du polysystème mondial”
À tort ou à raison, le monde est entré dans l’ère du numérique, l’âge des données massives ou big data ((Mayer-Schönberger et Cukier 2013). En faisant suite à nos recherches sur les littératures hispano-américaine (Ferrer 2012) et européenne (Ferrer 2015), dans cette communication, nous montrerons que cette disponibilité d’information, auparavant inimaginable, peut contribuer à l’avancement de la connaissance sur la configuration du polysystème (Even-Zohar 1990) de la littérature mondiale. En ce sens, nous introduisons la criticométrie (Ferrer 2011), approche novatrice qui nous permet, à travers l’exploitation des bases de données bibliographiques, d’étudier empiriquement les littératures nationales et continentales ainsi que les relations qu’elles entretiennent les unes avec les autres. Conceptuellement, cette étude se base sur le croisement des théories systémiques (Even-Zohar 1990 ; Luhmann 2000 ; Wallerstein 2004) et de la scientométrie (Garfield 2005 ; Leydesdorff 1998 ; Price 1963 ; Small 1978). Par rapport à la méthodologie, nous utiliserons les techniques des mots-clés (Callon et al 1993) et de forage de données ou data mining (Witten et al 2011), afin d’extraire de la plus importante base littéraire, la Modern Language Association International Bibliography, les références qui correspondent aux 212 littératures nationales. Cette base contient 2,5 millions de références et couvre plus de 150 ans de publications effectuées par la communauté académique internationale. La compilation et l’analyse des métadonnées des références nous permettront de cartographier les littératures nationales et continentales et d’élaborer des indicateurs chronologiques, géopolitiques et linguistiques. Ainsi, en nous appuyant, du point de vue théorique, sur les hypothèses d’Even-Zohar relatives aux concepts de système, de dynamiques et d’interférences littéraires et, du point de vue empirique, sur les données, les cartographies et les indicateurs obtenus, nous serons en mesure de proposer une modélisation du polysystème mondial. Nous espérons que cette étude constituera une illustration de la richesse que représente l’analyse des nouveaux observables de l’ère numérique en études littéraires.
Bertrand Gervais (UQAM), “Littérature québécoise mobile: imaginer un partenariat ancré en culture numérique”
Bertrand Gervais est le titulaire de la Chaire de recherche du Canada sur les arts et les littératures numériques, ainsi que le directeur du NT2, créé en 2004. Fondateur et directeur (1999-2015) de Figura, le Centre de recherche sur le texte et l’imaginaire, il est professeur titulaire au Département d’études littéraires de l’Université du Québec à Montréal.
Le partenariat Littérature québécoise mobile (LQM) repose sur un besoin des communautés littéraires: celui de s’approprier le numérique et de s’inscrire dans un monde d’écrans et des réseaux, tout en étant attaché au livre et à sa culture. Qu’il s’agisse d’auteurs, d’éditeurs, de chercheurs, de lecteurs et d’organismes dédiés à la promotion de la littérature québécoise, tous comprennent l’importance d’effectuer le virage numérique. Il convient alors d’examiner l’impact des modifications des supports de l’écrit sur les pratiques d’écriture et de lecture. Il y a là un vaste domaine de recherche qui implique à la fois poétique, sémiotique de la lecture, théorie de l’interprétation, sociocritique, théorie de l’imaginaire et histoire du livre.
Lucile Haute (Université de Nîmes — EnsadLab-PSL), “Quels formats de publication scientifique (avec le numérique) pour la recherche-création ?”
Lucile Haute est artiste, enseignante-chercheuse en design à l’Université de Nîmes, chercheuse associée à l’École nationale supérieure des arts décoratifs de Paris. Elle est directrice de la collection liteʁal chez l’éditeur français Art Book Magazine qui réunit des ouvrages numériques et imprimés consacrés à la recherche en art et en design. Chaque volume est l’objet d’expérimentations relatives aux aspects plastiques, graphiques, typographiques, interactifs et tout particulièrement sur la relation entre les différents supports de lecture.
Tandis que la recherche s’hybride à la création, que sont valorisées les démarches menées aux intersections des arts, designs et sciences, il apparait néanmoins que les nécessités académiques rencontrent encore rarement ou avec difficulté les exigences esthétiques (Masure, 2018) — et réciproquement. Le paradigme d’un texte (contenu) indifférent à sa mise en forme (contexte) préside bien souvent au modèle de la publication académique. Il hérite en cela de modèles forgés depuis le 13ème siècle où se fondent les trois genres scientifiques canoniques que sont le commentaire, la question et la dispute (Beaudry, 2011), auquel s’ajoute celui de l’article scientifique tels que nous le connaissons aujourd’hui tandis que se créent les premiers périodiques au milieu du 17ème siècle. L’époque contemporaine voit évoluer les injonctions à la recherche : du « Publish or Perish » pendant les années 1960 au « Demo or Die » (1998), « Get visible or vanish » (2013) et « Deploy or Die » (2014) jusqu’à s’adresser aux écoles d’art et de design conséquemment aux accords de Bologne en Europe (Huygue, 2017). Simultanément, les processus de reproduction et de diffusion se sont transformés, de la peica du Moyen Age à l’imprimerie puis au réseau Internet mondial. À travers ce mutations sourdent celles de la légitimité, que ce soit celle du discours, celle du chercheur ou encore celle du dispositif le publiant. Dans le contexte contemporain, et si l’on conçoit que publier signifie en premier lieu « rendre public, mettre à la disposition du public » avant « exposer, étaler (des livres) » puis plus précisément « faire paraître un écrit » (Rey, 1993), comment envisager et défendre la valeur de nouveaux modes de publication, des modes de “publicisation” (Bianchini, 2015), pour la recherche en art et en design basée sur une pratique — la recherche-création ? Que deviennent l’article, la revue ou le livre en tant que fruit d’une recherche-création, objets sensibles et sensés ? Outre la valeur de l’iconographie au sein d’un texte (Latour, 1985), le designer comme l’artiste défendent un accès au sens par la forme. Que serait une publication scientifique productrice de sens par l’expérimentation, par l’épreuve de la forme ? Plus précisément, comment ces enjeux disciplinaires rencontrent-ils les questions techniques de la publication et de la diffusion numériques ? S’il est acquis désormais que la conception et la production des livres se font via des systèmes informatisés, que devient l’expérience sensorielle de lecture lorsqu’elle bascule sur des supports numériques ou non conventionnels ? Qu’est-ce qui échappe, qu’est-ce qui se crée lors de la traduction d’un mode sensible à un autre, du papier à l’écran, de l’écran au papier ? À quelles mutations les critères d’évaluation doivent-ils faire face pour embrasser le domaine de la recherche-création : esthétique, éthique, écologique ? Par exemple, les aspects relatifs à la consommation énergétique pour la production, diffusion et stockage des publications scientifiques peuvent-ils concurrences les actuels facteurs d’impact et d’audience ? Partant du contexte de la recherche-création en France et abordant également un corpus anglophone, cette communication se propose d’étudier des ouvrages de recherche (livres et revues) numériques et imprimés dont les essais, œuvres et textes font l’objet d’expérimentations graphiques, typographiques, interactives, plastiques et esthétiques. La relation de la version numérique à la version imprimée sera au cœur de notre étude. L’une est-elle un extrait de la seconde ? Sont-elles indépendantes, équivalentes (selon quels critères) ou bien interdépendantes l’une à l’autre ? Pour nombre des cas étudiés, les questionnements relatifs à l’association étroite entre contenus, formes et supports dans les processus éditoriaux et dans les processus de lecture résultent de recherches expérimentales. Il s’agira d’étudier comment, en se proposant d’explorer les régimes de sensibilité du livre à l’ère de l’ubiquité numérique, certaines de ces démarches éditoriales, grâce à des stratégies éditoriales numériques, constituent des recherche en et par le design. Cette communication abordera les deux premiers axes du colloque, « production, écritures numériques et éditorialisation » aussi bien que « circulation, passage au numérique et recontextualisation » mais c’est le troisième axe « validation, légitimation des contenus » qui sera le plus central à travers la question de la reconnaissance actuelle de formes de publications inédites permises par les outils numériques.
Quentin Juhel (EnsadLab – PSL), “Outils conventionnel et non conventionnel de création »
Quentin Juhel est un designer graphique qui s’intéresse aux outils numériques et leur pouvoir aliénant sur son utilisateur et sa pratique, qu’il soit designer ou amateur de technologie moderne. Diplômé DNSEP (Diplôme national supérieur d’expression plastique) de la Haute école des arts du Rhin à Strasbourg. En octobre 2017, il intègre le laboratoire EnsadLab de l’École nationale supérieure des Arts Décoratifs de Paris, au sein duquel il démarre une recherche autour du pouvoir aliénant des outils numériques dans le champ du design graphique.
La chaîne de production d’un ouvrage numérique est régie comme le champ du papier, plus traditionnel, par des outils bien identifiés par les acteurs de ce domaine éditorial. Elle se base sur l’emploi d’instruments de création, de conversion, de distribution et de lecture d’éditions numériques et/ou hybrides. Il est établi que les suites de logiciels propriétaires dominent et assujettissent les formes et les flux de travaux de cette chaîne. On observe une prise de conscience, récente, chez quelques designers graphiques du pouvoir de ces outils sur leur pratique ; cela entraîne un mouvement de réappropriation prenant appui sur l’idéologie du libre ou de l’open source. Ainsi nous pouvons nous demander : en quoi ces instruments répondent efficacement aux attentes techniques des praticiens ? Le nombre d’outils disponibles pour la création graphique est considérable est semble promette de fournir autant de spécificités techniques aux designers qu’ils souhaitent. Il s’agit dès lors de génériciser, grâce à une visualisation — soit démontrer les caractéristiques communes et dissonantes — des outils conventionnels et libres de création par rapport à ces fonctionnalités. La difficulté réside dans la temporalité choisie, car l’écosystème du logiciel de création évolue grandement comme on a pu le voir avec l’histoire de l’outil Flash. Ainsi, il est important de figer cette recherche en remontant jusqu’à 5 ans précédant l’amorce de cette étude. Ils sont classés dans un premier temps sur un axe représentant leur modularité — c’est à dire la possibilité d’agir, de modifier et d’agencer des fonctionnalités — et donc d’exposer leur capacité à permettre au designer de créer et adapter un outil à sa convenance. Cette notion est établie par rapport à certaines caractéristiques de conception et d’action. Il apparaît qu’un outil qui s’utilise par la programmation est plus modulaire qu’un outil possédant une interface, car il n’est pas figé dans une suite de choix prédéfinis représentés par les menus paramétriques qui le caractérise. De plus, la plasticité donnée à un outil grâce aux licences libres offre au designer la permission d’accéder aux rouages, mais aussi de modifier les modalités de fonctionnement de ceux-ci. Leur modularité n’est pas la seule explication quant au plébiscite rencontré par un outil. L’accessibilité — soit sa qualité d’être facile d’accès et d’utilisation — détermine le choix du designer graphique pour l’emploi de l’instrument de conception. Cette notion se base sur des capacités qui sont intrinsèques à la diffusion, l’apprentissage et l’interopérabilité de ces outils. Ils sont dans un premier temps reliés à leur disposition à produire un document électronique sous des formats d’exportation variés. Elle permet au designer de considérer un outil en fonction du champ de format de lecture qu’elle offre aux ouvrages. Par la suite il s’agit de les lier à leur essence communautaire et de possibles moyens d’aide pour l’utilisateur mis en place pour lui permettre d’apprendre et d’échanger sur les capacités opérables par les outils. La notion d’accessibilité prend toute son sens dans le moyen d’acquisition et la compatibilité multi-plate-forme — soit la possibilité de fonctionner sur plusieurs systèmes d’exploitation et logiciels — des outils du designer graphique, c’est pourquoi ces notions représentent les plus importants niveaux d’accessibilités auxquels ils sont attachés. En se rapprochant d’une analyse comparée, cette recherche tente de mettre en lumière les outils de création libre par la qualité des réponses face aux attentes techniques des graphistes. Ils peuvent aussi par leurs caractéristiques alimenter de nouvelles formes et pratiques dans le paysage du design graphique dans le monde de l’édition numérique. Ce modèle est applicable aux outils de manière plus large et peut s’inscrire dans le cadre d’une étude plus vaste sur les outils de création attachée au domaine du design graphique. Cette visualisation s’intègre dans un projet de doctorat en design graphique ; il vise à étudier l’influence des outils libres sur les formes et les modalités du travail en jeu dans le graphisme.
Gérald Kembellec (Laboratoire Dicen-IdF / Cnam), “L’interdisciplinarité par la pratique comme moteur et objet des humanités numériques : une analyse du projet Critiques d’Art“
Gérald Kembellec est maître de conférences en sciences de l’information et de la communication au Conservatoire National des Arts et Métiers à Paris. Ses centres d’intérêt sont principalement regroupés autour de l’informatique documentaire et trouvent leur application dans les dispositifs d’écriture numérique et d’accès aux fragments informationnels. Il est impliqué depuis 4 ans dans un projet interdisciplinaire d’humanités numériques en histoire de l’art qu’il va présenter dans ce colloque.
Fruit d’un programme de recherche interdisciplinaire, le dispositif «Bibliographies de critiques d’art francophones » met à disposition de la communauté scientifique une base de données de bibliographies complètes d’auteurs ayant pratiqué la critique d’art du milieu du XIXème siècle à l’Entre-deux-guerres. Ces bibliographies primaires sont assorties de bibliographies secondaires et de l’inventaire des fonds d’archives correspondant, le tout pensé au sein de diverses interfaces et formats de fichiers pour des publics divers. La période étudiée correspond à un développement sans précédent de la vie culturelle, dont la richesse est rendue visible par les écrits critiques. Jusqu’ici, ce corpus aux formes variées peu numérisé et documenté n’a pas été modélisé, ni exploité numériquement. Notre réflexion a donc proposé un outillage conceptuel et technique, composé de modèles d’organisation des connaissances (Zacklad, M. 2017), de modèles de valorisation et de diffusion du savoir qui permettent d’envisager différemment les écrits sur l’art et la vie culturelle de l’époque. Le projet Bibliographies de critiques d’art francophones autorise ainsi une prosopographie de ces auteurs qui apparaissent ainsi comme de véritables médiateurs culturels. D’autres informations sont ainsi en passe d’être ajoutées à la page de chaque auteur sur le site : sa formation (à titre personnel et pour d’éventuels contacts entre les auteurs), la profession des parents (afin d’avoir une idée de son milieu social), son statut (écrivain, artiste, fonctionnaire des beaux-arts, enseignant, etc.), son appartenance à des associations, des sociétés d’artistes ou au syndicat de la presse ainsi que les distinctions honorifiques. Chacun de ces éléments biographiques fait l’objet de recherches en archives. Diverses populations de chercheurs trouveront, grâce à des focales numériques co-pensées inter-disciplinairement, des sources d’intérêt aux jeux de données publiés : Historiens, Historiens de l’Art, Historiens du Livre, Chercheurs en des sciences de l’Information et de la Communication, Statisticiens et Sociologues, pour ne citer que les plus évidents. La mise en œuvre de l’interdisciplinarité convoque divers facteurs techniques ou méthodologiques. Dans ce type de projet, Pour croiser les objets de recherche (Davallon, 2004) de chacun, il faut obligatoirement passer par le pivot de l’interopérabilité : autorités (normes, formats, protocoles, langages) et usages (prosopographie, analyse sociologique, statistiques, mathématiques). Ces modèles et méthodes sont autant de paramètres qu’il faut aligner épistémologiquement et linguistiquement en recherchant le degré de conceptualisation le plus adapté et adaptable aux besoins évolutifs des différents partenaires de la recherche menée. Une question fondamentale pour l’interconnexion des bases de données, métadonnées et documents est celle de l’hétérogénéité des sources et leur fiabilité. L’autorité choisie va ici définir les schémas de données (schema.org, dublin-core…), et les formats techniques d’échange et d’encodage, mais aussi la fiabilité des informations d’identification (ISNI, VIAF…) tout autant que le choix éditorial de la méthode de présentation et de visualisation (Graphes dynamiques, lignes de temps, cartographie et sémiologie graphique…). L’interdisciplinarité comme moteur stimulant la créativité dans les méthodes de travail. La réalisation d’un tel dispositif n’a pu se faire que dans le cadre des humanités numériques comprises comme la mise en œuvre d’une réelle interdisciplinarité (Bénel 2014) avec une équipe large incluant, historiens, historiens de l’art, chercheurs en SIC et en informatique et en collaboration étroite avec toutes les plateformes et autorités existantes : partage, non seulement de contenus, mais aussi de méthodes, et de fondements épistémologiques. Le fonctionnement de l’interdisciplinarité passe par la mise en commun de méthodes, de vocabulaires et de discussions. Trois facteurs à considérer pour la réussite d’une démarche interdisciplinaire : 1) transfert de méthodes entre disciplines, 2) engagement des chercheurs, 3) enrichissement mutuel (Bénel, A, 2014). La discussion épistémologique entre les chercheurs est une condition pour la réussite de la pratique interdisciplinaire (Desfriches Doria, O. 2015). C’est la porosité des univers disciplinaires cultivée dans le projet qui a permis de garantir la cohérence du fonctionnement méthodologique, des apports disciplinaires et les résultats attendus. Les SIC, interdisciplinaires par essence sont vecteurs de cohésion dans les projets de ce type. Les méthodes propres à la datavisualisation furent employées en hackathons interdisciplinaires afin de faciliter l’exploration des documents et des données. Nous avons encouragé le couplage entre les techniques de visualisation et celles de l’analyse exploratoire, avec des résultats encourageants, restitués sous forme de posters. Le croisement et le traitement des données offre ainsi un panorama social de la culture qui se focalise sur des centres d’intérêts disciplinaires, par exemple : – visualiser l’impact des deux guerres sur la production des auteurs, leur trajectoire géographique via les lieux d’édition des revues dans lesquelles ils écrivent. – répartir les références en termes chronologiques, spatiale ou par type de support (ouvrages, préfaces, articles dans des périodiques de périodicités diverses). – analyser les réseaux ou la part des écrits des critiques consacrée à l’art étranger, ainsi que la diffusion des écrits de ces artistes dans des revues étrangères. Dans ce contexte, la prise en compte d’auteurs francophones permet d’investiguer le rôle de la langue dans la circulation des idées. De plus, les sciences informatiques proposent une méthodologie plurielle d’accès à l’information comme l’Exploratory Search (Marchionini, 2006) et le Knowledge Discovery (Kasemsap, 2017) qui visent à explorer les questions de recherche selon différents niveaux de profondeur, avec des grilles d’analyse cognitives diverses. Enfin, les jeux de données produits permettent aux spécialistes de data science d’exercer leur compétences pour faire émerger des regroupements statistiques de données à croiser avec les connaissances des autorités scientifiques en humanités. Nous examinerons et questionnerons les nouvelles pistes et méthodes de recherches qui apparaissent à l’aune des traitements numériques de données en humanités numériques, et notamment le rôle des traitements visuels, en partant d’exemples tirés du projet «Bibliographies de critiques d’art francophones ».
Lena Krause (Université de Montréal), “La création d’un atlas numérique pour visualiser et éditorialiser une base de données. Le cas de l’architecture publique en France (1795-1840)”
Lena Krause est candidate à la maîtrise en histoire de l’art à l’Université de Montréal. Elle a complété un baccalauréat en histoire de l’art et en informatique pour les sciences humaines à l’Université de Genève. Membre de la Chaire de recherche du Canada sur les écritures numériques, ses recherches s’articulent autour de l’histoire de l’art numérique et de l’usage de la visualisation interactive en recherche.
La base de données CONBAVIL est issue du dépouillement analytique des procès-verbaux des séances du Conseil des Bâtiments civils entre 1795 et 1840. Elle regroupe ainsi les décisions concernant tous les projets d’architecture publique française de l’époque. A l’heure actuelle, cette base de données est accessible sur le web. Ses fonctionnalités sont cependant limitées à un formulaire qui permet de filtrer selon des critères définis, d’afficher une liste de résultats et d’ouvrir, pour chaque résultat, la fiche détaillée du projet en question. Il nous semble que ce format n’exploite pas le plein potentiel du numérique et qu’il ne permet pas d’effectuer une exploration plus riche de ces données. Ce problème est commun à un grand nombre de bases de données en histoire de l’art tout comme dans d’autres domaines. Il nous paraît donc essentiel de trouver une solution pour mieux exploiter ces grands dépôts de données qui s’accumulent sans être utilisés dans leur plein potentiel, qui sont parfois délaissés ou qui, avec l’évolution des technologies, deviennent inutilisables. Nous émettons l’hypothèse qu’une forme d’accès visuelle et interactive aux données permettra de faire émerger de nouvelles interprétations et hypothèses concernant ces données. Pour le cas de notre base de données, nous proposons d’éditorialiser CONBAVIL et de créer un atlas numérique de l’architecture publique. Cette solution a pour but d’allier territoire, savoir et pouvoir à travers une approche spatiale et quantitative de l’architecture publique. L’éditorialisation, la production et structuration d’un espace numérique, diversifie et valorise l’utilisation de ces données. Ce processus a pour potentiel une exploitation plus variée et comme plus spécifique de la base de données CONBAVIL tout en mettant l’accent sur son contexte de publication, le web. La production d’une interface de recherche et de visualisation requiert également de prendre en compte de possibilités offertes par une épistémologie visuelle et numérique en l’histoire de l’art. Les visualisations formeront un alliage analytique entre vues maniables par filtres de recherche, cartographie, diagrammes ou réseaux, et statistique. L’interface permet ainsi de naviguer d’une lecture distante à une vue plus rapprochée des données. Le choix d’effectuer de la visualisation de données nécessite de nombreuses décisions qu’il faut justifier et dont les effets doivent être analysés de façon critique. L’objectif est de transformer l’accès et les usages de la base de données CONBAVIL, tout en utilisant notre expérience pour identifier des directives utiles à l’exploitation d’autres bases de données en histoire de l’art. Cette proposition de communication nous semble particulièrement pertinente pour ce colloque puisqu’il s’agit de repenser l’histoire de l’art numérique, ou peut-être même l’instancier en transformant la base CONBAVIL, actuellement plus proche d’une histoire de l’art numérisée. De plus, cette proposition serait une excellente opportunité pour obtenir un retour de la part de la communauté. Les suggestions et discussions que la présentation pourrait soulever seraient un atout majeur dans la suite du développement de ce projet.
Christophe Leclercq (Sciences Po), “Un nouveau modèle d’écriture et de lecture de la vie des œuvres d’art en histoire sociale de l’art numérique ?”
Docteur en art et sciences de l’art de l’Université Paris 1 Panthéon-Sorbonne, Christophe Leclercq est chercheur associé au médialab de Sciences Po, à Paris, en histoire sociale de l’art et humanités numériques. Il enseigne à l’École du Louvre, où il anime le séminaire Patrimoine et création numériques et co-coordonne le parcours Documentation et Humanités numériques.
En histoire de l’art, les vies d’artistes (Vasari) sont souvent bien mieux documentées que celles de leur production. Mais l’existence et même la profusion de traces numériques rendant compte du parcours parfois mouvementé des oeuvres, a récemment rendu possible un ensemble de recherches sur leur production, leur provenance (digital provenance), leur circulation, mais aussi la réalisation d’outils d’(auto-)archivage pour documenter et analyser la production artistique selon un principe temporel : Rekall et MemoRekall de Clarisse Bardiot, Re-Source de Lafayette Anticipations). Nous souhaiterions ici témoigner des interactions singulières entre monde de la recherche académique et institutions culturelles françaises dans le cadre du projet Etat de l’art (2016-2019), porté par le médialab de Sciences Po avec le soutien du LIEPP. Un principe d’écriture et de lecture consistant à décomposer la vie des oeuvres en une série d’événements et de divers participants – développé initialement avec le projet de recherche en histoire de l’art et design numérique E.A.T. Datascape (Leclercq, Girard) – a pu être testé à plusieurs reprises et sous diverses formes, pour répondre à diverses problématiques énoncées par d’autres chercheurs en art, ou des personnes en charge de la gestion, de la documentation ou de la valorisation des collections d’art moderne et contemporain. Un premier atelier (ou datasprint) sur les données de la collection du Centre national des arts plastiques (Cnap), intitulé le Fonds national d’art contemporain (Fnac), a ainsi été organisé en collaboration avec l’association Videomuseum. Pendant trois journées, des chercheurs en histoire de l’art et sciences sociales, des experts de la collection, des ingénieurs et des designers ont travaillé ensemble sur cette collection particulièrement riche, et tester des hypothèses de recherche, par l’exploration et la visualisation d’informations. L’une d’elle, portant sur la mesure de l’impact d’une théorie prescriptive sur cette collection publique, s’interrogeait sur les possibles acquisitions d’oeuvres relevant de ce que le critique d’art Nicolas Bourriaud a défini comme une “esthétique relationnelle”, s’intéressant en conséquence aux dates de création, d’acquisition et d’exposition des oeuvres pour étudier la réactivité de l’État français en tant que collectionneur d’art contemporain. Le second atelier, organisé de nouveau avec l’association Videomuseum, mais portant cette fois-ci sur les collections du Musée national d’art moderne (MNAM), et réalisé en partenariat avec la Technische Universität de Berlin et le Center for Data Arts (The New School, New York), aura surtout été l’occasion d’exploiter des informations extrêmement riches sur la vie des oeuvres dès leur entrée en musée, portant non seulement sur leur acquisition et leur exposition, mais aussi sur les opérations moins visibles de déplacements internes ou externes (mise en réserve, restauration, etc.). Une première approche de la vie ordinaire des oeuvres (Kreplak), par des moyens numériques, devenait alors possible. Il s’agit ainsi, à partir de l’expérience préliminaire de l’E.A.T. Datascape, et de certains des résultats de ces deux ateliers, de dégager les possibles usages (mais également les lacunes et autres difficultés) qu’un tel principe d’éditorialisation et de visualisation de la vie publique comme privée des oeuvres, rend possible en terme de documentation et d’analyse de leur mode d’existence ou forme de vie (Leibovici) ; comme de participer à une meilleure définition de ce qu’il est possible de faire au sein d’une histoire sociale de l’art renouvelée par le numérique.
Rhian Lewis (McGill University), “¿Cuándo y cómo? Constructing relational geographies in a Twitter discourse on sexual violence”
Rhian Lewis is a recent McGill graduate with a joint honours B.A. in anthropology and Hispanic studies and a minor in social studies of medicine. At the moment, she is working with Dr. Cecily Raynor of the Department of Hispanic studies to put together an edited volume exploring Latin American digital cultural production.
To rally support before a feminist protest in the spring of 2016, journalist Catalina Ruíz-Navarro asked Twitter users to describe their first experiences of sexual violence using the hashtag #MiPrimerAcoso (“my first harassment”, or “my first abuse”). The hashtag rapidly gained a tremendous following, with some estimating that it had been used nearly 80,000 times in the three days since Ruiz Navarro posted her prompt from Mexico City. At first glance, it is reasonable to assume that the Twitter users who engaged with #MiPrimerAcoso formed connections through their shared experiences of sexual violence: however, this initial assessment leaves many manifestations of common ground unexamined. In this presentation, I examine the narrative characteristics of the #MiPrimerAcoso tweets to demonstrate much more specific negotiations of familiarity. Through close and distant readings of a large corpus of #MiPrimerAcoso tweets, I identify an interplay of spatial and corporal markers that serve to construct relational geographies between the authors who described their experiences of sexual violence. These relational geographies might, for example, connect people who were assaulted in the same metro station, by the same kind of authority figure, or perhaps more broadly, people who understand experiences of place and body conditioned by violence. By describing how and when the first acoso occurred, #MiPrimerAcoso authors link an affective experience of trauma and indignation to a collective demand for justice. This presentation reflects on the role of narrative specificity in communicating the when and where of the primer acoso, thereby facilitating flash-points of understanding between protestor and spectator, between Twitter author and audience. In this exploration of disclosure, themes of memory, place-based storytelling, and embodiment provide anchor points for an examination of affective performance strategies. The notion of place here refers to both the physical settings that #MiPrimerAcoso authors describe when recounting their experiences of violence, but also refers to violence at the site of the body. For the purposes of this analysis, text and body are, as I will explore, intertwined as modes of embodiment within the digital space. Within online communities, the creation of text enacts a representation of digital corporality, insisting on the presence of the self. The way that we live and mark our existence on the web is highly textual: what we tweet provides not only a digital voice, but a marker of our intangible web-bodies. Along with images and videos, text-based narratives are the format in which our digital bodies materialize and interact with one another. In this presentation, I critically examine the role of telling as a means of catharsis, of building solidarity and voicing potent personal-political truths. #MiPrimerAcoso’s demand for explicit personal recollection provides the affective fuel for its political fire, driving its conversations forward on the basis of shared experience and disclosure as a political act.
Ingrid Mayeur (Université de Liège), “Le discours scientifique en SHS au prisme de sa matérialité langagière. Enrichissement hypertextuel, plurisémioticité et intertexte des écrits de carnets de recherche”
Ingrid Mayeur est licenciée en langues et littératures romanes (Université libre de Bruxelles, 2004) et doctorante à l’Université de Liège depuis 2016 (ss la dir. de MM. B.-O. Dozo et F. Provenzano). Ses travaux portent sur la transformation des formats de communication de la recherche en humanités dans l’environnement numérique, et plus particulièrement sur les formes d’organisation discursive des savoirs dans les carnets de recherche en sciences humaines et sociale.
Les humanités numériques accordent une attention particulière aux conditions matérielles d’élaboration, de circulation et de diffusion des savoirs (Dacos et Mounier 2014). Si elles pensent à nouveaux frais les axes de la recherche en humanités et le rôle que jouent ces disciplines dans la société, la question de la matérialité langagière des discours de savoirs au sein des infrastructures de communication scientifique semble bien rester, dans une certaine mesure, un point aveugle. Or, cette matérialité langagière (qui englobe plusieurs niveaux : lexical bien sûr, mais également celui des structures rhétoriques ou encore des formes textuelles* générées par les dispositifs éditoriaux ) se transforme elle aussi par son inscription dans l’environnement du web. De ce fait, il y aurait un intérêt à étudier les mutations du discours scientifique (Rinck 2010) dans ce nouvel environnement, son ajustement aux formats et à la temporalité de la recherche qu’il favorise ainsi qu’au brouillage des frontières (Dacos et Mounier 2010) qu’il met en œuvre. À partir de l’analyse d’un corpus de billets de recherche issus de la plateforme Hypothèses**, je voudrais investiguer ce que la matérialité des discours de savoir nativement numériques « fait » à la recherche en humanités. Que devient le discours scientifique lorsqu’il se fait technodiscours (Paveau 2017), soit lorsqu’il intègre, sur le modèle du textiel (Davallon et al. 2013), une part à la fois langagière et opératoire ? Plus concrètement, comment l’enrichissement hypertextuel et la plurisémioticité des énoncés numériques natifs agissent-ils sur le discours scientifique? De quelle manière cette intégration de discours représentés reconfigure-t-elle son intertexte*** ? Enfin, comment se pose désormais la question des frontières du texte scientifique (qui, pour être citable, doit en principe reposer sur une forme stabilisée) ?
Margot Mellet (Université de Montréal): “A. P. pop”
Margot Mellet est doctorante au département Littératures en langue française et s’intéresse dans le cadre de sa recherche aux liens transhistoriques pouvant être pensés entre les corpus littéraires antiques et modernes et l’édition numérique savante. Elle est également auxiliaire de recherche au sein de la Chaire de Recherche du Canada en écritures numériques.
Luis Meneses (University of Victoria), “Social Media Engine: Mining and Discovery Tools in Open Access Repositories”
It is undeniable that the methods for representing documents and disseminating knowledge are changing –to the point that the definition of a paper as an academic publication is becoming inadequate for the dissemination of research (Leggett and Shipman, 2004). Particularly, social media has gained added relevance given its potential to transform the scholarly communication system (Sugimoto et al., 2016); also, the Open Access model of scholarly communication affords greater accessibility to the results of research. However, social media has been overlooked and disregarded from the boundaries and the workflow of a digital collection. Our work has been addressing this situation by developing a framework that introduces social media into the context of an Open Access repository. We have named this framework the Social Media Engine. This framework aims to instigate public engagement, open social scholarship, and social knowledge creation by matching readers with Open Access academic publications that are mentioned in social media streams. Some of our previous presentations have focused on the computational aspects behind our framework (Meneses et al., 2017) (Meneses et al., 2018a) (Meneses et al., 2018b). More so, it is very noticeable in our work that we have used computer algorithms to implement different mechanisms for of accessing, navigating and indexing our document collection. These algorithms come with both advantages and disadvantages –which in our opinion make them worthy of study within the context of the Open Access model. In this abstract, we propose to report on the lessons we have learned during the implementation of our approaches towards data mining and discovery tools; and how we integrated these tools into the workflow of an Open Access digital repository. More specifically, we will focus on how social media and online conversations bring the potential for the users of our framework to access documents that they would have difficulties finding otherwise. Finally, we propose to elaborate on our understanding of the impact that digital technologies can have in the process of circulating knowledge; all while fostering to capitalize on the existing relationship between researchers and society at large.
Servanne Monjour (McGill University), “De la retouche au hack : l’imaginaire du code dans la mythologie postphotographique”
Titulaire d’un doctorat en littérature comparée (Université de Montréal) et littérature française (Université Rennes 2), Servanne Monjour est postdoctorante au département de Languages, Literatures and Cultures de l’Université McGill (Montréal) où elle travaille au côté de Stéfan Sinclair. Précédemment en postdoctorat au département des littératures de langue française de l’Université de Montréal, elle a travaillé au sein de la Chaire de recherche du Canada sur les écritures numériques(titulaire Marcello Vitali-Rosati). Ses travaux portent sur les nouvelles mythologies de l’image à l’ère du numérique et sur les collectifs littéraires et artistiques contemporains.
« Parmi les thèmes de prédilection de la mythologie postphotographique (ainsi que nous qualifierons les récits et les discours de la transition photonumérique), la question du code informatique constitue le point de départ de bien des fantasmes. Elle a donné lieu, en particulier, à un imaginaire foisonnant qui puise son inspiration dans les théories posthumanistes, et à laquelle la critique elle-même semble devenue poreuse. Acteur majeur des premières théories postphotographiques, Fred Ritchin s’appuie ainsi sur la différence entre code (conçu comme une modélisation du réel) et empreinte photochimique (conçue comme une trace du réel) pour établir un clivage ontologique radical entre les techniques numériques et argentiques, usant d’une métaphore d’autant plus frappante qu’elle évoque un motif lié à la nature des choses, l’ADN : « [P]hotography in the digital environment involves the reconfiguration of the image into a mosaic of millions of interchangeable pixels, not a continuous tone imprint of visible reality. Rather than a quote from appearances, it serves as an initial recording, a preliminary script, which may precede a quick and easy reshuffling. The digital photographer—and all who come after her—potentially plays a postmodern visual disc jockey. At the next frontier, code triumphs over appearance. Phenotype, the stuff of photography, once trumped genotype (in the image of “God”). In the information age it is the DNA that has been crowned humanity’s essential arbiter. […] One day soon we will ask of the image : “From where do those blue eyes come?” expecting that the answer will be conveyed in code » (Ritchin 2009, p. 19) Ainsi le photographe agirait-il sur l’image tel le généticien manipulant le génome en laboratoire… La distinction entre argentique et numérique se poserait alors en ces termes : tandis que le médium de Niepce et de Daguerre serait du côté du phénotype, soit de l’apparence des choses (pour montrer ou représenter des yeux bleus, par exemple), le numérique se situerait quant à lui du côté du génotype, soit de l’information (ces mêmes yeux bleus étant définis par un code, par un ensemble de données). De fait, toute opération de manipulation de l’image numérique toucherait directement le référent : l’art de la retouche, en photographique numérique, ne viendrait plus « corriger » une représentation du réel, mais « hacker » le réel, le pirater purement et simplement. Si l’idée est séduisante, elle n’est pourtant ni nouvelle. Elle renvoie en effet à un imaginaire du gène en partie construit par la littérature depuis le XIXe siècle, tiraillé entre des connotations technophiles (incarnées dans l’idée d’évolution) ou au contraire technophobes (le risque de dégénérescence, de rupture avec la « Nature »). Aussi, en dépit de la justesse de l’analogie code/écriture sur laquelle elle s’appuie, cette métaphore génétique n’en demeure pas moins biaisée et chargée de multiples connotations, dont certaines renvoient à des motifs ou à des figures déjà anciennes : chimères, clones, virus, mythe de Pygmalion… À partir de l’analyse critique et historique de cet imaginaire du code, ma communication proposera des pistes de réflexion pour repenser la question de la manipulation photographique à la lumière d’une culture du hack propre aux pratiques numériques. De la littérature non-créative (Goldsmith) à l’éditorialisation, nous verrons comment l’esthétique du hack occupe aujourd’hui une place majeure dans les pratiques postphotographiques. »
Emilie Paquin (Université de Montréal – erudit.org), “Coalition Publi.ca“
Émilie Paquin est directrice recherche et développement stratégique pour la plateforme Érudit, où elle a occupé, depuis 2008, divers postes, notamment la coordination de la production et la gestion du pôle édition et partenariats.
Coalition Publi.ca est un partenariat stratégique créé au printemps 2017 par Érudit et le Public Knowledge Project (PKP) à la suite d’un travail intensif de réflexion et de concertation. Dédié à l’avancement de la diffusion de la recherche en SHS et en arts et lettres, Coalition Publi.ca a pour objectif le développement d’une infrastructure nationale de production, de diffusion et de recherche. Coalition Publi.ca est une initiative qui s’inscrit dans un mouvement international de redéfinition des rapports de forces dans le milieu académique pour soutenir la circulation libre des savoirs, en contexte de transition vers le libre accès et de développement des perspectives de recherche en SHS. Ses trois axes sont les suivants : un programme de soutien aux revues savantes canadiennes; l’harmonisation des développements technologiques d’Érudit et de PKP; des activités de recherche portant sur l’évolution du secteur de la publication savante. Il s’agira dans cette communication de présenter le travail accompli à ce jour autour du modèle économique de financement du libre accès ainsi que de la création d’une offre de services à destination de l’ensemble des revues canadiennes.
Suzanne Paquet (Université de Montréal) et Christelle Proulx (Univer sité de Montréal), “Publics actuels du Land Art : Destinations et photographies (en ligne)”
Suzanne Paquet est professeure au Département d’histoire de l’art et d’études cinématographiques de l’Université de Montréal; ses domaines d’enseignement et de recherche sont les études photographiques et la sociologie de l’art. Chercheure principale du projet «Art urbain, art public et cultures numériques», elle s’intéresse à la circulation des images, à l’inscription de certains types d’art dans la production de l’espace contemporain, à la réciprocité entre espaces publics concret et numérique.
Christelle Proulx est candidate au doctorat en histoire de l’art à l’Université de Montréal. Détentrice d’une bourse du CRSH pour son projet de thèse qui se situe entre les études photographiques et internet, ses intérêts de recherche portent principalement sur les enjeux de la culture numérique et visuelle.
On constate depuis quelques années, chez les chercheurs en études des arts et plus généralement en sciences humaines, un grand intérêt pour l’espace public et les formes qu’il prend. Mais se préoccupe-t-on des publics eux-mêmes et de leurs actes, qui ont le pouvoir de faire exister l’espace public? Les communautés de goût qui se rassemblent autour de l’art ont-elles changé depuis qu’internet a contribué à reconfigurer l’espace public? Faut-il opposer public local et public global, ou tendent-ils à se confondre? Dans le cadre du projet de recherche « Art urbain, art public et cultures numériques : des publics, des sites, des trajets » nous étudions l’action concrète des publics sur différentes formes d’art. Nous tentons notamment de dégager certains types d’actions prescriptrices et modalités de légitimation inédites des œuvres. Pour ce faire, nous observons la circulation et les évolutions dans les cyber-réseaux d’images photographiques d’œuvres choisies, suivant les gestes de photographes amateurs et d’amateurs d’art actifs dans le web. L’hypothèse est qu’une géographie spécifique des œuvres d’art se trace ainsi, par les images et leur propagation, entre l’espace public et le web. Les réseaux de médiations forment des « trajets d’instauration », qui façonnent et prolongent la vie des œuvres et incluraient désormais des amateurs actifs – ou certains publics – et leur production photographique. Pour cette communication dans le cadre du colloque du Centre de recherche interuniversitaire sur les humanités numériques 2018, nous souhaitons d’abord présenter les outils et méthodologies numériques que nous avons développé afin d’arriver à traquer des photographies d’art en ligne. Il s’agira d’expliquer le travail que nous menons avec la plateforme de partage de photographies Flickr depuis 2012, de même que notre utilisation de la recherche par images de Google afin de découvrir diverses apparitions des mêmes photographies réutilisées ailleurs en ligne. Ce processus de recherche d’images a récemment été automatisé pour nos besoins et nous sommes dorénavant aptes à collecter les données de façon à cartographier la plupart des destinations géographiques des pages web qui font circuler ces images dans le web. Nous présenterons les détails d’une enquête récemment menée sur la circulation en ligne de photographies d’œuvres de Land Art: les Sun Tunnels (1976) de Nancy Holt et Spiral Jetty (1970) de Robert Smithson, tous deux situés en Utah aux États-Unis, ainsi que Broken Circle / Spiral Hill (1970), une autre œuvre de Smithson qui se trouve quant à elle aux Pays-Bas. Il s’agira ainsi de montrer les liens qui se dessinent entre espace tangible et espace en ligne, entre la fixité des œuvres ancrées dans le paysage et la mobilité des photographies en ligne et des publics voyageurs. Considérant l’attrait touristique de telles œuvres encouragé par la visibilité acquise sur le web, cela nous permettra d’observer réciproquement les dynamiques entre destinations des photographies dans le web et destinations touristiques sur des sites physiques.
Karl Pineau (Université de Technologie de Compiègne) et Bruno Bachimont (Université de Technologie de Compiègne) , “Articulation entre les données catalographique et la recherche en histoire de l’art, un enjeu encore à traiter”
Karl Pineau est doctorant en sciences de l’information et de la communication au laboratoire Costech de l’université de Technologie de Compiègne. Sa thèse porte sur l’écriture numérique des données culturelles, réalisée en CIFRE au sein d’une société d’ingénierie documentaire, sous la direction de Bruno Bachimont et Serge Bouchardon.
Le développement de la numérisation des collections patrimoniales au cours des vingt dernières années a permis l’émergence de corpus de données conséquents autour du patrimoine et des pratiques culturelles. Les silos de données ou les bibliothèques numériques Europeana, Gallica ou encore Wikidata en sont des exemples majeurs. L’objectif affiché de ces structures est d’opérer une médiation de la connaissance par la donnée. Elles normalisent la connaissance acquise dans un format facilitant sa réutilisation. L’émergence des technologies du web sémantique, tant du point de vue de la forme de cette expression (RDF) que du point de vue de son discours (ontologies) a largement participé à ce mouvement de transcription de la connaissance en donnée. Les ontologies développées dans les milieux culturel et patrimonial correspondent à cette volonté de médiation des données. On peut citer à titre d’exemple le Dublin Core ou l’Europeana Data Model dont un objectif commun est de normaliser la représentation d’un artefact culturel afin d’en faciliter l’appréhension. CIDOC-CRM, ontologie majeure du secteur patrimonial, reprend également cet objectif mais dans un spectre plus large. Il s’agit avec CIDOC de faciliter l’appréhension de l’écosystème d’un artefact, et non plus du seul artefact. Sont dès lors décrits évènements, personnes et objets. Mais la plupart de ces ontologies a pour défaut d’oblitérer une part essentielle du milieu patrimonial et culturel : la recherche qui s’effectue dans ces domaines. Elles favorisent ce que nous qualifions de recherche de la donnée, c’est-à-dire l’accès à une connaissance établie, le plus souvent issue des données de catalogage ou d’inventaire. Cet accès se fait au détriment de ce que nous qualifions de données de la recherche, c’est-à-dire les travaux, les discussions voire les controverses qui permettent d’aboutir à la définition d’une information. Or, ces discussions constituent bien là un aspect essentiel de la recherche en histoire de l’art. À titre d’exemple, citons le RETIF, REpertoire des Tableaux Italiens des collections Françaises, base de données constituée et alimentée à l’Institut National d’Histoire de l’Art (INHA) en France. Ce répertoire a notamment pour objectif de centraliser le travail sur l’attribution réalisé autour des collections de peintures italiennes. Il s’agit donc d’identifier les différentes attributions émises pour une peinture et de comprendre ce qui a permis à un historien de l’art de proposer une attribution. Ses différentes attributions constituent un élément essentiel de l’historiographie d’une œuvre d’art. Pour comprendre l’œuvre dans toutes ses dimensions, ce qui est bien l’objectif d’un chercheur dans cette discipline, il est nécessaire de pouvoir appréhender l’ensemble des discours argumentatifs qui l’ont prise pour sujet et pas seulement le dernier discours faisant autorité, par exemple la dernière attribution. À ce titre, nous proposons d’expliciter dans un poster la problématique de la représentation du discours scientifique en histoire de l’art, en nous basant sur les premiers travaux menés dans le contexte d’une thèse de doctorat. Il s’agira d’illustrer le décalage existant entre la modélisation des données opérée par les ontologies patrimoniales existantes au regard des besoins des chercheurs en histoire de l’art, notamment au sein des logiciels d’ingénierie documentaire. Ces logiciels constituent l’outil de travail des chercheurs et professionnels de la conservation et du patrimoine alors même qu’ils ne proposent pas dans leur grande majorité de modélisation standardisée des données, correspondant aux besoins des professionnels de la conservation et de la documentation. Nous présenterons donc la difficulté de dialogue entre trois types d’entité : les logiciels d’ingénierie documentaire, les représentations formelles en histoire de l’art et les usages des professionnels de la conservation et de la recherche. Nous proposons à ce titre de présenter une étude de cas présentant l’articulation des données avec la recherche, issue de l’exemple de l’INHA et de sa base documentaire AGORHA, via le logiciel Flora Musée. Nous axerons notre présentation sur les gains possibles pour les utilisateurs d’une modélisation des données de la recherche, notamment au travers de la représentation des régimes argumentatifs.
Stéphane Pouyllau (CNRS), “ISIDORE Table : un dispositif tactile de recherche sémantique et de critique des sources pour l’édition savante” :
Stéphane Pouyllau est ingénieur de recherche au CNRS à Paris et actuellement directeur technique de l’infrastructure de recherche Huma-Num. Après une formation en histoire, en archéologie et en informatique, il s’est spécialisé en 1999 dans l’informatisation des données de la recherche et dans les humanités numériques.
L’importante masse des données et documents disponibles pour les cher- cheurs dans les corpus de lettres et sciences humaines implique aujourd’hui de créer de nouveaux dispositifs de visualisation de l’information et d’aide à l’édition critique. La nécessité pour les chercheurs de devoir critiquer les sources qui seront au cœur de leurs travaux induit de pouvoir rechercher, visualiser, annoter, et constituer des corpus de références bibliographiques dans des processus de recherche de plus en plus collectif et collaboratifs. L’image de l’érudit travaillant seul, tout une vie en bibliothèque, appartient au passé et les modes de diffusion des savoirs s’appuient désormais sur des échanges d’informations nombreux, rapides voir en quasi temps réel avec des outils de travail communautaire tel que les comptes Slack, les salons Jabber, … etc.). L’édition savante, critique, doit être envisagée aujourd’hui plus comme une photographie à un instant « T » d’un flot d’information qui « coule » en continu plutôt qu’à la somme des connaissances rassemblées au cours d’une vie. L’édition savante devient « liquide » tout comme la mise à disposition des corpus de sources. Dans ce contexte, l’émergence, au tournant des années 2010 des moteurs de recherche sémantiques a permis de nourrir l’édition critique en références plus nombreuses et plus riches. Ils ont aussi permis le décloisonnant et le liage des informations à différents niveaux de sémantique des corpus et bases de données. Majoritairement accessibles à l’aide de sites web, ces moteurs de recherche ont aussi été déclinés sur des terminaux mobiles (téléphones connectés, tablettes). Cependant, peu de ces moteurs ont atteint des masses critiques dans la ges- tion des données et peu ont proposé des dispositifs de recherche, de visualisa- tion et de travail collaboratifs permettant d’accompagner les chercheurs. Peu d’outils, dans ces dispositifs, sont à la fois proposés pour le travail individuel et le travail plus collectif, nécessaire aux pratiques de recherche actuelles. De plus, il est très rare de trouver des dispositifs de recherche, d’annotation, de prises de notes préparatoires et d’édition critique ayant été pensés comme pouvant offrir à la fois des interfaces complémentaires pour le travail individuel et pour le travail collectif et/ou collaboratif. C’est la proposition faite avec l’outil ISIDORE Table (dit ISITable) réalisé par l’équipe de l’infrastructure de recherche Huma-Num en France. Compo- sée d’une table tactile de grande dimension, offrant 6 postes de travail, d’une application dédiée à la visualisation, à la prise de notes, à l’éditions de réfé- rences, au travail collectif, ISITable embarque le moteur de recherche pour les lettres et sciences humaines ISIDORE. Elle est un outil de recherche, de sé- lection, de visualisation, d’annotation permettant de travailler collectivement à la production savante et à l’édition critique. L’ISITable s’interconnecte aux applications courantes de la recherche en être des sciences humaines tel que Zotero, Google Docs, et certains services d’Huma-Num. L’ISITable répond ainsi aux besoins de pouvoir travailler collectivement et en présentiel autour des sources (plus de 5 millions de données dans ISIDORE), en les visualisant pour mieux les critiquer et en débattre, tout en ayant des outils d’annota- tion, de prises de notes et d’enregistrement et permettant, comme sur un bureau où l’on laisserait des documents pour plus tard, d’y revenir et d’y avoir même des mises à jours régulières permettant ainsi de comparer et de critiquer les données.
Cecily Raynor (McGill University), “The Networked Search: Nation, Identity and Digital Literary Content in Chile and Argentina”
Cecily Raynor is an Assistant Professor of Hispanic Studies and Digital Humanities at McGill University. She teaches on digital culture, digital methods, specifically web analytics and search, in addition to literature and culture in Latin America. Dr. Raynor’s projects within the Digital Humanities, “The Digital Geographies of the Hispanic World” and “Digital Hispania” have received generous funding from the Social Sciences and Humanities Research Council of Canada and the Fonds de Recherche du Québec – Société et Culture.
Hannah Reardon (McGill University), “Visualizing Conservation Dynamics in the Amazon through the Calha Norte Portal“
Hannah est étudiante à la maitrise en Anthropologie à McGill. Ses intérêts de recherche incluent la protection de l’environnement et les politiques de conservation dans la région Amazonienne. Dans le domaine des humanités numériques elle s’intéresse d’avantage aux programmes de GIS et aux théories de « critical cartography ».
Calha Norte is the northernmost region of the Brazilian Amazon, and the largest mosaic of protected areas in the world, encompassing nearly 14 million hectares. Given the vastness of this area, and the scarcity of resources, government enforcement of parks and conservation zones can be poor. This presentation focuses on the Calha Norte Portal, a digital initiative which aims to increase awareness of conservation efforts in the region, and the dynamics which present challenges to the current model of conservation. The portal is an educational tool intended to demonstrate the power of digital technologies for fostering greater transparency in the management of protected areas in the Brazilian Amazon. It also aims to provide a clearer understanding of the social, political, economic and historical dynamics which have shaped the challenges to protecting the Amazon forest today. In line with the second research axis of the CRIHN, this project represents an effort to recontextualize a large amount of data from diverse sources in a consolidated database which is both visual and interactive. Given the simplicity of the tool, it aims for wide circulation, beyond a traditional academic audience. Furthermore, the KMZ file which contains the mapped data is free and open for use by the public, in keeping with Open Access politics of the Digital Humanities field. The information which the tool contains was gathered during my work with the Social Policy department of the Amazonian Institute for Man and the Environment (Imazon), an environmental NGO based in Belém. In accordance with the department’s focus on communities in the Calha Norte region, I compiled facts and figures on the region’s history, cultural diversity, transportation networks, governing bodies, development indices, demographics, economic activities, protected area implementation, and deforestation. In order to make the data easily interpretable, I mapped it in Google Earth to create an interactive database of the municipal capitals and protected areas in the region. The Google Earth application allows the user to navigate through state and federal protected areas and parks, indigenous territories, maroon communities, and access general data on each municipality. At a click, each area on the map displays a pop-up window with a photo and the information available for that particular shapefile or point. A useful feature in Google Earth allows the user to look back in time at satellite images from 1960 to the present to see patterns of deforestation and urban sprawl over time. The application is hosted online at calhanorteportal.com. My project focuses especially on political, economic, historical, cultural and sociological data for populations in protected areas and surrounding municipalities. As an anthropologist, I am particularly interested in dispelling the myth of the Amazon as an uninhabited and idyllic forest space. I believe in the importance of exposing the historical dynamics which have shaped the Amazon region as it is today, and the human forces which continue to determine the fate of the land. Understanding the elements which have driven the economic development of the region is a crucial first step for conservation policy which can protect both human livelihoods and biodiversity, in line with current sustainable development benchmarks. I also hope to draw attention to the power of digital technologies for overcoming communication barriers between isolated regions and institutional bodies, a major issue in developing informed and tailored conservation policy. The goal for the Calha Norte Portal is to present regional data in a visual, interactive format, that dismantles a traditional historical narrative, but draws attention to human presence and the adverse impacts of traditional development frameworks on fragile ecosystems. This presentation will elaborate on the features of the Calha Norte Portal and its contribution to greater awareness of regional conservation efforts. The overarching aim is to convey the importance of transparency in the management and implementation of protected areas, so that conservation efforts might be better tailored to the realities of local communities and open to their involvement in the protection of the land and environment which shape their lives.
Michelle Salord (Université Paris VII — Institut des Amériques — CEMCA) et Caroline Perrée (CEMCA), “Migr’art : Expérience transdisciplinaire entre recherche, art, pédagogie et jeu vidéo”
Caroline Perrée est chercheuse associée au CEMCA, Centre d’Etudes Mexicaines et Centrámericaines, à México. Docteure en Histoire de l’art, elle est spécialiste de l’art contemporain mexicain, des offrandes et des pratiques votives au Mexique, ainsi que des pratiques religieuses urbaines et des interactions entres des pratiques artisanales et des pratiques artistiques. Elle a initialement une formation en Lettres modernes à la Sorbonne, et a exercé comme professeure de Lettres jusqu’en 2002 dans des établissements du secondaire en région parisienne.
Michelle Salord, doctorante franco-mexicaine en deuxième année de thèse en anthropologie à l’université Paris 7 et coordinatrice du pole Mexique de l’Institut des Amériques, au CEMCA. Elle a fait des études en socio-anthropologie avec un master spécialisé dans les migrations et les relations interethniques, ainsi qu’un autre master en anthropologie visuelle. Elle travaille actuellement sur les zones d’accueils des migrants centraméricains au Mexique et sur les nouvelles formes de mobilités de migrants pendant leur séjour mexicain, en incorporant dans sa méthode et son analyse une réflexion autour du support visuel. En 2017 elle a réalisé un premier long-métrage documentaire « Down The Line » sur son terrain de recherche, en collaboration avec plusieurs migrants centraméricains vivant dans un centre d’accueil dans le sud du Mexique.
Dans un contexte de grande violence, et malgré sa longue construction historique, les questions migratoires au Mexique restent très actuelles et sont largement analysées par la recherche scientifique ainsi que par la création artistique, toutes deux confrontées à l’urgence de la situation et à la nécessité de développer un regard critique et ouvert au public. C’est dans ce contexte que se place le projet Migr’art, au croisement entre recherche en sciences sociales (sociologie, anthropologie visuelle, histoire de l’art), art contemporain, transmission pédagogique et création numérique notamment à travers l’élaboration d’une mallette numérique et d’un jeu vidéo. Ce projet se décline en deux étapes. La première se présente sous la forme d’une mallette numérique propre à enseigner l’histoire de l’art visuel en ligne, par l’analyse d’œuvres d’art contemporain mexicaines et centraméricaines qui traitent des flux migratoires de l’Amérique centrale aux États-Unis en passant par le Mexique. L’ensemble des œuvres est disposé sur une carte du XVIe siècle, au moment de la Conquête, et constituent les étapes d’un parcours, celui du migrant, tout en créant une exposition virtuelle d’œuvres expliquées en ligne. L’ensemble a pour vocation à être utilisé par des enseignants dans le cadre de la pédagogie numérique. La seconde étape, toujours en processus, reprend le même contenu artistique et thématique tout en y ajoutant des éléments documentaires (photos et vidéos prises sur le terrain ou envoyées par des migrants) sous la forme d’un jeu vidéo. Deux personnages sont alors élaborés à partir de savoirs scientifiques déjà existants et de données de première main (témoignages et entretiens recueillis sur le terrain). Ces deux parcours biographiques érigés en parcours « types » permettent au joueur d’aborder entres autres les raisons de départ et l’élaboration du projet migratoire, les routes migratoires et les transports utilisés, les modes de socialisation propres aux expériences migratoires, l’organisation de l’accueil destiné aux migrants, le passage de la frontière, les possibilités de travail et de vie au Mexique et aux Etats-Unis ainsi que les cas de déportations, avec une composante générationnelle pour le premier parcours, et une composante de genre pour le deuxième. À travers ce support nouveau, l’interaction et l’identification du joueur avec le migrant sont favorisées dans un effet mimétique propre à le sensibiliser au destin de ce dernier dans un but éthique : faire jouer pour mieux faire connaître tout en créant de l’empathie à l’égard de l’autre. Le jeu a alors recours aux stratégies narratives classiques (récits fondés sur les schémas narratif et actanciel, voix off, poésie) dans lesquelles sont insérées différents supports visuels (vidéos, photos, portable, œuvres plastiques), l’ensemble étant pensé pour transmettre au mieux un savoir scientifique à un public large et non exclusif de la sphère universitaire. Ce projet, à travers sa conception et son élaboration, a permis de soulever de nombreuses questions à la fois pratiques, théoriques et épistémologiques s’inscrivant l’une et l’autre dans une démarche transdisciplinaire. En effet, initié par une chercheuse en histoire de l’art et coréalisé avec une doctorante en sociologie et en anthropologie visuelle, ce projet a impliqué des discussions avec des chercheurs anthropologues, sociologues et géographes spécialistes des questions migratoires, ainsi qu’avec des développeuses web, des graphistes et des migrants centraméricains. De par sa forme et ses objectifs, Migr’art engage une réflexion autour de l’articulation entre analyse scientifique, données de terrain et adaptation à un nouveau format numérique, révélant la pertinence des nouvelles écritures et des diffusions et circulations des savoirs, tout en rendant possible un changement de rapports entre chercheurs, enquêtés, professionnels du jeu vidéo et société civile. Au cours de cette communication nous nous demanderons ainsi dans quelle mesure et à quelles conditions nous pouvons associer résultats de terrain, support numérique et enjeux ludiques afin de rendre compte d’un savoir scientifique.
Nicolas Sauret (Université de Montréal), “Stylo: un éditeur sémantique pour les humanités”
Nicolas Sauret est actuellement doctorant à l’Université de Montréal et l’Université Paris Ouest et travaille sur la question de l’éditorialisation et de l’impact des dispositifs numériques d’écriture et de lecture dans la construction et la circulation des savoirs. Sa thèse s’inscrit dans la continuité de son travail à l’Institut de recherche et d’innovation du Centre Pompidou (IRI) comme ingénieur de recherche et chef de projet (2009-2016). Au sein de l’IRI puis au sein de la chaire Écritures numériques de l’Université de Montréal, il co-organise le séminaire « Écritures numériques et éditorialisation » depuis 2011, en partenariat avec la revue Sens Public et le laboratoire Dicen-IDF.
Le livre numérique peut être lus non seulement par des humains, mais aussi par des machines. Ainsi, éditer un livre numérique ne consiste plus à s’occuper principalement de mise en forme des contenus, mais plutôt de leur structuration et de leur balisage sémantique. S’il existe aujourd’hui un certain consensus autour des formats et des protocoles numériques les mieux adaptés aux contenus savants (balisage XML, protocole OAI-PMH…), la mise en œuvre de bonnes pratiques reste l’un des plus grands défis de l’édition scientifique dans les humanités : comment construire des outils capables de garantir la bonne structuration des textes (et donc leur pérennité, leur indexation efficace, etc.), sans demander aux chercheurs de développer des compétences informatiques trop complexes ? Pour répondre à ce besoin, la Chaire de recherche du Canada sur les écritures numériques, en collaboration avec Érudit, a mis au point l’éditeur de texte Stylo à destination des chercheurs et étudiants en sciences humaines. La philosophie de Stylo consiste à remettre dans les mains des auteurs la gestion du balisage de leur texte en partant de leurs compétences, qui sont des compétences sémantiques plutôt que graphiques. Conçu sur le principe d’un éditeur WYSYWYM (what you see is what you mean), Stylo a le potentiel de changer l’ensemble de la chaîne de production des contenus en proposant une interface uniformisée et sans perte de données, depuis la rédaction jusqu’à la diffusion, en passant par l’évaluation, la correction et l’édition. L’éditeur propose aux auteurs un environnement d’écriture très simple, permettant un enrichissement sémantique à travers des fonctionnalités de balisage léger, mais spécifique au travail d’auteur. Pour cela, Stylo a été conçu pour combiner les bonnes pratiques de l’édition scientifique (exploitation de bibtex, intégration de Zotero) et celles de l’édition web (balisage en markdown, métadonnées en yaml). La suite de la chaîne éditoriale (versionnage, évaluation, édition, diffusion) est assurée au sein du même outil, permettant aux producteurs de contenus – les éditeurs du livre, de la revue ou de la plateforme de diffusion, ou encore directement les auteurs eux-mêmes – d’enrichir le texte en sélectionnant et ajoutant des métadonnées (mots-clés, nom de l’auteur, nom de la revue, etc.) et en les alignant avec des autorités. Les métadonnées, étant alignées, peuvent facilement être mises en relation avec d’autres contenus (traduction automatique en plusieurs langues, notamment, en se basant par exemple sur les alignements des vocabulaires RAMEAU de la BNF et LCSH de la Library of Congress). Dans l’esprit des éditeurs WYSIWYM, le formatage graphique du contenu est automatiquement effectué lors de l’export, en s’appuyant sur des modèles programmables et intégrés par exemple à la chaîne éditoriale des revues et des plateformes de diffusion (Erudit.ca, Openedition.org). Ces exports sont de plusieurs types selon la diffusion visée : 1. des fichiers XML selon les schémas sélectionnés (Erudit, TEI, etc.) 2. des fichiers HTML pour publication directe sur des CMS (grâce à des API) 3. des fichiers print (.pdf) stylés selon des modèles programmables. Dans le cadre du colloque «Repenser les Humanités Numériques», nous présenterons les enjeux d’une édition scientifique structurée pour les sciences humaines à travers la démonstration de l’outil Stylo, tel qu’il est actuellement utilisé dans la chaîne éditoriale de la revue Sens Public.
Véronique Savard (UQAM) et Julie Morel (artiste), “Circulez, il n’y a rien à voir”
Véronique Savard est chargée de cours à l’Université du Québec à Montréal. Elle termine présentement la rédaction de sa thèse au doctorat en études et pratique des arts sur les modifications qu’apporte le phénomène numérique sur les pratiques scripturales et picturales. Son travail a été diffusé dans de nombreuses galeries au Québec et au Canada et a été récompensé par plusieurs prix et bourses dont la Bourse d’excellence Claudine et Stephen Bronfman en art contemporain, la Bourse de Doctorat Figura, le Conseil des arts et des lettres du Québec, etc. En plus de faire partie de la collection du Musée d’art contemporain de Montréal, ses œuvres figurent dans de nombreuses collections corporatives, d’entreprises et privées.
Née en France et vivant entre la Bourgogne et la Nouvelle-Orléans, Julie Morel est artiste et expose son travail à l’international. Elle enseigne à l’École Européenne Supérieure d’art, Bretagne. En 2016-17, elle est lauréate de la Villa Médicis hors les Murs (New York-Chicago) et d’une bourse Fulbright à Loyola University (Nouvelle-Orléans), et artiste invitée à l’Uqam en 2017-18.
S’il existe de nos jours une pluralité de pratiques réflexives en arts visuels dont les productions servent à éclairer l’apport déterminant du numérique dans nos sociétés contemporaines, de nombreux travaux revendiquent également et depuis le Post-Internet le glissement de l’espace physique dans la culture en réseau et la capacité des documents numériques à se reproduire et à muter indéfiniment. Outre la volonté d’élargir le cercle de diffusion et de circulation des œuvres d’art sur les réseaux, ces stratégies inédites de production, lesquels rendent dynamique la correspondance entre l’œuvre, le matériau numérique et sa documentation, sous-tendent un espace de réflexion critique et rhizomatique à partir duquel on peut soutirer certains traits communs. La présente conférence que nous proposons dans le cadre du colloque Repenser les humanités numériques s’inscrit à la suite d’une rencontre entre artistes-chercheurs du domaine des arts visuels et médiatiques. Notre groupe de recherche, constitué de cinq artistes québécois et français de différentes générations, travaille de manière à mettre en exergue et éclairer les structures paradigmatiques, méthodologiques et épistémologiques relatives à l’expérience numérique. Notre projet de recherche et de création est animé par des questions soulevées par la matière technique et culturelle à partir desquels découlent différentes postures de détournement et de remédiation des objets esthétiques, interactifs, textuels et programmés. Il consiste à faire apparaître et à discuter autour de préoccupations dialogiques, lesquelles permettent de situer les spécificités de nos problématiques dans un contexte où les enjeux sociaux, économiques et politiques, soulevés par le numérique, engagent une prise en charge artistique des processus idéologiques. Notre présentation s’articulera autour d’une sélection d’images relatives à la documentation de projets d’expositions élaborées par les artistes du collectif. Ces œuvres (merci de vous référer au lien plus bas), réalisées par Dominique Sirois, Robert Saucier, Cécile Babiole, Véronique Savard et Julie Morel, ont la particularité, tant sur le plan formel que conceptuel, d’avoir pris naissance dans et par le numérique, bien qu’elles soient également porteuses d’une réflexion sur l’hybridité des médias et sur leurs dispositifs de présentation dans l’espace d’exposition. En effet, ces modes relationnels (et de distanciation) entre appropriations des dispositifs technologiques, interactifs ou langagiers couplés aux médias traditionnels et moyens de diffusion au sein même de l’espace codifié qu’est la galerie, permettent – de par la nature même des œuvres d’art – un rapport sensible aux technologies, dans lequel le visiteur peut trouver un espace d’ouverture tant critique que visuel. Ce lien concret dans la construction de l’expérience nous est cher du fait que nous évoluons dans une société de consommation du numérique, et subissons quotidiennement et à long terme ses effets : des politiques d’utilisation des réseaux sociaux à l’impact écologique de l’obsolescence programmée ou d’un data center, en passant par les algorithmes « patriarcaux » ou autres outils cybernétiques autoritaires. La coexistence entre ces différents points vus où s’entremêle la complexité des transformations, par le numérique, des formes visuelles, du langage et de la société dans son ensemble se présente en outre comme une préoccupation commune à ces positions artistiques et font la richesse de cette collaboration. En cheminant à travers différentes œuvres, nous tenterons d’apporter réponses à plusieurs questions d’ordre pratique et théorique qui sous-tendent cette entreprise : quels sont les caractères anticipatoires et normatifs propres aux matériaux culturels numériques ? Comment l’œuvre d’art peut-elle désactiver ou court-circuiter un usage récurrent et dominant de la technologie ? Quelles en sont les portées créatives et philosophiques ? Quels en sont les contours et singularités ?
Ray Siemens (University of Victoria), “A Framework for Open, Social Scholarship”
Ray Siemens is Distinguished Professor in the Faculty of Humanities at the University of Victoria, in English and Computer Science, and past Canada Research Chair in Humanities Computing (2004-15). He is founding editor of the electronic scholarly journal Early Modern Literary Studies, and his publications include, among others, Blackwell’s Companion to Digital Humanities. He directs the Implementing New Knowledge Environments project, the Digital Humanities Summer Institute, and the Electronic Textual Cultures Lab.
Open social scholarship involves creating and disseminating research and research technologies to a broad audience of specialists and active non-specialists in ways that are accessible and significant to everyone. My talk traces its conceptual roots in open access and open scholarship movements, the digital humanities’ methodological commons and community of practice, contemporary online practices, and public facing “citizen scholarship,” with an action-oriented mandate toward the establishment of the Canadian Social Knowledge Institute (C-SKI).
Stéfan Sinclair (McGill University): “Introducing Loom, a Voyant Tool for Weaving Interpretive Questions”
Sinclair is an Associate Professor of Digital Humanities at McGill University and Directory of the McGill Centre for Digital Humanities. His primary area of research is in the design, development, usage and theorization of tools for the digital humanities, especially for text analysis and visualization. He has led or contributed significantly to projects such as Voyant Tools, the Text Analysis Portal for Research (TAPoR), the MONK Project, the Simulated Environment for Theatre, the Mandala Browser, and BonPatron.
David Sume (Université de Montréal), “An updated consideration of the Art Canada Institute series of digital art monographs”
David Sume will soon submit his art history dissertation, in which he applies Le Corbusier’s concept of the architectural promenade to four structurally fascinating books produced by Iliazd (Ilia Zdanevich, 1894-1975). He is also interested in the Quebec tradition of the illustrated book, and the future of the art book in general.
Three years ago, after having written short articles about the Art Canada Institute (ACI) digital monographs on Canadian artists, I made a presentation at the Humanités Numériques conference in August 2015. Why should I make another presentation on this subject in 2018? In part because the series has continued to the present, in part because there still does not seem to be a viable general model for digital art monographs and exhibition catalogues, and finally, because the ACI initiative has been ignored by the general and art media since some initial attention at its introduction. I propose an updated consideration of this ACI initiative consisting of a uniform series of original illustrated digital monographs in both English and French, available for free download. At the time of my original presentation, two years of books had been issued, six each year, for a total of twelve. There are currently thirty monographs, and six more for 2018-2019 were recently announced. These books are written by experienced specialists for a general audience, and include licensed reproductions of artworks. I remain unaware of any print series comprising studies of thirty Canadian artists. This ongoing production of six new monographs each year is extraordinary and unrivaled. The featured artists include the most famous, for whom there are numerous print monographs and exhibition catalogues available, as well those who are virtually unknown, with few if any dedicated publications. This ACI series, available only as PDFs, represents an important resource on Canadian artists. The financial model of corporate sponsorship and free distribution apparently continues to be viable for ACI, but while it is an intriguing solution, does not necessarily represent one that would be broadly effective for digital art publications. Digital purists, who will certainly be found among those participating at conferences such as this, might categorically reject the ACI publications because they are simple PDFs. They are indeed static PDFs, but they are not digitizations of printed editions. To the extent that major art publishers produce digital editions, they seem to be almost entirely conversions of previous printed books. Selected high-profile artists are occasionally recognized with digital projects featuring video clips, or interactivity, but these are rare exceptions. The Guggenheim, for example, has issued an ebook on the artist Maurizio Cattelan. This is an adaptation of the original print edition. The Museum of Fine Arts Boston has also released digital monographs on the performance artist Marilyn Arsem and the well-known artist Jim Dine. The first consists largely of videos and slides, and includes a single chapter from the previous printed monograph, while the latter is an expansion of the original printed monograph, with the addition of video clips. While certainly ambitious projects, more common are the simple digitization of previous printed publications by the Getty in Los Angeles, and the Museum of Modern Art and the Metropolitan Museum, in New York. Some initiatives announced at the ACI rollout in 2013 have been delayed or abandoned. Perhaps most critically, and of greatest interest at this event, the promised iOS and Android app versions were never released and are no longer listed as forthcoming. The contrarian project of print versions of digital monographs is however, still listed as pending. There are as well additional projects including online art galleries, as well as personal histories of Canadian art world figures, and the contextualization of selected current artists in terms of Canadian art history. I would welcome the opportunity to update the status of this important series of Canadian digital art monographs in the context of current digital art publishing.
Kristine Tanton (Université de Montréal), “Reconstructing the twelfth-century east end of Sainte-Marie-Madeleine de Vézelay: process, hypothesis, and annotation in 3D reconstructions”
Kristine Tanton a commencé au département d’histoire de l’art et d’études cinématographiques de l’Université de Montréal en janvier 2018 en tant que professeure adjointe en art médiéval. Avant de venir à Montréal, Kristine a été une chercheure postdoctorale à l’Institut de recherche et d’éducation numérique (IDRE) à UCLA de 2016 à 2017 et chef de projet pour Paris Past and Present à UCLA de 2014 à 2017.
Located along the pilgrimage route to Santiago de Compostela, the abbey of Sainte-Marie-Madeleine de Vézelay claimed to possess the relics of Mary Magdalene. The basilica at Vézelay was an important center of pilgrimage and the crusades and played host to the leading figures of the period. Bernard of Clairvaux preached the Second Crusade there, Thomas Becket railed against Henry II from Vézelay, and Richard the Lionheart and Philip Augustus held a summit there on route to the Third Crusade. Within the art-historical canon, Vézelay is considered an exceptional example of French Romanesque sculpture and architecture. Yet today it is difficult to understand what the abbey church may have looked like in the twelfth century. The monument’s fabric was drastically altered in the thirteenth century when its east end was rebuilt in the Gothic style. Our understanding of the abbey church’s east end is further complicated by the destruction of the surrounding monastic buildings and subsequent restorations—most notably those by Viollet-le Duc. In this paper, I will propose a digital reconstruction of the twelfth-century east end of the abbey of Sainte-Marie-Madeleine de Vézelay. My reconstruction is based on the site’s topography, archaeological evidence, the basilica’s surviving fabric and sculpture, and restoration documents, while also considering contemporary monastic buildings in the region. Advances in CAD-based software make it possible to bring these disparate sources together to capture the abbey’s lost twelfth-century state and gain new insights into this well-known monument. Furthermore, a virtual model expands the limited corpus of extant monuments and may help to reshape our knowledge of medieval architecture. Historical reconstructions are a well-established component in architectural history. Yet many of these virtual models do not extend their initial project. The current challenge is how do we share 3D models and all accompanying evidence to support the reconstruction. How do we view the models outside their native software? A significant component of my work has been developing a method of reconstruction and display that clarifies the difference between original evidence, extrapolations based on the evidence, and sheer hypothesis. To this end I am integrating existing architectural practices (e.g., OpenBIM), which to attach data to my model so that the model itself has an afterlife beyond the initial scholarly inquiry.
Dominique Trudel (UQAC) et Juliette de Maeyer (Université de Montréal), “The Triangle of Intelligence in the Digital Age”
Dominique Trudel est professeur adjoint au Département des arts et lettres de l’Université du Québec à Chicoutimi où il enseigne dans le domaine des médias émergents. Ses recherches portent notamment sur l’histoire de la recherche en communication, sur l’histoire des médias et les théories médiatiques.
Franklin Ford (1849–1918) is a relatively obscure figure in the history of American journalism, mostly known for his association with the philosopher John Dewey in the late 1880s and early 1890s. Together, they tried to launch Thought News, a “philosophical newspaper” that never saw the light of day. This short episode is a foundational moment in the development of media and communication studies in the United States as it shaped Dewey’s conception of communication, which remains central in the field of media and communication studies (Carey, 1989). While Ford’s ideas may have played a key role in the history of media and communication research and still bear contemporary significance, Ford remains at the margins of media and communication historiography. Our project proposes to reassess and recirculate Ford’s writings to audiences that are potentially concerned with the questions he raised, including concerns about the future of the news, the effects of new technologies on the circulation of information, and the democratic capacities of the news media. Central to our project is the creation of an automated Twitter account, a “bot” that simultaneously constitutes a research method and a research output. Drawing on recent work in media archeology and digital humanities (Parikka, 2012, Moretti, 2013, Rockwell & Sinclair, 2016), we created a fully automated Twitter account, a “bot” that uses text-mining techniques to automatically tweets excerpts from Ford’s writings. The bot aims at putting Ford’s theory of the “triangle of intelligence” (Ford, 1892; 1901) – which Ford never managed to implement – into action. According to Ford’s triangular model, “It is a singular thing that when a new fact is disclosed in the news movement it carries three possible sales or profits: its general meaning to he distributed through the daily paper, its class bearing to be sold through the trade paper, and its value to particular individuals which they can obtain at the bureau of information” (1901, p. 11). Using the “new” technology that is Twitter, our bot circulates facts to create meaning and knowledge, as prescribed by the triangular model imagined by Ford. Each “physical fact” – in this case, each of the sentences written by Ford – would be circulated several times according to the “general interest” (branch #1), “class interest” (branch #2), and “individual interest” (branch #3). Our presentation will elucidates the challenges of the experiment: from the delineation of Ford’s written work to the gathering and digitization of the material and its transformation into tweetable soundbites. We argue that this combination of close and automated reading offers heuristic elements of surprise and can produce non-linear archival explorations that are producing new images of the past and new memories. If communicating the past has always been a mediated operation – from the oral tradition to books and historical movies, and now digital media – our experiment highlights some of the peculiarities of digital media in the production of the past, including randomness, non-linearity, and automation
Jean-François Vallée (Collège de Maisonneuve), “La cymbale du monde numérique : premiers échos”
Jean-François Vallée est professeur de Lettres au Collège de Maisonneuve et chercheur au CRINH et au CRIalt. Ses travaux portent principalement sur la littérature de la Renaissance, l’intermédialité, l’écologie des médias et les humanités numériques.
Nous présenterons ici un état préliminaire des travaux que nous menons pour créer une édition numérique, à la fois savante et populaire, d’un livre énigmatique de la Renaissance française: le Cymbalum mundi, publié anonymement à Paris en 1537, puis à Lyon en 1538 avant d’être « supprimé » par la Sorbonne sur recommandation du roi François Ier. Ces dialogues satiriques très drôles, généralement attribués à l’auteur Bonaventure des Périers, ont donné lieu à une foule de débats et d’interprétations contradictoires parmi les spécialistes de la Renaissance (incluant un colloque qui lui était tout entier consacré à Rome en 2000), mais restent peu connus du grand public. Notre projet d’édition numérique à deux volets, subventionné par le CRSH, vise à offrir une version plus accessible (en français moderne) réalisée avec des concepteurs et programmeurs Web spécialisés dans l’édition de textes littéraires contemporains, ainsi qu’une édition critique encodée selon les standards du TEI, en collaboration avec le Corpus de textes de la Renaissance Épistémon (des Bibliothèques virtuelles humanistes à l’Université de Tours) et la Bibliothèque municipale de Versailles (qui possède le seul exemplaire connu de l’editio princeps du Cymbalum mundi).
Wanming Wang (McGill University), “Digitizing Classical Chinese Texts for Chinese Studies: A Case Study of the Database Ming Qing Women’s Writings“
I am a PhD candidate in the Department of East Asian Studies at McGill University. My major field is classical Chinese literature, especially poetry from the tenth to the nineteenth century. I began to work for the Database Ming Qing Women’s Writings in 2006.
This paper explores the role of the database Ming Qing Women’s Writings in the digitization of classical Chinese texts and in Chinese studies. The unavailability of numerous classical Chinese texts for various reasons causes difficulties for academic research of Chinese history, literature, and culture. The digitization of these texts increases their accessibility and visibility and enlarges the potential scope of research. The database Ming Qing Women’s Writings establishes an early model for the digitization of classical Chinese texts. Created in 2005 by Professor Grace Fong in the Department of East Asian Studies at McGill University in Canada, Ming Qing Women’s Writings collects and publishes women’s literary works produced in the Ming (1368-1644) and Qing (1644-1911) dynasties, which exemplify a thriving women’s literary culture in late imperial China. This ongoing project now contains images of more than four hundred collections, anthologies, and manuscripts as well as their basic publication information, titles, authors, and genres. Three hundred and forty-two of these works have already been published on its public website. By tracing the history of this database, my paper examines its contributions to Chinese studies and the challenges it has encountered. This database has contributed greatly to the studies on women’s literature in late imperial China, which started to flourish from the 1980s in North America. The Department of East Asian Studies at McGill University became a center of this new field of research by bringing together professors and students from both China and North America for regular maintenance and development of the database. Their continuous improvement of this open-access database has enabled researchers from all over the world to find many free online texts, the overwhelming majority of which had only circulated narrowly in the rare book collections of libraries in China or the United States of America. The website has been widely used and has ranked first for many months in the statistics of website usage at McGill University. Its contents and its use of new technologies have generated remarkable scholarship. The construction and prospect of the database also create questions for its creators, editors, and visitors. The possibility of the sources for new texts remains uncertain. The editors experience a variety of difficulties in identifying the basic information of the existing texts. They have also been urged by the visitors to reflect on the advantages and necessities of using the website, especially the research potentials of revolutionary discoveries. My paper demonstrates the close relationships between the database Ming Qing Women’s Writings and the studies on women’s literature in late imperial China as a new academic trend. The database is an important outcome of the new trend and in turn propelled its development by providing primary sources and well-trained young scholars. At the same time, the needs and expectations of the trend raise questions to the database’s potentials and possibilities. The case of the Ming Qing Women’s Writings database provides an example of how the necessity and development of the digitization of classical Chinese texts depend on academic studies of China.
Darren Wershler (Concordia University), “Beyond Digital Forensics: Modification As Method”
Darren Wershler holds the Concordia University Research Chair in Media and Contemporary Literature, and is the co-founder of the Media History Research Centre and Director of the Residual Media Depot. He is currently writing THE LAB BOOK: Situated Practice in Media Studies, with Jussi Parikka and Lori Emerson.
There is a well-established school of thought in Digital Humanities that emphasizes the importance of paying careful attention to the materiality of digital objects (see esp. Chun, Drucker, Emerson, Kirschenbaum, Shep). The dominant paradigm for this approach, to use Matthew Kirschenbaum’s term, is « forensic. » While Kirschenbaum is quite clear that he intends this term to refer to « the principle of individualization » (_Mechanisms_ 10) and the rich complexity of digital material artifacts, the term also bears with it the connotation that the object under examination is dead, finished, complete. This paper suggests that it is possible to expand this strain of investigation productively by considering both the residual afterlife of digital objects, and the attendant practice of modifying these objects for ongoing use. There are two things to gain from this slight shift in perspective. First is a better sense of the communities of practice outside of the academy that engage with the objects that we study. Forensics is a field dominated by experts, and it produces a discourse whose primary audience is other experts. However, many communities of practice in larger culture possess vast amounts of tacit and explicit amateur knowledge that has been very difficult for the university to capture. Paying greater attention to these communities and their various practices can and should be a concern for DH scholars. Second, one of the things to be gained from such research is a broader sense of the value of modification (modding) as scholarly methodology. Scholars engaged in critical making practices (Hertz, Perry, Ratto) have a head-start in this field, and are authoring a substantial literature on the subject, but the form of production mostly closely associated with DH remains computer programming (both in terms of the production of new tools, and research-creation practices like botmaking). What would a productive mode of DH that had a greater investment in modifying material technology look like? This paper draws specific examples from research at the Residual Media Depot into the design, production and installation of « video amps » — new components for historical video game consoles that allow them to output far higher video quality than a stock console. Tracking such practices (which necessarily involves learning how to do them) opens up entirely new vistas for DH scholarship, as it points toward a global network whose operations presage an emergent economy of just-in-time electronics microproduction.
Ce contenu a été mis à jour le 26 octobre 2018 à 14 h 58 min.