Mediation du patrimoine avec le numérique

Dans le cadre du projet « Patrimoines en Partage » sur lequel je travaille depuis plus d’un an, j’ai été amené à faire un état de l’art des applications numériques de médiation du patrimoine culturel.

Pour synthétiser cette page de ressources très dense, je propose dans ce billet une analyse et appréciation de quelques applications choisies, avec une mise en avant d’arguments pour / contre.

Comme il s’agit d’expériences géolocalisées que je n’ai pas pu tester dans le contexte local, je n’ai pu me faire qu’une idée abstraite de la véritable expérience utilisateur sur place.
Néanmoins, j’ai essayé de sortir les points intéressants et le potentiel, tout en pointant sur les aspects – à mon sens – dépassés ou qui fonctionnent mal.

Ces points « positifs » et « négatifs » sont clairement des appréciations subjectives et personnelles, en appliquant les attentes et prérequis suivants:

La suite…

Prototype mobile pour le projet « Lignes de désir »

Une voix vous accompagne au gré de votre déambulation sur l’île Saint Louis à Paris, en vous racontant une histoire qui prend racine dans les lieux traversés et dont la dynamique et le développement narratif « épouse » votre comportement…
Un peu comme si vous écoutiez une histoire à la radio, tout en marchant à travers un bout de ville: dans ce projet, l’histoire s’adapte à votre itinéraire et à votre vitesse. Vous vivez une expérience personnelle, potentiellement unique.
Comme Walking the Edit, mais sur des bases de littérature et de poésie.

Le prototype d’application mobile développé par David Hodgetts et Olivier Evalet nous a permis de tester la mécanique technique cet été: voici ci dessous deux captures d’écran de l’application.
En cliquant sur play, l’algorithme de l’application va sélectionner un fragment sonore à jouer en fonction de notre position (liée à des zones géographiques définies); puis, la liste de lecture est continuellement mise à jour en fonction de notre déplacement.
La liste des fichiers sélectionnés est présentée sur l’interface.

La suite…

Repérages

Le lien vers les vidéos et photos des repérages du 16.11.2012 (galerie google) avec la classe FS1.

Les images des repérages du 23.11.2012 avec la FS2.

Et un filtrage de photos cherchés en « temps réel » sur internet, en lien avec notre délimitation (Vevey). Attention, il s’agit de photos qui proviennent d’une recherche automatisée sur le web, c’est donc ce que l’on appelle un « feed » de contenus qui s’agrège ici…

http://cdn.widget.skylines.io/1012/index.html?q=l:46.4589,6.846929999999929,4

Les premiers films parisiens !

Finalement, après une réécriture complète du moteur de montage et le débogage de l’application iPhone quelques films test sont visibles sur le site:
http://www.walking-the-edit.net/fr/films/films-choisis/

Le moteur fonctionne que sur la logique de proximité: on entend / voit les médias les plus proches de notre position actuelle. Il n’y donc pas encore de corrélation entre vitesse et durée ainsi que de continuité thématique ni de choix de scénario d’usage. Les films donnent donc encore un sentiment d’aléatoire – c’est « normal » et va (doit) être corrigé d’ici la présentation publique lors de la journée du patrimoine.
Nous allons encore ajouter un filtrage par scénario d’utilisation (film historique; film sur le quotidien actuel; film « tour du monde en 80 pas ») ainsi qu’un choix de qualité (les médias les mieux notés seront choisis prioritairement).

Il faut ajouter que pour garantir la meilleure expérience sur le terrain, il faut avoir un iPhone récent (3Gs ou 4G), un bon débit data ainsi qu’une bonne réception GPS. Il y a encore quelques petits bugs liés à des restrictions du SDK de Apple, mais dans les grande lignes le dispositif technique fonctionne bien; le plus gros chantier étant la programmation du moteur de montage…

Tests du logiciel iPhone

Ce chantier qui est en cours depuis plusieurs mois est proche d’arriver à des premiers résultats utilisables – gros soupir de soulagement de voir que ça commence à fonctionner dans les grandes lignes, mais il y a encore plein de petits détails à affiner.
Un grand merci déjà à Nicolas Goy et Lionel Tardy pour leur travail assidu.

Voici quelques captures d’écran du mode d’enregistrement:

L’interface avec les bulles fonctionne plutôt bien, le mouvement est assez fluide et la réactivité sur un iPhone 3G encore correcte (l’expérience sera meilleure sur un 3Gs ou un 4G).

La suite…

Premiers tests de moteur

En attendant de pouvoir générer un film avec les paramètres décrits dans ce post, voici les premiers avec « stalker », notre moteur de montage.

Le tracé (en vert-orange sur la carte) avec les clips choisis (les plans audio-visuels présentés ici sous forme de punaises); en dessous, la timeline (notre playlist en deux étages) qui présente les plans de type « contexte » (piste 2) et les plans « ambiance » (piste 1) ->cf ce post pour les détails.
Il est donc possible d’imaginer le film résultant (si l’on sait à quels clips se reportent les noms dans la timeline)…

timeline

Et une autre capture d’écran de notre nouveau CMS (l’interface de travail online pour notre base de données et le moteur de montage) :
– la combinaison du tracé (en orange) avec le lissage de vitesse (en vert), qui lui même est présenté sous forme de graphe ci dessous;
– les variations longitude / latitude
– et le lissage de vitesse (c’est là que l’on voit que sans lissage, il y a du bruit et ce qui est enregistré en brut depuis l’iPhone n’est pas vraiment utilisable)

graphes

Smartcity – premier film

Nicolas Goy, le programmeur du projet, a refait toute l’architecture du dispositif (3 mois de travail). Nous avons maintenant un tout nouveau moteur de montage, mais qui est encore dans un stade rudimentaire: il fonctionne par choix de voisinnage. En effet, la logique de montage est actuellement uniquement celle de chercher le média le plus proche à un point / moment donné; le plan trouvé est joué dans son intégralité, puis à la fin de celui-ci, un nouveau plan qui est le plus proche du parcours à ce moment là est trouvé et joué, etc.

Le film test ci dessous est donc une version basique, qui montre cette logique de « couplage » spatial, sans autre forme d’analyse ou de règles (rapport vitesse – durée ou continuité thématique par exemple).

La carte avec le trajet et les médias choisis (on voit bien la superposition des médias sur la trajectoire):

trajet film paris

[flvplayer http://blog.walking-the-edit-data.net/wp-content/uploads/2010/paris1-low.flv 480 270]

Vidéo de présentation

Depuis le rendu du projet de recherche en juillet, pas mal de choses se sont passées sur lesquelles je vais revenir prochainement; en attendant, voici la version provisoire du film de présentation que je suis en train de faire.

[flvplayer http://blog.walking-the-edit-data.net/wp-content/uploads/2009/FILM_DEMO_totale-test3_061009.flv 480 270]