Présentation du projet « traverse » au Cnam à Paris

Les choses s’accélèrent pour le projet de valorisation patrimoniale « traverse« : nous allons présenter les applications mobiles Android & iOS le 7 septembre, pour une sortie publique pour les Journées Européennes du Patrimoine.
Plus de nouvelles sur ce lancement dès la semaine prochaine; en attendant, quelques informations sur une présentation du projet à Paris.

La journée au Cnam a l’intitulé suivant: « Quelles plateformes numériques pour la collecte et la valorisation des mémoires, de la culture et du patrimoine? »

journée internationale au Cnam : Quelles plateformes numériques pour la collecte et la valorisation des mémoires, de la culture et du patrimoine?

21 septembre 2017 Au Conservatoire National des Arts et Métiers 292 rue Saint Martin -75003 Paris Amphithéâtre Jean Fourastié Entrée libre sur inscription par mail à envoyer à : [email protected] Réunir des documents numérisés, audiovisuels ou iconographiques et enregistrer des … Lire la suite →

Nous proposons dans cette journée de faire dialoguer les praticiens des collectes de mémoires, les chercheurs en humanités numériques et les sociétés de développement du numérique et du multimedia, pour poser l’état de l’art international dans le domaine de la modélisation du patrimoine mémoriel, les plateformes participatives et les expositions multimedia afin de susciter des partenariats pour le montage de projets de développement d’une plateforme intégrée.

 

Résumé de l’atelier design de services

Pour réaliser la plateforme numérique du projet Patrimoines franco-suisses en partage, il s’agit de répondre à trois questionnements en parallèle:

  • Quelles données ?
    Chaque lieu de patrimoine a ses propres outils de base de données, ses logiques d’indexation et méthodologies de travail. Nous avons fait un premier recensement des contenus existants dans des bases de données métiers, cartographié les pratiques courantes; maintenant il s’agit de voir comment on peut agréger les contenus dans un outil commun afin de créer des liens entre ces contenus: des histoires transversales.
  • Quelles histoires ?
    Cet outil que nous allons développer entre 2016 et 2017 permettra de récupérer des données et métadonnées existantes, ajouter des connecteurs sociaux (récupérer de manière très ciblée des contenus depuis Instagram, Facebook, Twitter etc) avec l’objectif de rendre les données éditorialisées vivantes avec des contenus « temps réel » du web social. Nous avons esquissé des schémas de fonctionnement et d’architecture; une fois que nous aurons validé les sources et les usages nous pourrons préciser les fonctionnalités et le design de cet outil d’éditorialisation commun.
  • Quels usages ?
    Des données éditorialisées sans savoir qui va les utiliser, comment et dans quel but, ne sont pas vraiment utilisables. C’est pourquoi il est indispensable de pouvoir esquisser des scénarios d’usages souhaités, en lien avec les usages actuels mais également en imaginant des nouveaux usages qui permettraient d’atteindre un public plus jeune.

Nous menons ces 3 chantiers de front; le chantier des scénarios d’usages a fait l’objet d’un atelier orienté « design de services » mené par la Cité du Design et qui s’est tenu début avril à Ferney-Voltaire.

La suite…

Journée d’études « Le futur du cinéma »

J’ai été invité à donner une conférence dans le cadre de la journée d’études « Le Futur du cinéma » organisée par les chercheurs Marcin Sobieszczanski et Bruno Girard et doctorant Savo Zunjic du pôle de recherche CREAMED (Création et Médiation) du laboratoire I3M (Information, Milieux, Médias, Médiations) de l’UNS (Université Nice Sophia Antipolis).

programme le  futur du cinema

La journée d’études se déroulera le 23 avril 2016, de 10h-12h et de 14h-17h, au Théâtre de la Licorne à Cannes25 av. Francis Tonner, 06150 Cannes La Bocca.

On constate actuellement des mutations notables dans tous les domaines de la technique filmographique. Un média technologique consacré depuis plus de cent ans, une technique et une culture solidement ancrées dans les pratiques professionnelles et privées, une économie toujours solide et évolutive, le cinéma est un objet inépuisable non seulement pour la critique et pour les études cinématographiques, mais aussi pour les Sciences de l’Information et de la Communication.
Notre journée d’étude réunit les chercheurs, doctorants, créateurs et les entreprises de production vidéo-filmique. La formule de la journée d’études se présente à travers des présentations théoriques et pratiques des intervenants, suivies à la fin de la journée par une table ronde permettant un échange autour des présentations et sujets pertinents.

MoveYourStory video

As mentioned in a previous post, the research project MoveYourStory was finished this summer.
We are now proposing a video that presents the results and outcomes of this project.

More about the MoveYourStory project.

TAM & Memoways present the research project MoveYourStory. A mobile application generates a movie composed of small video clips selected according to the user’s position and his current behaviour. Towards this end, we have implemented an activity recognition module that is able to recognise current activities, like walking, bicycling or travelling in a vehicle using the accelerometer and the GPS embedded in a smartphone. Moreover, we added different walking intensity levels to the recognition algorithm, as well as the possibility of using the application in any position.

Move Your Story News

The CTI research projet « Move Your Story » we are working on in partnership with the TAM team at the University of Geneva is evolving and providing first valuable results.
To illustrate the outcomes of this project we did a short video:

Move Your Story: presentation of the research project from Memoways on Vimeo.

Memoways provides a mobile application that creates movies according to the displacements of a person. The « Move Your Story » project will improve the Memoways platform by taking into account the behavior and the current interests of the user. This information will be obtained by analysing the data produced by the different sensors of a smartphone.

Here are two screenshots of 1) the interface of the android app we are using to get behavioral pattern within time, and 2) a presentation of results.

 We will include this algorithm within our already existing Android mobile application  for Q4 2013.

What’s new:
map: see assets (content) on the map; get own position and trace; see the recorded path on the map with the chosen audio files;
audio: play individual audio files (on the map / through a list)
use scenario: choose the « genre » or type of content you wish to get (drop down list with 2 – 4 choices).

What’s coming:
– improved interface (UX & design)
– integration of the behavior algorithm & improvement of the editing engine
– integration of new taxonomies & metadata to improve the editing engine
– more to come…

Here are some screenshots from the other developments of the Android version of our mobile application (map, audio & use scenario).

Approches vidéographiques dans la recherche urbaine

Je participe les 25 et 26 octobre à un séminaire intitulé « Vidéo & Ambiance – Approches vidéographiques dans la recherche urbaine à travers le rythme » à Grenoble, à l’Ecole Nationale Supérieure d’Architecture de Grenoble.

Le séminaire Vidéo & Ambiance interroge l’utilisation de la vidéo dans le cadre de la recherche sur les ambiances, et plus généralement dans la recherche urbain.
L’évolution des pratiques vidéographiques dans la recherche urbaine nous amène aujourd’hui à reconsidérer le rôle de la vidéo. La vidéo ne semble plus pouvoir être réduite à l’état d’outil ou d’illustration mais pourrait recouvrir une fonction d’une autre nature. Ainsi, le rapport entre vidéo et recherche ne se résume plus uniquement à l’utilisation de l’une pour l’autre, mais se développe comme une imbrication de l’une dans l’autre.

Ces deux jours vont permettre de croiser les approches, et de recroiser les chemins de « complices » de plus ou moins longue date, comme Pascal Amphoux.

Le dispositif applicatif

Avant d’entrer plus dans les détails via des billets plus spécifiques, voici quelques lignes sur le dispositif applicatif mis en place pour les besoins du projet « Walking the Edit ».

Le dispositif qui est à la base de Walking the Edit est le fruit de quatre années de recherches et de développement. Démarré fin 2007 comme un projet de recherche au sein du Master Cinéma dans le cadre des HES-SO (écoles spécialisées Suisses), cet « écosystème » s’est amélioré au fil du temps et des avancées technologiques (comme par exemple avec l’arrivée du SDK de l’iOS pour iPhone).
Le dispositif fonctionne aujourd’hui indépendamment de son échelle d’application. D’une grande souplesse tant du point de vue de la personnalisation que de l’optimisation, le dispositif existe actuellent en version beta et donne des premiers résultats visibles sur le site web http://walking-the-edit.net/fr.
La version 1.0 de l’ensemble du dispositif applicatif est prévue pour l’été 2011.

Avec quels modules est composé ce dispositif applicatif ?

1) Une base de données composée des métadonnées relatives aux fichiers vidéos, audio, textes, stockés dans le « nuage» (un serveur web ou cloud server).
Tout en respectant les standards internationaux (Dublin Core, EBU), la base a été développée de manière à répondre à nos besoins spécifiques.
Une interface REST / http complète permet d’accéder de manière souple et hautement paramétrable à tout le contenu de la base de données. Utilisant PostgreSQL avec un serveur d’interface distribué qui est programmé en Ruby On Rails, la base est hébergée sur des cloud serveurs dédiés. Elle est donc facilement évolutive.

2) Un outil de gestion partagé en ligne permettant de gérer directement les fichiers et les métadonnées qui leur sont associées. Ce système permet de télécharger, d’organiser, trier, indexer, placer sur une carte, décrire, classer, retrouver, enrichir et distribuer les données via des métadonnées dans un environnement multi-utilisateurs. Cela va permettre, entre autres, de fournir un accès public à certains documents selon des critères et des scénarios déterminés en amont. Ou de manière plus spécifique et originale, de pouvoir constituer un film à partir de la traduction de la forme d’un parcours vers la forme d’un film.

Chaque média est catalogué et indexé selon deux critères.
Indexation objective :
– date de tournage, date de création du fichier
– auteur, caméramen, ayant-droits
– lieu de tournage
– durée du plan
– format vidéo, codec…
– moment de la journée, cadre, focale…
– etc…

Indexation subjective :
– thématique (le contenu du plan)
– sujet (ce qu’il y a dans le plan)
– tags (descripteurs de contenu)
– qualité (note du plan)
– type de montage possible
– géolocalisation et taille du plan sur la carte
– etc…

Actuellement en cours d’élaboration, une nouvelle version de cet outil devrait voir le jour fin juin 2011. Elle sera programmée comme une application web (basée sur la technologie Cappuccino).

3) Le moteur de montage. Il s’agit d’un algorithme ad hoc. Il calcule à partir d’un trajet donné, pour chaque point de localisation, un score qui permet de choisir le bon document à intégrer au sein de la « timeline » de montage de l’utilisateur – et ce, en temps réel. Le moteur de montage s’occupe dans un premier temps d’analyser la forme du parcours (linéaire, chaotique, recoupements, etc) afin de constituer la forme du montage correspondant. Dans un second temps, il puise dans la base de données les fichiers qui conviennent le mieux à l’analyse de la forme et aux impératifs des règles de montage (continuité narrative). Cet algorithme est encore expérimental mais a déjà donné des résultats probants.

4) Une application iPhone. Disponible gratuitement sur l’app store d’Apple d’ici début juin 2011, cette application native enregistre le parcours et calcule en temps réel le film qui en résulte. Un stream audio est constitué à partir des documents indexés et permet à l’utilisateur d’entendre son film via ses écouteurs. Voici un billet sur son fonctionnement actuel.

5) Un site web. Nos interfaces REST supportent le JSONP, ce qui permet à n’importe quel site internet d’avoir un accès complet aux contenus originaux ainsi qu’aux résultats de l’utilisation du dispositif (les films en l’occurence).

Bilan Réseau Compétence Design: ECAL le 7 juillet

Résumé de la présentation du projet au comité du RCD (réseau compétence design), le 7 juillet 2009 à l’ECAL.

Étaient présents à la réunion de Bilan : Lysianne Léchot-Hirt / Agnès Gelbert-Miermon / Luc Bergeron/ Jean-François Blanc / Thomas Isler / Lionel Baier / Ulrich Fischer / Nicolas Wagnières / Jeanne Macheret / Pascal Amphoux / Daniel Sciboz / Nicolas Goy / Lionel Tardy / Vincent Jacquier / Nastaran Fatemi.

Le matin déjà, Jean-François Blanc, Luc Bergeron et Thomas Isler ont testé le système en allant “marcher“ quelques films autour de l’ECAL. Dés 14.00 Lysiane Léchot et Agnès Gelbert ont marché les leur, et la réunion a donc pu commencer à 14.30.
Une rapide présentation des personnes présentes a précédé le visionnement de quelques films ainsi que de ceux du jour. Nous avons pu discuter des films tout en les visionnant, et une première réaction, malgré l’amélioration du système ces derniers jours, concerne le manque de continuité du son diffusé durant la marche. Nous avons également constaté les problèmes liés à l’éloignement de certains médias choisis par le moteur (par rapport à la position du marcheur) et enfin la récurrence excessive de certains médias choisis. Je rappelle que la présentation s’est ensuite déroulée sur la base du dossier de rendu et de son annexe.
Je ne vais donc pas parcourir l’entier du dossier, mais m’arrêter sur les moments qui ont retenu des débats. Ulrich a commencé par le schéma animé servant à expliciter la complexité du projet à un large public, schéma à propos duquel Lysiane ajoute que la claire distinction de la marche et du montage, de l’urbain et du digital, n’est pas nécessaire. Il a été ensuite rappelé la visée artistique et documentaire recherchée des films en fin de chaîne, que le film doit faire sens en tant que film mais également par rapport au parcours. On n’est pas dans une salle obscure mais le film traîne avec lui le territoire et la marche. Malgré cela, nous avons aussi rappelé notre incapacité à tirer des conclusions sur les hypothèses de base, au vu de l’état actuel du moteur, l’analyse des pistes de recherche n’est donc pas terminée. Par rapport au questionnaire donné en annexe, Lysiane fait remarquer que d’une part le questionnaire est un peu léger, (à qui s’adresse-t-il, à qui s’adresse le projet…?) et que d’autre part elle trouve étrange comme approche que de générer un objet à partir duquel on se demande à quoi il peut servir.
Au niveau de l’application et de la valorisation, Lysiane insiste sur la confusion possible entre la nature des supports, et les supports eux-mêmes ou canaux.
Sur les tournages, Nicolas exprime le fait que la typologie du territoire, dans un premier rapport, peut guider la forme des tournages. Là-dessus, Lysiane rebondit en affirmant qu’il faut justement aller contre cela, faire le forcing et pousser à la complexité en rendant “passionnant“ les lieux “ennuyants“.
A suivi un bref survol de l’indexation par le biais du CMS (sur le net en projection). Il a été constaté que pour l’instant l’indexation dite objective ne servait pas à grand chose. Sur les critères subjectifs, le rapport au rayon d’influence ne fonctionne pas, car les médias longs “écrasent“ les autres. Il est aussi question du manque de critères pouvant servir à qualifier plus précisément le son et notamment des types de paroles, ainsi que sur la question d’un éventuel “prémontage“, ce qui nous ramène à des hypothèses de base non résolues. Sur le montage, il est dit que la vitesse de la marche (ça ne fonctionne pas pour l’instant) n’a pas d’incidence sur la forme même du film mais sur la durée des médias. Luc Bergeron demande si le moteur a une part d’aléatoire dans son mécanisme, et Ulrich rappelle que le montage, contrairement à un montage classique, connaît “la fin“ par le fait de l’analyse différée au terme du parcours.

Là dessus, Lysiane questionne la place du marcheur comme auteur, et comment le sortir d’un rapport premier où il ne ferait que de subir le dispositif…? Quelle logique amène le moteur à comprendre ce que le marcheur fait!
Suite à une courte pause, la présentation reprend avec les distinctions de structure de montage et de structure de parcours, en précisant que l’analyse des parcours se définit en fonction d’évènements signifiants. Sur ces évènements, il est rappelé qu’il n’y là rien de nouveau, et que les questions de bifurcation/recoupement/boucle sont des figures utilisées dans d’autres disciplines, et que c’est bien grâce à elles que l’on peut faire cohabiter et dialoguer l’aspect technique et l’aspect artistique du projet. Il faut produire de l’effet sur le sensible afin de faire émerger le sens.
Lysiane estime que le résonnement par le résultat et pas par le processus est contradictoire avec la notion de recherche, “ça ne me plaît pas donc je change”. Elle aurait favorisé une logique de départ, des médias caractérisés par une indexation pour définir des règles du jeu, qui après permettent de jouer. Si le cinéma peut se faire avec une base de données, la différence ontologique tient aux règles qu’on se donne au départ, pas une appréciation critique sur ce qui est terminé.

Il faut que l’évènement soit signifié par le feedback. Lysiane rappelle l’importance de l’interaction entre le marcheur et le Module, ne pas être esclave!
Sur la programmation, Nicolas Goy est d’avis que beaucoup de temps a été investit dans le traitement des médias et le CMS, et que maintenant que l’on connaît la base, il faudrait passer à l’élaboration d’une architecture nouvelle et robuste. Nastaran ajoute que du point de vue de l’ingénieur, il faut mettre de côté les impératifs artistiques, et pouvoir travailler les règles de manière précise.
En guise de première conclusions Lysiane interroge les retombées en terme d’enseignement: “Qu’avez-vous appris en faisant ce projet?“ Elle propose également la rédaction d’un document beaucoup plus succinct que le dossier et ses annexes, une sorte d’hypothèse sur l’état intermédiaire en fin de phase II, qui ne fasse que revenir sur le projet en précisant l’état de ses enjeux actuels. Il manque également une appréciation des utilisateurs. Enfin elle estime que beaucoup de questions étaient déjà posées l’année passée (en fin de phase I), et que malheureusement trop peu de réponses en terme artistiques ont été données, et qu’il reste encore trop de questions générales. Il faudrait revenir à des questions de départ.
Luc Bergeron estime qu’il serait vraiment dommage de ne pas pouvoir continuer et réellement valoriser l’affaire, techniquement et artistiquement. Comment et dans quel cadre trouver un financement pour cette suite, telle est la question de l’été, qui on l’espère trouvera une réponse concrète.

Nicolas Wagnières

Fin de la phase 2

Suite à la présentation du projet au comité du RCD (réseau compétence design) le 7 juillet, le projet est officiellement terminé.

Un compte rendu de cette présentation, réalisé par Nicolas Wagnières, suivra prochainement. Un chose que l’on peut déjà mentionner (c’est important pour la suite), c’est que toutes les personnes présentes (du moins celles qui se sont manifestées oralement) ont trouvé dommage d’arrêter le projet à ce stade, qui laisse encore beaucoup de questions ouvertes. En effet, suite à la présentation qui s’est fait sur base du  dossier de rendu avec son annexe, il s’avère que beaucoup de choses restent encore en suspens et ne peuvent pas être évaluées, surtout par le fait que le moteur de montage n’a pas pu être abouti comme nous le souhaitions. Ce moteur, comme il ressort des derniers post de tests, ne travaille même pas dans le sens minimal des 3 règles que nous nous sommes fixés (cf homepage du site).

En attendant la suite qui se précisera à la sortie de l’été, je tiens à remercier l’ensemble de l’équipe de recherche qui a réalisé un travail considérable et vous souhaite à toutes et à tous un très bel été.

ulrich

Déboguage post présentation

Finalement nous avons pu présenter le dispositif au public lors du festival Festimixx les 12 et 13 juin; encore 2 jours avant, ça ne marchait pas vraiment. Mais grâce à l’énergie et aux compétences réunies de Florian Poulin, Nicolas Goy et Lionel Tardy, nous avons pu nous faire une idée du fonctionement global du dispositif dans un cadre de présentation publique.

Il y a plusieurs conclusions (provisoires, ça va encore bouger) qui s’imposent avec plus ou moins de clarté:
– cela reste très difficile de donner une idée précise et efficace du projet à des personnes qui « débarquent ». Les points qui coincent: comment on « marche » son film ? est-ce que l’on doit filmer soi même ? est-ce que l’on est filmé ? Il y aussi le maniement de l’Iphone qui n’est pas évident pour les personnes qui ne connaissent pas cet appareil. Beaucoup de gens s’attendaient à voir quelque chose (des images) lors du parcours; mais au retour, s’il y a eu des sons intéressants, ils n’ont pas dit avoir été frustrés de l’expérience…
– dans ce sens, il faut trouver une carotte efficace (pour le moment, c’est de « marcher son film ») pour rendre les gens curieux. Il faudrait pouvoir tabler sur la dimension ludique, performative, interactive et améliorer la dimension collective (pour le moment, l’expérience est assez solitaire, même si plusieurs personnes ont voulu faire la marche ensemble).

Concernant le déboguage du dispositif, les problèmes suivants reviennent régulièrement (du plus important au moins urgent):
– les 70% – 80% des médias choisis ne proviennent pas de la proximité de la trace enregistrée (exemple extrême). Parfois le décalage est intéressant, mais c’est vraiment du hasard – ce sera sans doute meilleur si nous maîtrisons en amont quels médias peuvent être rencontrés selon les endroits visités;
– il y a des médias qui nous « collent »: par exemple celui qui est visible sur ce film. On a essayé de l’indexer de manière à ce qu’il y ait le minimum de chances qu’il soit pris, mais rien n’y a fait: il est revenu sur presque 50% des films, la plupart du temps au début. Et comme il est long… C’est un bogue (?) vraiment gênant – est-ce qu’il y aurait une priorité mal réglée ou alors un « cache » qui fait du zèle ? Je n’ai pas trouvé de logique à l’apparition des fichiers qui reviennent souvent (il y en a une petite dizaine, dont 3 qui sont très collants): ce n’est pas lié à la localisation, mais plutôt au départ ou lorsque le système semble « patiner »…
– il n’y a pas de corrélation entre la vitesse du parcours enregistrée et la durée des médias. Que l’on marche vite ou qu’on soit au repos, il n’y a pas de logique de durée de média et donc de rythme de montage. C’est vraiment dommage, puisque finalement le parcours ne semble pas influencer le film (ni au niveau du tracé ni au niveau de la vitesse…).
– souvent, les deux premiers médias sont: très court et très long ensemble;
– on n’a pas pu constater de continuité thématique;
– certaines personnes nous on reporté qu’ils ont entendu des choses différentes que ce que le film montre et fait entendre au retour;
– certaines personnes également on reporté le fait qu’il y a eu des coupures de son (mais Nicolas travaille déjà sur ce problème);
– on sent qu’il y a un certain aléatoire (ou du moins, une certaine fragilité dans les variables dont on dépend, comme les satellites, les antennes des opérateurs etc) dans le cas des films générés par deux personnes qui ont marché ensemble.

Il est à noter qu’il y a parfois des exemples de films qui sont assez réussis (pas sous toutes les coutures cependant), ce qui montre que c’est possible d’arriver à des résultats intéressants, mais c’est assez difficile à évaluer si c’est un coup de chance ou que les divers facteurs qui s’influencent parmi ont permis un meilleur équilibre final…

UF, 18.06.2009