Point de la situation mars 2009

Les divers chantiers avancent – voici quelques informations en attendant de pouvoir faire des tests grandeur nature et de pouvoir mettre en ligne des premiers exemples concrets.

–  TOURNAGES: après la première session de 2009 en février, l’équipe de tournage va se remettre au travail de manière individuelle en avril, puis en groupe fin avril; il est prévu une semaine de tournage (avec un week end) sur place courant mai (l’idée est carrément d’habiter sur place afin de pouvoir également filmer de nuit). Le but est de pouvoir faire des images sur tout le territoire (délimitation choisie), sachant qu’il y a déjà beaucoup de matière sur la place du marché ainsi que le long de la rue du Temple (devant l’ECAL). Nous visons un nombre de 3000 à 4000 médias, actuellement nous en sommes à un peu plus de 1300. En outre, nous sommes à la recherche d’un réalisateur / trice supplémentaire, qui pourrait venir nous épauler dans la création de médias audio-visuels durant la période de fin avril-mai. Plus de détails sur la page équipe de réalisation.
– CMS: Lionel Tardy nous a confectionné un outil de cataloguage performant; il est encore en train de l’optimiser et il sera prochainement possible de le mettre en ligne en mode « visiteur » (sans mot de passe, mais aucune manipulation enregistrable). L’accent est actuellement mis sur l’amélioration des automatismes et de l’efficacité du travail, sachant qu’on va devoir gérer quelques milliers de médias… Le gros du travail est effectué par Jeanne Macheret (en collaboration avec les réalisateurs-trices), de la manière suivante: il s’agit d’abord de cataloguer les médias à partir de leurs spécificités propres (caractéristiques objectives et subjectives), puis, une fois qu’il y a une vue d’ensemble (thématique, couverture de l’espace etc), il s’agit d’affiner les choix des combinaisons potentielles (à travers les plans de groupe, les « subjective media set », la fonction insert/assemble etc). C’est à ce moment là qu’interviennent les réglages du moteur d’analyse et les régles de montage, cf point suivant.
– MOTEUR DE MONTAGE: Florian Poulin de la HEIG va nous fournir pour début avril (précisé lors de la réunion prévue le 7 avril à Yverdon) une version test du moteur de montage (qui contient deux choses: l’analyse du parcours qui vise à déterminer le type de parcours effectué ainsi que les règles de montage qui vont filtrer les médias en fonction d’une liste prédéterminée de champs de métadonnées).
– SERVEUR STREAM: Nicolas Goy a mis en place le serveur de stream, qui va nous permettre d’envoyer les sons mixés sur l’Iphone lors du parcours. Il s’agit d’une méthode flexible qui adapte la qualité (débit envoyé) aux conditions du réseau (données via le 3G); on peut envoyer autant de médias que nous voulons en même temps – mais nous prévoyons de mixer au maximum 4 pistes en même temps. C’est le moteur de montage qui va décider quels médias vont être joués; il faudra encore voir entre l’analyse en temps réel et en temps différé comment on arrive à garder une certaine cohérence, sachant qu’il est plus délicat de couper un média dans la durée en temps réel qu’en temps différé. A noter qu’à partir de fin mars, tous les services liés à la base de données, au CMS, moteur de montage et serveur stream seront hébergés sur un serveur dédié ayant une plus grande bande passante que le serveur actuel; les médias originaux seront toujours stockés à Genève à C-SIDE, mais tout les reste sera sur un serveur dans la région de Lausanne.
– IPHONE: Nicolas Goy va attaquer le logiciel de l’Iphone à partir de début avril – nous allons lui livrer tous les templates et les fonctionnalités nécessaires pour ce moment là; à priori, il serait possible de pouvoir faire des premiers tests avec ce logiciel dès début mai.
– COMMUNICATION: c’est un des chantiers les plus importants, car pour avancer il faut pouvoir faire passer les bonnes informations aux diverses personnes en lien avec le projet, et surtout faire comprendre les enjeux de fond du projet à partir desquels cette personne pourra « rebondir » et s’approprier le projet dans le sens voulu. Nous sommes donc en train de faire un schéma qui puisse présenter le projet « d’un coup d’oeil »; puis d’y ajouter 2-3 pages avec des textes plus descriptifs. A partir de là, Vincent Jacquier va animer le schéma pour aboutir à une présentation dynamique du projet qui pourra servir de communication sur le site ainsi que dans d’autres situations (présentations publiques etc).
– GRAPHISME: Dimitri Delcourt, en parallèle à l’élaboration du graphisme de l’Iphone et de la présentation du projet, fait évoluer la charte graphique pour aboutir pour début avril à une base de travail à partir de laquelle il sera possible de démarrer le prochain grand chantier: le site internet public.
– CATALOGUE DES POSSIBLES: Nicolas Wagnières et Jean-François Blanc ont travaillé sur ce document et terminé une première version qu’il s’agit maintenant d’affiner et surtout de faire fonctionner graphiquement (il s’agit de 5 à 6 pages qui doivent se lire dépliés, donc avec une fonction « accordéon »…).

Plus d’infos tout prochainement.

UF 23.03.2009

Point de la situation janvier 2009

Tout d’abord, les meilleures vœux pour cette nouvelle année !

Nous attaquons actuellement les 6 derniers mois de la phase 2, avec en ligne de mire la présentation publique dans le cadre de « FestiMiXX 2009 (4ème fête interculturelle) » à Renens les 12 et 13 juin, puis probablement début juillet la présentation des résultats scientifiques et artistiques de la recherche (date à convenir), sous forme d’une conférence et d’une publication.

Il s’agit donc bien d’aboutir à une version bêta fonctionnelle: pouvoir enregistrer son parcours, chemin faisant entendre le film en train de se faire puis de retour à la maison (ou au « stand » du projet), voir le film marché à côté du parcours tracé sur la carte de la ville. L’idéal est de pouvoir faire expérimenter le dispositif aux habitants de Renens mais également à quelques spécialistes invités pour permettre une analyse plus objective du travail accompli.

Pour y arriver, il y a encore beaucoup de chantiers, dont voici un aperçu actuel:
– Tournages: il y a eu quelques tournages effectués fin 2008, mais le plus gros se fera entre février en mai 2009. Plus de détails concernant l’équipe de tournage ainsi que son programme dans les pages équipe de réalisation et séquences audiovisuelles. Ce qui ressort des images tournées tout au long de l’année 2008, c’est qu’il y a beaucoup de plans « contemplatifs » et qu’il faudrait filmer le territoire avec un cadre thématique plus précis (plus de contraintes de sujet) et de « presser » plus longuement le territoire afin de passer le cap de la captation; dans ce sens nous souhaitons vivre quelques jours sur place (louer une maison, un appartement ?).
– Groupe concept: les résultats de discussions de ce groupe va prochainement être publié sur le blog, mais les premiers résultats concrets sont à trouver dans les listes publiées dans les pages pistes thématiques et catégorisation. La prochaine réunion du groupe concept se fera probalement d’ici début mars, au moment où nous aurons des résultats (et des questions) plus concrets sur lesquels travailler.
– CMS: Lionel Tardy a mis en place la version 2 du CMS, avec les ajouts suivants: moteur de recherche et de sélection de groupes précis de médias (avec affichage optimisé sur la carte); fonction d’import Quicktime et photo; nouvelle interface et prise en compte des nouveaux champs et liste; possibilité de faire exister un média sur plusieurs lieux avec des sets de métadonnées différents. Ce nouveau CMS pourrait être testé dès fin janvier.
– Moteur de montage: la HEIG démarre son travail de programmation du moteur de montage à l’aide des tracés visibles ici (à cause du stratus, il y a eu impossibilité de créer un parcours enregistré correct pendant un long moment…). Ils vont démarrer leur travail sur base d’une discussion avec Ulrich Fischer en décembre 2008, à l’aide surtout de ce document. Prochain RDV fin janvier pour vérifier les premier pas du moteur d’analyse.
– Indexation des médias: Jeanne Macheret a terminé l’indexation des médias tournés en 2008 et a fait le tour des images tournées en 2008; elle s’attaque actuellement à la réalisation des médias audio. Les prochaines étapes: visualisation des rushes tournés par les étudiants masters pour leurs films de semestre; expérimentations avec l’interface du CMS et premières simulations; intégration des rushes des tournages de l’équipe de réalisation en février.
– Iphone: Nicolas Goy a effectué des tests des mixage audio, des présentation graphique de la carte ainsi que de programmation de l’interface de l’Iphone – tout est prêt de ce côté là. Le gros point d’interrogation pour le moment est: est-ce que l’on fait faire tout le travail (enregistrement GPS, analyse, présentation graphique et mixage audio) à l’Iphone ou est-ce que l’on centralise sur un serveur distant la grosse partie des calculs ? Pour beaucoup d’aspects (simplifier la programmation, éviter de charger tout l’audio dans le téléphone, manque de ressources sur le téléphone, actualisation des données via une seule source et plus de problèmes de synchronisation complexe etc), le fait de faire travailler un serveur distant et d’utiliser l’Iphone seulement comme enregistreur GPS et lecteur audio est avantageux; le seul gros problème c’est que nous allons être dépendants de la communication DATA du téléphone (3G, GPRS etc)… Les premiers tests avec un logiciel que Nicolas a concu (test de bande passante avec diverses tailles de fichier) montre que c’est possible, mais au détriment de la qualité audio (on a 24kbyte/sec garantis); ce qui ressort aussi c’est que Swisscom fourni un meilleur début que Orange, ce qui veut dire que nous allons plutôt nous adresser à Swisscom pour l’obtention des Iphones pour le public.
– Interface de l’Iphone: une réunion fin décembre entre Pascal Amphoux, Jeanne Macheret et Ulrich Fischer a permis de préciser les enjeux de cette interface; en résumé, il s’agit de présenter organiquement le processus en cours (le travail du moteur d’analyse et de montage)… Il sagit donc de présenter de manière graphique les choix des médias joués (le passé), le média actuel (présent) et les possibilités contextuelles des médias jouables dans l’immédiat du parcours (le futur). Plus de détails sur la page Iphone.
– Tests à faire: toutes ces mises en places nécessitent une ribambelle de tests, que nous allons devoir organiser le plus méthodiquement possible. En vrac: tester workflow saisie et choix des médias (dans Final Cut pour la vidéo et l’audio et Lightroom pour les photographies), export + compressions automatisés puis indexation dans le CMS. Ce workflow encore très laborieux actuellement doit être optimisé pour pouvoir se faire le plus efficacement possible (garder un maximum de métadonnées, éviter la perte de données, faire les bons choix aux bons endroits etc). Il faut ensuite tester / simuler les combinaisons potentielles des médias avec le CMS puis avec le moteur de montage (dès mars normalement). Les autres tests concernent l’Iphone (GPS, envoie de données, mixage audio, présentation des métadonnées sous une forme à définir etc…
– Graphisme: une première rencontre entre Vincent Jacquier et Dimitri Delcourt a permis d’établir le partage du travail suivant: Dimitri s’occupe de la charte graphique (logo, principes graphiques des interfaces etc), de faire des expérimentations sur la présentation du parcours sur l’Iphone (cf ci dessus); Vincent se concentre sur les possibles présentations sur l’Iphone (en parallèle à dimitri). Nous allons nous retrouver fin février pour mettre à plat la charte graphique, suite à quoi vincent pourra adapter cette charte graphique aux interfaces (Iphone et site web).
– Site internet et présentation des films: à part le premier travail graphique de Vincent, il reste tout à faire… Une première maquette (ossature) est téléchargeable ici.

Quelques chantiers individuels:
– Daniel Sciboz va s’occuper des divers points listés dans la page cartographie, tout en aidant d’actualiser la liste des références et liens.

UF, mis à jour le 25.01.2009

Point de la situation fin 2008

Cela devient une habitude, voici le point de la situation des divers chantiers en cours.

– Groupe « concept »:  composé de Jean-François Blanc, Pascal Amphoux, Nicolas Wagnières, Daniel Sciboz, Jeanne Macheret et Ulrich Fischer, ce groupe s’est réuni 4 fois depuis septembre afin de poser les bases conceptuelles pour tous les développements techniques, de définir le cadre de la recherche ainsi que de déterminer plus précisément les résultats escomptés. Pour l’heure il n’y a pas encore des résultats concrets à publier, mais après la dernière réunion de l’année (les 18 et 19 décembre) nous espérons pouvoir poser des bases solides concernant la manière d’indexer les données (liste de thèmes, sujets, tags etc), de définir une manière d’analyser les tracés (repérer des formes de parcours afin de définir la / les formes de montage) pour au final pouvoir aboutir à un équilibre « savant » entre l’analyse purement statistique et formelle et des règles de montage.

– Tournages: il n’y a pas eu beaucoup de tournages ces derniers temps, mais on a mieux défini le cadre de travail. Les grandes lignes sont: définition des lieux prioritaires (cf cette page), préciser les approches individuelles (à compléter sur cette page), nommer les types de plans manquants à l’heure actuelle (nous avons effectivement beaucoup d’images dites « contemplatives » -> nous devons plus nous impliquer et interagir avec ce qui se passe devant l’objectif); etc.

– Montage / indexation: Jeanne Macheret a fait le tour des médias existants (pas encore les photographies), elle a dérushé et digitalisé toutes les nouvelles images tournées (également celles produites par les étudiants Master Cinéma); actuellement elle s’occupe de produire des fichiers audio (spécifiquement pour l’Iphone) et de faire de l’ordre dans la liste des tags. Les chantiers ouverts: trouver un workflow pour l’intégration des images photographiques (avec coordonnées GPS intégrées), de garder un maximum les métadonnées sur toute la chaîne (tester avec d’autres logiciels que Final Cut afin de définir une méthode de travail idéale). Mais le gros du travail pourra démarrer avec le cms nouveau…

– CMS: Lionel Tardy est en train de travailler sur une version améliorée du CMS à partir de la nouvelle structure de base de données confectionnée par l’équipe de la HEIG. Normalement cette nouvelle version sera disponible pour tests fin janvier.

– Moteur d’analyse et de montage: L’équipe de la HEIG va attaquer ce gros morceaux dès début janvier afin de pouvoir tester une première version d’un moteur de montage pour la fin février.

– Iphone: Nicolas Goy a préparé presque toute l’ossature logicielle pour pouvoir tester en conditions réelles: analyse du trajet et mixage audio; présentation des données via des claques de métadonnées (nos « muages »). La grosse question actuellement consiste à déterminer si nous faisons passer un maximum de choses sur un serveur distant ou gardons les processus en local sur l’Iphone – en somme que l’Iphone envoie les données GPS via un canal data à un serveur qui fait tout le processing puis renvoie un flux audio déjà mixé au téléphone. Nous allons donc être dépendants de la solidité des réseaux de téléphonie, mais cela permet une plus grande souplesse (tout est centralisé sur un serveur) et puissance de calcul (sur ce point l’Iphone n’est pas très musclé…).

– Graphisme: Vincent Jacquier va retravailler les propositions graphiques faites pour l’Iphone et préparer une ossature graphique pour le site web public; une réunion au sujet de la charte graphique est prévue le 18.12 en milieu d’après midi.

– En vrac, les chantiers à venir: organisation de la présentation publique à Renens en juin 2009 (coordination avec la Mairie ainsi qu’avec Stéphane Blok et Daniel Demont qui vont également présenter un projet artistique lors du « festimix »); le site web public (donc autant les fonctionnalités de présentation de films marchés ainsi que la refonte des deux site actuels – le blog et le site ouvert); tournages encore et encore; tests à partir du moteur de montage; mises à jour de l’état de la recherche (ce point n’est pas à sous-estimer, ce d’autant plus qu’il y a le français et l’anglais en paralèlle); et puis également de préparer la phase 3 (valorisation, présentations publiques dans d’autres villes etc)…

Une belle et intense année 2009 qui s’annonce !

UF

PV réunion du 25.09.2008 à l’ECAL

Un rapide tour de table est effectué afin que chacun se présente.
Sont présent-es:
Ulrich Fischer – Jean-François Blanc – Nicolas Wagnières – Pascal Amphoux – Daniel Sciboz – Vincent Jaquier – Lionel Tardy – Nicolas Goy – Laurent Sciboz – Floriant Poulain – Laura Raileanu – Florence Guilermin.

Rapide présentation de Florence Guillermin (réalisatrice genevoise) et Laurent Sciboz (Head of business information systems institute) de la HES-SO du Valais. Sont rapidement présentés les absents, Thomas Isler, Lionel Baier, Jose Michel Buhler, Gwenola Wagnon, Stéphane Degoutin.
Pascal Amphoux et Laurent Sciboz s’interrogent brièvement sur leur cahier des charges en fonction des heures d’engagement.
Ulrich présente également son siège, C-side production à Genève, en tant que base “hardware“ du projet.
Il est rapidement rappelé que la phase 1 s’est terminée avec la possibilité de tester un ensemble fonctionnel, toutes les composantes du projet ayant été développées. Il s’agit pour la phase 2 de faire en sorte que la mécanique ainsi fonctionnelle puisse produire du sens. Suite aux remarques du réseau de compétences, il faudra également garder plus de traces du projet, de même qu’il faut déjà prévoir de quelle manière la valorisation et les délivrables s’effectueront au terme de la phase 2.
Laura Railenau parle de deux projets de la HES-SO et dit qu’il y a une grande demande dans le domaine de “l’annotation de multimédias“ (data mining), des réseaux et des métadonnées.

Ulrich rappelle qu’il faut définir la notion de délivrable générique (architecture ouverte qui puisse être reprise dans un autre cadre et avec d’autres enjeux) ainsi que le résultat artistique auquel vise concrètement ce projet (et qui sera présenté publiquement à Renens en juin 2009). On peut préciser dans quel sens il faut travailler en partant de la fin, fixer un cadre au « délivrable générique » ainsi que de voir avec la commune de Renens pour ce qui se passe en juin-juillet 2009.

Ulrich rappelle la participation du projet WE à interactive storytelling à Erfurt, et à version Beta à Genève: deux ouvertures internationales du projet.
Des informations plus précises sur le déroulement de beta en décembre suivront mais il est prévu de participer à une table ronde, Daniel Sciboz, Gwenola et Stéphane sont par ailleurs investis dans la manifestation. Daniel précise qu’il s’agit d’un forum questionnant les relations entre art et recherche et que ce sera très hétérogène.
Pascal ajoute qu’il a également parlé du projet lors d’un laboratoire à Grenoble.

La parole est donnée à Nicolas Goy pour qu’il explique son travail avec l’Iphone d’Apple, comme module embarqué. Il explique la gestion de la lecture du parcours qui génère par le moteur d’analyse une playlist sonore affichée sur le module. Il a chargé des sons de la base de données dans le module et effectue une démonstration couche par couche, montage empirique.
Ulrich précise que le GPS de l’Iphone est plus précis que ceux testés par le projet.
Des questions sont soulevées au niveau de la mémoire, du débit et du poids de chargement, si les modules sont préchargés, s’ils peuvent l’être par les utilisateurs, lecture en streaming, compressé ou non,… Une série de questions techniques à résoudre encore. Le problème des batteries existe également, on peut néanmoins arriver à une heure et demie d’autonomie en customisant un peu l’appareil. Grosse consommation des ressources graphiques. Sur 128 mo de mémoire vive:
-40mo pour le système
-40mo pour le processeur
-24mo le graphisme
-24mo ….

Quelque chose à résoudre entre la HEIG et NG concernant les besoins de mémoire. NG rappelle que le problème de la mémoire est lié à la consommation de l’appareil. Vu le succès de l’Iphone, il est probable que les choses évolue dans notre sens.
NG évoque le fait d’utiliser un site wiki pour les échanges entre Lionel Tardy et la HEIG.
JFB met en liaison les problèmes techniques et les questions artistiques, en effet il a été avancé lors de la réunion de travail à C-side avec UF et NW, que la lecture des différents layers-couches-nuages sur le module embarqué n’avait pas tant de sens pour le promeneur « lambda ».
Cela amène à redéfinir la notion d’informations qui sont distribuées au promeneur, le dosage entre le territoire sensible, réel, vécu par le promeneur, et ce qui est déjà de l’ordre d’une représentation de ce territoire: nuages, sons, médias, tags,….donnés par le module embarqué. La phase 1 a accumué des possibles, il s’agit maintenant de faire des tests et des choix.
NG demande quelles types d’interactions seront offertes au promeneur: start/stop,…

Retour sur le fait que pour UF, il faut faire des tests, pour Laura, il faut les règles d’organisation des médias.
Florian dit que pour l’analyse en temps réel (stimuli sonore) la mémoire disponible est suffisante. En ce qui concerne le montage final, il se passe hors du module. La tâche de l’Iphone est juste de fournir des sons et d’être en communication avec le serveur.
Il va s’agir de travailler sur un espace limité autour de la place du marché, espace qu’il faut charger de médias. un travail de tournage supplémentaire, ainsi que d’édition et de duplication des médias existants va démarrer. On a décidé en effet qu’un média pouvait exister en plusieurs endroits.
Il est ensuite question de la gestion du stockage des médias, qui héberge, qu’est ce qui est compatible avec le langage utilisé par les programmateurs.
Toute la gestion du flux sonore reste ouverte, discussion entre DS, NG, UF, LT, autour des questions de téléchargement ou non des sons, diffusions dans l’espace parcouru,…Il serait préférable de faire un sérieux travail préalable d’édition des sons. Cela questionne le sens de ce stimuli sonore envoyé au promeneur. S’agit-il d’un flux data ou une communication GSM avec un serveur. Réseau urbain WIFI éventuellement utilisable, sauf que si le projet voyage, la mise en place d’une infrastructure extérieure n’a pas de sens. Ces questions restent ouverts, mais DS rappelle que plus on reste simple mieux ce sera.

Laura explique qu’elle reprend le travail de Nastaran Fatemi qui est sur le point d’accoucher, et va présenter prochainement une planification détaillée du travail en fonction des heures. Florian Poulain reste l’interlocuteur au sein de la HEIG. Il est convenu que la HEIG livre le moteur d’analyse à NG pour implémentation dans l’Iphone en mars 2009. Ils doivent préciser ensemble ce qui est de la sélection direct ou non.
Daniel pense qu’il faudrait rendre plus dynamique le rapport entre le groupe de réflexion et la part techno de la HEIG.
Lionel Tardy va recevoir prochainement les modifications à apporter au CMS suite aux diverses réunions méthodologies.
NG demande à recevoir des précisions sur les informations de l’audio, gain,transitions, fade,…encore une fois les règles qui régissent le montage.
Enfin, NW constate qu’un certain nombre d’heures sont encore ouvertes pour de l’enregistrement sur le terrain, une personne approchant le territoire par le son est proposée par NW. Il est question d’en rediscuter prochainement.

N. Wagnières

PV réunion du 19.09.2008 à la HEIG

Une réunion de reprise a eu lieu à la HEIG d’Yverdon le 19 septembre avec Nastaran Fatemi et Floriant Poulain, Daniel Sciboz et Lionel Tardy, Ulrich Fisher et Nicolas Wagnières.
Ulrich a d’abord résumé la fin de la phase 1: “Toutes les composantes du projet ont été abordées, sans que le moteur final de montage puisse être réellement testé.“
Il a également évoqué les rendus à prévoir pour la fin de la phase 2,  compte rendu scientifique et compte rendu “artisitico-évènementiel“ à Renens, des contacts avec la commune vont être prochainement pris dans ce sens par NW.

La première question de NF est ce que signifie UF quand il dit qu’à la fin de la 1ère phase, “ça marche“ ?
Cela amène la discussion sur le workflow de la deuxième phase, la HEIG a besoin de recevoir de manière précise les règles qui régissent le montage. Il s’agit de trouver l’équilibre entre le besoin de pouvoir tester à l’aide d’une interface les montages possibles pour pouvoir affiner les règles par la suite.
UF annonce que Nicolas Goy a effectué des tests avec l’Iphone de Apple et les trouve plus que satisfaisant, le GPS par exemple semble fonctionner bien plus précis que ceux testés lors de la phase 1. Nous rappelons que Nicolas Goy travaille comme développeur chez Apple depuis plus de dix ans. Les avantages de l’Iphone sont multiples, léger, fiable, accéléromètre intégré, il est envisageable de travailler en phase 3 sur un système de téléchargement de l’interface pour Iphone. Un partenariat avec Apple pourrait être envisagé. L’Iphone ne travaillerait pas avec la carte SIM. Le seul problème semble être celui de la batterie, ainsi que de la mémoire vive disponible pour la gestion du son en direct.
UF demande à la HEIG de budgétiser leur travail en fonction des heures de chacun-e.
Nastaran Fatemi rappelle qu’elle est sur le point d’accoucher et que Laura Elena Raileanu et Floriant Poulain continuent le projet.
Nous redéfinissons les délais du planning des tâches, et repoussons à mi-octobre la livraison des règles à la HEI, en effet il a été constitué une cellule de réflexion sur les méthodologies de tournage et de montage, cellule de travail qui commence à se réunir le vendredi 3 octobre. Sont concernés, Jean-François Blanc, Pascal Amphoux, Ulrich Fischer, Daniel Sciboz, Nicolas Wagnières.
La HEIG va reprendre le travail de Lionel Tardy sur la base de données, Lionel Tardy s’occupera du réajustement du CMS en fonction de la Base de données. Il s’agit entre autre de systématiser les champs et les appellations. Il est demandé à UF un mail concernant les champs nécessités par l’importation d’images fixes.
Lionel Tardy évoque le fait de pouvoir personnaliser toutes les informations du CMS de même que d’introduire des accès utilisateurs, visiteurs.
La discussion repart sur le besoin pour la HEIG de recevoir de la part de UF les règles de combinaison des médias.
Il reste également à définir lesquels des règles s’appliqueront directement aux sons, c’est à dire à un montage réagissant aux données transmises en direct.
Les règles et les métadonnées vont dorénavant être en anglais, dans l’idée d’un possible développement du projet à l’étranger.
Le périmètre du territoire dans lequel se dérouleront les premiers essais est revu à la baisse, il est nécessaire de pouvoir le couvrir en 10 à 15 minutes à pied. Il est prévu que ce périmètre soir autour de la place du Marché, texture urbaine variée où nous avons déjà effectuer passablement d’enregistrements.
La HEIG a déposé une demande de financement auprès du réseau de compétence HES-SO  pour un projet de recherche appelé Mobiwalk, ceci afin que le partenariat avec le projet WE puisse s’élargir. Des nouvelles prochainement.

N. Wagnières

WE, c’est la rentrée

Ce premier post de la rentrée pour annoncer que la phase deux du projet peut démarrer avec l’automne (sauf imprévu majeur). La fin officielle de la phase deux est prévue pour juin-juillet 2009, date à laquelle nous allons présenter publiquement le projet dans un cadre qui reste encore à définir.

Pour commencer, quelques réunions:
– d’ici le 25 septembre, réunions techniques et d’organisation
– le 25 septembre à Renens (ECAL), réunion avec tous les collaborateurs (un ordre du jour suivra)

D’ici la fin du mois, nous aurons donc les cahiers de charges, contrats, plannings et une belle liste de choses à expérimenter…

Ensuite, nous allons organiser des rendez-vous mensuels pour garantir une “discussion de fond” autour des enjeux artistiques et conceptuels: l’idée est de se réunir pendant une demi journée afin d’alimenter la part théorique du projet ainsi que de consolider les choix techniques et artistiques.

Et pour terminer, quelques informations en vrac:
– le projet est invité en novembre dans le cadre d’une conférence à Erfurt – il s’agit de faire une sorte de « demo » du projet dans le cadre de cette conférence;
– en décembre, invitation dans le cadre de Version Beta au CIC à Genève;
– nous sommes en train d’organiser la collaboration avec le cursus de formation des masters cinéma (la rentrée a lieu le 15 septembre) – plus d’informations sur notre collaboration avec la formation sous peu.

Voilà pour l’heure – en attendant joyeuse reprise !
Ulrich

Fin de la phase 1

Après la présentation du 4 juillet pour le comité scientifique et le comité du RCD, le projet est maintenant « en vacances » jusqu’à la rentrée d’automne. Cette séance a permis de faire le point sur l’état de l’avancement du projet ainsi que sur les pistes à développer pour la phase 2. La mise en chantier de la phase deux pourrait se faire après avoir donné quelques compléments budgétaires et de workpackages.

Dans un prochain post, nous reviendrons plus en détail sur les discussions qui ont eu lieu lors de cette séance ainsi que sur l’organisation de la phase 2.

Dans l’intervalle, j’en profite pour remercier vivement tous les collaborateurs / collaboratrices qui ont apporté toutes leurs compétences et énergies au projet – sans vous, ce projet assez vertigineux resterait un phantasme…! Je me réjouis de vous retrouver pour la suite des aventures et vous souhaite un très bel été.

Ulrich

Résumé de la réunion du 2 juin

Voici en résumé les points abordés lors de la réunion qui a rassemblé Nicolas Wagnières, Nicolas Goy, Vincent Jacquier, Lionel Tardy (le matin), Daniel Sciboz (au téléphone) ainsi qu’une rapide conférence téléphonique avec les collaborateur de la HEIG-VD.

Module embarqué:
– On ne va pas continuer à développer le module actuel, pas assez bon en affichage graphique (on avait pas les besoin actuels – gourmands – à l’époque de sa commande). On va attendre la phase 2 pour trouver une ou deux variantes plus efficaces (iphone le retour; touch pc bricolé maison à 100%). Pour le moment ce module servira à faire les tests GPS (5 GPS testés pour trouver le meilleur…). Ces tests devraient pouvoir se faire dès lundi prochain (par DS).
– Ce qui veut dire qu’on va simuler les parcours, l’affichage, l’analyse et la construction du film sur un ordinateur “normal”. Pour ce faire, NG a programmé un simulateur que nous pourrons utiliser dès qu’il a reçu les fichiers graphiques de Vincent (voir plus bas); la HEIG va également faire un simulateur de l’analyse du parcours sous forme d’un fichier flash.
– Accéléromètre: on va laisser tomber l’analyse de l’accéléromètre pour la phase 1, reporter sur phase 2
– Idem pour le moteur de mixage audio en temps réel – reporté phase 2. Pour mémoire: il s’agit de poser la même base de données médias sur le module, mais contenant que des fichiers audios, pilotés par l’analyse en temps réel faite dans le module -> le visiteur entendra entre 2 et 4 flux sonores qui pourront lui donner une idée du film qu’il est en train de marcher.

Cartes:
– Nous n’avons plus besoin de coordonnées suisses, mais il sera nécessaire de dessiner les “rails” sur les chemins que nous allons rendre possibles pour le projet. VJ va s’occuper de les dessiner sur le périmètre réduit (voir fichier annexe). Il va actualiser la carte en fonction de la réalité du terrain.

– VJ va également exporter les calques préparés dans illustrator sous forme d’images raster; il y aura 3 niveaux de zoom donc 3 lots de fichiers raster.
– Les calques nécessaires: base route / base bâtiments / base zones boisées et eau / nom de routes / titre des médias (nom comme titre de film) qui se lit en zoom détaillé mais en plus large devient nuage (blanc sur fond noir) / 3 calques de nuages (RVB): 1 nuage “analytique” bleu; 1 nuage “engagé” rouge; 1 nuage “poétique” vert.
– Ces nuages et les titres des médias se créeront à partir d’un export SWG fait depuis le CMS (via LT et NG) -> nous allons d’ici début de la semaine prochaine remplir le CMS avec une 50aine de médias afin de faire des premiers tests et de pouvoir fournir ce fichier à VJ.
– LT a implémenté sur le CMS la solution google: on peut dès maintenant placer des médias avec un pointeur (l’adresse spatiale s’inscrit directement dans l’interface); ce qui serait bien pour la suite est de pouvoir visualiser les nuages et de pouvoir simuler les combinaisons de médias à travers des chemins tracés à la souris (prémontages spatiaux).

CMS / base de données:
– LT et NG vont poser la base sur le serveur à C-SIDE; à partir de mercredi 4 juin on pourra l’utiliser.
– UF doit fournir à LT une liste mise à jour des champs de la base de données afin de pouvoir différencier les champs qui sont nécessaires pour: l’analyse via le moteur fait par la HEIG; les règles cinématographiques (garantir une forme qui “fonctionne”; les besoins internes (classement, recherche etc)

Moteur d’analyse:
– UF doit refaire le schéma du moteur de montage: implémenter la fonction de l’accéléromètre; rajouter les règles cinématographique; décrire les combinaisons souhaitées; présenter les variantes de navigation active et passive.
– Une première base est développée par la HEIG – RDV est pris lundi 9 à Yverdon pour voir les détails.

Sites internet / graphisme:
– BLOG: ok, plus rien à faire graphiquement et au niveau des fonctionnalités (en tout cas pour la phase 1)
– SITE INFO actuel: VJ finalise son travail de graphisme et met à jour le site pour qu’il corresponde à la ligne graphique (mais sans implémentation complexe de menus etc)
– SITE PUBLIC FINAL: VJ a pondu une maquette qui permet d’imaginer comment les films marchés seront présentés; quelles pourraient être les fonctionnalités et possibilités – ainsi que les solutions logicielles pour que ça fonctionne (RIA ?!?)
– Logo: on ne va pas chambouler la ligne graphique actuelle, mais il a été question de revoir / redessiner le logo qui pose problème avec son souligné (surtout juste au dessus d’autres lignes horizontales)
– pour LT: si possible rajouter fonctionnalité de pouvoir poser des films .flv sur le site info actuel. Ce serait bien de pouvoir montrer quelques images en mouvement ou carrément des films marchés…

UF 02.06.2008

Point de la situation mi-mai

Comme d’habitude en milieu de mois, quelques nouvelles en vrac des derniers développements:

1) Réunion du 13.05 au HEIG-VD avec Nasfaran Fatemi, Florian Poulin, Nicolas Wagnières et Ulrich Fischer.

Le but de cette réunion était de clarifier le travail à faire de leur côté en vue de créer le moteur d’analyse du parcours (qui a pour but de pouvoir automatiquement créer le flux sonore sur le module embarqué et le film).

Il en ressort les points suivants:

→ Analyse du flux de données (ce qui vient du GPS et de l’accéléromètre)

Deux flux avec des temps différents (échantillonnages temporels) vont arriver à ce moteur en parallèle: un fichier csv traité en amont contenant les données lissées venant du GPS et un autre fichier .csv contenant une première interprétation du mouvement fourni par le visiteur à travers l’accéléromètre.
Il reste à définir la périodicité de lecture dans ces fichiers qui sont écrits en cours de route: il y a le temps réel (pour le GPS toutes les secondes, pour l’accéléromètre plus souvent encore ?), une première épaisseur temporelle – une durée – de 15 sec (par exemple), une autre de 30 sec, une autre de 1 min, une autre de 3 minutes et une ultime qui porte sur la totalité de l’enregistrement. Il est clair que plus le temps de cette « épaisseur » augmente, plus les résultats seront des moyennes et fourniront une appréciation lisée du parcours – mais c’est une information importante pour définir le développement narratif sur une certaine durée en garantissant une continuité et logique…

Le GPS pilotera directement les thématiques et l’accéléromètre amènerait tout le détail nécessaire afin de faire des choix en adéquation avec la caractérisation fine du parcours. En portant cela au niveau de l’indexation, le GPS est relié au contenu thématique des images alors que l’accéléromètre est relié aux l’aspects formels, au sujet et autres caractérisations de l’image.

→ Sélection des médias (liste ordonnée de médias sélectionnés)

Il s’agit de définir des règles, basées sur ce type de modèle (exemples):

– mouvement rapide/lent → donne la durée du média
– mouvement logique/illogique → influe sur la logique du montage
– mouvement continu/discontinu → détermine le rythme du montage

Nous sommes en train de mettre à jour la base de données, ce qui permettra de « tirer des flèches » entre cette analyse et le / les champs sur lesquels cette analyse portera et fera effet…

NW et UF, 14.05.2008

Situation au 29 janvier 2008

Aujourd’hui, réunion avec le comité scientifique et quelques collaborateurs. Etaient présents lors de cette présentation du projet:

  • Thomas Isler
  • Michel Bühler
  • Jean-François Blanc
  • Paulo Alcantara
  • Lionel Tardy
  • Vincent Jacquier

L’ordre du jour suivant était discuté:

1 – Présentation du projet, des buts, des enjeux

– Les deux phases de la recherche (WE-1 et WE-2). -> Phase 1 qui doit éprouver le système dans son ensemble: les enjeux sont de tester la mécanique et les limites techniques et conceptuelles. Il faut aboutir fin juillet à la publication d’un rapport qui fasse la synthèse des diverses étapes, des questions soulevées ainsi que les réponses proposées. La phase 2, quand à elle, doit aboutir à un résultat artistique et esthétique convainquant (présenté dans un cadre public à imaginer / organiser).

– Les deux moments du projet : production du contenu, indexation ; « montage » par le parcours individuel. -> Une équipe de réalisation fabrique le contenu (tournages, puis prémontage / indexation dans la base de données); les mêmes personnes ou d’autres à inviter dans le projet (phase 1) devront parcourir, accompagnés par le module embarqué, le territoire délimité par le projet.

– Pistes de recherche (forme / fond). -> relation du visiteur à l’espace visité / relation du spectateur aux images qu’il a « marché »… (cf post à écrire encore)

– Méthode: -> empirique. Faire des immersions de plus en plus ciblées dans le territoire choisi, préciser les pistes thématiques et la manière de sonder la réalité à travers ces pistes; dérusher, trouver le fonctionnement autonome (« absolu ») du matériel collecté (durée, esthétique etc); appliquer les métadonnées (thèmes, catégories, localisation sur le territoire réel ainsi que sur la représentation de la base de données etc).

– Les différentes valorisations possibles (films-objet ; film documentaire ; installation ; making of…). -> Cela fait beaucoup de pistes, mais il faut les avoir présent à l’esprit pour ne pas fermer le projet à des développements ultérieurs (notamment par un choix technologique restrictif).

2 – Discussion / retours critiques (notes sur ce qui ressort de la discussion)

-> importance du son lors de la ballade avec le module embarqué (multipiste, analyse précise du parcours et réactivité nécessaire);

-> importance de donner des « missions » claires aux diverses personnes qui vont réaliser du contenu (définir lieu / thème / méthode / style / média / outils). Le but est de pouvoir définir une liste de missions qui puisse couvrir tout le territoire choisi « filtré » par les pistes thématiques retenues.

3 – Présentation des collaborateurs, cahier de charges, plan de travail

-> voir liste qui va être mise en ligne prochainement. Pour le planning, cf calendrier google ICI

4 – Discussion organisation

5 – Prévision rentrée 2008: workshop, intégration dans la formation prévue

-> Encore à définir, mais T.I. va suivre et participer au tournage, afin de pouvoir faire une proposition de workshop qui fonctionne autant dans le cadre pédagogique des Masters que pour le projet de recherche (une base de donnée commune, utilisée à des fins différents).

UF