Quelques schémas

Dans le cadre de projets que nous avons déposé ces derniers temps, nous avons, grâce à la précieuse collaboration de Anna Cavalleri, pu réaliser un certain nombre de schémas.

Une image vaut mille mots: l’enjeu pour pouvoir communiquer le projet de manière simple et directe, et d’être le plus économe en mots – ces schémas vont pouvoir nous y aider.

Voici le schéma de la plateforme logicielle Memoways (qui est à la base du dispositif artistique Walking the Edit):

Plateforme Memoways

 

Le workflow du projet: réalisation de contenus, indexation puis réception interactive.

workflow

 

Conseils techniques vidéo: de la caméra à la postproduction

Aujourd’hui, la plupart des projets sont tournés en HD (1920×1080 ou 1280×720), parfois en 2K et rarement en 4K – mais ce qui impressionne au niveau qualité à la sortie de la caméra ou de la postproduction déçoit lorsque l’on regarde le même film en SD (DVD ou depuis une cassette) ou sur internet.
En effet, des problèmes liés à la downconversion (conversion « vers le bas ») peuvent sacrément altérer la qualité finale.

La suite…

La production cinéma en perspective binaire

Avec l’équipe de C-Side, nous avons fait une présentation sur le DCP à Fonction cinéma hier soir.

Pour mettre en perspective les enjeux de la projection numérique (et de la production numérique tout court), j’en ai profité pour faire une mise à plat de la production cinéma à travers une opposition en face à face de l’ancien monde (l’analogique) et le nouveau monde (le numérique).

Tout bouge sur la planète cinéma: outils et workflows techniques, méthodologies de travail, normes (tournage, montage, diffusion), relation au spectateur, nouveaux formats et plateformes de diffusion, droits d’auteur, diffusion et distribution, financements – la liste est longue et évolue tous les jours.
Un film reste un film, mais le chemin pour arriver « au bout du film » n’est plus du tout le même: il y a maintenant autant de chemins qu’il y a de films…
Pour tenter d’y voir un peu plus clair, voici un jeu de miroir entre l’ancien et le nouveau monde.
http://prezi.com/bin/preziloader.swf

Les point sur les chantiers actuels

Il y a eu un retard de presque un mois sur le planning établi à cause du service non fonctionnel chez notre hébergeur Ikoula: nous avions pris un abonnement chez eux pour pouvoir héberger la base de données, le CMS, le moteur de montage, le site web, le blog etc. Au cours du transfert du serveur du développeur, nous nous sommes rendu compte que leur solution ne fonctionnait pas. Nous nous sommes battus pendant plus de deux semaines, pour au final acheter un PC que nous avons mis dans une salle serveur, et maintenant tout fonctionne bien.
Moralité: ne pas aller chez Ikoula; prendre un abonnement avec une assistance personnalisée et essayer d’avoir de la chance de tomber sur des personnes compétentes. Merci Ikoula de nous avoir fait perdre temps et argent (je ne parle pas des dommages collatéraux de patience érodée, d’énergie perdue etc).

Bon, maintenant que la base technique fonctionne, nous sommes en train de:
– travailler sur le moteur de montage en implémentant des règles de montage (un post là dessus va suivre sous peu);
– une fois que nous avons trouvé la bonne équation (le bon dosage des variables et des règles), nous allons recalculer tous les films existants sur le site web à partir de tracés enregistrés. Cela veut dire que le films résultants vont ENFIN (presque une année après la fin de la recherche) avoir une cohérence et raconter quelque chose. J’espère que cette étape sera effectuée à la mi mai;
reconfigurer l’interface du CMS principal (accès aux données, indexation des métadonnées, réglages du moteur de montage etc). C’est un gros chantier, qui devrait prendre 3 mois à partir de maintenant. L’idée est de commencer par les points les plus urgents et importants (import de données, indexation basique) puis d’affiner en parallèle à une utilisation concrète;
programmer l’app pour iPhone, pour pouvoir tester et faire tester le moteur de montage en temps réel en effectuant un parcours à travers les deux lieux fonctionnels (Renens et la CIUP à Paris) -> j’espère que ce sera bon pour fin mai;
mettre à jour le blog (mise à jour wordpress + relooking + ajouts de fonctionnalités) et le site web (passage au player vidéo HTML5, fonction de partage, lien plus étroit avec le blog <-> news etc)

Il devrait y avoir donc tout bientôt pas mal de nouveautés, du concret… à suivre.

Ulrich

Planning des chantiers techniques

Voici un planning prévisionnel des travaux techniques prévus sur WE pour les 5 mois qui viennent.
Attention, ce planning est grandement lié aux réponses de subvention et de la dynamique avec les divers partenaires et collaborateurs: il s’agit donc en premier lieu de voir l’ordre des chantiers (chronologie des travaux à faire) dans un monde idéal (toutes les réponses sont positives).

Février:
– Base de données. Nicolas Goy migre la base de donnée et crée un nouvel applicatif pour la gérer (basé sur django et python). Le serveur est également remplacé par un serveur dédié;
– Moteur de montage. Tests avec le moteur de montage pour arriver à recompiler les films marchés à Renens et faire un film démo pour Paris (sur base du parcours test). L’enjeu est de pouvoir présenter sur le site internet des films qui soient plus solides que les résultats actuels (qui sont une sorte de random absolu) dès que possible.

Mars:
– CMS. Lionel Tardy démarre le chantier de l’adaptation du CMS sur la nouvelle base de données (afin de pouvoir importer du nouveau matériel et de pouvoir indexer). Ce chantier va durer 3 à 4 mois – mais il sera possible de travailler (avec fonctions réduites) en parallèle de son travail.
– Moteur de montage. En fonction des premiers résultats, améliorations, nouveaux tests etc.

Avril:
– CMS, suite du travail
– Application iPhone (basé sur un site web – presque rien est en local sur le téléphone): démarrage de la programmation d’une application de base (enregistreur GPS, affichage playlist et écoute du stream audio), qui permette de tester le dispositif dans son ensemble (réactivité, fonctionnement sur le terrain). Cette application pourrait servir pour des tests techniques internes, mais également de faire essayer à des personnes choisies (subventionneurs, collaborateurs, partenaires) dès le mois de juin 2010.

Mai:
– CMS, suite du travail
– App iPhone, suite

Juin:
– CMS, suite et fin du travail
– App iPhone, suite et fin du travail

Il est envisageable de faire des tests poussés sur le territoire de Renens dès le mois de juin (grâce aux 3000 médias qui sont déjà indexés) et ainsi faire une première évaluation de ce qui fonctionne, de ce qu’il faudrait optimiser, ajouter etc.

Point de la situation novembre 2008

Cela fait maintenant plus de deux mois que la phase 2 du projet a démarré, voici des informations et nouvelles sur les chantiers en cours:

Base de données:  Lionel Tardy et Florian Poulin ont jeté les bases pour une adaptation de la base de données. Il s’agit avant tout de mettre à niveau la base existante avec les nouveaux champs spécifiés dans ce document, ainsi que d’en optimiser le fonctionnement (noms de champs en anglais etc).

CMS: Des premières améliorations ont été effectuées par L. Tardy (visualisation des médias sur la carte), mais le gros des changements se fera une fois que la base a été finalisée par la HEIG, entre la fin 2008 et janvier 2009. Les améliorations porteront sur: la recherche “intelligente” et multicritère; pouvoir afficher des médias définis sur la carte (affichage spatialisé) dans le but de pouvoir simuler les combinaisons de médias en fonction d’un critère choisi; import de métadonnées directement depuis des fichiers QuickTime et des données EXIF contenues dans des photographies; possibilité d’enregistrer des “preset“ lors du catalogage des médias afin de ne pas remplir à chaque fois les informations qui restent identiques pour une série de médias; etc.
En somme, il sagit de concevoir une interface qui permettra de maîtriser le placement des médias ainsi que leur indexation en vue de favoriser des combinaisons qui « fassent sens »…

Iphone: Nicolas Goy a bien avancé (l’Iphone est apprivoisé…) et implémenté la capacité d’enregistrer un parcours (via le GPS et la triangulation des antennes GSM), d’envoyer ce tracé via le réseau DATA puis de le présenter sur une carte Google (voici un exemple avec un parcours + les médias). Actuellement il est en train d’implémenter la carte personnalisée faite par Vincent Jacquier, avec possibilité d’affichage de layers ainsi que le positionnement + tracé sur la carte et le mixage en temps réel de plusieurs fichiers audio; des premiers tests de menus et de fonctionnalités sont également en cours. Il sera possible courant novembre de faire des tests grandeur nature – le principal élément manquant actuellement est le moteur d’analyse et de sélection des médias.

Tournages: Florence Guillermin a rejoint l’équipe de réalisation (composée actuellement de Nicolas Wagnières et de Ulrich Fischer), elle a réalisé ses premiers repérages + tournages durant le mois d’octobre. Les étudiants en Master Cinéma ont également tourné des images à Renens dans le cadre d’un workshop; l’équipe de réalisation va continuer à faire des tournages régulièrement. Le but étant de collecter entre 1 et 2 heures de matériel vidéo par semaine et d’ajouter ces images à notre base de données. Les étudiants Masters vont tourner d’ici la fin de l’année leur film de semestre à Renens.

Édition des médias: Jeanne Macheret travaille depuis début novembre sur l’indexation des médias – elle va s’occuper spécifiquement de dérusher en collaboration avec les réalisateurs, puis de définir le in/out de chaque média dans Final Cut (en appliquant un rapide étalonnage). Le gros du travail se fera cependant dans le CMS. C’est un travail « de fond » très important qu’elle fera à mi temps sur les 6 mois qui viennent.

Analyse des parcours: une partie difficile – il s’agit d’analyser et d’interpréter le tracé avec plusieurs filtrages temporels (temps réel; temps « tampon » de 30sec; temps total écoulé depuis le début du parcours). Ces documents permettent de visualiser les enjeux (table des variables; base analyse trajet); mais ce n’est que des tests conséquents qui nous permettront de définir plus précisément comment nous allons interpréter le parcours effectué.

Règles de montage: c’est également une partie complexe du projet… Le groupe »concept artistique » est en charge de définir plus clairement quelles seront ces règles; il y a d’un côté la volonté de maîtriser la logique narrative du film final tout en laissant le parcours guider la trame formelle du film. Ce document donne quelques indications sur la manière dont les règles vont intervenir dans le processus de montage automatique.

Groupe « concept artistique »: composé de J.F. Blanc, N. Wagnières, P. Amphoux, D. Sciboz et de U. Fischer, ce groupe s’est réuni 2 fois et a avancé sur les questions conceptuelles et artistiques. Nous avons dessiné beaucoup de schémas, esquissé un workflow global du projet (cf le post de JF. Blanc), analysé les styles de montages cinématographiques, esquissé des liens entre forme du parcours et forme du film, discuté sur le dispositif mobile (l’intérêt d’ajouter des images aux sons), etc… Nous allons restituer notre parcours dans un document spécifique ultérieurement. Un des points qu’il s’agira de développer est le « catalogue des possibles » en relation avec l’équipe « valorisation ».

Graphisme: Vincent Jacquier a conçu une carte personnalisée qui sera intégrée dans l’Iphone, avec possibilité de présenter des layers personnalisés (nom des médias, attribution thématiques, sujet etc). Il est en train de travailler sur la charte graphique et les fonctionnalités pour l’Iphone et le site internet; plus d’informations sous peu.

Workshop Masters Cinéma: nous avons proposé à quelques étudiants des Masters un workshop sur les enjeux de la narration non linéaire; Gwenola Wagon, Nicolas Wagnières ainsi que Jean-François Blanc étaient de la partie. Nous avons invité Pierre-Yves Borgeaud qui a présenté son projet Xième, l’un des exemples qui a guidé la discussion sur la délicate question de la définition de la non linéarité… Un certain nombre d’enseignements sont sortis de cette semaine (3-6.11) sur lesquels nous allons revenir par la suite.

Voilà pour l’heure; nous allons prochainement avoir plus de nouvelles sur les points suivants:

Valorisation: un RDV est prévu le jeudi 13.11 avec Laurent Sciboz pour discuter des possibilités de valorisation publique du projet;
– Présentation du projet à Erfurt les 26 et 27.11 dans le cadre d’une conférence sur la narration interactive, puis le 13.12 dans le cadre de Version Bêta à Saint Gervais à Genève;
– Présentation publique du projet à Renens en juin 2009
– Chantiers prévus à Renens (la place du marché va « disparaître »)

UF 09.11.08

PV réunion du 25.09.2008 à l’ECAL

Un rapide tour de table est effectué afin que chacun se présente.
Sont présent-es:
Ulrich Fischer – Jean-François Blanc – Nicolas Wagnières – Pascal Amphoux – Daniel Sciboz – Vincent Jaquier – Lionel Tardy – Nicolas Goy – Laurent Sciboz – Floriant Poulain – Laura Raileanu – Florence Guilermin.

Rapide présentation de Florence Guillermin (réalisatrice genevoise) et Laurent Sciboz (Head of business information systems institute) de la HES-SO du Valais. Sont rapidement présentés les absents, Thomas Isler, Lionel Baier, Jose Michel Buhler, Gwenola Wagnon, Stéphane Degoutin.
Pascal Amphoux et Laurent Sciboz s’interrogent brièvement sur leur cahier des charges en fonction des heures d’engagement.
Ulrich présente également son siège, C-side production à Genève, en tant que base “hardware“ du projet.
Il est rapidement rappelé que la phase 1 s’est terminée avec la possibilité de tester un ensemble fonctionnel, toutes les composantes du projet ayant été développées. Il s’agit pour la phase 2 de faire en sorte que la mécanique ainsi fonctionnelle puisse produire du sens. Suite aux remarques du réseau de compétences, il faudra également garder plus de traces du projet, de même qu’il faut déjà prévoir de quelle manière la valorisation et les délivrables s’effectueront au terme de la phase 2.
Laura Railenau parle de deux projets de la HES-SO et dit qu’il y a une grande demande dans le domaine de “l’annotation de multimédias“ (data mining), des réseaux et des métadonnées.

Ulrich rappelle qu’il faut définir la notion de délivrable générique (architecture ouverte qui puisse être reprise dans un autre cadre et avec d’autres enjeux) ainsi que le résultat artistique auquel vise concrètement ce projet (et qui sera présenté publiquement à Renens en juin 2009). On peut préciser dans quel sens il faut travailler en partant de la fin, fixer un cadre au « délivrable générique » ainsi que de voir avec la commune de Renens pour ce qui se passe en juin-juillet 2009.

Ulrich rappelle la participation du projet WE à interactive storytelling à Erfurt, et à version Beta à Genève: deux ouvertures internationales du projet.
Des informations plus précises sur le déroulement de beta en décembre suivront mais il est prévu de participer à une table ronde, Daniel Sciboz, Gwenola et Stéphane sont par ailleurs investis dans la manifestation. Daniel précise qu’il s’agit d’un forum questionnant les relations entre art et recherche et que ce sera très hétérogène.
Pascal ajoute qu’il a également parlé du projet lors d’un laboratoire à Grenoble.

La parole est donnée à Nicolas Goy pour qu’il explique son travail avec l’Iphone d’Apple, comme module embarqué. Il explique la gestion de la lecture du parcours qui génère par le moteur d’analyse une playlist sonore affichée sur le module. Il a chargé des sons de la base de données dans le module et effectue une démonstration couche par couche, montage empirique.
Ulrich précise que le GPS de l’Iphone est plus précis que ceux testés par le projet.
Des questions sont soulevées au niveau de la mémoire, du débit et du poids de chargement, si les modules sont préchargés, s’ils peuvent l’être par les utilisateurs, lecture en streaming, compressé ou non,… Une série de questions techniques à résoudre encore. Le problème des batteries existe également, on peut néanmoins arriver à une heure et demie d’autonomie en customisant un peu l’appareil. Grosse consommation des ressources graphiques. Sur 128 mo de mémoire vive:
-40mo pour le système
-40mo pour le processeur
-24mo le graphisme
-24mo ….

Quelque chose à résoudre entre la HEIG et NG concernant les besoins de mémoire. NG rappelle que le problème de la mémoire est lié à la consommation de l’appareil. Vu le succès de l’Iphone, il est probable que les choses évolue dans notre sens.
NG évoque le fait d’utiliser un site wiki pour les échanges entre Lionel Tardy et la HEIG.
JFB met en liaison les problèmes techniques et les questions artistiques, en effet il a été avancé lors de la réunion de travail à C-side avec UF et NW, que la lecture des différents layers-couches-nuages sur le module embarqué n’avait pas tant de sens pour le promeneur « lambda ».
Cela amène à redéfinir la notion d’informations qui sont distribuées au promeneur, le dosage entre le territoire sensible, réel, vécu par le promeneur, et ce qui est déjà de l’ordre d’une représentation de ce territoire: nuages, sons, médias, tags,….donnés par le module embarqué. La phase 1 a accumué des possibles, il s’agit maintenant de faire des tests et des choix.
NG demande quelles types d’interactions seront offertes au promeneur: start/stop,…

Retour sur le fait que pour UF, il faut faire des tests, pour Laura, il faut les règles d’organisation des médias.
Florian dit que pour l’analyse en temps réel (stimuli sonore) la mémoire disponible est suffisante. En ce qui concerne le montage final, il se passe hors du module. La tâche de l’Iphone est juste de fournir des sons et d’être en communication avec le serveur.
Il va s’agir de travailler sur un espace limité autour de la place du marché, espace qu’il faut charger de médias. un travail de tournage supplémentaire, ainsi que d’édition et de duplication des médias existants va démarrer. On a décidé en effet qu’un média pouvait exister en plusieurs endroits.
Il est ensuite question de la gestion du stockage des médias, qui héberge, qu’est ce qui est compatible avec le langage utilisé par les programmateurs.
Toute la gestion du flux sonore reste ouverte, discussion entre DS, NG, UF, LT, autour des questions de téléchargement ou non des sons, diffusions dans l’espace parcouru,…Il serait préférable de faire un sérieux travail préalable d’édition des sons. Cela questionne le sens de ce stimuli sonore envoyé au promeneur. S’agit-il d’un flux data ou une communication GSM avec un serveur. Réseau urbain WIFI éventuellement utilisable, sauf que si le projet voyage, la mise en place d’une infrastructure extérieure n’a pas de sens. Ces questions restent ouverts, mais DS rappelle que plus on reste simple mieux ce sera.

Laura explique qu’elle reprend le travail de Nastaran Fatemi qui est sur le point d’accoucher, et va présenter prochainement une planification détaillée du travail en fonction des heures. Florian Poulain reste l’interlocuteur au sein de la HEIG. Il est convenu que la HEIG livre le moteur d’analyse à NG pour implémentation dans l’Iphone en mars 2009. Ils doivent préciser ensemble ce qui est de la sélection direct ou non.
Daniel pense qu’il faudrait rendre plus dynamique le rapport entre le groupe de réflexion et la part techno de la HEIG.
Lionel Tardy va recevoir prochainement les modifications à apporter au CMS suite aux diverses réunions méthodologies.
NG demande à recevoir des précisions sur les informations de l’audio, gain,transitions, fade,…encore une fois les règles qui régissent le montage.
Enfin, NW constate qu’un certain nombre d’heures sont encore ouvertes pour de l’enregistrement sur le terrain, une personne approchant le territoire par le son est proposée par NW. Il est question d’en rediscuter prochainement.

N. Wagnières

PV réunion du 19.09.2008 à la HEIG

Une réunion de reprise a eu lieu à la HEIG d’Yverdon le 19 septembre avec Nastaran Fatemi et Floriant Poulain, Daniel Sciboz et Lionel Tardy, Ulrich Fisher et Nicolas Wagnières.
Ulrich a d’abord résumé la fin de la phase 1: “Toutes les composantes du projet ont été abordées, sans que le moteur final de montage puisse être réellement testé.“
Il a également évoqué les rendus à prévoir pour la fin de la phase 2,  compte rendu scientifique et compte rendu “artisitico-évènementiel“ à Renens, des contacts avec la commune vont être prochainement pris dans ce sens par NW.

La première question de NF est ce que signifie UF quand il dit qu’à la fin de la 1ère phase, “ça marche“ ?
Cela amène la discussion sur le workflow de la deuxième phase, la HEIG a besoin de recevoir de manière précise les règles qui régissent le montage. Il s’agit de trouver l’équilibre entre le besoin de pouvoir tester à l’aide d’une interface les montages possibles pour pouvoir affiner les règles par la suite.
UF annonce que Nicolas Goy a effectué des tests avec l’Iphone de Apple et les trouve plus que satisfaisant, le GPS par exemple semble fonctionner bien plus précis que ceux testés lors de la phase 1. Nous rappelons que Nicolas Goy travaille comme développeur chez Apple depuis plus de dix ans. Les avantages de l’Iphone sont multiples, léger, fiable, accéléromètre intégré, il est envisageable de travailler en phase 3 sur un système de téléchargement de l’interface pour Iphone. Un partenariat avec Apple pourrait être envisagé. L’Iphone ne travaillerait pas avec la carte SIM. Le seul problème semble être celui de la batterie, ainsi que de la mémoire vive disponible pour la gestion du son en direct.
UF demande à la HEIG de budgétiser leur travail en fonction des heures de chacun-e.
Nastaran Fatemi rappelle qu’elle est sur le point d’accoucher et que Laura Elena Raileanu et Floriant Poulain continuent le projet.
Nous redéfinissons les délais du planning des tâches, et repoussons à mi-octobre la livraison des règles à la HEI, en effet il a été constitué une cellule de réflexion sur les méthodologies de tournage et de montage, cellule de travail qui commence à se réunir le vendredi 3 octobre. Sont concernés, Jean-François Blanc, Pascal Amphoux, Ulrich Fischer, Daniel Sciboz, Nicolas Wagnières.
La HEIG va reprendre le travail de Lionel Tardy sur la base de données, Lionel Tardy s’occupera du réajustement du CMS en fonction de la Base de données. Il s’agit entre autre de systématiser les champs et les appellations. Il est demandé à UF un mail concernant les champs nécessités par l’importation d’images fixes.
Lionel Tardy évoque le fait de pouvoir personnaliser toutes les informations du CMS de même que d’introduire des accès utilisateurs, visiteurs.
La discussion repart sur le besoin pour la HEIG de recevoir de la part de UF les règles de combinaison des médias.
Il reste également à définir lesquels des règles s’appliqueront directement aux sons, c’est à dire à un montage réagissant aux données transmises en direct.
Les règles et les métadonnées vont dorénavant être en anglais, dans l’idée d’un possible développement du projet à l’étranger.
Le périmètre du territoire dans lequel se dérouleront les premiers essais est revu à la baisse, il est nécessaire de pouvoir le couvrir en 10 à 15 minutes à pied. Il est prévu que ce périmètre soir autour de la place du Marché, texture urbaine variée où nous avons déjà effectuer passablement d’enregistrements.
La HEIG a déposé une demande de financement auprès du réseau de compétence HES-SO  pour un projet de recherche appelé Mobiwalk, ceci afin que le partenariat avec le projet WE puisse s’élargir. Des nouvelles prochainement.

N. Wagnières

Résumé de la réunion du 2 juin

Voici en résumé les points abordés lors de la réunion qui a rassemblé Nicolas Wagnières, Nicolas Goy, Vincent Jacquier, Lionel Tardy (le matin), Daniel Sciboz (au téléphone) ainsi qu’une rapide conférence téléphonique avec les collaborateur de la HEIG-VD.

Module embarqué:
– On ne va pas continuer à développer le module actuel, pas assez bon en affichage graphique (on avait pas les besoin actuels – gourmands – à l’époque de sa commande). On va attendre la phase 2 pour trouver une ou deux variantes plus efficaces (iphone le retour; touch pc bricolé maison à 100%). Pour le moment ce module servira à faire les tests GPS (5 GPS testés pour trouver le meilleur…). Ces tests devraient pouvoir se faire dès lundi prochain (par DS).
– Ce qui veut dire qu’on va simuler les parcours, l’affichage, l’analyse et la construction du film sur un ordinateur “normal”. Pour ce faire, NG a programmé un simulateur que nous pourrons utiliser dès qu’il a reçu les fichiers graphiques de Vincent (voir plus bas); la HEIG va également faire un simulateur de l’analyse du parcours sous forme d’un fichier flash.
– Accéléromètre: on va laisser tomber l’analyse de l’accéléromètre pour la phase 1, reporter sur phase 2
– Idem pour le moteur de mixage audio en temps réel – reporté phase 2. Pour mémoire: il s’agit de poser la même base de données médias sur le module, mais contenant que des fichiers audios, pilotés par l’analyse en temps réel faite dans le module -> le visiteur entendra entre 2 et 4 flux sonores qui pourront lui donner une idée du film qu’il est en train de marcher.

Cartes:
– Nous n’avons plus besoin de coordonnées suisses, mais il sera nécessaire de dessiner les “rails” sur les chemins que nous allons rendre possibles pour le projet. VJ va s’occuper de les dessiner sur le périmètre réduit (voir fichier annexe). Il va actualiser la carte en fonction de la réalité du terrain.

– VJ va également exporter les calques préparés dans illustrator sous forme d’images raster; il y aura 3 niveaux de zoom donc 3 lots de fichiers raster.
– Les calques nécessaires: base route / base bâtiments / base zones boisées et eau / nom de routes / titre des médias (nom comme titre de film) qui se lit en zoom détaillé mais en plus large devient nuage (blanc sur fond noir) / 3 calques de nuages (RVB): 1 nuage “analytique” bleu; 1 nuage “engagé” rouge; 1 nuage “poétique” vert.
– Ces nuages et les titres des médias se créeront à partir d’un export SWG fait depuis le CMS (via LT et NG) -> nous allons d’ici début de la semaine prochaine remplir le CMS avec une 50aine de médias afin de faire des premiers tests et de pouvoir fournir ce fichier à VJ.
– LT a implémenté sur le CMS la solution google: on peut dès maintenant placer des médias avec un pointeur (l’adresse spatiale s’inscrit directement dans l’interface); ce qui serait bien pour la suite est de pouvoir visualiser les nuages et de pouvoir simuler les combinaisons de médias à travers des chemins tracés à la souris (prémontages spatiaux).

CMS / base de données:
– LT et NG vont poser la base sur le serveur à C-SIDE; à partir de mercredi 4 juin on pourra l’utiliser.
– UF doit fournir à LT une liste mise à jour des champs de la base de données afin de pouvoir différencier les champs qui sont nécessaires pour: l’analyse via le moteur fait par la HEIG; les règles cinématographiques (garantir une forme qui “fonctionne”; les besoins internes (classement, recherche etc)

Moteur d’analyse:
– UF doit refaire le schéma du moteur de montage: implémenter la fonction de l’accéléromètre; rajouter les règles cinématographique; décrire les combinaisons souhaitées; présenter les variantes de navigation active et passive.
– Une première base est développée par la HEIG – RDV est pris lundi 9 à Yverdon pour voir les détails.

Sites internet / graphisme:
– BLOG: ok, plus rien à faire graphiquement et au niveau des fonctionnalités (en tout cas pour la phase 1)
– SITE INFO actuel: VJ finalise son travail de graphisme et met à jour le site pour qu’il corresponde à la ligne graphique (mais sans implémentation complexe de menus etc)
– SITE PUBLIC FINAL: VJ a pondu une maquette qui permet d’imaginer comment les films marchés seront présentés; quelles pourraient être les fonctionnalités et possibilités – ainsi que les solutions logicielles pour que ça fonctionne (RIA ?!?)
– Logo: on ne va pas chambouler la ligne graphique actuelle, mais il a été question de revoir / redessiner le logo qui pose problème avec son souligné (surtout juste au dessus d’autres lignes horizontales)
– pour LT: si possible rajouter fonctionnalité de pouvoir poser des films .flv sur le site info actuel. Ce serait bien de pouvoir montrer quelques images en mouvement ou carrément des films marchés…

UF 02.06.2008