Déboguage n°2

Aujourd’hui mardi, nouvelle journée de tests. Nicolas Goy a fait un écran de visualisation sur le WEphone des médias sélectionnés par le moteur de montage, ce qui permet d’avoir une idée bien plus précise et en direct de ce qui est en train de se dérouler.
Voici une capture d’écran lors d’une ballade:

WEphone_visualisationtest 

Les problèmes les plus flagrants:

  • il y a presque toujours en premier 2 fichiers: 1 court et un long; il faudrait éviter d’avoir un fichier trop long pour commencer. Ce qui serait aussi idéal, c’est de limiter la durée des médias durant les X premières minutes de la ballade (à max 30 secondes de durée)…
  • après un moment, le système commence toujours les films avec les mêmes médias, indépendamment où on est. Lors des derniers tests (5-6 films), j’ai toujours commencé avec un court et un long, les mêmes… Il faudrait faire de manière à ce que chaque film démarre autrement – donc presque aller chercher dans l’historique les médias choisis et interdire qu’on puisse avoir ceux-la.
  • de manière générale, il y a beaucoup de redites – je me suis balladé dans un endroit bien chargé en médias, et le système me ressort assez régulièrement les même médias (et cela, sur les quelques derniers tests des derniers jours – j’ai souvent les mêmes médias, que j’ai entendus maintenant à travers tous les tests de ces derniers jours).
  • le système choisit souvent des médias qui sont hors du périmètre du parcours (cf post précédent)
  • il y a eu superposition de voix (devant un salon de coiffure, j’ai eu 3-4 fois le coiffeur qui me causait, assez vertigineux comme effet !).
  • il y a peu de rapport entre la vitesse du parcours et la durée des médias choisis – j’ai presque toujours marché à la même vitesse et j’ai eu des médias longs et courts pèle mêle.

On s’approche d’un état publiable, mais il y a encore ces ajustement là à faire pour permettre une expérience satisfaisante.

Un grand merci à Nicolas Goy, Florian Poulin et Lionel Tardy qui travaillent d’arrache pied pour nous permettre de présenter le travail de 1 an et demi au public !

UF, 09.06.09

Déboguage n°1

Afin de pouvoir déboguer précisément, il faut trouver l’erreur puis comprendre comment elle a pu avoir lieu – ce qui n’est pas évident au vu de toutes les étapes et paramètres qui entrent en considération dans le dispositif. Lionel a mis en place un outil très pratique, qui permet, via le CMS, de visualiser le tracé sur la carte ainsi que les médias sélectionnés par le moteur de montage.
Cela donne cette image:

CMS_carteparcours_test1

Le parcours a été effectué par Lionel, il correspond parfaitement au chemin effectué (ce qui n’est pas le cas de tous les parcours enregistrés). Ensuite, on voit qu’il a entendu un certain nombre de médias qui ne sont pas placés par dessus son parcours (petits médias parasites ? – à voir avec Florian pour vérifier pourquoi ils ont été choisis); puis, ce qui s’est aussi passé pendant le parcours, est l’apparition du très long média qui « écrase » les autres.
Là, il y a deux solutions: on réduit le rayon des médias (ce que je suis en train de commencer de faire, à maximum 100 mètres – ce qui évite d’appeller des médias qui sont centrés loin de l’endroit où l’on passe), et la deuxième solution (complémentaire) consiste à fournir comme média de départ une sorte de générique de 10 secondes (musique + ambiance) qui fait que le moteur peut avoir à sa disposition un petit historique afin de déterminer si la personne marche ou pas. Actuellement, le risque est de fournir au marcheur un médias long sans savoir s’il marche ou pas.

à suivre…

UF, 07.06.2009

Point de la situation début juin

A une semaine de la présentation publique du projet, voici l’état des lieux. A la fin de chaque rubrique de chantier, il y a quelques notes sur les choses qui sont encore à faire d’ici la fin du projet de recherche, c’est-à-dire début juillet.

– Tournages: les tournages sont presque terminés, Pierre-Yves Borgeaud est encore en train de filmer dans les coins de Renens qui ont jusqu’à maintenant été peu explorés. Mardi 9 juin est le dernier jour de tournage. Reste à faire: estimer le nombre d’heures d’images tournées; faire un compte rendu par réalisateur / réalisatrice sur le déroulement des tournages (expérience personnelle, satisfactions, points à améliorer, conseils etc); synthèse d’une méthodologie de tournage pour les prochaines adaptations du projet dans d’autres villes. Via le CMS, il faudra sortir quelques statistiques pour voir la répartition / l’équilibre des champs comme les thématiques, les postures, les tags ainsi que certains champs objectifs comme la saison, moment de la journée etc. Avec ces statistiques là, il devrait être possible d’analyser et juger les résultats des films marchés et essayer de dégager des axes de travail qui donnent des résultats satisfaisants artistiquement pour ce type de projet.
– Indexation:
est encore en cours, et ne sera probablement pas terminée complètement pour la présentation du 12-13 juin (mais il y aura plus de 2500 médias indexés, donc de quoi faire). Pour le moment, l’indexation s’est faite (comme d’ailleurs la plupart des autres travaux), un peu à l’aveugle et sur base de suppositions théoriques et d’intuitions. Une fois que nous pourrons faire des vrais tests, nous pourrons affiner les réglages d’indexations et démarrer les paramétrages plus pointus comme les plans de groupe (liaisons plus affirmées entre des médias, petites entités narratives), le clonage de médias (avoir une autre instance du média, avec une autre localisation et indexation subjective) ou tout simplement de vérifier l’utilité et l’importance de certains champs. Le véritable travail de perfectionnement au niveau de l’indexation ne pourra commencer cependant que lorsque nous aurons un moteur de montage plus précis et fonctionnel.
– Le CMS: il n’y a pas eu beaucoup de nouvelles implémentations au niveau des réglages du moteur (les paramètres d’analyse ou les règles de montage) ou de notre outil d’indexation, mais les prochains jours verront la fin de la mise en place d’un système de génération de films (on pourra, à partir d’un trajet enregistré dans la base de données, générer un film; et en changeant des paramètres dans la partie réglage du moteur d’analyse, affiner les résultats). C’est surtout à partir de ce moment là qu’il sera possible de tirer quelques conclusions sur notre indexation, sur la valeur artistique des médias filmés ainsi que sur le moteur de montage lui-même (sachant que pour le moment, il sera à 10-20% de ce qui avait été prévu au niveau de la finesse d’analyse et des régles cinématographiques).
– Moteur de montage: il n’a pas encore été possible de réellement tester le moteur de montage, il y a encore un certain nombre de bugs pour lesquels il faut comprendre l’origine (par exemple, des médias qui jouent en boucle, ou que chaque nouveau film démarre avec le même média, sentiment d’aléatoire qui prédomine et qui rend toutes analyse objective des résultats quasiment impossible etc). Pour d’autres caractéristiques, comme le fait de ne pas permettre un média trop long d’être joué comme premier média, nous allons mettre en place une solution provisoire qui va « gommer » certaines limitations. Il n’est pas encore clair si le moteur fonctionnera convenablement pour la présentation (dans quel cas, il n’y aura pas la possibilité de marcher ses films et le stand à Festimixx montrera que des simulations), j’espère qu’on saura lundi si le système fonctionnera…
– Moteur de stream, application Iphone: Nicolas Goy a mis les bouchées doubles pour perfectionner le moteur de stream (les derniers tests avaient été entrecoupés de coupures du signal), et là bonne nouvelle, ça marche ! Aujourd’hui vendredi, Lionel Tardy et Ulrich Fischer ont marché côte à côte avec deux Iphones avec des opérateurs différents, et il a été possible d’entendre le stream audio des fichiers sélectionnés par le moteur de manière fluide. La réactivité générale du système est assez bonne, il y a 3-4 secondes de délai entre l’enregistrement et le début du flux audio. Sur l’Iphone, il y aura la liste des médias sélectionnés ainsi que quelques métadonnées qui permettront de débuger le dispositif en cas de besoin.
– Site web: il est encore en construction, visible sur l’adresse http://www.walking-the-edit.net/fr/accueil/. Il y a encore du travail, mais pour le moment il s’agit de mettre l’accent sur la partie visionnement des films ainsi que la présentation du projet. Important: il s’agit avant tout d’un site grand public, la grande partie du travail de recherche effectué sera accessible via des PDF’s à télécharger; pour le reste, il s’agira de communiquer le plus simplement et efficacement les enjeux et l’intérêt du dispositif. Un premier essai a été fait de partir du schéma animé, de le décomposer pour en sortir une logique de présentation de l’ossature du projet.
– Graphisme: la charte graphique est en cours, on verra la semaine prochaine pour les bases qui vont nous permettre d’affiner le travail sur l’interface de l’Iphone ainsi que sur le site web (et par extension, sur tous les autres supports nécessaires au projet, comme les dossiers, présentations conférence etc).
UF; 05.06.2009

WEphone – animation

Vincent Jacquier a animé notre interface de visualisation du processus de montage visible sur notre WEphone; voici quelques liens:

WEphone-entier (avec téléphone)

WEphone-crop (sans téléphone, pour être simulé directement sur un Iphone)

C’est une premier jet, qui permet de simuler ce qui peut se passer lors d’une ballade. Merci à celles et ceux qui apportent quelques feedbacks et retours critiques !

UF, 30.05.2009

Salle de cinéma

En travaillant sur le site web, se pose la question de comment présenter le duo trajet/film dans notre salle de « WEnema »:

projection_toutesbulles

version où l’on voit dans le futur…

projection_videdevant

Version où, comme pour le film, on ne sait pas ce qui arrive…

Il y en a sûrement encore plein d’autres possibles.

UF, 22.05.2009

Graphisme – pistes pour le site web

Le chantier du graphisme est complexe – il s’agit de proposer des interfaces claires, intuitives et ayant un même air de famille entre le WEphone et le site web.
De la même manière que pour le WEphone, nous n’aurons pas le temps ni les moyens d’aboutir à une version évoluée et complète du site web d’ici la fin de la phase 2, donc les efforts actuels sont portés sur le fait de déterminer les intentions, les idées et les fonctionnalités que nous aimerions voir sur le site web final.

Dans les grandes lignes, les intentions et envies sont les suivantes:
– le site doit être vivant et modulable, il doit rendre compte à sa manière des enjeux contenus dans le projet (rapport à la mémoire; réapropriation d’un territoire et de médias; auteur collectif; forme de l’inachevé et de l’ouverture, etc). On doit également sentir qu’il s’agit de jouer avec les dimensions spatiales et temporelles: espace réel / espace digital; potentialités d’un espace (réel ou digital); temps multiples (le passé dans le temps réel; le futur à l’horizon du présent; le temps du parcours et le temps du film, etc)
– la place du spectateur: il n’est pas seulement passif mais peut aussi devenir actif – et le but du site est de l’inviter à le devenir. Il s’agit donc d’imaginer plusieurs stratégies qui l’y amènent (marcher son film; commenter les films des autres; éditer des modules etc). Le site comme moteur d’enregistrement de son parcours à travers les liens qui y sont possibles… (d’où l’idée du bouton d’enregistrement qui s’allume sur le logo, cf plus bas)
– degré de personnalisation: découlant de ce qui est développé ci dessus, inviter le visiteur du site d’utiliser celui-ci en combinant les modules et les filtres de recherches selon ses envies. Le site est, d’une certaine manière, un gestionnaire de base de données avec lequel on peut accéder et afficher les informations qui nous intéressent…
– et bien sûr, il faut que le contenu éditorial soit le plus complet et « excitant » possible: il s’agit de parler autant à un public plus large (habitants, touristes d’une ville) qu’à des spécialistes habitués à ce genre d’aventures.

Ce qui est posé actuellement est surtout une grille de base qui est très modulaire; la plupart du temps on a une zone centrale qui peut présenter soit du contenu éditorial soit du contenu « vivant » (les films etc), entourée par une zone verticale et horizontale qui donne des contenus supplémentaires selon le contexte (news; commentaires; films; parcours; modules).

Premier exemple: la homepage.

siteweb_home_mai09

A savoir:
– la zone de menu est encore en évolution; il s’agit de rester sobre, mais actuellement c’est trop neutre et standard (donner plus de « profondeur », de volume, de hiérarchie).
– En dessous du logo, il y aurait une zone de texte défilant avec un lot de phrases qui décrivent le projet (style « un lieu de rencontre entre l’espace urbain et l’espace digital »; « un dispositif qui permet de générer un film en marchant » etc);
– de la même manière, le texte sous « Le dispositif » change (il y a 3-4 types de textes différents);
– un film, sous forme d’une capture d’écran, est promu en home et donne un exemple avec les commentaires et statistiques sur le résultat escompté;
– on peut filtrer les films affichés via une liste déroulante (actuellement, trié selon le nombre de vues et par date) directement dans l’entête;
– Edit box: c’est l’endroit où on trouvera les fonctionnalités d’édition (notre boite à outils). Elle n’est opérationnelle que si on est loggué (ce qui est possible de faire en tout temps). On pourra y changer / éditer les commentaires que l’on a fait sur les films; si l’on a marché un film, on peut via cette interface ajouter des intertitres au film (en fonction des règles édictées), on peut y concevoir des modules personnalisés (fonction encore très embryonnaire, mais qui permet de concevoir des boites qui présentent de manière imagée des statistiques, par exemple une représentation de la vitesse en rapport avec le nombre de médias, ou les thématiques par rapport aux sujets etc); on peut indiquer les préférences de tri, de recherche etc
Questions ouvertes:
– première ligne de menus: idéalement ne garder que le login et mettre le reste ailleurs…
– permettre de hiérarchiser (via des couleurs, formes ou séparations) les niveaux de contenus (cf ci dessous)

Deuxième exemple: la page du visionnement des films.

siteweb_movie_mai09

Il y a plusieurs idées ici, qui sont assez difficiles de rendre compte sur une image statique:
– le logo prend des couleurs différentes en fonction de la navigation. Il y a deux pistes (encore toutes fraîches, à vérifier et tester):
1) couleurs qui donnent une indication sur le niveau ou le type d’information. Le rond en magenta « s’allume » si on est logué, si l’on enregistre une action (texte, module etc); le premier / détermine les informations éditoriale (textes, extraits image etc) et le double // détermine les « informations collectives » (les films, parcours, commentaires), ce qui est vivant de manière indépendante…
2) couleurs qui donnent l’information du niveau de navigation. Il y a 3 niveaux: la home; le premier niveau de menu; le deuxième niveau de menus.
– il reste également à voir comment on « éteind » notre salle de cinéma (la page qui accueille le duo trajet / film), de manière à pouvoir se concentrer sur l’essentiel, tout en ayant la possibilité d’y voir également quelques statistiques (selon une présentation que l’on peut personnaliser)…

Encore pas mal de travail…!

UF, 22.05.2009

Graphisme – WEphone

Il ne sera pas possible d’implémenter les pistes graphique sur notre WEphone pour la fin de cette phase 2 – cependant, il s’agit de pouvoir préciser les intentions et de déterminer les affichages que nous souhaitons (dans un monde idéal, sachant que nous aurons lors de la concrétisation des contraintes techniques).

WEphone mai 09

Les questions qui se posent, que nous n’arrivons pas à résoudre actuellement, sont les suivantes:
– bouton start / stop: pour le moment nous utilisons le logo comme bouton; c’est une bonne idée mais ce n’est pas encore abouti (place sur l’écran ?; comment gérer les états différents ?; utiliser les éléments qui le constituent de manière différenciée ? etc);
– information sur le temps écoulé: il faudrait déterminer une zone de placement d’informations, dans laquelle il sera possible d’afficher des informations diverses (temps écoulé, nombre de médias entendus, kilomètres parcourus etc); prendre comme exemple l’affichage d’informations dans un viseur de caméra… (on peut donc afficher plein d’informations comme aucune);
– légende: très importante pour savoir interpréter celle visualisation, la légende est posée actuellement « par défaut »; il faudrait la traiter de manière spécifique (cf légendes d’une carte), en évitant de la mettre au même niveau que nos bulles – c’est une problématique similaire à l’affichage des informations techniques;
– ligne de temps: le quadrillage en 4 zones est intéressant seulement si c’est repris sur les autres écrans également; on doit sentir que la ligne verticale est le temps présent. La ligne de temps devrait être plus présente à gauche qu’à droite (où elle part en « trompette »…);
– les bulles: il faut mieux arriver à différencier ce qui se passe à droite par rapport à la gauche. Pour schématiser: à droite, le futur, les potentialités -> sensation d’espace, de volume, d’ouverture (idéalement les bulles y sont aussi légères que des bulles de savon) – et à gauche, le passé, l’histoire écrite -> sensation « d’aplatissement », les choses sont devenus figées dans leur forme, seul le temps garde sa dimension… En discutant avec Pascal Amphoux, nous avons eu l’idée que l’espace à gauche est en 2D, mais avec un mouvement inéluctable de la droite vers la gauche, comme une sorte de tapis roulant sur lui même qui « tire » les bulles dans l’espace de droite (en 3D) vers la gauche, et passé le moment présent (la ligne médiane), applati les médias et les « enfile » sur le fil du temps. Vincent Jacquier est en train de simuler ce processus via After Effects, on devrait avoir une version dynamique prochainement histoire de tester ces idées.

UF, le 22.05.2009 

Le premier walk !

Aujourd’hui, 19 mai, il a été possible de faire le premier walk avec flux sonore – grâce au travail acharné de Nicolas Goy qui a écrit environ 400’000 lignes de codes dans diverses langues…
Pour le moment, il se passe les choses suivantes:
On fait un login (mail + mot de passe) via l’application WE sur l’Iphone, on arrive sur un écran avec un bouton start. Rapidement après, une bulle jaune arrive au milieu de l’écran, le premier média est choisi, et on entend le son du média avec une bonne qualité. Pendant la lecture du média, cette boule travers l’écran, suivie d’une deuxième (second média sélectionné), et parfois d’une autre qui vient s’insérer sur / entre l’actuelle (cela fait un mix sonore de 2 pistes). J’ai eu droit à quelques collages intéressants…
C’est assez miraculeux de voir fonctionner tous ces éléments, avec autant de variables et d’éléments potientiellement perturbateurs.
Il y a tout de même encore des choses à régler, qui portent sur:
– le flux audio coupé: le flux audio a tendance à couper, parfois souvent, parfois longtemps, parfois les deux. Il y a diverses choses à préciser (une mémoire tampon sur l’Iphone, la bande passante qui sort du moteur de stream, l’opérateur – Orange – qui délivre un signal 3G pas propre, du code etc), cela prendra donc encore quelques jours de tests avant d’arriver à quelque chose de propre à ce niveau là.
– la localisation et l’enregistrement du parcours (avec lissage du tracé GPS): pour le moment, il est trop tôt de dire si tout joue à ce niveau, mais il s’agira de faire des tests variés dès la semaine prochaine.
– le moteur de montage: pour le moment, je n’ai pas vu d’adéquation entre la vitesse de mon parcours et la durée des médias; il me semblait aussi que les médias n’étaient pas toujours liés à l’endroit où j’étais, mais là il faudrait vérifier sur l’historique de l’enregistrement; ce qui était aussi troublant, c’est que dans un certain périmètre, le moteur me donnait toujours les mêmes médias, dans le même ordre, alors que je faisais des mouvements et parcours différents. Il me semble qu’à ce niveau là, il y a encore pas mal de petites (et grandes dans un deuxième temps) à régler.

Pour résumer, nous allons porter nos efforte sur les éléments suivants:
– propreté du stream audio (qualité, continuité)
– adéquation entre la localisation et les médias choisis
– adéquation entre la vitesse du parcours et la durée des médias choisis
Il n’y aura pas d’interface spéciale pour montrer le processus en coure, mais on peut afficher une liste des médias choisis (noms, durées, appartenance thématique etc); c’est surtout utile pour des fins de tests et débogage.
Il reste encore à voir la relation entre le film final et le flux audio entendu; pour le moment, nos efforts se portenront surtout sur l’expérience sur le terrain, et si on arrive à présenter un film, tant mieux.

Ca se concrétise !

UF, 19.05.2009

Etat des lieux mi mai

A presque un mois de la présentation publique dans le cadre de Festimixx, voici un état des lieux et des prévisions sur ce qui pourrait être présenté à cette occasion. Ce sera à peu de choses pret aussi l’état en fin de phase 2.
En résumé, il va y avoir entre 20% et 30% de ce qui était prévu au niveau du moteur de montage et de la partie technique du dispositif qui sera prête les 12 et 13 juin, les tests qui se feront d’ici fin mai permettront de voir plus précisément si ça tient la route ou pas… La tâche s’est avérée bien plus ardue que prévu, et il manque juste quelques semaines pour arriver au bout de ce qui était développé. Actuellement, les efforts se portent sur le fait de pouvoir quand même présenter quelque chose de fonctionnel en simplifiant à outrance le dispositif. Nicolas Goy et Florian Poulin ont travaillé d’arrache pied et de manière très engagée et professionnelle, mais la complexité du dispositif nécessite plus de temps et de moyens pour arriver à résoudre les diverses problématiques rencontrées.

Les détails des divers chantiers:

– Tournages: nous avons organisé un tournage collectif entre fin avril et début mai, sur lequel étaient présents Florence Guillermin, Nicolas Wagnières, Ulrich Fischer et la « nouvelle recrue » Pierre-Yves Borgeaud. Nous avons sillonné tout le territoire et fait des images du petit matin (6h) à la nuit (minuit), la récolte était prolifique en surprises et moments intéressants. Ce qui a frappé tout le monde est le cadre très agréable et le bon accueil des habitants de Renens, le tournage était donc une vraie partie de plaisir. Actuellement, Pierre-Yves Borgeaud et Nicolas Wagnières continuent de faire de tournages ponctuels sur le territoire pour encore explorer les derniers recoins et trouver des « filons » nouveaux.
-Dérushage et indexation: les quelque 10 heures de matériel ramené des tournages a nécessité l’engagement d’une aide de dérushage en la personne de Alexa Andrey, qui au jour d’aujourd’hui a déjà bien découpé les séquences qui sont traitées par Ulrich Fischer (étalonnage, exports, compression, export des métadonnées). Jeanne Macheret pourra ensuite traiter les nouvelles images d’ici mi juin; à ce moment il y aura presque 3000 médias indexés.
– Moteur de montage: Florian Poulin a travaillé sur une version complète du moteur (cf post du mois d’avril) jusqu’il y a peu, mais devant l’échéance qui se rapprochait dangeureusement, nous avons décidé de laisser de côté provisoirement ce qui a été développé (toute la partie de l’analyse du parcours et de l’application des règles de montage) pour se concentrer sur 4 paramètres qui sont les suivants:
1) relation vitesse <-> durée des médias (via une échelle de relation; le moteur cherche le média qui correspond le plus à la vitesse actuelle calculée sur les 10 dernières secondes);
2) continuité thématique avec pondération dynamique (permet de gérer plusieurs thématiques en parallèle mais surtout d’assurer une continuité de ce dont « parlent » les images);
3) filtrage des médias avec un son in précis (interviews, sons distincts) pour éviter qu’il y ait superposition de deux interviews par exemple;
4) filtrage par qualité (les médias ayant la meilleure qualité sont tout en haut de la liste)
Il y aura également qu’un seul moteur de montage: le film va correspondre exactement à ce qui a été entendu lors du parcours (il n’y aura donc pas d’affinage du montage). Ce qui veut dire qu’actuellement l’accent est mis sur le fonctionnement de la partie en temps réel et l’expérience sur le terrain.
– Iphone: Nicolas Goy a mis en place un dispositif complexe composé d’un serveur de stream audio (le moteur de mixage) et un serveur gérant tous les processus liés à l’analyse et à la fabrication des films. Pour les curieux, voici un PDF à télécharger qui en donne une vision d’ensemble (c’est encore un document en cours; des choses ont entre temps évolué). La face visible de son travail est pour le moment l’Iphone: le mixage audio des médias convoqués dans le montage ainsi que la présentation du processus en cours. A ce sujet, il est probable que pour la présentation de festimixx, cette présentation fonctionne que formellement mais sans intégration graphique (pour donner une idée de la mécanique). L’interface de l’Iphone sera simplifiée au maximum pour ne garder qu’un seul écran de commande et l’écran de visualisation du processus (les bulles). Le fontionnement sera le suivant:
1) formulaire login (username – le mail; et mot de passe); ces données seront générées et centralisées via le CMS par une personne du projet;
2) écran de « loading » (pour chercher la qualité du signal GPS, dialoguer avec le moteur d’analyse et amorcer le processus de fabrication du film)
3) interface de pilotage: déclenchement nouveaux films (bouton start)
– Graphisme: le planning établi n’a pas pu être tenu et nous sommes toujours en train de travailler sur le site web qui doit être finalisé au plus tard pour le 13.05; les écrans de l’Iphone devraient suivre d’ici fin de la semaine et les divers éléments qui les constituent permettront d’établir une charte graphique et ainsi décliner selon les besoins la communication et les autres applications qui nécessitent un cadre propre et cohérent. Mis à jour le 14.05: Lionel Tardy a commencé le travail sur le site sur base de la grille élaborée par Dimitri; il reste encore à finaliser / affiner le graphisme des pages, j’espère qu’on y arrive dans les temps.

Pour finir, une bonne nouvelle: Swisscom et Orange sont partenaires du projet ! Nous aurons donc à disposition des Iphones et cartes SIM, le tout gracieusement… Il reste à mettre en place une méthode de prêt qui soit simple et efficace (éviter que des Iphones partent dans la nature ou que des visiteurs soient simplement des téléphoneurs).

UF 11.05.2009 et 14.05.2009