Mise en route web pour le projet eyeWander

Pour accompagner le démarrage du projet d’installation vidéo VR en 360° eyeWander, nous venons de mettre en ligne le site web dédié au projet: http://eyewander.ch

Nous avons également mis sur pied une page Facebook, qui va raconter les étapes de la réalisation du projet (tournages, tests, développement, mise en route de l’installation, etc): https://www.facebook.com/eyewanderVR/

Vincent de Vevey va réaliser des vidéos en 360° durant les mois d’octobre et de novembre, pour les « augmenter » ensuite avec des éléments interactifs à déclencher du regard dans les lunettes VR. Une première version de l’application VR devrait être disponible pour le mois de novembre, avec la version installative qui sera présentable dans la foulée.

Le projet bénéficie du soutien et du partenariat de la Ville de Genève (Département des finances et du logement ).

Plus d’informations sur ces pages:

Starting the VR project « eyeWander »

Projet vidéo en 360° « Fenêtres associatives »


Starting the VR project « eyeWander »

Based on the interactive 360° video installation project « Fenêtres Associatives » made by Vincent de Vevey for his Media Design Master exam at the HEAD, Memoways is producing the further development of the mobile VR app and the upcoming version of the interactive installation.

The project

“eyeWander” proposes a new way to experience interactive video within VR.
Users can generate personalised narrative contexts by “organically” aggregating facts and videos into a sharable playlist of content.
Watching and interacting in this way offers a unique and immersive journey through world changing projects from humanitarian aid agencies, demonstrating how interactive storytelling can enhance the public’s understanding of complex issues.

“eyeWander” is a VR project made out of 3 complementary parts: an artistic installation built around a VR headset, a standalone mobile VR app and a documentation website.

With the help of funding support (we already have a financing from the City of Geneva), we will bring the current mobile VR app prototype made for the Master exam to a new level.
Beyond the local use within an artistic installation, the upcoming app will connect complex realities from our world to a personalised VR experience, that can be shared across the web.
A virtuous cycle allows users to become aware of humanitarian issues, and then to engage by sharing their own “wandering”, simply with their eyes, through the stories, facts and figures of our project…

This VR project will be presented to the public through different forms and use cases:

  • An artistic installation for festivals and events, starting in November 2017.
  • A standalone mobile VR app for Android & Samsung Gear (or any cardboard device), for begin of 2018.
  • A website for documentation and communication purposes, starting in October 2017.

The installation

The first version of the installation, presented at the HEAD jury Master exam in June. This version was working without VR headset, with a VR prototype app made with WondaVR

In a darkened room, the public is immersed in floating video sequences surrounding a unique spectator wearing a VR headset. Through watching and interacting with the content in the VR headset, the active spectator, sitting on a turning chair in the middle of the room, triggers synchronised projections of video sequences on the floating screens around him/her.
The user is immersed with is headphone to have the best audio quality for the interviews. For the next step in November, we want that the public present in the room can also experience the interviews using other headphones to follow the story of the active spectator.

Through those screens, the public gets an idea of the thematics and stories being presented to the active spectator in the VR headset: short video sequences superposed with pregnant sentences, present places, people or situations, to create a thematic context. The user with the VR headset can choose between several augmented narrative portraits of selected cooperation organisations.

Each presentation is a 360° video with integrated interactive elements (videos, pictures, short sentences and data-visualisations), allowing to get more informations or short stories linked to the main interview, just by looking a longer moment on specific interactive elements in the 360° video. Once the 360° video interview is finished (lasting between 3 and 5 minutes), the user is invited to freely “dive” into additional material, to learn more about specific aspects.
In the dark, simply by directing the eye in a certain direction, video sequences are unveiled and come to live, like pointing a flash light in room without light.

In the installation room, short video loops, projected on the floating screens, are synchronised with the interactions of the VR user. The audience, while waiting to wear the VR headset, gets a glimpse of the topics and thematics, linked to the choices and the behaviour of the active user.
The playhead of the projected videos is controlled by the user’s movement of the head, so that the surrounding audience rapidly gets aware of the formal mechanic of the video projections.

This first version of the public installation is already financed through a funding from the Ville de Genève and will be presented end of this year (more information to come).

The following points are concepts and ideas that we wish to pursue :

  • Move beyond linear and static storytelling to a more organic, evolutive and personnalized experience through the original “Comet” concept made possible with the Memoways video platform called Kura;
  • Based on curated video feeds, “magnetic” keywords and platform linking strategies (see the schema later in this document), each personal experience within the mobile VR app can be shared on the social web. This expands organically the audience of the project from an individual niche consultation to a broader connected collective experience;
  • Even if this aspect is not a visible feature, it is very important to mention that by using the Kura video platform, the project will evolve without application updating, based on the separation of the content with the app. This means we will be able to change, remove and add new video content and the way the content is connected together (the magic of the “magnetic” keywords), without having to update the app itself. The same of course applies also to the future user experience within the installation.

The mobile VR app

Top image: first version of the installation (without VR headset) Bottom image: mockup of the upcoming VR augmented information layer

The first version of the mobile VR app is described above.

We intend to bring the new mobile VR app to the Play Store early 2018, thereby reaching a broader international audience than the very local audience of the interactive installation.

We will wish to enhance the user experience with following features:

  • Floating keywords in the main menu, linked with arrows to the main interviews and between themselves, presenting a grid of related thematics, places, or actions. When staring at a keyword, the application is presenting a playlist of content labeled with the selected keyword, as a chain of circular thumbnails.
    Selecting play will play one content after the other; it is possible to come back to the main menu at any moment. The creation, curation and updating of those keyword playlists is done with our Kura web application.
  • Keywords that dynamically appear as coloured capsules in the 360° video, linked to specific temporal segments of the interview. This part is the transposition of Memoways Comet concept to the VR / 360° video space.
    While listening to the interview, the user can turn around to discover more information in the 360° video; when looking a longer moment on an appearing keyword capsule, the capsule is “captured” and transformed into an icon going to the bottom right (or left) corner of the viewing field. Each additional keyword selection adds an icon to the existing ones, like a floating pearl necklace…
    At the end of the linear interview, a dialog proposes to either watch the generated playlist of content based on the selected keywords, or to keep the playlist for later and come back to the main menu.
  • Connexion to the Facebook / Google / Twitter account, to be able to save and share videos and playlists. The presentation of the shares is made possible through a “webview” generated from the platform.

Further developments could include the following features:

  • Edit your playlist: change order, add new related content, remove content from a playlist.
  • Define a private or a public sharing mode. In the private mode, it is simply an “unlisted” url that can be shared with selected people; in the public mode, the shared playlists can be discovered on a specific page in the mobile VR app, and later on the website.

 The team

The core team for the project is:

  • Vincent de Vevey. Interaction designer, Media Designer and Sound designer
  • Ulrich Fischer. Producer, entrepreneur and new media expert
  • David Hodgetts. Polyglot developer, specializes in interactive media projects.
  • Nicolas Goy. Web application, back-end developer with specific expertise in web video

Vincent De Vevey conducts the interviews with the associations: he records them with 360° video, and handles postproduction. He is also in charge of the visual aspect of the motion design in the videos. He has the artistic director role.

Ulrich Fischer produces the project with his company Memoways. He assists and guides Vincent de Vevey on all conceptual, artistic, technical and aesthetic questions. As the producer he is in charge of the strategic and financial questions.

David Hodgetts works on the development of the VR installation which revolves around two software artifacts: a mobile VR app with custom mechanics to drive the projections in the installation mode. The VR app targets the Gear VR platform and uses the Unity3d framework. The video player runs on OSX, is written in C++ for optimal performance, communicates via UDP with the VR app and integrates with MadMapper by opening a Syphon server. Source code is released under the MIT license where possible.

Nicolas Goy as the developer of the Kura video platform and the Comet video player (he did also the transmedia project Confusion.today) develops the custom video player for the interactive video streams within the VR app, creates a bridge between Kura and the VR app and makes the webview and sharing mechanism.

Masterclass cinéma & web à la SAE

le 14 novembre 2016 entre 18h et 20h je vais donner une masterclass à la SAE, intitulée « Comment le cinéma peut-il tirer profit des nouveaux usages du net« .


Cette session de 2 heures, construite sur les bases de ma conférence « Connectez-vous » est gratuite et ouverte au public – pour s’enregistrer c’est ici.

Il sera question de:

  • considérer des approches complémentaires entre la création cinématographique et les développements web, au service du contenu et des questions posées dans un projet;
  • améliorer les workflows créatifs, logistiques et stratégiques;
  • s’approprier les nouveaux outils de création (applis mobiles) pour mieux / plus connecter son projet avec les publics;
  • pouvoir choisir des méthodologies de production en adéquation avec son propos;
  • et aussi: des caméras qui jouent au crabe; mettre la tête dans le nuage; construire son paddle… et bien plus encore.

Une bouteille à la mer

La vidéo sur Internet se taille une part de lion de plus en plus affamé: cela peut se vérifier dans les usages et le développement vertigineux de la consommation de bande passante.
Cependant, la vidéo telle que nous la pratiquons sur nos ordinateurs et appareils mobiles n’a pas véritablement évolué depuis les beaux jours de la télévision ou même l’âge d’or du cinéma.
La vidéo est un objet fermé, non évolutif et non participatif, qui raconte toujours la même histoire: le monologue plus ou moins inspiré et inspirant d’un auteur – c’est d’ailleurs ce qui en fait sa valeur.
Cet objet ne va pas disparaître: il est bien trop important et correspond à un besoin humain profond.

Mais cet objet vidéo est un « corps étranger » dans le web d’aujourd’hui, dans le sens que les pages affichées sur l’écran de notre ordinateur ou de notre smartphone n’existent pas en tant que tel: elles sont calculées à partir de données dans une base de données, du contexte et du profil de l’utilisateur et d’une multitude de paramètres.
Au contraire de la grande majorité des sites web qui ne sont plus « statiques » mais « dynamiques », la vidéo reste statique, immuable, « éternelle »…
Imaginez Facebook sous forme d’un PDF: est-ce que cela fonctionnerait ?

La suite…

Journée d’études « Le futur du cinéma »

J’ai été invité à donner une conférence dans le cadre de la journée d’études « Le Futur du cinéma » organisée par les chercheurs Marcin Sobieszczanski et Bruno Girard et doctorant Savo Zunjic du pôle de recherche CREAMED (Création et Médiation) du laboratoire I3M (Information, Milieux, Médias, Médiations) de l’UNS (Université Nice Sophia Antipolis).

programme le  futur du cinema

La journée d’études se déroulera le 23 avril 2016, de 10h-12h et de 14h-17h, au Théâtre de la Licorne à Cannes25 av. Francis Tonner, 06150 Cannes La Bocca.

On constate actuellement des mutations notables dans tous les domaines de la technique filmographique. Un média technologique consacré depuis plus de cent ans, une technique et une culture solidement ancrées dans les pratiques professionnelles et privées, une économie toujours solide et évolutive, le cinéma est un objet inépuisable non seulement pour la critique et pour les études cinématographiques, mais aussi pour les Sciences de l’Information et de la Communication.
Notre journée d’étude réunit les chercheurs, doctorants, créateurs et les entreprises de production vidéo-filmique. La formule de la journée d’études se présente à travers des présentations théoriques et pratiques des intervenants, suivies à la fin de la journée par une table ronde permettant un échange autour des présentations et sujets pertinents.

Confusion.today à Soleure

Après avoir mis en ligne un prototype en septembre 2015, nous avons continué de travailler sur le projet transmedia Confusion.today, en parallèle des développements portant sur le player Comet.

Peter Mackay a oeuvré une bonne partie de l’hivers sur la sélection de vidéos en lien avec le sujet (Guantanamo, prisonniers politiques, etc) puis sur les connexions entre des moments spécifiques du film et les thématiques représentées par ces fragments vidéo.
Nous avons choisi deux extraits du film, en nous concentrant sur une éditorialisation la plus précise que possible, en y ajoutant également des pondérations: les fragments vidéos ajoutés dans la playlist vont suivre une logique de qualité / choix de sens, comme pour des choix de montage.

La version mise en ligne a apportée les fonctionnalités suivantes:

  • Création de playlist personnalisée, avec fonction remix (réorganisation de la playlist)
  • Tooltips (informations contextuelles sur les vidéos, avec un simple survol de la souris)
  • Partage de la playlist personnelle (avec le bouton Share)

Le player Comet, étant la fondation technique et conceptuelle pour ce projet transmedia, va encore évoluer les temps qui viennent. Nous allons donc pouvoir mettre à jour ce projet en fonction des améliorations et ajouts de fonctionnalités de Comet.


Nous allons présenter cette version actuelle du projet transmedia « Confusion.today » le lundi 25 janvier dans le cadre d’une table ronde regroupant les projets soutenus par Pro Helvetia en 2015.

Le prototype de Confusion.today est arrivé !


Après quelques semaines de travail cet été, le prototype du projet transmedia « Confusion.today » est en ligne !

Et comme une bonne nouvelle n’arrive jamais seule: nous venons également de recevoir le soutien de Pro Helvetia avec la deuxième partie du financement pour le projet.
Nous pouvons donc immédiatement partir en mode production de manière plus conséquente 🙂

La suite…

Confusion.today présent aux CrossVideoDays de Paris


Notre projet transmedia Confusion.today sera présent aux CrossVideoDays les 11 et 12 juin à Paris. Avec Dan Wechsler de Bord Cadre Films, nous allons pouvoir présenter notre projet à des potentiels partenaires et également vérifier la portée et l’intérêt du concept qui se trouve « derrière » ce projet.

Voici quelques lignes sur le positionnement du projet:

Notre monde hypermédiatisé et surexposé comporte encore des zones d’ombres et génère des situations absurdes. La mémoire humaine reste courte, malgré – ou peut-être à cause ? – des caméras, des écrans et des nouvelles qui arrivent sous forme de flux ininterrompus.

La confusion règne.

Pour en sortir, certains promettent des solutions efficaces via une histoire fédératrice (la guerre contre le terrorisme, « Je suis Charlie »).

D’autres parient sur une mise à plat objective des évènements en développant des bases de connaissance participatives (Wikipedia).

La grande majorité des spectateurs cependant se désolidarise et cherche le salut dans des objets de satisfaction immédiate, où la pensée est déjà mastiquée et la solution prête à être digérée.    

Et si la confusion d’aujourd’hui n’était pas liée à la surenchère de contenus ou de formules, mais plus au manque de liens multiples et contradictoires entre les contenus, les points de vues et le monde ?

A la difficulté de faire converser des spécialistes et de fédérer leurs apports de manière transversale et vivante ?

A notre besoin de réduire la complexité en apposant des étiquettes statiques et réductrices sur des personnes ou des problématiques ?

Nous allons insister sur le côté « trans » du projet Confusion.today. Il y a bien sûr l’étiquette transmedia pour définir la place du projet dans l’écosystème culturel. Mais il y a aussi le caractère transformateur du parcours personnel que nous permet le dispositif du projet.

Au final, on peut résumer la proposition de valeur principale par le mot transmission. Transmission de connaissances de la part de spécialistes et transmission d’expérience de la part des utilisateurs.

Le projet a eu deux soutiens financiers ce printemps: par le pôle pluridisciplinaire de la Ville de Genève et le programme transmedia de Pro Helvetia.
Merci à eux pour ces soutiens: avec ces moyens financiers reçus, on pourra développer un prototype / démonstrateur d’ici septembre. Le but du prototype est d’une part de pouvoir tester concrètement notre concept et d’autre part de trouver des partenaires et soutiens financiers supplémentaires.


Projet transmedia « Confusion.today »

En partenariat avec la société genevoise Bord Cadre Film, nous développons actuellement un projet transmédia qui va connecter un film de fiction avec une plateforme documentaire interactive.


La fiction raconte le parcours rocambolesque d’un ex détenu de la prison de Guantanamo à travers les méandres de la scène politique Suisse, alors que la plateforme documentaire interactive développe cette problématique politique en proposant un accès personnalisé à des histoires réelles d’anciens détenus. 

La particularité de ce projet transmedia réside dans le visionnement participatif d’une histoire linéaire (le film de fiction) qui va générer automatiquement un récit vidéo personnalisé.

La suite…

Prochaines présentations

Avec le démarrage proche du printemps, je vais faire plusieurs présentations et conférences pour parler des expériences liées à Walking the Edit ainsi que sur les enjeux des nouvelles écritures.

Il y aura une conférence à Paris le 17 mars, au pavillon Suisse de la Cité Universitaire de Paris, épicentre du projet Heritage Expérience sur lequel j’ai travaillé entre 2010 et 2012.

Mais avant il y aura une présentation du projet de recherche MoveYourStory dans le cadre d’une soirée de Catalyx/Union Suisse sur les partenariats publics-privés.

Puis une participation à distance à une causerie initiée par Annabel Roux de Storycode Provence à Marseille, sur la question du documentaire génératif, entre autres…

La suite…