Projet vidéo en 360° « Fenêtres associatives »

Entre le mois de mars et de juin 2017, j’ai suivi en tant que tuteur le travail de diplôme d’un étudiant de la HEAD en Master Media Design, Vincent De Vevey.

Il s’agissait de l’accompagner dans la conceptualisation et la réalisation d’une application mobile vidéo en 360°, intégrée dans une installation.

Le projet « Fenêtres Associatives » immerge le spectateur dans le travail d’engagement social, artistique et humanitaire d’associations d’entre-aide internationales basées à Genève.
Guidé par l’interview d’un porteur de projet, le spectateur découvre le contexte de l’action d’entre-aide à travers des informations, images et vidéos intégrées dans une vidéo en 360°. En tournant sur un tabouret, il peut alors découvrir sur l’écran d’un smartphone des contenus et des informations incrustées dans l’espace de l’interview.
Certaines de ces zones sont interactives et lui permettent de poursuivre sa navigation en fonction de ses envies.
Autour de lui, des vidéos qui réagissent aux mouvements du spectateur permettent aux autres visiteurs de l’installation de saisir les enjeux de ces associations d’entre-aide: entre ici et là bas, des fenêtres flottantes nous offrent une perspective sur un nouveau monde…

Maintenant que le travail de diplôme a permis de présenter un premier prototype déjà très satisfaisant et prometteur, nous allons tirer parti de l’opportunité de développer ce projet pour une présentation publique plus large.
Il est encore trop tôt pour divulguer le contexte de production et de présentation, mais ce billet entend partager un bout du chemin parcouru jusqu’à maintenant.

Questions et enjeux

Les enjeux conceptuels posés au départ étaient les suivants:

  • Comment « mettre en scène » un usage individuel d’une expérience en 360° / VR au sein d’un espace public ? En somme, proposer autre chose qu’une retransmission « plate » de ce que voit la personne qui gesticule bizarrement, la lunette VR sur la tête… Comment créer une situation où les spectateurs sont partie prenante d’une expérience commune ?

    Seriously ?

  • Trouver un bon équilibre entre une narration guidée et protégée (linéaire) et une expérience personnelle, basée sur l’interactivité (non linéaire). Est-ce que le cinéma, le jeu vidéo et l’usage du web sont « compatibles » au sein du contexte d’un média rassembleur ?
  • De manière complémentaire au point précédent, trouver un bon équilibre entre des informations factuelles, à travers une approche objective, et des narrations au potentiel émotionnel, à travers une approche subjective, poétique. Est-ce imaginable de proposer une expérience qui allie l’identification (immersion dans un contexte émotionnel artificiel, avec suspension momentanée de son propre jugement) à l’interprétation d’informations (mise à distance des informations les unes par rapport aux autres, à travers l’activation de son propre jugement) ?
  • Comment « monter » des contenus (images, vidéos, textes) dans un espace 360° et non pas dans une timeline, comme on a l’habitude de le faire ? Le cinéma et la vidéo sont un médium basé sur le temps (une image après une autre, dans l’espace de l’écran), alors que l’expérience proposée dans un espace 360° demande une maîtrise de l’espace également.
  • Comment prendre en considération le flux du web au sein d’une navigation personnelle qui peut se partager à la sortie de l’expérience ? En somme, de donner une place plus importante au spectateur dans le cadre du dispositif: le monde n’est plus le même après son voyage. La question du partage est primordiale, encore plus pour des projets qui ont une vocation de susciter l’engagement actif du spectateur…

Comme on peut le voir, il y a beaucoup de questions à résoudre. Des questions spécifiques, en provenance des champs du journalisme, des expressions artistiques (cinéma, art plastique), de la communication et du design…

Aussi passionnantes qu’elles soient au niveau théorique, ces questions ne trouveront sans doute pas de réponses aussi claires que le cinéma, la photographie ou le théâtre ont pu apporter comme carburant sur les chemins créatifs de l’Homme.
Sans doute parce qu’in fine, les possibilités technico-artistiques liées à l’informatique posent des questions plus profondes: sur le modèle économique (comment créer une chaîne de valeur captive), sur le relationnel (entre le spectateur et l’auteur; entre l’individu et le monde) et sur la transmission (partage de la valeur, lâcher prise de la maîtrise d’un objet, qu’il soit artistique ou de connaissance)…

Il y avait aussi des enjeux techniques à résoudre:

  • Le workflow technique, de la caméra 360° à la diffusion n’est clairement pas encore établi; il faut donc trouver les bons outils et méthodes pour arriver efficacement à un résultat partageable sans trop perdre de temps et de qualité. Pour arriver à intégrer une interview « augmentée » au sein du dispositif, il faut une bonne semaine de travail en jonglant avec une multitude d’outils différents.
  • Au niveau caméra 360°, il n’existe pas encore d’appareil qui se positionne sur le segment semi-professionnel: il fallait donc se résoudre à bricoler avec du matériel grand public pas très précis et fiable.
  • Bien que la plupart des applications de montage supportent les vidéos 360°, il n’existe pas encore d’application qui permet la création de projets adaptés à ce nouveau support (si on peut parler de support…). Nous avons choisi d’utiliser l’application WondaVR développée par un studio parisien, pour des raisons de facilité, au détriment de la créativité. En effet, bien que leur solution est déjà sur des bonnes bases, on doit entrer dans une « philosophie » de type de projet VR qui ne correspond pas à ce que nous souhaitions développer. Cette application permet de créer une expérience héritée de la pensée CD-ROM, où une arborescence définie une fois pour toute propose un usage cadré et maîtrisé.

La suite

Ce qui nous attend maintenant, c’est de résoudre les questions suivantes:

  • Mettre en place un environnement de développement propice pour une liberté de création plus adaptée aux besoins et envies du projet. Nous sommes en train de tester une intégration de Unity au sein d’un workflow qui allie postproduction vidéo classique (After Effects, Première) et développement informatique (jeux vidéo, applications mobiles et web). Nous avons déjà démarré une collaboration avec David Hodgetts et allons avoir des premiers résultats cet été.
  • Mettre en place la logistique de production et de diffusion: rédaction d’un dossier, budget, trouver des partenaires de présentation, lever du financement.
  • Le prototype présente deux associations; il s’agit d’en ajouter plus dans les mois qui viennent, tout en faisant évoluer les premières vidéos au sein d’une expérience améliorée.
  • Et aussi, de voir si et comment on peut intégrer notre plateforme de création d’expériences vidéos Kura au profit d’un usage plus personnel, vivant et évolutif des vidéos au sein du projet.

Voici une vidéo de présentation du prototype présenté dans le cadre du diplôme à la HEAD, réalisé en juin par Vincent.

La présentation du projet en quelques mots:

Le projet « Fenêtres associatives » présente des interviews d’acteurs d’associations solidaires Genevoises. Découvrez à travers ce reportage vidéo en 360 les actions menées par l’association de soutien au théâtre des intrigants du Congo, ainsi que l’association Solférino des étudiants de l’ECG Henry Dunant de Genève. Cette installation vous permet de suivre de manière interactive ces histoires et des projections vidéo synchronisées avec l’usage de l’application smartphone.

La petite maison dans la Comet

J’ai passé une bonne partie des dernières années à écrire sur des concepts (à concrétiser) et des idées (en cours de réalisation). Le potentiel et les promesses liées à ce que je voudrais partager avec le monde sont tellement fortes, que je ne peux toujours pas attendre que « la chose » soit là, matérialisée sous forme d’une application mobile ou de projet digital.

Les mots, mis en appétit par le potentiel, prennent de vitesse tout le reste, se lient aux promesses…
Et atterrissent ici sur mon site.

Du coup, je continue avec mes projections de mots: cette fois ci, avec l’histoire d’une petite maison dans la Comet.
Toute ressemblance avec une histoire existante n’est que pure coïncidence.

La suite…

Interview vidéo sur l’avenir du montage vidéo

Mon domaine de travail principal est la vidéo sur le web – et pourtant, sur mon site et également sur le site de Memoways, il y a plus de textes ou d’images que de vidéos… Heureusement que de temps en temps il y a des opportunités de parler devant une caméra des projets et produits que nous développons.

Cette vidéo, et d’autres déjà réalisées ces dernières années, vont pouvoir être valorisées au courant de cette année via notre plateforme vidéo Comet: la vidéo va donc prendre prochainement plus d’importance, de manière très concrète…

Interview réalisée fin décembre 2016 par Gregdesign – merci à lui pour son travail et ses questions !

Dans cette relativement longue vidéo, il est question de mon parcours, des projets sur lesquels je travaille actuellement, des produits que nous développons avec Memoways et vers la fin, des réflexions sur l’avenir du montage vidéo sur Internet…

 

Par GregDesign.

Je vous présente dans cette interview de la société Memoways menée à Genève en Suisse, un sujet sur l’avenir du montage vidéo sur internet et du storytelling numérique. Vous allez découvrir ce sujet qui concerne tous les producteurs de médias numériques à destination du Web.
Ulrich Fischer nous fait découvrir son système dans le cloud qui permet de gérer des segments vidéos comme des flux de données qui peuvent être mises bout à bout, afin de former un ensemble narratif personnalisé, puis partagées de manière non-destructive sur Internet.

Le futur du montage vidéo est sur Internet

De plus en plus de solutions de montage vidéo nous sont proposées de manière dématérialisée dans le cloud. Vous n’êtes peut-être pas tous initiés au montage vidéo classique bien que cette discipline tende quelque peu à se populariser avec l’offre de logiciels comme (Imovie de Apple par exemple, les youtubeurs en raffolent !)

La suite…

Pages documentation pour optimiser vos workflows

Comment optimiser le workflow entre la caméra et les diverses formes de valorisation de ses contenus ? Comment créer des vidéos depuis son smartphone et les publier directement sur une plateforme de partage ? Comment travailler de manière collaborative et pérenne ?

Comment ne pas se noyer dans toutes ces questions techniques et organiser une bonne circulation (de nos contenus, de nos efforts, de ce qui nous importe de poser dans le monde) ?

rushes

Organisation du workflow fluide

Voici un certain nombre de question que les pages « documentation et bases de connaissance » vont aborder.

Les liens directs:

Dérushage et segmentation vidéo

Applications smartphone pour créer des vidéos

Publication YouTube depuis son smartphone

Nomenclature des fichiers (workflow ordinateur)

 

 

Mediation du patrimoine avec le numérique

Dans le cadre du projet « Patrimoines en Partage » sur lequel je travaille depuis plus d’un an, j’ai été amené à faire un état de l’art des applications numériques de médiation du patrimoine culturel.

Pour synthétiser cette page de ressources très dense, je propose dans ce billet une analyse et appréciation de quelques applications choisies, avec une mise en avant d’arguments pour / contre.

Comme il s’agit d’expériences géolocalisées que je n’ai pas pu tester dans le contexte local, je n’ai pu me faire qu’une idée abstraite de la véritable expérience utilisateur sur place.
Néanmoins, j’ai essayé de sortir les points intéressants et le potentiel, tout en pointant sur les aspects – à mon sens – dépassés ou qui fonctionnent mal.

Ces points « positifs » et « négatifs » sont clairement des appréciations subjectives et personnelles, en appliquant les attentes et prérequis suivants:

La suite…

Les spécificités de la plateforme numérique PEP

Sur le chemin du développement de la plateforme de médiation numérique « Patrimoines en Partage » (qui va être présentée publiquement en 2017), j’ai listé les spécificités techniques et conceptuelles de ce projet.

Comme il y a beaucoup d’initiatives dans le domaine de la médiation culturelle à travers le numérique (voir l’état de l’art du projet), il est important à mon sens de tirer des enseignements de ce qui s’est fait et de mettre nos conclusions en perspective avec les développements actuels du numérique, au delà du champs patrimonial ou culturel: l’importance croissante des applications de messagerie et l’arrivée des bots; le gros hype autour des projets en AR/VR; l’importance grandissante de la vidéo ou les évolutions des techniques et des usages

Au delà des effets de mode, il y a bien un raccourcissement des cycles d’évolution des usages – l’enjeu est donc de découpler les contenus des usages, en pariant sur le fait que si les contenus sont accessibles moyennant des descriptions exhaustives, ces contenus pourront vivre plusieurs vies au delà du projet sur lequel nous nous concentrons actuellement.

La suite…

Projet Eynard

De manière complémentaire au projet Patrimoines en Partage, j’ai été mandaté fin 2015 pour aider à mettre en place une plateforme web pour publier et valoriser les daguerréotypes de J.G. Eynard.
Voici en quelques points la prestation que j’ai fourni au mandant, la Bibliothèque de Genève:

  • Proposer un concept d’éditorialisation qui permette de créer des liens et connexions entre des contenus (d’une image à une autre, mais également entre une partie d’image et une autre)
  • Proposer un workflow qui tire parti de l’outil existant (Museum+), en donnant aux spécialistes du CIG la possibilité de rajouter une dimension éditoriale sur la base de données existante, et en leur facilitant la publication puis le suivi des usages online.
  • Proposer un concept de site web (fonctionnalités, expérience utilisateur)
  • Rédiger un dossier et un cahier de charges pour convaincre toutes les parties prenantes au projet (des financeurs aux informaticiens en passant par les responsables des départements) de pouvoir lancer la mise en production du projet.

Le projet numérique Eynard en quelques mots.

Avec l’objectif de valoriser l’expertise du CIG à partir du corpus photographique de J.G. Eynard, le projet numérique Eynard propose d’offrir au public cible un outil interactif et évolutif sous forme d’un site web aux usages personnalisés et innovants.

Ce site web doit permettre l’étude des daguerréotypes à travers la mise en relation d’images avec leur contexte d’origine (l’histoire derrière l’image), d’une partie de l’image avec d’autres parties d’images (pour comparer des lieux ou chercher des personnes) et de pouvoir découvrir les multiples liens qui relient des images entre elles (à travers une personne, un objet, un évènement etc).

Projet-Eynard_viz.001

Un « mockup » très rudimentaire de ce que pourrait être l’interface du site web

La suite…

Une bouteille à la mer

La vidéo sur Internet se taille une part de lion de plus en plus affamé: cela peut se vérifier dans les usages et le développement vertigineux de la consommation de bande passante.
Cependant, la vidéo telle que nous la pratiquons sur nos ordinateurs et appareils mobiles n’a pas véritablement évolué depuis les beaux jours de la télévision ou même l’âge d’or du cinéma.
La vidéo est un objet fermé, non évolutif et non participatif, qui raconte toujours la même histoire: le monologue plus ou moins inspiré et inspirant d’un auteur – c’est d’ailleurs ce qui en fait sa valeur.
Cet objet ne va pas disparaître: il est bien trop important et correspond à un besoin humain profond.

Mais cet objet vidéo est un « corps étranger » dans le web d’aujourd’hui, dans le sens que les pages affichées sur l’écran de notre ordinateur ou de notre smartphone n’existent pas en tant que tel: elles sont calculées à partir de données dans une base de données, du contexte et du profil de l’utilisateur et d’une multitude de paramètres.
Au contraire de la grande majorité des sites web qui ne sont plus « statiques » mais « dynamiques », la vidéo reste statique, immuable, « éternelle »…
Imaginez Facebook sous forme d’un PDF: est-ce que cela fonctionnerait ?

La suite…

Une comète dans le ciel vidéo

Dans ce billet, j’aimerais positionner notre projet Comet en perspective à la consommation vidéo sur le web (avec une pointe de provocation) et développer des arguments en faveur d’un changement de paradigme (avec une tonalité plus intégrante).
D’un côté, il s’agit de mettre en question de manière constructive nos réflexes et héritages culturels, et de l’autre, de proposer des nouvelles manières de créer, de visionner, puis, potentiellement, de participer.
En somme, de passer d’un état de lecture (clic sur le bouton play) à un état de lecture / écriture (clics multiples, avec création d’une trace qui nous « appartient » et que l’on peut partager).

comet3

Problématiques

  • La vidéo est un objet mort. En effet, une fois uploadée, la vidéo reste statique et ne peut pas évoluer au gré des besoins, des interactions ou du contexte de l’utilisateur.
  • Le contexte initial de la vidéo est perdu. À moins de remplir une multitude de champs dans un formulaire, aucune information importante liée aux sources constitutives de la vidéo publiée n’est gardée et pourrait être exploitable. En effet, à la sortie du montage, plus aucune information sur les rushes et autres éléments narratifs et structurants qui constituent le montage. Une vidéo sans le contexte de ses origines, c’est comme un arbre sans racines: ça ne tient pas et ne peut survivre sans mise sous serre (merci YouTube, Netflix et consorts).
  • Les playlists sont figées ou aléatoires. Soit la playlist est éditorialisée en amont par un auteur et elle fait sens – mais elle reste figée. Soit la playlist est générée de manière aléatoire et elle ne fait pas sens – mais elle est vivante. Une playlist qui fait sens tout en étant vivante et personnalisable: voilà qui pourrait être désirable. Non ?
  • L’interaction utilisateur est très limitée. À moins de rajouter des boutons interactifs sur la vidéo et de créer ainsi une navigation de vidéo à vidéo par dessus la vidéo en cours, le spectateur reste passif. Comme au temps des CD/DVD-ROM ou du web des années 1990, ce type d’interactivité ajoute une dynamique active pour le spectateur. Mais cela repousse le problème plus loin: les liens entre les vidéos sont définis une fois pour toutes, et donc la navigation va toujours être la même: statique, non évolutive, figée. Tellement pas web 2.0…

La vidéo doit-elle forcément rester comme un objet figé qui vient d’un autre temps, alors que le web d’aujourd’hui est tellement inventif, vivant et personnalisable ?
Pourquoi la vidéo doit-elle rester exclue de la dynamique d’appropriation, de participation, de remix ou d’interactions sociales que l’on vit dans le web des années 201X ?

Arguments 

  • Rendre la vidéo vivante. Le concept que Memoways met en avant avec Comet est de d’interconnecter puis d’exposer les éléments constitutifs d’une vidéo: les plans. Chaque plan a sa propre cohérence et garde son contexte initial. La vidéo que l’on voit au final n’existe pas en tant que telle: elle est lue en temps réel et sans coupures à partir des plans, en fonction de la volonté de l’auteur, de la playlist et des envies ou du contexte de l’utilisateur. La vidéo est donc un flux de plans: comme avec les Tweets sur Twitter, on peut lire le flux dans l’ordre défini, mais on peut également aller chercher dans le flux juste les éléments qui nous intéressent. On a alors un flux de plans qui correspondent à nos envies, nos besoins.
  • Garder le contexte de la vidéo à la racine. Chaque vidéo qui est exposée à travers la plateforme vidéo de Memoways est un plan non monté, qui garde le maximum de son contexte initial: qui a fait la vidéo, où, quand, comment… Et l’on peut ajouter des informations sur ce que raconte la vidéo, de manière à lui donner la chance d’être trouvée et exploitée avec d’autres vidéos qui parlent de la même chose.
  • Les playlists sont maitrisées mais restent vivantes. L’auteur a la possibilité d’exposer une playlist qui correspond à un besoin: par exemple de présenter toutes les vidéos qui parlent d’une certaine thématique à travers des interviews de plusieurs personnes différentes. À partir de là, l’utilisateur peut aller filtrer le flux thématique exposé pour regarder puis partager que ce que raconte un seul intervenant qui lui plait bien.
  • L’interaction est hautement personnalisable. Comme les liens entre les vidéos se font au niveau du plan et que les combinaisons entre les plans ne sont pas basées sur des connexions définies « en dur » (de manière statique et unique), l’interaction que l’utilisateur peut avoir avec le flux de vidéos est hautement personnalisé.

comet-pedagogic-web

En somme, l’expérience Comet permet à chaque utilisateur de naviguer à travers un flux structuré de vidéos pour ensuite, s’il le souhaite, créer sa propre playlist en fonction de ses besoins, questions ou envies.

La playlist peut être composée de plans et donc générer une histoire personnalisée, unique.
Ou la playlist est composée de vidéos déjà montées et permet de partager une liste structurée d’histoires choisies.

Grâce à Comet, il devient enfin possible de confectionner des histoires personnelles, de manière non destructive (on ne détruit pas les histoires des autres ce faisant) et de partager une collection de contenus choisis.

Autrement dit: après l’avènement de ce que l’on appelle le « responsive design », où l’affichage des contenus s’adapte automatiquement à l’appareil de l’utilisateur, voici venir enfin le temps du « responsive storytelling », où l’histoire s’adapte de manière dynamique et personnalisée a ses propres envies, besoins ou contexte d’usage (mobile, stationnaire…).

Nous développons avec Memoways actuellement la version 2 de Comet – stay tuned 😉

Résumé de l’atelier design de services

Pour réaliser la plateforme numérique du projet Patrimoines franco-suisses en partage, il s’agit de répondre à trois questionnements en parallèle:

  • Quelles données ?
    Chaque lieu de patrimoine a ses propres outils de base de données, ses logiques d’indexation et méthodologies de travail. Nous avons fait un premier recensement des contenus existants dans des bases de données métiers, cartographié les pratiques courantes; maintenant il s’agit de voir comment on peut agréger les contenus dans un outil commun afin de créer des liens entre ces contenus: des histoires transversales.
  • Quelles histoires ?
    Cet outil que nous allons développer entre 2016 et 2017 permettra de récupérer des données et métadonnées existantes, ajouter des connecteurs sociaux (récupérer de manière très ciblée des contenus depuis Instagram, Facebook, Twitter etc) avec l’objectif de rendre les données éditorialisées vivantes avec des contenus « temps réel » du web social. Nous avons esquissé des schémas de fonctionnement et d’architecture; une fois que nous aurons validé les sources et les usages nous pourrons préciser les fonctionnalités et le design de cet outil d’éditorialisation commun.
  • Quels usages ?
    Des données éditorialisées sans savoir qui va les utiliser, comment et dans quel but, ne sont pas vraiment utilisables. C’est pourquoi il est indispensable de pouvoir esquisser des scénarios d’usages souhaités, en lien avec les usages actuels mais également en imaginant des nouveaux usages qui permettraient d’atteindre un public plus jeune.

Nous menons ces 3 chantiers de front; le chantier des scénarios d’usages a fait l’objet d’un atelier orienté « design de services » mené par la Cité du Design et qui s’est tenu début avril à Ferney-Voltaire.

La suite…