3 Comments

  1. Hello laurent, merci pour cet article sur le 360. Pour m’y connaitre un peu, je voudrais préciser quelques éléments. Ce genre d’outils sont très « pour la famille » et j’étais alors assez curieux de regarder leur vidéo de démo et voir ce qu’ils pouvaient faire en 360. En fait pas grand chose, ils ont été assez feignants .. :
    – « Nous n’avons pas d’outil de stitching car pas mal de caméras grand public sortent des fichiers déjà stitchés » … bon soit, ok
    – « Certaines transitions fonctionnent en 360, d’autres ne fonctionnent pas, par exemple une transition étoile va être déformée plus vous regardez loin de l’équateur », ah ok, et ça vous dirait pas de le corriger dans votre soft ?
    – Et surtout le plus drôle, « placez vos titres à l’équateur de la sphère car sinon ils vont être déformés ». Je croyais quand même que le soft corrigerait ça et aurait cette proposition de valeur. Même pas.

    Bref, c’est purement du marketing, ça essaye de surfer sur une vague 360 & VR et bullshit à tour de bras. Ma recco : Adobe Premiere pour le montage et le plugin Mettle 360 dans After Effects pour la titraille et autres.

    • J’ai oublié un point positif. Pouvoir sortir une vidéo 2D de sa vidéo 360. Si le rendu du déplacement de la caméra virtuelle dans la scène 360 est fluide, c’est très intéressant. Ca permet de faire un travail de réalisateur après un shooting 360 et d’uploader ses vidéos dans des players plus traditionnels.

    • En effet, Benjamin, Power Director ne « stitche » pas. Stitcher, c’est rassembler en une seule vidéo plane les images filmées par les deux objectifs des caméras 360. Mais pour moi le stitching ne relève pas du montage vidéo : c’est une sorte de service minimum dont les fabricants de caméras 360 devraient se charger ! J’avais déjà été étonné du workflow rébarbatif nécessaire pour mettre en ligne les vidéos prises avec la caméra Ricoh Theta S http://bit.ly/2fMQdLQ. Mais au moins Ricoh fournit un outil pour stitcher les vidéos des deux objectifs. A l’utilisateur de transformer ensuite la vidéo stitchée en vidéo sphérique puis d’y inclure les metadata nécessaires à YouTube pour la présenter de façon interactive et « navigable ». C’est déjà lourd, mais j’ai l’impression que c’est plus compliqué encore avec la Samsung Gear 360 (j’en aurais une prochainement) où l’utilisateur doit TOUT faire, y compris le stitching des deux caméras. Or disons le tout net : tout cela relève d’un joli bidouillage, qui est évidemment le frein principal à la démocratisation de la vidéo 360, et qui de mon point de vue de -vieux- journaliste techno, est parfaitement inadmissible ! On nous bassine avec la « révolution réalité virtuelle », mais ces workflows de traitement des vidéos 360 -avant même de pouvoir les monter- me rappellent les manips de dingues qui consistaient à jailbreaker les premiers iPhones…
      Pour le reste, Power Director -logiciel grand public tu l’as dit- a encore beaucoup à faire côté 360. Mais la fonction de tracking qui permet de rendre standard une vidéo 360 en déplaçant le point de vue avec des images clés est, tu en conviendras, une idée à suivre. Je l’ai vue à l’œuvre, et c’est assez bluffant.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *