Framerate et jeux vidéo : combien d'images l’œil perçoit par seconde ?
Jouer à un jeu vidéo est un plaisir savoureux. Que ce soit sur MMORPG ou Metal Gear Solid 5, on prend forcément du bon temps. Mais souvent, ces jeux déchaînent les passions, des débats sans fin autour de points pas forcément importants. L'un des plus importants débats tourne autour du framerate, le nombre d'images diffusées par seconde. À partir de combien d'images par seconde est-il inutile d'en rajouter dans un FPS ? En se basant en partie sur l'analyse faîtes sur le site Nofrag, nous allons pouvoir répondre à cette question ! Mais avant voici, pour ceux qui ne le savent pas, comment fonctionne un œil humain :
Définir le problème et oublier les idées fausses
Tout d'abord, inutile de chercher à définir le nombre maximum d'images que l'oeil humain peut percevoir en une seconde : a priori, nos yeux ne sont pas des capteurs mécaniques et en conséquence n'ont pas de limitations techniques. Inutile aussi d'essayer de déterminer le nombre minimal de frames par seconde nécessaire à un jeu pour être fluide. Pourquoi ? Parce qu'il n'y a pas de vraies réponses. Un film à 24 fps au cinéma nous paraît fluide alors que, lorsqu'un jeu tourne au même nombre de fps, il est haché.
On va donc expliquer ce phénomène, ce qu'est la persistance rétinienne, le temps d'affichage d'une image nécessaire pour la saisir entièrement et ainsi, le débat sera assaini des fausses bases sur lesquelles trop souvent les protagonistes s’appuient. Par exemple, il est faux que l’œil humain perçoit au maximum 24 fps. Ce nombre de fps n'a pas été choisi au cinéma pour la fluidité. Elle ne permet pas non plus l'illusion d'un mouvement fluide. Et pour finir, l'impression de mouvement dans un défilement d'images fixes n'a pas pour origine la persistance rétinienne. Voilà, maintenant que tout cela est précisé, on peut y aller.
Qu'est-ce que la persistance rétinienne ?
Vous le savez peut être déjà mais au cinéma, deux images projetées sont séparées par des phases de... Rien du tout. C'est en partie pour cela que les films sont projetés dans des salles obscures, pour compenser la faible luminosité résultant de ces alternances "pas d'image"/"images". Mais alors comment expliquer que nous ne voyons pas l'écran s'éteindre ? Eh bien c'est le principe de la persistance rétinienne.
Non, on ne parle pas du mythe selon laquelle une image reste fixée sur la cornée d'un être humain. Il s'agit là d'un phénomène scientifique qui constate que la rétine garde une image pendant 1/25ème de seconde.
Cela vient de la relative inertie des cellules rétiennes sur lesquelles l'image perçue laisse une trace lumineuse. Contrairement à ce que l'on pense, ce n'est pas elle qui permet de voir le mouvement. Au contraire, c'est la persistance rétienne qui nous donne l'illusion qu'une pale de ventilateur est immobile alors qu'elle va très vite. Regardez ce gif en 12 fps :
Le phénomène responsable de l'impression de fluidité n'est pas la persistance rétinienne mais...
L'effet phi
L'effet phi n'est pas un phénomène au niveau de l’œil, mais du cerveau. Lorsque des images se succèdent en laissant une impression de déplacement ou de transformation, le cerveau raccorde les images avec une transition qui lui semble la plus légitime. Il s'agit en fait d'un traitement de l'image par le cerveau. Par exemple, si des lumières s'allument en différents points sur une ligne droite, vous aurez l'impression de voir un déplacement. Mais ce n'est pas pour autant qu'il sera fluide !
Voici 2 exemples d'effet phi :
une succession d'images donne l'illusion que la balle est en mouvement
La fluidité est floue !
Les mouvements au cinéma paraissent extrêmement fluides. On pourrait même se croire dans une scène de la vraie vie. Et ce grâce à un phénomène qui semble en contradiction avec la fluidité : le flou. Mettez en pause certaines scènes d'action et vous verrez qu'il est parfois difficile de distinguer les membres des personnages. Parfois, la post-production rajoute intentionnellement du flou (comme pour les premiers Robocop), afin de garder de la fluidité... Contrairement à d'autres films qui ont mal vieilli et paraissent hyper hachés.
Voici un exemple pour bien comprendre cette petite astuce du flou :
On a bien l'impression que le 24fps avec le flou (3eme image) semble bien plus fluide (moins saccadé) que le 24fps sans l'effet de flou et pourtant on se retrouve avec exactement le même nombre d'images par seconde tandis que le 60 fps reste bien plus fluide et plus net.
Un effet de flou qui ne nécessite que 18 fps au cinéma, mais ce fut le 24 fps qui devint le format standard pour rajouter le son sur la pellicule. Sur les cartes graphiques fut inventé une fonction "motion blur", visant à ajouter ce flou. Dans les jeux qui n'en bénéficient pas, il faut au minimum 50 fps pour qu'il soit vu comme fluide. Enfin, cela dépend aussi de la rapidité des personnages, des mouvements, de l'enchainement des images (plan 2D ou 3D)... Merci à Franck Beuvain pour le flou "fluide"
Le film a été mis en pause et on observe bien l'effet de flou
Combien de temps pour analyser une image ?
Vous vous souvenez de la persistance rétinienne ? Eh bien la conséquence pratique de ce phénomène sur la vision est qu'une lumière marquera plus facilement votre perception visuelle qu'une absence de luminosité. Par conséquent, le temps nécessaire pour percevoir et analyser une image dépend de son contexte. Imaginons que vous fixiez le Soleil pendant 1 seconde puis que vous alliez dans une pièce plus sombre. Le temps nécessaire pour déterminer ce qu'il y a dans la pièce sera bien plus long que si vous n'aviez pas regardé notre astre. Sans compter que le cerveau, une fois qu'il connaît une image et est entrainé à la reconnaitre, sera bien plus rapide à l'identifier. De même, la complexité d'une image influe sur ce résultat.
Des pilotes de l'US Air Force par exemple ont été capables de reconnaître des modèles d'avions de chasse en les ayant aperçus à peine 1/220ème de seconde. Et pour aller encore plus loin, certains flashs d'appareils photos ne durent que 1/2000ème de seconde et pourtant on les voit. Il faudrait donc, pour retranscrire parfaitement la réalité dans les jeux vidéo, plus de 2000 fps... Et sacrifier la fluidité par la même occasion.
Verdict pour les jeux vidéo ?
Eh bien pour les jeux vidéo, il n'est pas besoin de monter aussi haut. Même en prenant en compte des conditions drastiques (un objet qui se déplace super vite dans une pièce sombre), il est fort possible que votre cerveau ait déjà analysé et identifié l'objet. En fait, la seule limitation de perception est liée aux intermédiaires : ordinateur (ou console) avec par exemple le taux de rafraichissement d'un écran (pour simplifier, un écran 100 hz permet de voir 100 images / sec) et souris/clavier (ou manette). Limités techniquement pour laisser de la fluidité au jeu, ces éléments sont les seuls à définir les barrières du jeu vidéo.
Important : N'oublions pas que, dans la vraie vie, notre œil reçoit un flux continu d'images et d'informations, c'est pourquoi il est difficile de parler de FPS pour un œil humain car chaque cas est différent (un jeu d'horreur sombre sera géré différemment par notre cerveau qu'un jeu très éclairé par exemple).
Mais du coup combien de FPS bordel ?
Oui, vous venez de lire tout ce pavé sans avoir de réponse... mais si il y avait bien une réponse : dire qu'un jeu est fluide à 30 fps car ton œil ne voit plus de différence après est donc faux ! Plus il y a de fps mieux c'est et jouer à 120 fps sera de toute façon mieux que 60 fps même si la différence sera infime ! Et on le répète : un oeil ne voit pas en image par seconde et notre cerveau est tellement complexe qu'il gère les choses différemment en fonction de la situation (effet Phi, persistance rétinienne etc...).
Ici, il n'est à aucun moment fait référence au réseau, on parle de communication informatique seulement.
Les images sont des données traités puis transmises à l'écran.
Si pour une raison ou une autre le calcul prend plus de temps (tache de fond ; Vram surchargée...) il y a donc un "délai de transmission". L'écran va afficher la même image durant plusieurs rafraîchissement jusqu’à recevoir une nouvelle image. Et un CG qui communique avec un écran rentrent bien de le cadre de communications informatique (parce que oui, il y a bien communication, sans quoi il n'y aurait ni vsync ni freesync ou gsync, et votre ordi n'aurait aucune idée de la reso native et de la taille ou du model de votre écran).
Le mot " lag" est donc parfaitement bien utilisé dans la phrase "Plaisir ou pas ça me fait rager quand un jeu passe d'une fluidité exceptionnelle à un bon gros lag..."
La latence c'est le temps entre deux evenements.
On parlera d'input lag pour les périphériques par exemple. C'est de la latence . On envoie une information, ce temps ou l'information arrivera à bon port est la latence. Moins il y a de latence, plus vite les données arriveront à bon port.
L'auteur à utilisé lag, alors je l'ai fait de-même, peut-être qu'il ne connait pas ce mot.
Donc montez pas sur vos grand chevaux à me traiter d'inculte et dislike mon post pour si peu...
Depuis que je joue sur un écran 144Hz, quand je passe chez un ami jouer en 60Hz j'ai une sensation de gène...
on assoit le cobaye sur une chaise, on fait passer devant lui un objet bien visible, disons de la taille d'une balle de tenis, en ne laissant comme champ de vision que celui de la fovea
( la prériphérie de l'oeil ayant une perception plus accrue des mouvement, mais on ne s'en sert pas vraiment lorsqu'on regarde un film ou joue a un jeu vidéo )
tirée par un canon ou quoi que ce soit, de plus en plus rapidement, jusqu'a la vitesse limite de peception par l'utilisateur
ensuite, on filme ça et on l'affiche sur un écran, luminosité faible pour annuler la persistance retinienne au maximum, en augmentant progressivement les FPS, jusqu'a qu'entre deux palliers, l'utilisateur ne remarque plus aucune différence.
et voilà. on obtient le nombre d'images par secondes nécéssaires a l'affichage parfaitement fluide de l'objet le plus rapide perceptible par l'oeil, donc techniquement le nombre maximum d'images par secondes perceptibles par l'oeil :)
*popcorn*
jeux à la première personne => 120 fps minimum
jeux à la troisième personne => 60 fps minimum
jeux de plateforme => euuh 30 fps ?
je baisse les graphiques et la résolution si il le faut, mais je ne joue jamais à un jeu qui n’est pas fluide ...
certain dirons que 60 est largement assez, même pour un fps
mais les vrai joueurs savent qu'on ne peut pas être compétitif avec ce framrate.
Ah et j'oubliais ! ..
PC Master Race
Post-scriptum: je ne suis pas en principe ce genre de Beauf, mais vue que ça fais rager, j'me permet de le dire
Je les ai mis côte a côte et j'ai fait dupliquer l'affichage de csgo pour comparée.
Y'a pas photo. La 144fps est largement plus fluide.
Cependant il y'a un mais :
Sur les jeux moins compétitif que csgo... Mon écran 144fps me sert a pas grand chose. (Les str surtout... )
Il y'a vraiment que sur csgo que les 144fps sont parfaitement exploité... (Ouais j'ai dépensé 280€ pour csgo... GG... )
144 Hz.
En fait la grosse différence entre du 60Hz et du 144Hz pour moi c'est :
En 60Hz : j'ai raté mon headshot et je sais pas pourquoi.
En 144Hz : j'ai raté mon headshot et j'ai vue ou j'ai foiré mon tir.
C'est le seul jeu ou les 144Hz me sont utile
Dans les autres jeux j'obtiens une légère amélioration de la fluidité entre 60 et 144Hz, mais rien d'extra ordinaire.
(Legendary master eagle )
J'arrive pas a monter suprême ^^'
Sinon, article super intéressant, on en apprend beaucoup !
En tout cas, les 30 FPS m'ont toujours fait rire, sa dépend aussi de l'habitude, je jouais sur console, pour moi cetais fluide, mais sa ... C'etais avant. PCMASTERRACE (ou pas)
Merci Hitek. A quand la suite avec le système de perception 3D ?
J'ai fais un AVC en lisant ton commentaire.
Vous êtes tant en dêche de clics que ça pour ne pas mener vos enquêtes vous mêmes ?
Terminé pour moi Hitek
http://www.nofrag.com/2003/nov/24/8629/
On est nul on est nul c'est tout ^^
Que ce soit 120 ou 30, la différence est largement plus petite que les temps de réactions.
La raison est simple, en analogique pour que l'image B puisse succéder à l'image A il faut qu'une griffe métalique vienne attraper l'image B (les 4 trous qui se trouvent de chaque côté d'une image pellicule servent à ça) mais pour éviter que le spectateur puissent voir cette action, on lui cache l'astuce avec un obturateur qui vient se placer devant la lampe 1/48ème de seconde et fais donc nuit noir à l'écran pendant se court lapse de temps.
Mais bon aujourd'hui
La raison est simple, en analogique pour que l'image B puisse succéder à l'image A il faut qu'une griffe métalique vienne attraper l'image B (les 4 trous qui se trouvent de chaque côté d'une image pellicule servent à ça) mais pour éviter que le spectateur puissent voir cette action, on lui cache l'astuce avec un obturateur qui vient se placer devant la lampe 1/48ème de seconde et fais donc nuit noir à l'écran pendant se court lapse de temps.
Mais bon aujourd'hui
0 fps je suis passer sur pc est je voit vraiment la différence je fait tout tourner a 60 fps voir 120 fps meme la one est la ps4 sont encore a 30 fps a 900p j ai bien fait d aller sur pc
Ce sont des jeux à images fixes.
Je n'ai aucun problème de FPS
PS: toi là, oui, toi, je suis ironique si tu ne l'avais pas compris
Nous, nous étions en SECAM, inventé par Henry de France depuis 1967. Il affichait 50 trames par seconde, donc à une cadence de 25 images par seconde. Chez les américains, c'était, à l'ancienne, 60 en noir et blanc puis 59.94 en couleur. Depuis, on les nomme 576i50, 720p25, 480i60, 1080p60, 8K24, etc... (depuis la xDTV jusque la HDTV et même UHDTV). Cependant, ma tablette qui a un TR fixé à 60 Hz (progressif), donc à un nombre d'images à 30 en vidéo ou en jeu. Cependant, il n'est pas c1pable capable de faire comme les téléphones puissant sur PUBG (genre : le CPU qui surchauffe, la batterie qui chute vite, ...). Voilà.