Deux règles empiriques que j'avais l'habitude d'utiliser:
Si l'augmentation de la résolution entraînait une forte baisse de la fréquence d'images, cela pourrait indiquer que le jeu était lié au GPU, car l'augmentation de la résolution rend le la carte vidéo fonctionne beaucoup plus dur et, par conséquent, prend plus de temps pour sortir chaque cadre de la porte.
D'un autre côté, si l'augmentation de la résolution n'entraînait qu'une diminution négligeable de la fréquence d'images (ou aucune diminution du tout), alors c'était un indicateur que le jeu était lié au processeur, comme la vidéo supplémentaire la complexité était facilement gérée par la capacité de traitement de la carte vidéo de réserve alors que la logique de traitement du jeu principale fixait déjà le processeur. Dans cette situation, le moteur de jeu est trop occupé pour pouvoir donner suffisamment de travail au sous-système vidéo.
Cependant, je ne pense pas que les jeux de nos jours soient si simples que les performances soient facilement limitées comme ça. Depuis de nombreuses années maintenant, les GPU sont devenus plus complexes et les développeurs trouvent des moyens de leur décharger plus de travail.Il y a donc beaucoup de travail qui pourrait être fait de chaque côté ... c'est pourquoi je n'utilise pas ces règles empiriques. beaucoup plus - ils ne s'appliquent tout simplement pas vraiment. L'hypothèse était que l'augmentation de la résolution n'entraînait pas de travail supplémentaire sur le processeur.
Si vous suiviez religieusement ces repères de carte vidéo du Tom's Hardware Guide au début des années 2000, vous pouviez le voir parfois - en cours d'exécution par exemple. Quake 3 en utilisant une carte vidéo "moderne" et vous obtiendrez tellement de graphiques à barres qui sont juste à plat.
Si vous pouvez mesurer la fréquence d'images de votre jeu, essayez-le et voyez ce qui se passe.