Back in the day when Crossfire was brought out, Crossfire had support to render the game in AFR and in various screen splitting modes like scissors and tiles. Currently, we have at least one modern game engine, UE4, that is not inherently AFR-Friendly without the developers disabling a set of features. Do the non-AFR modes still exist in Crossfire or were they deprecated some time ago? Is the Radeon Tech Group working on a solution for those games that use methods that don't work with Alternating Frame Rendering? Does someone else have an updated solution? Soweit so gut... Hab
vorerst mal Gothic 3 und CoD4 getestet. Auf jedenfall hier CoD4 640x480, max. Details ohne AA/AF CoD4 640x480, max. Details + 4xAA inGame CoD4 640x480, max. Details + 24xAA/16xAF im CCC CoD4 1680x050, max. Details ohne AA/AF CoD4 1680x1050, max. Details + 4xAA inGame CoD4 1680x1050, max. Details + 24xAA/16xAF im CCC Gothic 3 800x600, max. Details, HDR+Tiefenunschärfe, 16xAF Gothic 3 1680x1050, max. Details, HDR+Tiefenunschärfe, 16xAF Im Beispiel von CoD4 werden bei 640x480 341MB verbraucht, bei 1680x1050 sinds 376MB. Bedeutet ein Verbrauchsanstieg von 10,26% bei 574,22% mehr Pixeln... Anmerkung: So und jetzt kommt ihr doch bitte mit den Gegenbeweisen und nicht wieder bloß mit leeren Behauptungen. Weitere Games werden folgen, aber ich denke ich habe meine Schuldigkeit vorerst getan... Ich habe mir das aber folgendermaßen erklären lassen: Input1 kommt, GPU0 beginnt das Rendering von Frame n und gibt diesen gemeinsam mit Input1 aus. Erstmal vorweg, es könnte durchaus sein, ich hab nen Denkfehler, also immer rausdamit
Aber aus meiner Sicht kann man das nicht so in direktem Zusammenhang sehen... Bildlich sollte das ganze dann so ausschauen: Ich hab mal versucht drei Szenen darzustellen. Einmal SGPU oben, zweimal MGPU. Letztere unterscheiden sich in der für das Beispiel exakt doppelten FPS Rate. (also halbe Framelänge)
Erste MGPU und SGPU haben absichtlich gleich lange Frames... Wie angesprochen soll dies aufzeigen, was beim direkten verblasen der MGPU Leistung in BQ passiert. Schön zu erkennen ist, das die Outputs der SGPU in etwa gleichmäßig nach dem Input sind, wärend beim ersten MGPU große! Lücken zwischen klaffen. Das ganze soll dazu aufzeigen, das ein Input eben häufig einen Frame warten muss. Eben die Berechnungszeit wenn beide GPUs voll ackern. Beim SGPU kann man davon ausgehen, dass eben der Input auch im nächsten Frame mit drin ist. Bei MGPU muss dies nicht der Fall sein. Denn im Extremfall heist es hier fast zwei ganze Frames auf die Ausgabe warten. Die NV Methode setzt nun an und glättet die Frameausgabe. Heist im Fall von zwei und drei, die Ausgabe erfolgt möglichst gleichbleibend. Da eine Ausgabe nie nach vorn verschoben werden kann, rückt die Ausgabe immer ein Stück weit nach hinten... Somit erhöht sich auch die Zeit zwischen Eingabe und Ausgabe ein Stück weit. Ob man das merkt oder nicht!? Keine Ahnung... Im
Fall von Multiplayer Shootern beispielsweise heist das in Summe dann, bei ner Single GPU hat man im Extremfall den Gegner nach der Frametime x auf dem Schirm und kann einen Input abgeben. Soweit mein Gedankengang dazu. |