News Aus der Community: Wie sich DLSS und Frame Generation im CPU-Limit verhalten

Donnidonis schrieb:
Da wurde nämlich nichts seitens der Entwickler entschieden, sondern von AMD vorgegeben.
Selbst wenn sich das bestätigen sollte. Hat nvidia auch zu hauf gemacht! Nur ist die amd community kleiner, der Aufschrei leiser. Wenn amd sich ein Prestige Spiel schnappt... Warum mal nicht. Wie gesagt. Macht nvidia dauernd. Was man nicht vergessen sollte. Es wird von AMD kein anderer proprietärer standard vorgegeben! Das läuft auf nvidia Hardware genauso. Also ist das Gejammer noch nicht mal vergleichbar. Klar könnte der Entwickler beides... Aber man will sich, sollte sich offensichtlich nicht mehr Arbeit als nötig machen. Spiele können auf viele Arten verkackt werden.
theGucky schrieb:
Zu viele annahmen. Es ist offensichtlich nicht so.
 
Matthias80 schrieb:
Selbst wenn sich das bestätigen sollte. Hat nvidia auch zu hauf gemacht!
Ich hab in einem anderen Thread auch schon nachgefragt, da ich nicht so tief in der Materie drin stecke: welche Spiele unterstützen denn DLSS, aber kein FSR? Verfolge die Neuerscheinungen nicht, daher kenne ich den Haufen leider nicht. Wäre aber gut zu wissen wie es da aussieht, dann kann man die News auch anders bewerten.
 
Solange die nativen FPS einigermaßen hoch sind, ist FG im CPU Limit imho ein echter Heilsbringer. Sicher, der Inputlag ist nicht so prall, aber es spielt sich mit 100 FPS trotzdem deutlich besser als mit ruckeligen 50 FPS.
 
Ist doch ziemlich logisch das DLSS im CPU Limit nicht viel bringt..
Hier wird die Renderauflösung verringert.. somit mehr Last auf die CPU geschoben
Deswegen profitieren Spiele die sich bereits in einem CPU Limit befinden nicht von upscaling.. mit FSR hat man übrigens das gleiche Ergebnis.(bestes Beispiel ist zb Warzone)

Nicht umsonst wird gerade hier auf Computerbase immer drauf hingewiesen warum CPU benches immer in 720p gemacht werden.


Framegeneration hingegen hilft massiv im CPU Limit.
Kann man auch hier schön in den Benchmarks sehen:

4c nativ
56fps AVG
17fps min

4c nativ + FG
95fps AVG
31fps min
 
  • Gefällt mir
Reaktionen: Maviba, Pro_Bro und Celinna
Ich finde auch das Fazit, dass FG die Ruckler durch das CPU Limit nicht behebt, sehr unglücklich, da offenbar nicht wirklich betrachtet wurde, was FG tut und wie man damit das CPU Limit aushebelt.

Natürlich sind die Ruckler immer noch da, wenn man ohne FPS Limit FG aktiviert, denn solange die GPU in der Lage ist mit FG die FPS zu verdoppeln, läuft die CPU weiterhin am Limit.

Limitiert meine CPU bei 50FPS und ich habe dadurch unruhige Frametimes, hab ich die mit FG genau so, nur eben dann bei potenziell 100FPS.

Der richtige Weg, in so einem Fall FG zu nutzen ist der, dass man die CPU aus dem Limit rausholt, sie also weniger als 50FPS liefern muss.
Setzt man mit FG das FPS Limit auf 90 fest, muss die CPU nur noch 45 FPS liefern -> man ist nicht mehr im CPU Limit und die Frametimes werden glatter.
 
  • Gefällt mir
Reaktionen: AI94, Pro_Bro, Celinna und 6 andere
Tornavida schrieb:
4 Kerne, 2666Mhz Ram, eine 3 Gen alte CPU...wo nix ist kann auch nicht viel Gutes in einem aktuellen AAA Game entstehen...oder? Aber selbst unter diesen Umständen sieht man einen Unterschied wenn auch nicht vielleicht befriedigend.
Die CPU ist ein 6-Kerner

Redirion schrieb:
Scheint wie mit dem Scheduler zu sein. Nvidia liebt es wohl, Aufgaben auf die CPU auszulagern, damit deren GPUs weniger komplex sind und energieeffizienter wirken.
Dabei hatten sie mit als erstes für eine massive Entlastung der CPU geworben (T&L)😅

sethdiabolos schrieb:
Bei dem Testsystem ist ein CPU-Limit auch schon ohne DLSS gegeben. Was hat man bitte erwartet?
Einfach die Theorie in der Praxis geklärt?
 
  • Gefällt mir
Reaktionen: Redirion
Und zum Thema inputlag.. ich erinnere mich das vor 2-4 Jahren die Standarteinstellung für prerendered frames bei den Treibern noch bei prerendered-frames =3 war..
Und kaum einer hat's gemerkt oder auch nur gejuckt das da n bissel mehr inputlag war..

neuere Treiber und DX12 haben das auf 1 festgetackert.. was natürlich auch ein Spiel wesentlich mehr ins CPU Limit haut..
Bei bf5 hieß das noch Futur frame Rendering und konnte einem beim ausschalten (prerendered frames =1)die FPS halbieren

Bei dx11 hatte der Treiber die Kontrolle darüber.. bei DX12 das Spiel.
Ich gehe davon aus das viele moderne spiele mit prerendered frames =2 bedeutend besser performen würden
 
Zuletzt bearbeitet:
Wenn die CPU nun so wichtig für DLSS / Framegenerator ist, was wären denn die passenden Einstiegs bzw. besten AMD/Intel CPUs für 4060 Ti, 4070, 4070 Ti, 4080 und 4090?

Man kann ja nicht immer pauschal die stärkste CPU sagen oder nehmen, nur damit es perfekt ist.
Wenn man sieht, wie wichtig die CPU ist, macht es ja gar keinen Sinn eine Karte x zu kaufen, wenn die CPU nicht mitkommt.

Sowas vermisse ich irgendwie oder ich habe es bisher immer überlesen 😁

Vermutlich wird meine CPU / GPU Kombi auch nicht "perfekt" sein und ob meine CPU Auswahl für das nächste System richtig ist.... 🤷‍♂️
 
andi_sco schrieb:
Wie sich zeigt, benötigen DLSS und Frame Generation eine stärkere CPU, um die GPU mit den entsprechenden Daten zu versorgen, die für beide Techniken benötigt werden.
Ne eigentlich zeigt der Test das nicht. Er zeigt, dass man für mehr FPS mehr CPU Power benötigt.
Wenn man zeigen will, dass DLSS oder FG was damit zu tun hat, sollte man die entsprechende Renderauflösung ohne diese Features ebenso testen.
 
  • Gefällt mir
Reaktionen: Taxxor
Exakt.
Dass man für mehr FPS mehr CPU Leistung benötigt, bedarf ja nun keines Tests.

Für die Aussage, dass DLSS an sich die CPU belastet, funktioniert aber auch der Vergleich mit gleicher Renderauflösung nicht, denn damit hat man ja immer mehr FPS als mit DLSS.

Man muss CPU Last und Verbrauch mit DLSS ansehen, während die gleichen FPS anliegen, wie ohne DLSS.

Habe ich in 4K mit DLSS Performance 100FPS, dann habe ich in 1080p nativ tendenzielle eher ~115-120FPS und damit auch mehr CPU Last.

Einfach ein FPS Limit setzen welches unter dem liegt, was man bereits ohne DLSS erreicht, hier z.B. 80FPS, und dann DLSS mit dem gleichen Limit testen.

Wenn dann der CPU Verbrauch bei 80 FPS DLSS reproduzierbar höher ausfällt, als bei 80FPS Nativ, hat man einen Punkt wo man ansetzen kann.
 
Zuletzt bearbeitet:
bensen schrieb:
sollte man die entsprechende Renderauflösung ohne diese Features ebenso testen
Du meinst nativ?
6Core Bench Native.png
 
andi_sco schrieb:
Das sind 1080p und damit nicht die gleiche Renderauflösung wie 1080p mit DLSS.

540p wäre der Vergleich zu 1080p mit DLSS Performance z.B.

Wie oben erklärt bringt einem dass aber auch nicht richtig dahin, wo man hin will, wenn es um die Belastung der CPU durch den DLSS Algorithmus geht. Man muss einfach mit gleichen FPS vergleichen, um das betrachten zu können.
 
Gesualdo schrieb:
Und bei wenig Budget kann man trotzdem (oder endlich wieder) noch gute Daddelkisten bauen. Und da finde ich Upscaling eine gute Sache.
Zeigen ja auch die Benchmarks.
Aber bei vielen Spielen wie Hogwards Legacy ist eh schon oft die CPU der Bremsklotz bzw sind 8 Kerne voll ausgenutzt.

Und niemand hat was gegen Upscaling gesagt nur gegen DLSS (3) und FG. Und auch wenn es Nett sein mag fuer manche Scenarien kann man es nur als kleines Zusatzfeature verkaufen und nicht wie Nvidia als Wert nehmen mit dem man die Hardware vergleicht mit anderen Karten.

So wie Nvidia "ohh ohne DLSS ist die Karte der letzte dreck, aber ihr habt doch DLSS also kauft"...
 
Blackfirehawk schrieb:
Framegeneration hingegen hilft massiv im CPU Limit.
ich denke nicht, dass sich das so verallgemeinern lässt.
Eine höhere (native) Framerate führt oft zu erhöhter cpu Last, im vorliegenden Beispiel (ganz ohne Upscaling, angeblich reines fg) wird wohl die cpu last verringert, indem die native Framerate etwas reduziert wird und daraufhin fg diese Frames interpoliert.
Da nur ganze Zwischenbilder existieren, MUSS die Framerate zwangsweise verdoppelt werden.

Blackfirehawk schrieb:
4c nativ
56fps AVG
17fps min

4c nativ + FG
95fps AVG
31fps min
Da hier die nativen Fps jedoch nicht verdoppelt wurden, ging dem fg Prozess eine Reduzierung der nativen Frames voraus -> geringere cpu Last.
Der Fall muss aber nicht immer mit fg eintreten
 
andi_sco schrieb:
In der Renderauflösung der anderen Fälle. Irgendwie versteh ich nicht diese komplizierten Gedankengänge, wenn die Begründung so nahe liegt.
Wenn ich im CPU Limit die GPU entlaste, dann sinkt die GPU Last und die FPS steigen nicht. Mehr hat man nicht gezeigt.
 
  • Gefällt mir
Reaktionen: Gesualdo und Taxxor
Suspektan schrieb:
ich denke nicht, dass sich das so verallgemeinern lässt.
Eine höhere (native) Framerate führt oft zu erhöhter cpu Last, im vorliegenden Beispiel (ganz ohne Upscaling, angeblich reines fg) wird wohl die cpu last verringert, indem die native Framerate etwas reduziert wird und daraufhin fg diese Frames interpoliert.
Da nur ganze Zwischenbilder existieren, MUSS die Framerate zwangsweise verdoppelt werden.
Was bedeutet man bekommt mit FG immer mehr als die CPU liefern kann, also hilft es immer im CPU Limit.

Speziell weil das bedeutet, dass die GPU selbst vorher schon nicht richtig ausgelastet war und man daher gute Chancen hat die FPS auch wirklich zu verdoppeln.

Wenn man sie nun etwas unterhalb dessen limitiert ist man nicht mehr im CPU Limit, aber hat ~80-90% mehr FPS.
blackiwid schrieb:
Aber bei vielen Spielen wie Hogwards Legacy ist eh schon oft die CPU der Bremsklotz bzw sind 8 Kerne voll ausgenutzt.

Und niemand hat was gegen Upscaling gesagt nur gegen DLSS (3) und FG. Und auch wenn es Nett sein mag fuer manche Scenarien kann man es nur als kleines Zusatzfeature verkaufen
gerade bei Hogwars Legacy hat FG mir geholfen, sämtliche CPU Drops zu eliminieren, die man im Schloss hatte.

Auch der FG Mod für Jedi Fallen Order hat es deutlich besser spielbar gemacht, bevor die Performance durch die Patches angegangen wurde.

Fielen sonst die FPS auf bis zu 45 runter, kein Problem wenn man dauerhaft mit FG und 90FPS spielt, denn dann hat man immer 90FPS
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna und Laphonso
Matthias80 schrieb:
Schaut mal wie fälschlicherweise gegen AMD und den ein oder Spieleentwickler geschossen wird.
Genau. Anti Konsumenten Verhalten sollten wir immer nur bei Nvidia anprangern und bei Intel, aber nicht bei AMD ;)
AMD sind immer die Guten!

ontopic:

DLSS und FG sind in Titeln wie Dying Light 2, Spider Man und Cyberpunk top umgesetzt. Wenn man die Hardware hat.
Und wie sich das lohnt:
Ohne DLSS und FG habe ich sogar im Vorzeigetitel Cyberpunk nur 35 fps in UWQHD in Psychosettings.
Mit DLSS und FG dann 130+
Das ist schon irre, aber die Eintrittskarte in diese fps Regionen ist mit rund 2000 Euro einfach nicht machbar für den Markt und bleibt Enthusiastennische.

Ein Thema, das mir bei der Debatte zu kurz kommt ist, dass wir ohne Upscaling und FG gar nicht in der Lage sein werden, Raytracing und Pathtracing (welche die langfristig klassischen und auwändigen prebaked Raster Modelle ersetzen werden, diese wandern eher in das Computesegment der CPUs) im "Midrange" zu bedienen.


Die Rohpower der 4090 werden wir bei Nvidia erst Ende 2026 oder Anfang 2027 erhalten auf einer 70er Klasse (6070 dann ggf.).
AMD hängt so weit hinterher, dass man da sogar erst von 2028 oder 2029 und RDNA5 ausegehen muss in einer 9700XT Klasse oder sowas.


DLSS, FSR und FG sind gekommen um zu bleiben.

btw: Danke für den Test/Beitrag @zogger CkY !
Ergänzung ()

Taxxor schrieb:
Der richtige Weg, in so einem Fall FG zu nutzen ist der, dass man die CPU aus dem Limit rausholt,
Ganz genau, wichtiger Punkt 👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AI94, Celinna, Convert und eine weitere Person
Zurück
Oben