Sogar für mich mit 2080 ti ist eine 5080 spannend, wobei ich noch etwas Hoffnung zur 5080ti habe. Von einer zur nächsten Gen im gleichen Bereich wechseln fand ich noch nie sinnvoll.Laphonso schrieb:Für die 1070er, 1080er, 2070er etc sind die 5070, 5070Ti und 5080 hochspannend.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 5090 & RTX 5080: Tests sollen am 24. und am 29./30. Januar 2025 erscheinen
Habe gestern hier reingeschaut und da hat einer umfangreich umrissen, wie sich MFG in Bezug auf die Latenz verhalten könnte. Fazit war, man hat optimalerweise einen OLED mit 240Hz und die GPU liefert stabile 60 Frames mit gegebenfalls der Zuhilfenahme von DLSS upsampling, so käme man mit MFG bei 3 eingeschobenen generierten Frames auf 240 FPS (dlss regelt mit v-sync on ja angeblich automatisch den FPS Cap, damit die FPS immer in der sync range bleiben, also leicht unterhalb 240 FPS) bei vollkommen akzeptabler Latenz (unterhalb 60ms oder gar 50ms).
Hab die genauen Werte nicht mehr im Kopf, hoffe, dass ist halbwegs korrekt wiedergegeben...(Ansonsten die letzten Seiten abchecken)...
Naja, die deutliche Aussage war, man sollte für MFG eine gute Basis von 60 realen Frames zur Verfügung stellen, damit am Ende die Latenz im Rahmen bleibt. 30 FPS kommen ja mit einer doppelt so hohen Latenz (33,33ms) wie 60 FPS (16,66ms) daher und in Verbindung mit MFG könnte sich die resultierende Gesamtlatenz als zu hoch erweisen oder?
Ich weiss nicht mehr, was der Ausgangspunkt der groben Berechnung war...dass man im Rahmen von einer Latenz von unter 60ms bleibt?
Ich muss mir die letzten Seiten nochmal in Ruhe durchlesen....wie DLSS mit Reflex 2 die Latenz drücken und was für eine Gesamtlatenz sich geschätzt ergeben könnte.
Wie viele mit einem OLED-Panel mittlerweile festgestellt haben, macht die Bildschärfe erst so ab 100-120 FPS Spass. Daher sollten schon um die 120 FPS anliegen, damit das Bild flüssig und scharf wirkt. Für den Fall, dass eine GPU sogar mit upsampling nur auf 30 FPS kommt, würde MFG daraus die geforderten 120 FPS zaubern. Grenz-Szenario wären dann 25 Frames mit 100 Frames als Resultat, damit es auf einem OLED noch erträglich aussieht. Path-Tracing wird auch für die 5090 fordernd werden, so dass man MFG bemühen wird.
Interessant wird der Nutzen von MFG in semi-competitive MP-Spielen. Das Szenario, wo ein Gegner blitzartig aus einer Deckung heraus rausstrafen tut und man sich fragt ob da MFG mit der einhergehenden erhöhten Latenz nicht ein Hindernis darstellen wird, wenn man diesen move kontern will. Naja, abwarten und Tee trinken.
Aber auf jeden Fall macht Nvidia mächtig Druck mit dem verbesserten DLSS4, Reflex 2 und MFG. Mal schauen, wann und ob AMD darauf eine passende Antwort finden wird.
FSR4 sollte schon gut abliefern, sonst wird es immer schwerer, an DLSS dranzubleiben...
Bin auch neugierig, wie AMD die 9070XT preislich einordnen möchte...wenn die bei rasterizing auf dem Level einer 4080 und bei raytracing auf dem Level einer 4070 ti super sein soll (von den leaks ausgehend), dann müsste sie ja folgerichtig die 7900XT ersetzen oder? Also könnte AMD die 7900XT in den Ausverkauf/Ruhestand schicken und die 9070XT für 599€ ins Rennen schicken.
Wäre überrascht, wenn die günstiger kommen würde....Es sei denn, die liefert nicht die Leistung der 7900XT ab...
Hab die genauen Werte nicht mehr im Kopf, hoffe, dass ist halbwegs korrekt wiedergegeben...(Ansonsten die letzten Seiten abchecken)...
Naja, die deutliche Aussage war, man sollte für MFG eine gute Basis von 60 realen Frames zur Verfügung stellen, damit am Ende die Latenz im Rahmen bleibt. 30 FPS kommen ja mit einer doppelt so hohen Latenz (33,33ms) wie 60 FPS (16,66ms) daher und in Verbindung mit MFG könnte sich die resultierende Gesamtlatenz als zu hoch erweisen oder?
Ich weiss nicht mehr, was der Ausgangspunkt der groben Berechnung war...dass man im Rahmen von einer Latenz von unter 60ms bleibt?
Ich muss mir die letzten Seiten nochmal in Ruhe durchlesen....wie DLSS mit Reflex 2 die Latenz drücken und was für eine Gesamtlatenz sich geschätzt ergeben könnte.
Wie viele mit einem OLED-Panel mittlerweile festgestellt haben, macht die Bildschärfe erst so ab 100-120 FPS Spass. Daher sollten schon um die 120 FPS anliegen, damit das Bild flüssig und scharf wirkt. Für den Fall, dass eine GPU sogar mit upsampling nur auf 30 FPS kommt, würde MFG daraus die geforderten 120 FPS zaubern. Grenz-Szenario wären dann 25 Frames mit 100 Frames als Resultat, damit es auf einem OLED noch erträglich aussieht. Path-Tracing wird auch für die 5090 fordernd werden, so dass man MFG bemühen wird.
Interessant wird der Nutzen von MFG in semi-competitive MP-Spielen. Das Szenario, wo ein Gegner blitzartig aus einer Deckung heraus rausstrafen tut und man sich fragt ob da MFG mit der einhergehenden erhöhten Latenz nicht ein Hindernis darstellen wird, wenn man diesen move kontern will. Naja, abwarten und Tee trinken.
Aber auf jeden Fall macht Nvidia mächtig Druck mit dem verbesserten DLSS4, Reflex 2 und MFG. Mal schauen, wann und ob AMD darauf eine passende Antwort finden wird.
FSR4 sollte schon gut abliefern, sonst wird es immer schwerer, an DLSS dranzubleiben...
Bin auch neugierig, wie AMD die 9070XT preislich einordnen möchte...wenn die bei rasterizing auf dem Level einer 4080 und bei raytracing auf dem Level einer 4070 ti super sein soll (von den leaks ausgehend), dann müsste sie ja folgerichtig die 7900XT ersetzen oder? Also könnte AMD die 7900XT in den Ausverkauf/Ruhestand schicken und die 9070XT für 599€ ins Rennen schicken.
Wäre überrascht, wenn die günstiger kommen würde....Es sei denn, die liefert nicht die Leistung der 7900XT ab...
Kann man eigentlich nicht oft genug wiederholen, die wenigsten tauschen ihre Grafikkarten wie Handtaschen aus und Raytracing ist endlich angekommen, wozu die älteren Karten kaum vernünftig in der Lage sind. Wer eine 4000er Generation bereits hat, der wird in den seltensten Fällen wechseln müssen, aber manchmal hat man hier das Gefühl man bräuchte dringend die neuste CPU und GPU und dann wird sich beklagt, wieso man das Zeug nicht geschenkt hinterhergeworfen bekommt.Laphonso schrieb:Und genau DIESE Gruppe der Pascal, Turing und Ampere User wird nun bei den RTX5000ern zuschlagen.
Das vergessen viele.
Was hat bei Steam aktuell die höchste Verbreitung? Die 3000er Generation und die wird nun so langsam auf 5000er Gen updaten.
Der Leistungssprung von Ampere zu Blackwell ist enorm und die Leute bekommen nicht nur "Early Adopter" FG, sondern gleich ausgereiftes FG und MFG vorgesetzt, was die Frameraten zigfach steigen lassen wird. Die Kunden die von der 4000er Generation umsteigen werden sind geschenkt, die machen den Braten gar nicht fett, man muss nur ein wenig aus der CB Blase heraus.
Zuletzt bearbeitet:
Je nachdem, wie effektiv das MFG-Marketing beim weniger versierten/informierten Gamer wirken wird, welcher vielleicht hauptsächlich nur die FPS-Werte im Blick hat und die Latenz Problematik weniger auf dem Schirm, könnte Nvidia sehr viele 2000/3000/4000 User Richtung 5070 für um die 600€ treiben. Viele Frames zu haben (in Singleplayer- und entspannten MP-Games) bzw. fordernde Spiele spielbar zu machen (Path-Tracing lässt grüssen) ist schon verlockend. Da toleriert man die höhere Latenz, solange es sich noch ok anfühlt. Flüssige Bildwiedergabe bei max. Bildqualität geht meistens vor. Mal schauen, wie gut Reflex 2 gegen die durch MFG eingeführte Latenz arbeiten wird und ob schlussendlich MFG+Reflex2 ein Killer-Feature wird, auf welches AMD-user neidisch sein dürfen...(bis AMD dann irgendwann mal den Konter dazu liefert). Aber Nvidia legt erstmal gehörig vor!
Die Tests werden zeigen, wie allgemeingültig die Daten des Präsi-Materials sind (sprich Latenzverbesserung durch Reflex 2) oder die präsentieren Werte nur in "optimierten Labor-Bedingungen"/best-case-Szenarien zu erreichen sind...
Die Tests werden zeigen, wie allgemeingültig die Daten des Präsi-Materials sind (sprich Latenzverbesserung durch Reflex 2) oder die präsentieren Werte nur in "optimierten Labor-Bedingungen"/best-case-Szenarien zu erreichen sind...
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 6.081
Tellerrand: ich nutze kein FG/DLSS 3.5, weil in WQHD (in 4K deutlich besser) überall Fragmente sind und der Inputlag echt stört! 2 meiner 12 Spiele unterstützen es, mehr nicht... auch wenn Timberborn und so eh keine Hardwarefresser sind.Laphonso schrieb:Eine 5070, die in full HD eine 9070 z.B. dann 50 bis 100 fps (oder mehr) hinter sich lässt in den DLSS + FG Benchmarks wird in den Augen der Käufer das liefern, was Jensen angekündigt hat.
Exakt, ich zähle mich ja auch selbst dazumTw|Marco schrieb:Bubble war hier nicht in Negativen gemeint, sondern es ist eine simple Feststellung![]()
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Für die RDNA4 und RTX4000 stehen jetzt viele an, die die letzten 4 bis 6 Jahre (oder auch noch länger) nicht aufgerüstet haben.
Und genau daher wird es auch da wieder ein Kampf um Technologien und Featuresets, die man mitkauft = DLSS vs FSR
Das hat nichts mit "wenig informiert" zu tun, sondern hängt einzig und alleine davon ab wie gut es umgesetzt wurde. Dem Spieler ist es völlig egal wie die flüssigen Frameraten zustande kommen, Millionen von Spielern ist es auch völlig egal, dass ihre Playstation keine 4K in 120Hz erzeugt, sondern 1080p (oder weniger) @40FPS hochrechnet.5hred schrieb:Je nachdem, wie effektiv das MFG-Marketing beim weniger versierten/informierten Gamer wirken wird,
Das hier in der Blase jede neue Technologie gleich schlecht und böse sein muss, interessiert in der großen weiten Welt niemanden. Grundsätzlich ist alles was wir an "3D" Technik, seit den ersten Wireframe Spielen zu sehen bekommen haben eine große Verarsche und seit dem versucht man mit möglichst wenig Rechenaufwand, ein möglichst gutes visuelles Ergebnis zu erreichen.
Diskussionen darüber gab es ebenfalls vom ersten Tag an, vom Antialiasing bis zum Z-Buffering wurde schon alles irgendwie zerredet und heute ist das alles Standard.
Je nachdem, wie effektiv das MFG-Marketing beim weniger versierten/informierten Gamer wirken wird,
Ok, besser formuliert: wie effektiv MFG funktionieren wird und ob es als Feature einen Mehrwert darstellen wird und nicht nur ein Marketing-Blendwerk sein wird, sollten es Gamer aufgrund einer nicht erträglichen Latenz als Feature nicht nutzen...
Ich mit meiner 6700XT bin auch ein potentieller Upgrade-Kandidat in diesem Jahr. Aber da muss erst mal ein Kracher-Game rauskommen, welches das erzwingt. Aber eigentlich bräuchte ich wie so 99% der Gamer keine neue GPU für die nächsten Jahre, wenn man sich als Ziel setzen würde, erstmal den angehäuften Spiele-Backlog vollständig abzuarbeiten, bevor man sich eine neue GPU zulegt. Aber wer hat schon soviel Selbstbeherrschung???
Zuletzt bearbeitet:
Kommt auf das Spiele-Backlog an, meiner besteht aus Titeln, die viel VRAM und Raytracing/Pathtracing Leistung benötigen, wie CP2077 oder Indy. Zähle mich also zu dem 1%... 😉5hred schrieb:wenn man sich als Ziel setzen würde, erstmal den angehäuften Spiele-Backlog vollständig abzuarbeiten,
Japp, lieber weniger Spiele besitzen, aber dafür diese durchgespielt haben. Bin in die Steam-Sales-Falle getappt...ok, die meisten so mit 50-75% Rabatt mitgenommen und hauptsächlich günstigere Indie-Games aber hilft ja nix, wenn man gefühlt von 100 Games nur 1/5 durch hat, da man die letzten Jahre ein Escape from Tarkov Master-Studium absolviert hat schwitz
Killer-Spiel-Kandidat wäre ein next Doom/Quake mit optisch toller id-Engine @ Vulkan oder - sollten die Sterne am Himmel günstig ausgerichtet sein - ein mit Auszeichnungen von der Fachpresse überhäuftes Squadron 42.
Aber in der Zwischenzeit werden bestimmt noch einige eines GPU-Upgrades würdige Kandidaten erscheinen. Wie dem auch sei, vielleicht sind generierte frames die einzige vernünftige Lösung um in Verbindung mit bester Grafik (Path-Tracing, rtrt) ausreichend frames für eine flüssige Bildwiedergabe zu liefern.
Hardwaretechnisch kommt man mit den Transistoren in Regionen von 600w und mehr und irgendwann ist maschinell/physikalisch Schluss mit der Reduzierung der Fertigungstechnik mit den heute benutzten Materialien und Techniken. So muss man sich halt mit Software weiterhelfen, wenn die Hardware ans Limit stößt.
Oder man geht der bekannten Weg weiter, nur dann hat man eine 1kW GPU im PC, die vielleicht sogar 4k kostet, weil 2nm bei tsmc halt nicht günstig sein werden...
Man hat mit einem 4K-Panel weniger Fragmente durch FG oder sieht man die einfach nur schlechter, da das Bild auf 4K besser hochskaliert wird? Ich überlege mir ernsthaft, 2k zu skippen und direkt auf 4K zu gehen, da von einem 4K-Panel ausgehend das upsampling ein deutlich besseres Resultat bei DLSS Performance liefern soll als wie es mit einem 2K-Panel der Fall wäre.
Bei der konsequenten Nutzung von DLSS Performance sollte alles für ein 4K-Panel sprechen. Ein 2K-Panel liefert sehr gute Resultate, solange man bei DLSS Quality bleibt. Aber durch das bessere Upscaling-Resultat bei gleicher Performance neige ich dann doch zum 4K-Panel.
Für die Bildbewegungsschärfe interessant finde ich weiterhin das "uralte" BFI, nur leider haben das nicht viele Monitore ordentlich implementiert. An die Bild-Bewegungs-Schärfe von gutem BFI kommt man nur bei 500Hz aufwärts, bestenfalls noch auf einem OLED. MFG könnte und in diese FPS-Regionen bringen, aber da muss die Latenz im akzeptablen Rahmen bleiben.
Kann wer berichten, wie gut BFI auf dem Asus 27" OLED ....DMG (glossy panel) aussieht? Bei stabilen 120 FPS oder mit wieviel FPS auf diesem Monitor das BFI zuverlässig arbeitet?
Sollte das BFI sehr gut funktionieren - sofern 120 FPS solide anliegen - könnte ich mir vorstellen, dass das eine sehr gute Zwischenlösung darstellt. Ohne BFI wird es immer eine Herausforderung sein, sagen wir mal 360 bis 500 FPS @ 360 bis 500Hz auf einem OLED abzuliefern mithilfe von allerlei Techniken wie MFG um in vergleichbare Regionen der Bewegungsschärfe zu kommen...
Ich erhoffe mir einiges von G-Sync Pulsar, könnte ein Game Changer werden: erstmals gutes BFI mit G-Sync. Bisher sah BFI nur gut aus, solange man variable sync aus hatte...
Und bei 120 FPS kann man tearing noch erkennen, erst in den typischen "Counter-Strike, cappe die FPS auf 244?" Regionen deutlich weniger, wenn überhaupt noch....
Killer-Spiel-Kandidat wäre ein next Doom/Quake mit optisch toller id-Engine @ Vulkan oder - sollten die Sterne am Himmel günstig ausgerichtet sein - ein mit Auszeichnungen von der Fachpresse überhäuftes Squadron 42.
Aber in der Zwischenzeit werden bestimmt noch einige eines GPU-Upgrades würdige Kandidaten erscheinen. Wie dem auch sei, vielleicht sind generierte frames die einzige vernünftige Lösung um in Verbindung mit bester Grafik (Path-Tracing, rtrt) ausreichend frames für eine flüssige Bildwiedergabe zu liefern.
Hardwaretechnisch kommt man mit den Transistoren in Regionen von 600w und mehr und irgendwann ist maschinell/physikalisch Schluss mit der Reduzierung der Fertigungstechnik mit den heute benutzten Materialien und Techniken. So muss man sich halt mit Software weiterhelfen, wenn die Hardware ans Limit stößt.
Oder man geht der bekannten Weg weiter, nur dann hat man eine 1kW GPU im PC, die vielleicht sogar 4k kostet, weil 2nm bei tsmc halt nicht günstig sein werden...
Ergänzung ()
Syrato schrieb:Tellerrand: ich nutze kein FG/DLSS 3.5, weil in WQHD (in 4K deutlich besser) überall Fragmente sind[...]
Man hat mit einem 4K-Panel weniger Fragmente durch FG oder sieht man die einfach nur schlechter, da das Bild auf 4K besser hochskaliert wird? Ich überlege mir ernsthaft, 2k zu skippen und direkt auf 4K zu gehen, da von einem 4K-Panel ausgehend das upsampling ein deutlich besseres Resultat bei DLSS Performance liefern soll als wie es mit einem 2K-Panel der Fall wäre.
Bei der konsequenten Nutzung von DLSS Performance sollte alles für ein 4K-Panel sprechen. Ein 2K-Panel liefert sehr gute Resultate, solange man bei DLSS Quality bleibt. Aber durch das bessere Upscaling-Resultat bei gleicher Performance neige ich dann doch zum 4K-Panel.
Für die Bildbewegungsschärfe interessant finde ich weiterhin das "uralte" BFI, nur leider haben das nicht viele Monitore ordentlich implementiert. An die Bild-Bewegungs-Schärfe von gutem BFI kommt man nur bei 500Hz aufwärts, bestenfalls noch auf einem OLED. MFG könnte und in diese FPS-Regionen bringen, aber da muss die Latenz im akzeptablen Rahmen bleiben.
Kann wer berichten, wie gut BFI auf dem Asus 27" OLED ....DMG (glossy panel) aussieht? Bei stabilen 120 FPS oder mit wieviel FPS auf diesem Monitor das BFI zuverlässig arbeitet?
Sollte das BFI sehr gut funktionieren - sofern 120 FPS solide anliegen - könnte ich mir vorstellen, dass das eine sehr gute Zwischenlösung darstellt. Ohne BFI wird es immer eine Herausforderung sein, sagen wir mal 360 bis 500 FPS @ 360 bis 500Hz auf einem OLED abzuliefern mithilfe von allerlei Techniken wie MFG um in vergleichbare Regionen der Bewegungsschärfe zu kommen...
Ich erhoffe mir einiges von G-Sync Pulsar, könnte ein Game Changer werden: erstmals gutes BFI mit G-Sync. Bisher sah BFI nur gut aus, solange man variable sync aus hatte...
Und bei 120 FPS kann man tearing noch erkennen, erst in den typischen "Counter-Strike, cappe die FPS auf 244?" Regionen deutlich weniger, wenn überhaupt noch....
Zuletzt bearbeitet:
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.360
Dem normalen Spieler der ein pc hat und darauf spielen will wegen zu teurer Konsole oder was öfter der fall ist das es dass Spiel nicht für Konsole gibt. Dem ist herzlich egal wie die fps auf dem Bildschirm kommen.
Dem interessiert nur ob es Läuft und bestmögliche grafik bietet
Ich habe zuletzt also gestern fort triumpf gespielt das warn netter spinoff zum xcom Spielprinzip mit pad oder Maus tasta spielbar.
Das spiel ist so zahm was die Anforderungen angeht das es selbst auf nenn Pc von 2012 laufen würde
Abseits fehlender Vertonung war es gut lesen ist hier Pflicht
Aber um das Thema zu finden diese upscaler Pflicht mit fg um dann mehr fps vorzugaukeln als wirklich gerendert wird was eine latenz verursacht ist nicht ehrlich und zeigt das nvidia bei den desktop entry und mid class die gleiche perf. die nächsten 5 Jahre Behalten will.
Sprich sämtliche Nachfolger der 60 70 class sind praktisch die selben chips mit unterschiedlichen Ausbaustufen.
Immer mit dann mehr software Anpassungen damit mehr fps suggeriert werden.
Das warum ist klar es liegt an den kosten der chips da die Zielverkaufspreise die marge drücken würde.
Da fehlt einfach die Konkurrenz
Intel könnte gefährlich werden da diese auf eine Marktanteil aus sidn und die marge relativ klein ist +- 10%
Noch ist intel bei den treibern auf beta status und primär auf Erfüllung der api Kompatibilität bei den spielen im Fokus da wo es läuft ist man sogar das schnellste was im gleichem Preisbereich gibt. Nur eben die fortlaufender Treiberarbeit liegt noch vor intel entry Dominanz
Amd konzentriert sich quasi auf apu im entry Bereich und wird die mid class sehr wahrscheinlich auch aus dem desktop entfernen der Kampf findet also explizit im high end statt
Was die Definition was high end betrifft
Viele denken die Preisklassen wären es dem stimme ich nur bedingt zu
für einen sind 1000€ high end dem anderen die mid class
ich sage klar das erstere amd und nvidia als high end definieren. alles andere wäre illusorisch
Also wird es ab 2027 so aussehen
entry
amd apu 40cu
intel ebenso unklar wie viele eu
nvidia vermutlich eigenes soc unklar mit was und daneben refresh der blackwell Serie gb205 gb206 4 sku
mid class
amd apu bis 60cu
nvidia refresh der blackwell Serie mit gb203 2 sku
high end
amd udna u10 192cu a128alu n2 node 3 sku
nvidia gr203 90sm a256alu 2 sku n3 oder intel node noch unklar
Weiter die entry Preisklassen zu erhöhen wird der Markt nicht mitmachen weswegen apu unumgänglich sind den für mehr perf. sind die kosten der chips zu teuer.
Die Ursache liegt beim vram Preis da davon immer mehr gebraucht wird das ist ziemlich sicher. Da bringt es nix das am Takt fröhlich hoch gegangen werden kann die menge an vram und die analogen chipanteil der nicht kleiner wird muss das Si kleiner werden was dann den vram ausbremst /nicht genug Bandbreite für die alu menge bringt. Lösung wäre hier nur hbm4 und das wird man nicht machen und wenn nur in ner apu. Da man mit geteilten si und ausgelagertem chip mehr Bandbreite erzeugen kann.
Das erfordert aber chip on chip in mcm design das geht aktuell nur planar mit intel foveros oder cowos letztere ist ausgebucht bis 2030.
Amd hat ne Lösung dafür für die apu, nvidia noch nicht.
Wenn mal die cowos Kapazitäten frei werden ließe sich ne dgpu in gestapelten chips umsetzen und somit si und alu Anteil trennen dann wird es wieder günstige entry und mid class geben mit extremen perf. Sprüngen.
Diese Zeitbrücke bis 2030 muss eben abgewartet werden bis dahin wird sich auch das cpu limit problem lösen da man bei cpu bis 8,0ghz kommt. dank a18 node und das ist noch ohne fix für die cpu internen fpu Beschleunigung.
ich rechne mit zen8 grob bis zu doppelten ipc vs derzeit zen8 kommt 2029
Die offene frage ist was hat intel den dass ist offen. Beast lake ist Geschichte trotz sehr guten Vorzeichen bis zur doppelten ipc bei gleichem Takt. Was da stattdessen kommt ist unklar
Den Takt Weg kann man vergessen da intel node nicht im Ansatz so gut wird und das design selbst auf tsmc n3 node deutlich schwächer ist als amd zen arch
Bliebe der Software Weg auf das sich alle konzentrieren dank cpu limit.
Diese Fantasie blase AI wird aber platzen abseits den deep fakes wird von ai nix sinnvolles kommen.
Dem interessiert nur ob es Läuft und bestmögliche grafik bietet
Ich habe zuletzt also gestern fort triumpf gespielt das warn netter spinoff zum xcom Spielprinzip mit pad oder Maus tasta spielbar.
Das spiel ist so zahm was die Anforderungen angeht das es selbst auf nenn Pc von 2012 laufen würde
Abseits fehlender Vertonung war es gut lesen ist hier Pflicht
Aber um das Thema zu finden diese upscaler Pflicht mit fg um dann mehr fps vorzugaukeln als wirklich gerendert wird was eine latenz verursacht ist nicht ehrlich und zeigt das nvidia bei den desktop entry und mid class die gleiche perf. die nächsten 5 Jahre Behalten will.
Sprich sämtliche Nachfolger der 60 70 class sind praktisch die selben chips mit unterschiedlichen Ausbaustufen.
Immer mit dann mehr software Anpassungen damit mehr fps suggeriert werden.
Das warum ist klar es liegt an den kosten der chips da die Zielverkaufspreise die marge drücken würde.
Da fehlt einfach die Konkurrenz
Intel könnte gefährlich werden da diese auf eine Marktanteil aus sidn und die marge relativ klein ist +- 10%
Noch ist intel bei den treibern auf beta status und primär auf Erfüllung der api Kompatibilität bei den spielen im Fokus da wo es läuft ist man sogar das schnellste was im gleichem Preisbereich gibt. Nur eben die fortlaufender Treiberarbeit liegt noch vor intel entry Dominanz
Amd konzentriert sich quasi auf apu im entry Bereich und wird die mid class sehr wahrscheinlich auch aus dem desktop entfernen der Kampf findet also explizit im high end statt
Was die Definition was high end betrifft
Viele denken die Preisklassen wären es dem stimme ich nur bedingt zu
für einen sind 1000€ high end dem anderen die mid class
ich sage klar das erstere amd und nvidia als high end definieren. alles andere wäre illusorisch
Also wird es ab 2027 so aussehen
entry
amd apu 40cu
intel ebenso unklar wie viele eu
nvidia vermutlich eigenes soc unklar mit was und daneben refresh der blackwell Serie gb205 gb206 4 sku
mid class
amd apu bis 60cu
nvidia refresh der blackwell Serie mit gb203 2 sku
high end
amd udna u10 192cu a128alu n2 node 3 sku
nvidia gr203 90sm a256alu 2 sku n3 oder intel node noch unklar
Weiter die entry Preisklassen zu erhöhen wird der Markt nicht mitmachen weswegen apu unumgänglich sind den für mehr perf. sind die kosten der chips zu teuer.
Die Ursache liegt beim vram Preis da davon immer mehr gebraucht wird das ist ziemlich sicher. Da bringt es nix das am Takt fröhlich hoch gegangen werden kann die menge an vram und die analogen chipanteil der nicht kleiner wird muss das Si kleiner werden was dann den vram ausbremst /nicht genug Bandbreite für die alu menge bringt. Lösung wäre hier nur hbm4 und das wird man nicht machen und wenn nur in ner apu. Da man mit geteilten si und ausgelagertem chip mehr Bandbreite erzeugen kann.
Das erfordert aber chip on chip in mcm design das geht aktuell nur planar mit intel foveros oder cowos letztere ist ausgebucht bis 2030.
Amd hat ne Lösung dafür für die apu, nvidia noch nicht.
Wenn mal die cowos Kapazitäten frei werden ließe sich ne dgpu in gestapelten chips umsetzen und somit si und alu Anteil trennen dann wird es wieder günstige entry und mid class geben mit extremen perf. Sprüngen.
Diese Zeitbrücke bis 2030 muss eben abgewartet werden bis dahin wird sich auch das cpu limit problem lösen da man bei cpu bis 8,0ghz kommt. dank a18 node und das ist noch ohne fix für die cpu internen fpu Beschleunigung.
ich rechne mit zen8 grob bis zu doppelten ipc vs derzeit zen8 kommt 2029
Die offene frage ist was hat intel den dass ist offen. Beast lake ist Geschichte trotz sehr guten Vorzeichen bis zur doppelten ipc bei gleichem Takt. Was da stattdessen kommt ist unklar
Den Takt Weg kann man vergessen da intel node nicht im Ansatz so gut wird und das design selbst auf tsmc n3 node deutlich schwächer ist als amd zen arch
Bliebe der Software Weg auf das sich alle konzentrieren dank cpu limit.
Diese Fantasie blase AI wird aber platzen abseits den deep fakes wird von ai nix sinnvolles kommen.
XKing
Ensign
- Registriert
- März 2011
- Beiträge
- 206
Uff, naja wage zu bezweifeln dass der Zeitpunkt der Reviews wirklich einen Unterschied macht was Ausverkauf angeht.
Was die Entscheidung das Embargo so spät aufzuheben nur noch bizarrer wirken lässt.. ob die Reviews vielleicht doch schlechter abschneiden als gedacht?
Was die Entscheidung das Embargo so spät aufzuheben nur noch bizarrer wirken lässt.. ob die Reviews vielleicht doch schlechter abschneiden als gedacht?
Sumpfmolch
Cadet 4th Year
- Registriert
- März 2009
- Beiträge
- 110
Wenn vorher keine umfangreichen Tests da sind, dann ist es logisch alleine auf Verdacht bei NVIDIA eine Karte einzusacken und erst mal originalverpackt im Keller stehen zu lassen bis man die Reviews gelesen hat.
Abgesehen davon weiß man auch noch nicht was die Boardpartner-Parasiten für Preise aufrufen.
Abgesehen davon weiß man auch noch nicht was die Boardpartner-Parasiten für Preise aufrufen.
|Maulwurf|
Ensign
- Registriert
- Feb. 2017
- Beiträge
- 194
Korrekt die 3080 mit den läppischen 10GB wird gegen eine 5090 getauscht u. dann hab ich wieder Ruhe im Karton.. Vielleicht sogar eine Gen mehr..xexex schrieb:Was hat bei Steam aktuell die höchste Verbreitung? Die 3000er Generation und die wird nun so langsam auf 5000er Gen updaten.
Dein Gedankenfehler dabei ist, dass es eben ja doch eine Definition von "FPS" gibt. Nämlich ganz einfach, dass die Anzahl Bilder pro Sekunde gemessen wird. DAS ist die Definition. Es gibt schon seit sonstwann, Stichwort Microrukler bei MGPU, Fragezeichen an der Messmethode FPS. Da eben die reine Anzahl als Durchschnitt über einen Zeitraum eben nichts über die Spielbarkeit bzw. generell für das Feeling aussagt. Was du und manch Anderer aber möchte ist eben jetzt, nachdem es Mittel und Wege gibt, die Anzahl der am HDMI/DP Port ausgegebenen Bilder zu erhöhen, ohne dabei mehr Bilder real rendern zu müssen, eben diese geänderte/andere Verfahrensweise als nichtig anzusehen. Aber das ist halt nicht das, was FPS als Maßeinheit her gibt. Das MIttel ist dafür schlicht ungeeignet.heroesgaming schrieb:Mit Verlaub, aber inwiefern ist es keine Wortklauberei, sich an einer mangelnden Definition für den Begriff "fps" festzuhalten und auf dieser Basis zu argumentieren, dass eine Marketingaussage ja im Prinzip der Wahrheit entspreche?
Das ist letztlich exakt das selbe Problem wie damals MGPU Benches. Wenn zwei Bilder unmittelbar hintereinander ausgegeben und zudem noch mit einer höheren Latenz versehen zwar in Summe höhere "FPS" erzeugen, aber vom Feeling gleich bis schlechter als eine SGPU waren, weil die Frametimes wild durchwachsen waren und zudem die Eingabeverzögerung durch AFR den Wert nicht wieder spiegelte, hätte man mMn schon anfangen müssen, die Messmethode zu hinterfragen.
In Teilen ist das passiert. Messungen stumpf als avg./min./max. FPS wurden durch irgendwelche Perzentile ergänzt. Hier und da finden sich aber auch Frametime Verläufe die bspw. wild tanzende Frametimes aufdecken und damit Fragezeichen an FPS Werte zeichnen, die zwar vielleicht hoch sind, aber eben dann sich trotzdem komisch anfühlen.
Bei der reinen Betrachtung von der Bildanzahl ist das aber eben gleichwertig. Daran gibt es schlicht nichts zu rütteln. Die Frage ist eher, warum will man hier auf biegen und brechen an "FPS" festhalten, wenn das eben so unpräzise als Messmethode taugt?heroesgaming schrieb:Aber Stand heute sind 120 fps mit FG schlicht nicht gleichwertig mit 120 fps ohne diese Technik.
Ein via Checkerboard Rendering erzeuges Bild auf der Konsole kann man auch in FPS messen. Aber dann hast du halt nur 50% des Bildes real gerendert und den Rest aus anderen Daten erzeugt. Inkl. einer höheren Latenz, da die Daten wahlweise alt sind oder eben das Frame künstlich zurück gehalten werden muss. Wo war denn der Aufreger dort?
Wie gesagt, das ist halt nicht wahr. Der Begriff "FPS" ist seit Jahren sehr breit interprätierbar. Checkerboard Rendering. Upscaling. MGPU via AFR, ...heroesgaming schrieb:Hier stoßen wir eben auf das oben genannte Problem, dass eine Partei den Begriff "fps" eben mit voller Absicht anders zu interpretieren beginnt, als es die Industrie seit Ewigkeiten getan hat.
Aus meiner Sicht ist das falsch rum betrachtet. Die Frage ist nicht, ob (M)FG gleichwertig oder besser zu non generated Frames ist. Sondern ob es es überhaupt möglich ist, ohne (M)FG so schnell zu sein!?heroesgaming schrieb:Das ist in meinen Augen eben nur dann legitim, wenn "AI-Frames" tatsächlich ein gleichwertiges Spielgefühl zu "Non-AI-Frames" erschaffen.
Eventuell ist die Frage, ob das Spielgefühl mit MFG gut ist, von Spiel zu Spiel anders zu beantworten, geschenkt. Es ist aber schon sehr unwahrscheinlich, dass man auch nur annähernd in die Nähe einer Mehrheit von Szenarien kommt, in denen es "gleich gut" wie das ohne MFG sein wird.
Was bringt mir die Aussage, wenn 120 (M)FG FPS nicht so viel sind wie 120 FPS ohne Zwischenbildberechnung? Wenn es gar nicht möglich ist, 120 FPS ohne Zwischenbilder gerendert zu bekommen? Dann ist die Basis vielleicht 40 oder sowas im dreh. Was hat man jetzt davon zu sagen, diese 120 (M)FG FPS fühlen sich nicht nach 120 FPS an wenn es gar nicht möglich ist, in der Szene diese 120 FPS ohne (M)FG zu erreichen!?
Ein Forum wie hier auf CB mit selbsternannten Tech-Profis ist alles, aber bei weitem nicht repräsentativ.heroesgaming schrieb:Wie diese Aussage wirkt, hängt am Ende wohl schlicht an der Zielgruppe. Hier im Forum jedenfalls sollte sie bei den meisten tatsächlich als stumpf ankommen.
Definiere überragend gut!?heroesgaming schrieb:Im Übrigen: Wenn MFG bzw. FG der zweiten Generation am Ende überragend gut funktioniert und in Verbindung mit Reflex 2 praktisch perfekte Ergebnisse bringt - und das wäre uns am Ende ja allen zu wünschen - gebe ich gerne zu, dass meine Kritik unberechtigt war. Stellt sich nur noch die Frage, ob es denn auch so kommt ...
Es wird halt einfach so funktionieren, wie man es technisch in der Basis umsetzen kann. Du kannst nicht über Zwischenbildberechnungen, wo es zwangsweise notwendig ist, die Bewegung von zwei Frames zu analysieren, davon ausgehen, dass die Latenz niedriger ausfallen kann als wenn man nicht auf die beiden Frames wartet. Das ist stumpf und einfach nur Physik.
Was man aber erwarten kann ist bspw. dass diese zwischengeschobenen Frames sich optisch so gut in die real gerenderten Frames eingliedern, dass man nicht mehr erkennt, ob das real gerenderte oder aus vorhandenen Bildinfos erzeugte Frames sind. Ob das jetzt schon aufgeht, werden wir sehen. FG bisher war ja meist nicht soooo toll (optisch). Aber das war bspw. DLSS am Anfang auch nicht und hat sich heute zu einem durchaus guten Produkt gemausert, was man gern mitnimmt um mehr Leistung oder weniger Verbrauch bei optisch gleichwertig bis sogar besserem Ergebnis zu sehen.
Was man mMn auch über kurz oder lang erwarten kann (wenn sich das Zwischenbildzeug real etabliert hat), dass man dann mit diesen mehr an Bildern eben auch einen optischen Fortschritt sieht. Bspw. anstatt höher zu samplen um die notwendigen Bildinfos zu bekommen könnte man einfach die Zwischenbild Informationen ran ziehen und damit die Sample Rate ganz von allein erhöhen ohne nur etwas mehr zu rechnen. Oder anders herum, man könnte die Sample Rate niedriger setzen um dann durch die Zwischenbilder trotzdem aufs gleiche hinaus zu kommen.
Letztlich gewinnt man bei praktisch gut funktionierender Umsetzung eigentlich nur - ohne dass man was verliert. Denn mehr an Bildern ist ja kein Nachteil, sondern der Nachteil ist nur dann, wenn die selbe Anzahl auch ohne (M)FG erreichbar wäre - was es praktisch aber nicht ist, weil es diese Geschwindigkeiten nicht gibt.
Beim Thema Raytracing könnte da sogar noch mehr gehen. Denn da sprechen wir dann im Zweifel nicht mehr über vollwertig gerenderte Bilder sondern über einzelne Strahlenberechnungen, die über zwei Frames verteilt werden und dann die beiden Frames über Zwischenbilder zusammen gepackt werden. Ein Mehrwert wäre dabei bspw., wenn man die Anzahl der Reflexionen in der Kette dabei verdoppelt, weil man nur noch die halbe Anzahl an Strahlen pro Frame berechnet. Sprich gleiche Zeitdauer für die Berechnung, aber mit gebündelten Daten beider Durchläufe dann visuell ein Mehrwert.
Was halt zu beachten bleibt ist die Latenz. Aber hier muss man mMn die Kirche im Dorf lassen. Die reale Input Latenz zwischen Eingabe IN das Gerät und real sichtbare Reaktion auf dem Schirm hängt nicht nur allein an der GPU Rechenzeit. Sondern maßgeblich auch an anderen Faktoren wie der Latenz zum Monitor oder dessen Fähigkeiten. Das heißt, ob es real praktisch am Ende wirklich ein Beinbruch ist, wenn man da etwas Latenz einbüßt, muss man dediziert betrachten. ICH hatte bspw. damals nie ein Problem mit AFR MGPU Rendering. Warum? Ich habe Jahrelang auf einem Samsung 40" TV gezockt. Das Ding hatte eine übel hohe Eingabeverzögerung und dennoch konnte ich Spiele gut genießen
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Die reinen AVG Fps sind ja auch schon länger nicht mehr die einzige Metrik. 1% lows und Frametimegraphen sind schon dazugekommen.fdsonne schrieb:Bei der reinen Betrachtung von der Bildanzahl ist das aber eben gleichwertig. Daran gibt es schlicht nichts zu rütteln. Die Frage ist eher, warum will man hier auf biegen und brechen an "FPS" festhalten, wenn das eben so unpräzise als Messmethode taugt?
Durch FG werden Latenz Messungen jetzt deutlich wichtiger. Und bei Upscaling ist die Bildqualität relevant, auch hier bieter CB ja schon eine super Bandbreite von (hochqualitativen) Videos und Bild Vergleichen in Nativer Auflösung.
Witzigerweise ist das auch das, was Nvidia selbst in den Revierws Guide schreibt. Für ein gutes Spielgefühl müssen Frames, Latenz und Bildqualität stimmen. Je nach Spiel natürlich unterschiedlich gewichtet.
Moritz Velten
Lt. Commander
- Registriert
- März 2020
- Beiträge
- 1.692
Ein Blick auf meinen Kalender könnte helfen ![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Ich habe heute schon auf den Bericht gewartet, aber wir haben heute erst den 22.
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Ich habe heute schon auf den Bericht gewartet, aber wir haben heute erst den 22.
Lord Gammlig
Lt. Commander
- Registriert
- Feb. 2013
- Beiträge
- 1.975
Heute 15 Uhr
Ähnliche Themen
- Antworten
- 242
- Aufrufe
- 15.471
- Antworten
- 565
- Aufrufe
- 29.170
- Antworten
- 37
- Aufrufe
- 3.530
- Antworten
- 210
- Aufrufe
- 19.093
- Antworten
- 377
- Aufrufe
- 40.122