News GPU-Gerüchte: RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen

Was für ein Netzteil ist da angebracht?? 1600W? die kosten ja schon gute 500€...Oder "reichen" 1200W für günstige 250€?
Dann kan man sein System ja schon langsam vorbereiten für den großen Auftritt^^
 
Für mich wäre der Verbrauch/mein Nutzen einfach zu ungünstig hoch, allerdings zocke ich auch nicht so viel. Aber es ist doch trotzdem nett zu sehen was ist aktuell technisch beim "Heimnutzer" in Echtzeit an Grafik machbar.

Wenn jemand in 4k oder 8k zocken will dann sollte es für den eine Lösung geben, wenn die technisch "bezahlbar" umsetzbar ist, solange man den Einsteiger- oder Gelegenheitszockermarkt auch mit sinnvollen Produkten bedient passt das doch für alle.
 
Wenn die TDP Angaben am Ende doch stimmen sollten, dann wird UV bei beiden Herstellern diesmal eine sehr interessante Sache sein. Hoffe das viele Onlineseiten UV in ihre Tests miteinbeziehen werden.
 
Na mal sehen was dann wirklich stimmt, TFlops hin und her wichtig ist was am Monitor davon ankommt, und vor allem das die Technik zu vernüftigen Preisen kaufbar ist.
 
Ar-Aamon schrieb:
Es ist schon lange Zeit, meine GTX 760 zu ersetzen.
Wenn Du sie bisher nicht ersetzt hast, wirst Du das mit der RTX 40xx und RX 7xxx Reihe auch nicht tun.
 
Update: 3.5.22
Ich glaube kaum das die Frequenzen bei den High-End Modellen so hoch sein wird.
Ich gehe z.b. bei N31 nur von maximal 2500Mhz aus. Die 3000Mhz kommen dann beim N33 zum vorschein.
Dasselbe gilt auch für Nvidia.

Realistisch würde sich durchaus eine Verdoppelung der TFLOPS vermuten.

ruegen1 schrieb:
Was für ein Netzteil ist da angebracht?? 1600W? die kosten ja schon gute 500€...Oder "reichen" 1200W für günstige 250€?
Dann kan man sein System ja schon langsam vorbereiten für den großen Auftritt^^
Kommt auf die GPU und CPU an. Bei einem 12900KS (250W) und einer 3090Ti (450W) wäre 1000W schon angebracht.

8K macht für mich keinen Sinn. Da gibt es nichtmal Monitore dafür...
4K/60FPS ist ansich schon mit einer 3090 in Ultra zu haben. Ich will gerne 4K/120FPS haben. Also wäre die RTX 4000 bisweilen mein letztes Upgrade auf absehbarer Zeit.
Gleichzeitig will ich aber nur maximal eine 300W haben... 450W würd ich notgedrungen noch akzeptieren.
Alles was höher ist, verlangt ein neues Netzteil...
Mit ein wenig UV und Powerlimit wäre 300W und 4K/120FPS bestimmt drinne ^^
 
thehintsch schrieb:
Obacht, mit der Verdoppelung der Auflösung von 4K auf 8K sind es viermal so viele Pixel.
Prinzipiell gibt es meiner Ansicht nach aber jetzt schon kaum mehr Grafikbedingte Limitierungen für das Gameplay an sich.
Interessant fände ich noch wenn "echte" KI mehr in Spielen Einzug hält. Dass sich NPCs nicht nur entsprechend ihrer Scripte verhalten sondern eine Art Charakter vorgegeben wird und der NPC verhält sich entsprechend, reagiert und lernt. Jeder Playthrough wäre dann etwas anders und die Erfahrung von Spieler zu Spieler unterschiedlich... Dadurch müsste man wirklich überlegen wie ein NPC jetzt auf eine Drohung etc. reagieren würde anstatt die Dialogauswirkungen "auswendig zu lernen".

Ich fänd's cool ^^

Doch, es gibt genug Limitierungen aufgrund der Grafik.

Vollständig zerstörbare Umgebungen werden meist nicht umgesetzt, weil es nicht mit dem Baked Lighting kompatibel ist. Sprich wenn du ein Hochhaus einfach so zerstören könntest, dann würde in den meisten Modernen Spielen der Schatten am Boden und das reflektierte Licht trotzdem noch vorhanden sein, weil es keine echte globale Beleuchtung in Echtzeit gibt.

Sprich wenn du viel Zerstörung und Physik willst, dann willst du auch Raytracing, also eine globale Beleuchtung in Echtzeit um das grafische Niveau das in den letzten Jahren erreicht wurde auch weiterhin halten zu können. Ohne RT würde die schöne Grafik im wahrsten Sinne dahin bröckeln.

Gleiches gilt für Streaming und Detaildichte. Nahezu alle Spiele und Engines sind aktuell noch auf die HDD der alten Konsolen ausgelegt und nutzen z.B. keine parallelen Datenzugriffe, um eine SSD ordentlich auszulasten. Zudem wirst du selbst wenn man das macht sehr schnell CPU limitiert. Das schränkt die Spieleentwickler auch noch deutlich ein.

Mit Direct Storage und Sampler Feedback Streaming wird auch der Knoten gelöst werden.


Was wir aktuell können sind schöne statische Landschaften mit guter statischer Fake Beleuchtung darzustellen. Damit kann man natürlich schon viel erreichen, aber wirklich frei in der Gestaltung und den Möglichkeiten ist man da noch lange nicht.
 
  • Gefällt mir
Reaktionen: Wintermute und calippo
fox40phil schrieb:
In dem Fall: Nicht!

Die Shader bei NVIDIA können jetzt nicht einfach was doppelt rechnen. NVIDIA hat von Pascal zu Turing den DAtenpfad in einer SM von 128 * 32 Bit auf 64 * 32 Bit gekürz und hat einen zweiten Datenpfad mit 64 * 32 Bit eingeführt für INT-Berechnungen. Bei Ampere hat NVIDIA nun die Exklusivität auf INT bei diesem Datenpfad aufgehobe, so dass auf dem zweiten Datenpfad nun auch FP32-Berechnungen durchgeführt werden können.

Es gibt jetzt pro SM 2 * 64 Shader, die entsprechend angesteuert werden - vergleichbar mit den 2 * Vec32 in einer CU oder eben 4 * Vec32 in einer WGP.
 
  • Gefällt mir
Reaktionen: fox40phil
Robert. schrieb:
Für mich würde es eine 4080 oder 4070 schon tun. Hoffentlich geizt nvidia da nicht mit dem Speicher.
Vollausbau benötige ich gar nicht bzw. ist mir wohl zu teuer.

Bezüglich des Stromverbrauches eine sehr positive Entwickklung.
Lt. Gerüchten mehr als doppelt so schnell wie die 3090 TI und nur 33% mehr Stromaufnahme. Das haben die wirklich sehr gut hinbekommen, bin schon gespannt :)
Ist das Ironie? Sarkasmus? Was an dieser Entwicklung soll hier bitteschön positiv sein?! Der Trend muss glasklar Richtung WENIGER Stromverbrauch gehen, oder zumindest stagnieren. 33% mehr Aufnahme kanns aktuell wirklich nicht sein, da bin ich explizit raus! Wer braucht denn jetzt ernsthaft die doppelte Leistung zur letzten Gen? Ich will das Ganze mit weniger Abwärme und weniger Strom bei einem halbwegs humanen Preis!

Dann lieber seriös das Ganze entwickeln und sehen, was man an Leistung rauskitzeln kann ohne bei der nächsten Strom-Jahresrechnung zu verarmen...
 
  • Gefällt mir
Reaktionen: fox40phil
Neodar schrieb:
Für sowas gibt es Speicher ;)
Strom kann man nicht nur in einer kleinen Gameboy Batterie oder in ner Autobatterie speichern. Das geht auch in deutlich größeren Dimensionen.

Alles extra kosten die man zahlt da kann man auch gleich paar AKWs bauen.
 
W0dan schrieb:
Was wir aktuell können sind schöne statische Landschaften mit guter statischer Fake Beleuchtung darzustellen.
Nicht mal das, wenn man genauer hinsieht. Das LOD von entfernten Objekten ist oft grauenhaft ungenau. Da wird halt irgendwas hingepinselt, was so ähnlich aussehen könnte, davon 3-5 unterschiedliche Detailstufen, die bei Annäherung nach und nach aufploppen.
Aber wehe, das Objekt wird verändert, z.B. durch eine dynamische Zerstörung oder durch Anbauten durch den Spieler. Dann sieht man aus der Ferne das unveränderte LOD und wenn man näher kommt, merkt man erst, dass das ganz anders aussieht.

Oder wenn man sich Cyberpunk mal genauer ansieht, sehr viele der Gebäude und Objekte sind viel zu geometrisch "quadratisch, praktisch, schlecht". Da wurden Polygone ohne Ende gespart, damit der Aufwand für die Erstellung und das Rendering nicht zu kompliziert werden. Alles kein Problem der Auflösung.

Ich wundere mich ja auch immer wieder, warum Leute nur auf die Auflösung schauen, zumal die tatsächliche Auflösung von Texturen mit der voreingestellten Auflösung nichts zu tun haben. Man kann auch unter 4k oder 8k Matschtexturen einsetzen und das wird nach wie vor getan, um VRAM zu sparen oder weil schlicht schlampig gearbeitet wird.

Würde es nach mir gehen, dann würde ich WQHD als Obergrenze definieren so lange, bis die Hersteller mal ihre Hausaufgaben machen und wirklich an besserer Grafik arbeiten statt die Auflösung immer weiter hoch zu treiben.
 
  • Gefällt mir
Reaktionen: Gesualdo und Mimir
Von den ganzen doppelt und dreifach Angaben würde ich mich nicht blenden lassen.
Jede Technik funktioniert anders und Shader sind nicht gleich Shader.
Bei nur 35% mehr Leistung wie bei NVidia von Gen 1000 zu Gen 2000 wäre ich bei jedem Update ziemlich enttäuscht, alles über 50% fasse ich positiv auf.
Wenn man 60-70% schafft, wäre das schon mein optimales Positiverlebnis für eine neue Kartengeneration.
Schließlich braucht man ja auch noch ein entsprechendes Polster für künftige Generationen, wenn man nicht selber in eine Nichtaufrüsterfalle (siehe oben) tappen will.
Auch kann man fast damit rechnen, dass die Top-Karten bei einer Bewahrheitung der ganzen Gerüchte Klopperkarten sein werden, die so viel Strom fressen werden und solche Abmaße haben werden und Kühllösungen benötigen werden - das wird für den Normalanwender dann eh nichts sein.
Die nach unten abgestuften Karten werden wohl eher Hausmannskost sein.
Also keine verdoppelten Leistungswerte, aber dafür noch stemmbare Verbrauchswerte, Kosten usw..
Soll also heißen, es wird wohl wieder größere Abstände der x900 Karten zu ihren dann kleineren x800er Geschwistern geben.
So wie eine 980 Ti zu einer 980 damals.
Die Sache mit der 3090 zur 3080 (Ti) udn der 6900Xt zur 6800Xt war ja eher wohl ein Witz.
Ein paar Prozentpunkte für dann ordentlich Knete, nein danke.
 
SoldierShredder schrieb:
Ist das Ironie? Sarkasmus? Was an dieser Entwicklung soll hier bitteschön positiv sein?! Der Trend muss glasklar Richtung WENIGER Stromverbrauch gehen, oder zumindest stagnieren. 33% mehr Aufnahme kanns aktuell wirklich nicht sein, da bin ich explizit raus! Wer braucht denn jetzt ernsthaft die doppelte Leistung zur letzten Gen?

Nein das ist Effizienz.
Wenn eine GPU für 100% mehr Leistung „nur“ 33% mehr Strom verbraucht, ist diese nunmal deutlich effizienter. Da wir aber leistungstechnisch mittlerweile in Bereiche vorgestoßen sind, die Wahnsinn sind, ergeben sich nunmal auch unbeliebte absolute Zahlen.
Rechnerisch aber haben wir uns jede Generation deutlich verbessert (Effizienz)

Was du dir wünscht ist konkurrenzlose Effizienz, sprich xx % Mehrleistung bei plus minus null mehr Verbrauch. Geht aber nicht, da im duopol nach fast einem Jahrzehnt endlich mal wieder auf Augenhöhe duelliert wird.

Aber man kann das selbst regeln.
Eine 3090ti lasst sich zb. Deutlich effizienter betreiben wenn man denn will.
Igors Test mit 300 Watt hat das ganz klar gezeigt.

Das problem was ich sehe: niemand will sich damit (undervolting) befassen.
Und meckern ist viel leichter.

Übrigens lässt sich selbst eine 3080ti mit um die 200 Watt betreiben, anstatt 420watt (meine ftw3 zb, 1710mhz bei 769mv)
Man muss sich halt nur mal damit befassen anstatt zu meckern.
Ergänzung ()

DevPandi schrieb:
Vor allem: Woher will er denn wissen, wie die Leute leben, die hier den Energiehunger kritisch sehen?
weil wir in unserer westlichen Welt nunmal Ressourcen verbrenner sind mit unserem Luxus und Wachstumszwang.

Und es mag Ausnahmen wie dich geben, aber ich wette auch bei deiner sonst eher grünen Lebensweise gibt es noch Potenzial. Darum soll es aber nicht gehen.

Mir geht es nicht um Menschen wie dich. Du scheinst dich bewusst damit zu befassen, finde ich klasse.
Es geht mir um diejenigen die ich bereits beschrieben haben.

Menschen die sich selektiv Themen raus suchen, die sie nicht betreffen, einen auf heilig machen, ganz vorne an der mecker Front sind, aber selbst in anderen Bereichen am wüten sind.
Das ist für mich Doppelmoral. und nur die meine ich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gesualdo, Nookyn, McTheRipper und 3 andere
Ob 4k oder FHD,200 FPS oder 60FPS,letzten Endes sprechen wir über Computergames ,die auch so aussehen und Spass machen sollen. Dazwischen gibt es ganz viel Grau genau wie bei den Menschen. Muss jeder selbst wissen Wieviel und Was man auf sich nehmen möchte für diese Unterhaltung. Das wird sich auch mit einer Verdreifachung oder wieviel auch immer der Leistung nicht grossartig ändern. Von einem Quantensprung was Realismus und Empfindung angeht sind wir m.E. noch weit weg ,so zumindest mein Anspruch und meine Wahrnehmung wobei wir uns auf einem durchaus zufriedenstellenden Niveau befinden wo man negative Entwicklungen ,sprich Stromverbrauch,Hitzeentwicklung und nicht zuletzt den finanziellen Aspekt in Frage stellen kann. Den Fortschritt zu vor 20 Jahren sehe ich dabei durchaus aber korreliert für mich nicht im gleichen Masse mit dem Spass, was unterm Strich Das ist was für mich zählt.
Die Kids von heute wissen heutzutage oftmals gar nicht was für geile Möglichkeiten und Qualität sie geboten bekommen, für eine aktuelle Gamekonsole hätte früher so Mancher sicher sein linkes Ei hergegeben :daumen:
 
  • Gefällt mir
Reaktionen: Gesualdo
SoldierShredder schrieb:
Ist das Ironie? Sarkasmus? Was an dieser Entwicklung soll hier bitteschön positiv sein?! Der Trend muss glasklar Richtung WENIGER Stromverbrauch gehen, oder zumindest stagnieren. 33% mehr Aufnahme kanns aktuell wirklich nicht sein, da bin ich explizit raus! Wer braucht denn jetzt ernsthaft die doppelte Leistung zur letzten Gen? Ich will das Ganze mit weniger Abwärme und weniger Strom bei einem halbwegs humanen Preis!

Dann lieber seriös das Ganze entwickeln und sehen, was man an Leistung rauskitzeln kann ohne bei der nächsten Strom-Jahresrechnung zu verarmen...
Bei dem was Robert geschrieben hat, verbraucht die Karte pro TFLOP weniger, also ist effizienter.
Das nun die Gesamtleistung soweit steigt, das auch der Gesamtverbrauch steigt.

In dem Fall hast du 2 Möglichkeiten, wenn du keinen höheren Gesamtverbrauch willst.
1. Du nutzt Undervolting oder limitierst die Stromaufnahme manuell.
2. Du kaufst dir nicht das 900w Highend Modell sondern das 300W Budget Modell.

Es gibt schon ein Problem, einen Powerlimiter zu nutzen, z.b. zahlt man für die Karte mehr als man nutzt :P
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, ThirdLife und GERmaximus
wenngleich Leistung über Takt statt Leistung über mehr Ausführungsheiten in der Regel einen höheren Stromverbrauch zur Folge hat.

ja, dafür aber auch in der regel effizienter ist, da es einfacher ist weniger execution units auszulasten als das mehr an execution units gleichzeitig mit arbeit zu versorgen; das war in der vergangenheit schon einige male ein problem, als man merkte dass viele execution units nicht automatisch ihre leistung auch "auf die straße bringen" ....
 
Onkel Föhn schrieb:
In Rasterization (ca. 98,3 % aller Games) wird es für Team Red auch dieses mal wieder reichen ... :freaky:
Und in ca. 99% dieser 98,3% reicht auch ein PC mit GTX 1060 / GTX 970 / RX 480 / RX 570...

Kleinreden kann man alles, wenn man sämtliche alter Spiele und Indie-Spiele miteinbezieht, denn nur ein Bruchteil der Neuerscheinungen stößt an Performancegrenzen bei aktueller Mittelklasse aufwärts.
 
  • Gefällt mir
Reaktionen: Prolokateur, h2f und Onkel Föhn
PSU= 750 W, dann ist Schulz. Good Bye NV.
Seit ich 'ne PS habe,wird am Rechner nicht mehr gespielt.
 
W0dan schrieb:
Doch, es gibt genug Limitierungen aufgrund der Grafik.

Vollständig zerstörbare Umgebungen werden meist nicht umgesetzt, weil es nicht mit dem Baked Lighting kompatibel ist. Sprich wenn du ein Hochhaus einfach so zerstören könntest, dann würde in den meisten Modernen Spielen der Schatten am Boden und das reflektierte Licht trotzdem noch vorhanden sein, weil es keine echte globale Beleuchtung in Echtzeit gibt.

Sprich wenn du viel Zerstörung und Physik willst, dann willst du auch Raytracing, also eine globale Beleuchtung in Echtzeit um das grafische Niveau das in den letzten Jahren erreicht wurde auch weiterhin halten zu können. Ohne RT würde die schöne Grafik im wahrsten Sinne dahin bröckeln.

Gleiches gilt für Streaming und Detaildichte. Nahezu alle Spiele und Engines sind aktuell noch auf die HDD der alten Konsolen ausgelegt [...]

Mit Direct Storage und Sampler Feedback Streaming wird auch der Knoten gelöst werden.


Was wir aktuell können sind schöne statische Landschaften mit guter statischer Fake Beleuchtung darzustellen. Damit kann man natürlich schon viel erreichen, aber wirklich frei in der Gestaltung und den Möglichkeiten ist man da noch lange nicht.
Ok, bei der Zerstörung gebe ich dir Recht bzw. allgemein sind die Möglichkeiten des Spielers, die Karte zu verändern meist in irgendeiner Form eingeschränkt.

Beim Welt-Streaming widerspreche ichetwas: Klar wird der Detailgrad durch die SSD/HDD limitiert und man kann nicht hochdetailierte Landschaften mit einer ollen HDD streamen. Das ändert mMn aber nichts am Gameplay an sich. Dann müsste man eben auf Details verzichten aber man KANN eine beliebig große Welt darstellen. Mitsamt den Tricks wie Ladebildschirme mit Aufzügen, engen Stellen durch die der Charakter kriecht etc. zu kaschieren ;-)
Insofern ist es in meiner Ansicht kein NEUES Feature, was erst durch gesteigerte Rechenpower möglich wird.
 
paganini schrieb:
@ComputerBase

Wieso zitiert man so eine Quelle? Prüft ihr das nicht? Eigentlich sollten solche Quellen doch vertrauenswürdig sein bevor man daraus einen Artikel macht. Finde das bisschen schwach von euch…
Vielleicht weil die News "GPU-Gerüchte" im Titel hat?

Das komische war, dass jetzt die Anzahl der FP32-Einheiten korrigiert wurde, die seit beinahe einem Jahr als gesetzt gilt.

Es ist klar, dass die Leaker keinen Zugriff auf die AMD-Entwicklung haben. Sie schnappen die eine oder andere Info auf, machen sich ihren Reim drauf und machen ihre Tweaks. Und da außer diesen Leaks nur wenig zu den neuen AMD CPUs und den GPUs von AMD und Nvidia greifbar ist, stürzen sich alle drauf.

Das andere was bekannt ist sind Patente. Aber da weiß auch niemand, ob ein Patent auch umgesetzt wird oder nur in einer Schublade landet.

Was die Leaker komplett ignorieren sind die Implikationen, die sich aus den AMD-Patenten ergeben. Auch der notorische Geiz was Chipdesigns angeht hat bei mir eine große Skepsis ausgelöst. Der große Unterschied bei den GPU-Patenten zu den CPU-Chiplets ist, dass die GPU-Chiplets stand alone als GPU arbeiten können.

Mein Tipp lautet weiterhin, dass AMD dasselbe Chiplet als Einzel-GPU, Duo-GPU und als Tripple-GPU herausbringt. Das beißt sich mit den Infos zu Navi 31, 32 und 33. Aber es bleibt spannend.

Somit bleibe ich dabei, dass die originale News eigentlich nicht notwendig war. Aber das Update macht das wieder wett.
 
Zurück
Oben