News GPU-Gerüchte: GeForce RTX 4090, Radeon RX 7900 XT und Intel Battlemage

Thepunisher2403 schrieb:
Das geht aber eben nicht bei jeder 3090...
Wenn man ein gutes Modell erwischt dann ja ansonsten kannst du das vergessen....
1,8 GHz bei 0,850v schafft fast jeder GA102. Wenn 0,850v nicht reichen, geht man eben auf 0,865v hoch. Das ist dann absolut Safe und ob 0,850 oder 0,865v macht am Ende bei der Leistungsaufnahme nicht wirklich einen Unterschied.
 
  • Gefällt mir
Reaktionen: Sly123
die GPU Chips werden noch in „2D“ hergestellt, oder?
Wäre interessant, wenn sie es schaffen würden die Shader übereinander zu stapeln
 
Reale Next Gen Games ohne Rücksicht auf Ps4/one Gen, wird Vram verbrauch explodieren lassen.

Bei der Ps4 sagte mal ein Entwickler da muss man auf jedes MB achten! Das Korsett ist extrem eng.

Die Geschichte wiederholt sich doch immer wieder, 3060Ti und 3070 Käufer werden dumm aus der Wäsche glotzen in einem Jahr. Während eine 6700 gut durchkommen wird.

Unter 10/12GB kauft man nicht mehr ausser als esportler und medium settings zocker von denen es extrem viele gibt aber nicht Foren relevant. :D

Aber Texturen reduzieren ist das absolut letzte was man machen sollte.
 
  • Gefällt mir
Reaktionen: Knutengore, Czk666, b3nb0hne und 3 andere
@Atma: Gut gemeinter Hinweis, ich komme von der Strix 3090 und bin zur 3070 Noctua gewechselt.
In der Summe war die 3090 einfach nicht vertretbar, hatte UV <1Volt, PT75% und Lüfter 60%.
Ergebnis laut, heiß, und immernoch über 300 Watt.
Mit der 3070 bin ich bei max. 250 Watt, OC mit 100%PT bei 2050Mhz + 7200 VRAM und derzeit noch Stock Voltage und komme auf 90% der FPS der vorherigen Konfig bei der Hälfte des Preises.
VRAM Limit mal außen vor.

Wobei Du vollkommen recht hast, wer ne 3090 sollte dies UNBEDINGT berücksichtigen!
Allein das PT auf 75% führt schon dazu, dass man zwar etwa 5% Frames verliert aber satte 25% Verbrauch dabei spart. ( 25% sind bereits 90 Watt )

( Siehe Sysprofil - dort sieht man die System noch ganz gut. 1080 TI > 3090 > 3070 )
 
  • Gefällt mir
Reaktionen: danyundsahne, Makso, Recharging und eine weitere Person
Dann bin ich mal irgendwann auf eine PS5 Pro gespannt. Für mich persönlich ist der PC-Markt auf absehbare Zeit vollkommen auf dem Holzweg. 1000 oder zumindest 800 Watt Netzteile sind mittlerweile ein Muss (GPU+CPU genehmigen sich immer mehr) und wie CB im 3090ti-Test auch schon geschrieben hat - das muss ja auch gekühlt werden.

Im Sommer wird es ohnehin immer wärmer werden, wenn man zu zweit in einem Hobbyraum daddelt, muss man entweder im Eigenheim im Keller sitzen oder eine "richtige" Klimaanlage haben (weiteres deutliches Plus beim Stromverbrauch, bei der Anschaffung und ebenfalls nur im Eigentum ohne Probleme machbar).
 
  • Gefällt mir
Reaktionen: Recharging
Tyr43l schrieb:
@Atma: Gut gemeinter Hinweis, ich komme von der Strix 3090 und bin zur 3070 Noctua gewechselt.
In der Summe war die 3090 einfach nicht vertretbar, hatte UV <1Volt, PT75% und Lüfter 60%.
Ergebnis laut, heiß, und immernoch über 300 Watt.
<1 Volt kann auch 0,950v bedeuten :p. Das hat am Ende dann natürlich kaum Auswirkung. Um bei 300 Watt oder darunter zu landen, muss man in jedem Fall unter 0,9v gehen. Je weniger um so besser.
 
<0,9 ist aber nicht die Regel, sondern eher die Ausnahme.
Die Strix OC hatte zudem eh ein Custom PT mit bis zu 480 Watt. ( Stock 390 + ca. 20% OC Tool)

Grundsätzlich stimmt es schon was Du sagst.
Trotzdem kann nur der erfahrene User das der Karte entlocken, zudem WaKü von Vorteil ist.
Ich persönlich weine der 3090 nicht hinterher, lediglich die 24 Gb VRAM fehlen mir.


Daher erhoffe ich mir eine Karte wie die 3080 TI, nur mit Stock 300 Watt von Noctua. ( Optimieren geht ja immernoch ;) )
 
Zuletzt bearbeitet:
fox40phil schrieb:
"Wir" brauchen dann unbedingt neue Monitore im Markt. Meine langersehnten 5k120+Hz Geräte! Die die Power der Topender ausreizen.
Mit DP 2.0 @ UHBR20 sind bis zu 5120*2880 bei 165 Hz und 10 bit möglich, das wäre ja mein Wunschmonitor für die kommenden Grafikkarten :D
 
  • Gefällt mir
Reaktionen: fox40phil
Tyr43l schrieb:
<0,9 ist aber nicht die Regel, sondern eher die Ausnahme.
Die Strix OC hatte zudem eh ein Custom PT mit bis zu 480 Watt.
Wie schon gesagt, 1,8 GHz bei 0,850 - 0,865v schafft jeder GA102. Das PT erreichen die Karten mit so einer Spannung dann auch nicht mehr. Meine 3090 Suprim X kommt mit einem 420W PT daher, das erreicht sie bei den Spannungen nur eben nicht annähernd.
 
w33werner schrieb:
Naja technische Meisterleistung?
Die Performance pro wird vielleicht um 10-20% steigen?
Der Rest kommt dann nur noch über einen größeren Chip und mehr an Stromverbrauch.
Ich spreche hier weniger von Nvidia:D

Ich bezog das auf die MCM Designs von AMD und Intel. Nvidia wird hier auch bald mit einsteigen.

Den diese technische Meisterleistung hat AMD 2017 schon mit Zen1 begonnen und seitdem sehr gut weiter optimiert. Und hier ist der Verbrauch fast schon stagniert (105W TDP) und die Mehrleistung enorm gestiegen von Zen 1 bis jetzt Zen 3.

Wenn sie das auch nur ähnlich gut mit ihrem GPU MCM Design erreichen, dann wäre das ein toller Techniker Fortschritt. Nicht nur dass die Leistung mit mehreren Chiplets enorm gesteigert werden kann. Auch dass die Mikroruckler Problematik aus den vergangenen Dekaden von Crossfire/Sli endlich der Vergangenheit angehören soll ist eine technische Meisterleistung. Und dazu gehen die Gerüchte alle in die selbe Richtung...AMD wird hier wohl weiter sehr viel effizienter als nV werden.

Man muss dennoch erst Tests abwarten. Ist alles noch mehr oder weniger Rätselraten hier. Aber ich bleibe optimistisch dass es hier sehr gut voran geht.
 
  • Gefällt mir
Reaktionen: w33werner
ja, unbedingt. die neuen Standards müssen her. Kann DP1.4 DSC oder HDMI 2,1 einfach nicht mehr sehen ....
 
Also AMD und NVIDIA strotzen ja nur so mit Leistungszuwächsen be der nächsten Gen.
AMD packt eine ganze Familie an DIEs auf die Karte, NVIDIA dafür einen Monströs großen.
Beides hat seine Vor- und Nachteile.

Kann es kaum erwarten.
 
  • Gefällt mir
Reaktionen: danyundsahne
Erscheinen denn am Jahresende/Anfang nächsten Jahres überhaupt Spiele, die so einen Leistungszuwachs auch nur ansatzweise bedienen?

Oder muss dafür dann Raytracing in 4K herhalten?
 
  • Gefällt mir
Reaktionen: Kuestennebel79, chilchiubito, Kenshin_01 und 2 andere
Bin sehr gespannt auf die ersten belastbaren Daten und Infos zur 4090 Performance 🧐

Die 3090 ist mir unter UWQHD oftmals bereits zu langsam.
 
Rubyurek schrieb:
Merke aber ,dass die Treiber eher mist sind und für eine Spiele AMD GPUs problematisch sind.
Das könnte ich aktuell von NVIDIA sagen, die mich und Windows 11 scheinbar nicht mögen. Irgendwie ist die Wiese auf der anderen Seite immer saftiger. ;)

Es ist leider immer etwas schwer genau nachzuvollziehen, warum genau du welche Probleme hast, wenn da nicht viel steht. Manchmal können - bei Windows leider immer noch so eine Macken - da schon "Überreste" eines alten Treibers Probleme machen, oder irgend ein Programm, dass man so nicht auf den Schirm hat, schießt dazwischen usw.

Ich hatte mal eine Zeit mit einer Vega64 Probleme, massive, weil irgendein Diagnose Programm nen Update hatte und das dann ganz böse mit dem Treiber zusammen wirkte usw.

Sowas hab ich aktuell auch bei NVIDIA bei mir im Verdacht, mal schauen, was da bei rumkommt, wenn ich das System mal wieder sauber aufsetze und alles mache.
Thepunisher2403 schrieb:
Das geht aber eben nicht bei jeder 3090...
Also so ganz "pauschal" geht das wirklich nicht bei jeder 3090. Da ist heute schon einiges mehr an Arbeit notwendig. ;)
Atma schrieb:
Um bei 300 Watt oder darunter zu landen, muss man in jedem Fall unter 0,9v gehen. Je weniger um so besser.
Man sollte nicht nur die Spannung anpassen, sondern auch etwas an den dazu gehörigen Taktraten, die da hinter liegen. Unser lieber @FormatC hat das jetzt mit einer 3090 Ti gemacht. Ich hab mir ähnliche Mühe bei meiner 3090 gemacht. Bei mir waren dass 5 - 6 Wochenenden mit verschiedenen Spielen, weil es immer erst mal ging, bis ich was spielte, was zicken macht, dann wieder rein, etwas schrauben bis das Spiel geht.

Es lohnt sich aber massiv, weil man für relativ wenig Leistungsverlust - bei mir sind es ca. 3 - 4 %, die jetzt aber in ca. 302 Watt gegen x > 350 Watt. Ampere kann sehr effizient sein, aber aktuell will man halt den längsten Balken. Schade! Bin ja gespannt, wie das dann bei ADA ist. :D
 
  • Gefällt mir
Reaktionen: chaopanda
So wie ich die Gerüchteküche verstanden habe, sieht die RDNA3 Gen so aus:

4K+: Navi 31
1440p: Navi 32
1080p: Navi 33 (kolpotiert 7700XT)

Wenn man sich mal vom Namen "7700 XT" löst und nur in Katergorisierung "4K, 1440p und 1080p" nimmt, dann wird ein Schuh draus.

6900 (Navi 21) => Nachfolger Navi 31 (angeblich 7900)
6800 (Navi 21) => Nachfolger Navi 31 (angeblich 7900)
6700 (Navi 22) => Nachfolger Navi 32 (angeblich 7800)
6600 (Navi 23) => Nachfolger Navi 33 (angeblich 7700)

Ich wäre mir da aber überhaupt nicht sicher, dass Navi 33 als 7700 kommen wird. Finalker Produktname und Preis werden bzw. können erst ganz kurz vor Launch festgelegt werden. AMD wird sicher auch gucken, was nVidia machen wird.

"Sicher" ist nur, Navi 33 folgt auf Navi 23, also auf die 6600er mit 8GB VRAM. Klar, 8GB ist in 2023 nicht mehr toll, aber für eine z.B. 7600er für 1080p sicher okay, gerade wenn die kolpotierten 400-450 Dollar stimmen.

Am Ende muss man aber die Benchmarks abwarten. Reine Spezifikationen sagen erstmal nur bedingt was aus, gerade wenn sich an der Technik (viel) ändert.


Wenn man vor dem Launch der RTX 3000 gewusst hätte, dass es über 10.000 FP32 Einheiten gibt, würde doch jeder von über doppelter Peformance ausgehen. Am Ende gibt es jedoch "nur" 40-50% mehr.
Oder wer hätte gedacht, dass ein 256 Bit Interface für 4K reichen? IF$ machts möglich, aber die reine Spezifikation (256 Bit) hätte doch komplett falsche Schlussfolgerungen zur Folge gehabt (im Vorfeld).


Was bleibt als Fazit? Alles kann, nichts muss ;) Oder so ähnlich.

Es wird wahrscheinlich ein spanndender Zweikampf um die Spitze und auch darunter wird es spannend.
By the way, Navi 33 (angeblich 7700 XT) soll bei 180-230W TDP liegen, Tendenz 200W. Das wäre doch ein schönes Paket. 200W ist sicher nicht wenig, aber bei entsprechender Leistung ggf. noch okay.
Aber auch hier: wait for the Benchmarks.
 
  • Gefällt mir
Reaktionen: danyundsahne und edenjung
w33werner schrieb:
Der Rest kommt dann nur noch über einen größeren Chip und mehr an Stromverbrauch.
Das funktioniert noch für diese Generation, aber dann wird’s fast unmöglich sein den Stromverbrauch weiter zu erhöhen und es auch zu kühlen.
Scheinbar scheinen wir somit bald am Ende der merklichen Weiter Entwicklungen angelangt zu sein.

Nope. Das sind ja zum Teil 6nm Chips.. da kommt 4nm 3nm 2nm und 1nm noch...
da geht noch einiges...
Ich könnte mir vorstellen das man einen Schritt eventuell mal zu 100 Prozent für die Effizienz nutzt...
 
Ist das so richtig für mich zusammengefasst:
NV baut die komplexeste und größten HPC Recheninheiten überhaupt. Über 18.000 Shader (Mini-Prozessoren) auf einem monolithischen Chip ist Wahnsinn und erfordert erheblich Design-Kunst.

AMD verknüpft einfach mehrere GPUs (Multi-Chiplet) auf einer Platine und möchte so günstiger/einfacher eine ähnliche Performance erreichen.

NV ist also sehr anfällig was Yield betrifft, wenn auch nur wenige von mehreren Milliarden Transistoren defekt sind, fann ist der Chip wertlos. Die Fabrikausbeute steht und fällt mit der Qualität der Wafer und EUV bei TSMC (nur 30% Ausschuss gilt z.B. als guter Wert)

Die GPU bei AMD sind weniger groß und raffiniert, sie sind damit weniger anfällig, erreiche eine bessere Ausbeute bei gleichen Bedingungen, sind günstiger zu produzieren und leichter zu kühlen (weniger Hotspots) - allerdings wird man durch die Anbindung Performance-Einbußen bekommen. Diese will man mit Cache mindern und kaschieren.

Es zeigt sich einmal mehr wie sehr die Designer (AMD/NV) von den Auftragsfertigern (TSMC) abhängig sind und diese wiederum zum Erfüllen ihrer Aufträge die Zulieferer von Maschinen (ASML/Zeiss Optics) und Wafer (?) brauchen.

Bitte gerne korrigieren. Danke

https://www.computerbase.de/news/gr...090-radeon-rx-7900-xt-intel-battlemage.80210/
 
  • Gefällt mir
Reaktionen: Col. Jessep, danyundsahne, Nighteye und eine weitere Person
AMD geht von 5.120 auf 15.360 Shader? Das wären ja einfach 3*6900XT = 7900XT.
 
budspencer schrieb:
AMD verknüpft einfach mehrere GPUs (Multi-Chiplet) auf einer Platine und möchte so günstiger/einfacher eine ähnliche Performance erreichen.

Bitte gerne korrigieren. Danke

Das "auf eine Platine" könnte missverstanden werden. Die Dual GPUs vergangener Tage waren mehrere Chips auf einer Platine. Hier hat man mehrere Chiplets auf einem Träger. Nach außen also immer noch Single GPU.

Analogie:

CPUs => Mehrere Chips auf einer Platine => Mehrere Sockel auf einem Mainboard und dadurch mehrere CPUs. => klassiche Server
RDNA3: Ein Sockel, eine CPU (in der Analogie), aber auf dem Träger der einen CPU mehrere "Unter"Chips, die Chiplets. Nach außen ist es aber eine CPU (in der Analogie). => z.B. die aktuellen Ryzen-CPUs.
 
  • Gefällt mir
Reaktionen: fox40phil und edenjung
Zurück
Oben