News Neue Variante jetzt offiziell: Nvidia bringt RTX 4070 mit GDDR6 statt GDDR6X

Der 20GT/s Vram ist nicht neu, der war schon auf der 7900XT/X Ende ´22 drauf. Dacht, der wär neu.

Durch die Nichttrennung habe ich jegliches Interesse verloren, dabei hätt des so die Volks-Grafikkarte werden können.
Jetzt ist die 4070 zum Ü-Ei geworden. Is schad.
 
  • Gefällt mir
Reaktionen: Naesh und SweetOhm
meckswell schrieb:
Jetzt ist die 4070 zum Ü-Ei geworden. Is schad.
Wieso? Kaufst du deine Graka in Klarsichtfolie mit abgeschliffenen Bauteilen auf dem Gemüsemarkt?
 

Anhänge

  • Screenshot_20240820_192811_Brave.jpg
    Screenshot_20240820_192811_Brave.jpg
    197,1 KB · Aufrufe: 68
  • Gefällt mir
Reaktionen: xpgx1
Es gibt wie die 4070 keine zweite Karte, wo du nicht weisst, was du erhälst.

Selbst bei der 3060Ti weisst dus, weil die getrennt sind. Aber die 4070 ist nicht getrennt.

Wir müssen abwarten, bis sie im Handel ist.
 
Ich wusste nicht das du Details bei deiner Bestellung nicht lesen kannst. Sorry. Wenn du bei Händlern bestellst die das nicht angeben, oder selbst auf Nachfrage das falsche behaupten ist das Betrug, und du ein Opfer.
 
und voraussichtlich wird der Speichertyp auch nicht auf der Verpackung stehen.
Wie kommt ihr darauf? Nur weil einige Hersteller gisher zu faul waren, das anzugeben? Solche Hesteller meidet man dann halt in Zukunft.

Bei Zotac steht es schon immer auf den Verpackung der im deutschsprachigen Raum vertriebenen Karten, da können sie nicht einfach eine GDDR6 Karte in die selbe Umverpackung legen:
https://www.zotac.com/de/product/graphics_card/zotac-gaming-geforce-rtx-4070-twin-edge-0

Dito schrieb:
Leider werden es viele kaufen. Auch bestimmt die, die es besser wissen. So ein Produkt sollte gemieden werden.
Schon interessant, ohne konkrete Preise in D und ohne einen einzigen Benchmark (und zwar den, der für den Köufer relevant ist) solche Aussagen zu treffen. Aber gut, die WD Red SMR wurde auch massenweise blind gekauft, von daher dürfte der erste Teil Deiner aussage passen.

Wobei ich mich immer noch frage, wie ich mich damals für die "korrekte" Variante meiner GTX 1060 entscheiden konnte. Die gab es mit GDDR5 und GDDR5X und ich habe tatsächlich die bestellte Variante erhalten.
 
Zuletzt bearbeitet:
Hier mal Gigabyte 3060. Exact 3mal wird angegeben was verbaut ist.
 

Anhänge

  • 20240820_195309.jpg
    20240820_195309.jpg
    556,2 KB · Aufrufe: 38
  • 20240820_195328.jpg
    20240820_195328.jpg
    190,8 KB · Aufrufe: 36
  • 20240820_195340.jpg
    20240820_195340.jpg
    480,1 KB · Aufrufe: 41
  • Gefällt mir
Reaktionen: NMA
GerryB schrieb:
aber
GDDR6X kann PAM4, so das evtl. der SOC bei der nonX@PAM3 höher takten muss = mehr Strom verbraucht!?
GDDR6 verwendet NRZ und nicht PAM3. Der SOC (=Uncore/Fabric) Takt sollte eigentlich gleich bleiben bis minimal sinken, aber keinesfalls ansteigen.

Was bei den Speicherchips selbst an Stromverbrauch gespart wird, kann in den Boost-Algo der GPU gebuttert werden. So dürfte bei gleicher TBP ca. dieselbe Performance rauskommen.
 
Ändert sich auch was an den Latenzen beim Speicher?

4070, Super, Ti, Super Ti. Fehlt nur noch Ti Super das man sich gut auskennt xD
 
Der Unterschied ist, wie der Artikel erwähnt, absolut marginal. Es sind theoretische 5%. Ich bin mir sicher das es einige Benchmark-Szenarien gibt die da einen Unterschied messen können, aber ich folge dem (vorläufigem, theoretischen) Urteil und sage - ist fraglich obs beim User "ankommt".

Das es trotzdem sehr schön und auch korrekt wäre dies mit dem Produktnamen in irgendeiner Form kenntlich zu machen, ist nochmal was anderes. Schade das NVIDIA da so auf Homelander-Mode schaltet.

Aber gut, bei den 3060 permutationen bin ich auch raus ^-^ Da überrascht sowas nicht. Schade, aber kein Weltuntergang. Denn wie einige andere User korrekt sagen - wird dies mit SICHERHEIT auf den Packages vermerkt sein müssen - spätestens beim Barcode Label. Selbst der zoll verlangt derartige angaben, aus gutem Grund.
 
  • Gefällt mir
Reaktionen: Abrexxes
kiffmet schrieb:
GDDR6 verwendet NRZ und nicht PAM3. Der SOC (=Uncore/Fabric) Takt sollte eigentlich gleich bleiben bis minimal sinken, aber keinesfalls ansteigen.
???
PAM4 kann 4 Werte darstellen aber NRZ nur 2 Werte, ... sollte dann nicht NRZ doppelt so hoch takten müssen?
oder man brauchte doppelt soviel physische Signalleitungen, die es nicht für lau gibt.
(mit SOC meinte ich den Speicherkontroller zw. GPU+Vram, der tatsächlich den Großteil der Watts verbrät)

wobei es mich wundert, das NRZ nur +1 und -1 können soll, wenn es außerdem als Mittelwert 0 gibt
(stelle mir die Datenübertragung wie auf einem Oszilloskop vor)

btw.
z.Bsp. kann meine olle 6800@GDDR6 für einen Vramtakt von eff. 2136MHz mit einem SOC-Takt von 2136/3=712MHz betrieben werden, ohne das Bandbreite fehlt
nur auf der anderen Seite des SOC zum Cache hin muss ich 1/2 einhalten, sprich die 712MHz-SOC reichen dann für
2 x 712= 1425MHz auf dem IF-Cache
Ob jetzt Vram intern nur eine Verdopplung mit NRZ statfindet, ... may be, das deswegen DPM3=2136/2= 1068
festgelegt werden muss.(das kommt aber nur zum Einsatz mit FT2, mit FT1 wird DPM3 einfach auf 1000MHz gelassen
FT= Fast Timing, ... der Vram arbeitet je nach Takt mit unterschiedlichen Timings)
 

Anhänge

  • 6800-FrequencyTab.JPG
    6800-FrequencyTab.JPG
    30,3 KB · Aufrufe: 18
Zuletzt bearbeitet:
Lan_Party94 schrieb:
Ist das so erlaubt? Finde das schon eine krasse abzocke!

Bei SSDs stört es doch scheinbar auch keinen. Da findest Du selbst bei angeblichen Top-Modellen (Samsung 990 Pro) bei Geizhals solche Hinweise:

Dieses Modell ist mit unterschiedlichen Controller- und Speicherbaustein-Bestückungen erhältlich. TBW kann vom ursprünglichen Datenblatt abweichen.

^ Und da kannst Du froh sein, wenn die Performance "nur" um 5% abweicht oder die Qualität auch nur annähernd den einstmals den Testern zur Verfügung gestellten Varianten entspricht.
 
@GerryB Bei AMD wirds ein bisschen kompliziert, wegen der Architektur mit Infinity Fabric. AFAIK ist die SOC Bandbreite ist ab Werk höher, als die Speicherbandbreite, weil über den SOC zeitgleich mehrere Funktionseinheiten der GPU miteinander kommunizieren können müssen.

Bei RDNA2: Am SOC hängt der eigentliche Grafikprozessor, die Display Engine, Media Engines, mehrere IF-Links für (L3-Cache inkl. VRAM Datenbus), und der PCIe Endpoint. Der Speichercontroller, welcher den Adressbus und Dinge wie Cell-Refresh steuert, könnte u.U. separat über eine Control-Plane angesteuert sein (ist zumindest bei Ryzen CPUs so).

Wenn wir aber nun zur RTX 4070 zurückkehren, die mit 21Gbps GDDR6X daherkommt, hat diese einen realen Speichertakt von 21000/16=1312,5 Mhz (Quad pumped + DDR + PAM4 = 4*2*2 = 16).

Mit dieser Geschwindigkeit laufen auch der Speichercontroller, der Addressbus, und ein Teil des Datenbuses. Im Datenbus sitzt aber noch ein Decoder mit doppelter Taktfrequenz, welcher das PAM4 Signal wieder in eines mit nur 2 Zuständen umwandelt, um es so intern für die GPU nutzbar zu machen.

Bei GDDR6 non-X ergibt sich i.Vgl. ein Umrechanfaktor von 8 (4*2*1) wegen NRZ bzw. PAM2 statt PAM4. 20Gbps entsprechen damit 2500Mhz. Diese liegen am gesamten Datenbus an, und die aufwendige Decodierung des Signals fällt weg. Der Speichercontroller selbst wird aber mit halber Geschwindigkeit angesteuert, also 1250Mhz - das ist, was ich meinte mit "Takt sollte eigentlich gleich bleiben bzw. nicht ansteigen". Für die Bandbreite ist das egal, aber die Latenz leidet darunter (siehe Ryzen CPUs mit UCLK = MCLK/2).

AFAIK läuft der Speichercontroller bei RDNA2 ebenso mit MCLK/2.
GerryB schrieb:
wobei es mich wundert, das NRZ nur +1 und -1 können soll, wenn es außerdem als Mittelwert 0 gibt
(stelle mir die Datenübertragung wie auf einem Oszilloskop vor)
Wie ein analoges Signal auf ein digitales gemapped wird, is willkürlich und wird als Teil des Schaltkreisdesigns festgelegt. Das geistige Bild mit +1 bzw. -1, oder einer Sinuskurve ist in dem Kontext aber etwas verwirrend, weil das Anschauungen für Wechselstrom sind, bei dem sich die Stromrichtung ändert. Das ist bei Gleichstrom aber nicht gegeben.

Bei NRZ (Non-Return-to-Zero) kann zwischen zwei verschiedenen Spannungen unterschieden werden (z.B. 1V und 2V). Auf der Leitung liegt immer(!) einer der beiden Werte an. Ein Zwischenwert entsteht höchstens ganz kurz im Übergang von einem Wert auf den anderen, kann aber nicht als eigenständiger Signalpegel angelegt u. gehalten werden. Hier ist die Unterscheidung noch halbwegs einfach. Eine Spannung größer dem Wert in der Mitte (1+2)/2 = 1,5V kann als logische 1 gewertet werden, eine kleiner als 1,5V als logische 0. Es ergibt sich eine "Spannweite" bzw. ein gültiger Bereich von 0,5V um die jeweiligen Pegel.

Bei PAM4 hast du nicht zwingend einen größeren Spannungsunterschied zwischen dem höchsten, und dem niedrigsten Signalpegel, aber du musst mehr Werte unterbringen, z.B:
00 = 1,00V, 01 = 1,33V, 10=1,66V und 11=2,00V.

Hier erstreckt sich der zulässige Bereich des Pegels für eine gültige 1 nur noch von 1.166V bis 1,500V, womit die Größe des Intervals um den Wert herum auf 0,33V geschrumpft ist. Dementsprechend anfälliger wird das Ganze auch für Störungen. Die Spannungen setzen und messen muss man im Vergleich zu NRZ auch präziser können.
 
  • Gefällt mir
Reaktionen: NoNameNoHonor und GerryB

Nvidia bringt RTX 4070 mit GDDR6;


von mir aus, aber dann will ich auch 16GB VRAM!

Und da es höchstwahrscheinlich niemals passieren wird:

F*ck You NV!
 
Lan_Party94 schrieb:
Ist das so erlaubt? Finde das schon eine krasse abzocke!
Die heißt dann bestimmt RTX 4070 12GB GDDR6 und man muss genau drauf achten.
Noch schlimmer wäre es, wenn man es auf dem ersten Blick nicht erkennt und wirklich in der Produktbeschreibung nachlesen muss, ob es nun das X oder Non-X Modell ist
 
War ja klar, dass Nvidia die Einsparung nicht an den Kunden weiterleiten würde weil "Number go up" selbst wenn man aktuell noch im Geld schwimmt weil der "KI" Hype nach wie vor anhält.

Dass es auch danach aussieht, dass man das Downgrade nicht kennzeichnen möchte, sonst hätte man es in der Ankündigung so auch beworben, spricht auch Bände wie sich Nvidia vorstellt wie das laufen soll. Man sieht hier letztlich klar, dass sich seit dem Debakel der "4080" 12GB und dessen Un-Launch exakt nichts gelernt hat. Damals haben sie halt statt "two steps forward" direkt "three steps" gemacht und sind krachend gescheitert, heute aber werden Downgrades nur noch als "one step forward" gemacht und hofft dass es funktioniert...

Hätten sie das Ganze mit nem >50€ Rabatt versehen und gekennzeichnet wäre das überhaupt kein Problem gewesen. So aber ist es reine "fuc* you customer!" Attitüde die niemand unterstützen sollte.
 
Zurück
Oben