News Langsamerer Speicher: GeForce RTX 4070 mit GDDR6 statt GDDR6X gesichtet

Simanova schrieb:
Wenn die GPU in Summe gleich schnell ist, warum nicht. Steht ja auch auf der Packung drauf.

Bei einer Karte im oberen Mittelfeld die eh schon teilweise bei FHD durch das SI gebremst wird (192bit sind halt arg knapp für das Preis- und Leistungssegment), ist das ein sehr großes WENN. Spätestens mit RTX und seinem Speicherhunger ist das dann kein "gleich schnell" mehr.

Und zum letzten Teil - auch das ist nach derzeitigem Kenntnisstand ein ziemlich großes WENN.

Zumindest die Galax RTX 4070 OC 2X mit GDDR6 soll genauso aussehen wie das bisherige GDDR6X-Modell und auch die gleiche Verpackung besitzen.

Denn anscheinend haben wir schon mal einen Hersteller der "steht ja auch auf der Verpackung drauf" rein aufs Kleingedruckte bezieht. Und das ist für mich eine bewusste Täuschung.
 
  • Gefällt mir
Reaktionen: JarlBallin
TenDance schrieb:
Bei einer Karte im oberen Mittelfeld die eh schon teilweise bei FHD durch das SI gebremst wird (192bit sind halt arg knapp für das Preis- und Leistungssegment), ist das ein sehr großes WENN. Spätestens mit RTX und seinem Speicherhunger ist das dann kein "gleich schnell" mehr.
.
Eine 3080 kann sich mit 50% mehr Bandbreite, sehr selten mal so 10% vor einer 4070 platzieren.
Das as allerdings weniger am SI liegt

Speicher OC hat bei einer 4070 auch kaum Auswirkung.
Eine 4070S bringt mit dem gleichen SI wie die Standard ihre Leistung fast 1 zu 1 auf den Boden.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Warum auch nicht, nvidia verdient mit KI prächtig, da können die EUCH Gamer halt so richtig melken.
Kauft mal AMD, dann hört der Quatsch ganz schnell auf.
Ansonsten nicht jammern, die Pille schlucken und schön weiter viel Geld an nvidia bezahlen.
 
  • Gefällt mir
Reaktionen: SweetOhm und JarlBallin
Weil AMD ja so billig ist.
 
  • Gefällt mir
Reaktionen: Zagrthos, BorstiNumberOne und Azghul0815
TP555 schrieb:
Hoffentlich passen alle auf, und keiner Fällt drauf rein.
Wieviel % der GPU käufer sind "Nerds" die sich damit beschäftigen? Wieviel % wandern über den OEM in nen "ALDI"/MSH-PC ?

So funktioniert das nicht. Und es war auch nicht mit der 970 das erste Mal. Grafik-Kr*pel-GPUs sind so alt, die dezidierte GPU-Lösung.

Wem etwas wichtig ist, beschäftigt sich. Wem nicht, tja, der "zahlt" halt drauf und lernt daraus, oder auch nicht.
 
gymfan schrieb:
Es wäre mal interessant, ob NVidia die Vorgaben für Packungsdesign und die Texte macht oder ob die Hersteller diese selber bestimmen dürfen.
Da machen, zumindest für die Front der Verpackung, sowohl Nvidia als auch AMD, durchaus sehr viel Vorgaben hinsichtlich ihres Corporate Design. Da wird beispielsweise das grundlegende Farbschema und auch wie groß der Modellname draufstehen muss oder die Speichermenge und auch die genaue Anordnung der Texte und Designelemente.
 
Artikel-Update: RTX 4070 mit GDDR6 ab 20. August

Laut dem nächsten Hinweis aus Kreisen der Board-Partner wird die GeForce RTX 4070 mit GDDR6 ab dem 20. August allmählich den Handel erreichen. Erst nach diesem Datum sei mit größeren Stückzahlen zu rechnen, da die Versorgung zunächst knapp ausfalle.

Dass es eine offizielle Ankündigung seitens Nvidia geben wird, erscheint derzeit unwahrscheinlich. Zudem ist weiterhin unklar, ob diese Variante auf bestimmte Regionen beschränkt ist, obgleich VideoCardz einen globalen Start vermutet.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und BrollyLSSJ
Ich verstehe die Empörung wegen 5% nicht. Wenn die 4070 mit GDDR6 zu langsam ist dann wäre die mit GDDR6X auch zu langsam.
 
Verkaufe hier einen 7er BMW, neuwertig, Motor vom Gogomobil… was beschwert ihr euch? Ist doch trotzdem noch ein 7er, oder? ODER?

Na gut, etwas übertrieben.
Ich finde es immer bisschen schwierig gewisse Artikel im Nachhinein zu ändern.
Etwas schneller zu machen als es bisher war ist ok, aber schwächer, auch wenn es „nur“ 5% sind, das geht aus Kundensicht einfach nicht…

RTX 4070 suggeriert eine bestimmte Leistung, diese sollte nachträglich bauartbedingt nicht unterschritten werden.

Ist aktuell auch das gleiche Problem wie bei Intel und den 13. und 14. Generation…
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
kachiri schrieb:
Weil AMD ja so billig ist.
Die wollen natürlich auch Geld verdienen aber wenn man die direkten Konkurrenten vergleicht, bzw. nach Leistung schaut, sind sie schon günstiger.
 
  • Gefällt mir
Reaktionen: JarlBallin und SweetOhm
Scheinbar gibt es keine Leistungseinbußen durch GDDR6 ohne X, sonst wäre das ja keine 4070 mehr, sondern eine 4065 oder Nvidia müsste das irgendwie anders kenntlich machen.

Wenn das der Fall ist, was einige Kommentatoren auch annehmen, dann stellt sich mir die Frage: Warum wurde die 4070 nicht direkt "nur" mit GDDR6 ausgeliefert, wenn der reicht?
Wäre sie dann nicht etwas günstiger herzustellen? Könnte man das an den Kunden weitergeben?
 
Anti-Monitor schrieb:
Die wollen natürlich auch Geld verdienen aber wenn man die direkten Konkurrenten vergleicht, bzw. nach Leistung schaut, sind sie schon günstiger.

Fakten.
https://www.computerbase.de/thema/g...tt_preisleistungsverhaeltnis_der_grafikkarten

Wenn wir jetzt mal RT (und andere Features) komplett ausklammern, dann ja, ist AMD "leicht" besser... Aber damit würde man es sich schon sehr einfach machen. Wenn man jetzt allein RT dazu nimmt, dann sieht AMD keinen Stich mehr.
Zusammenfassend würde ich behaupten, dass sich beide da aktuell nicht viel nehmen. Mit Tendenz zu NV, weil besseres Gesamtpaket.

Ich habe jetzt im Bereich der 4070 geschaut. Im höheren Preissegment wird der Vergleich schwieriger.
 
Resteverwertung, was ist daran verwerflich, so lange es erkenntlich kommuniziert wird
 
Unschön ist es trotzdem, denn Käufer müssen künftig genau hinsehen, ob sie eine GeForce RTX 4070 mit GDDR6X oder mit GDDR6 erhalten. Zumindest die Galax RTX 4070 OC 2X mit GDDR6 soll genauso aussehen wie das bisherige GDDR6X-Modell und auch die gleiche Verpackung besitzen. Hier gilt es also, die Datenblätter zu studieren.

In meinen Augen ist das arglistige täuschung
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm und Hate01
kachiri schrieb:
Ah komm. Meine 4070 Super betreibe ich mit 25% weniger Leistungsaufnahme bei gerade einmal 5% Leistungsverlust. Was würde da GDDR6 vs. GDDR6X noch bringen. Die Karten (auch die normale 4070) sind ja jetzt schon super effizient mit UV.;)

Echt, kann man bei GDRR6X einfach mal so 25 % weniger Spannung laufen lassen? Geht das von dem Treibern überhaupt? Halte ich für äußert unwahrscheinlich. Und alles andere, wie Gesamtaufnahme, ist wiederum in diesem Fall unerheblich, denn das könnte man auch mit einer 4070-none-x machen ... je nach Chipgüte natürlich.

Ob das jetzt wiederum wirklich ein echtes Kaufargument für eine none-x ist, lasse ich mal dahingestellt.
Aber mal im ernst, haben sie einen Einfluss darauf wie viel Strom ihr GPU Speicher säuft? Und falls ja, dann ginge das ja auch mit nem none-x, nur halt noch weiter runter... oder?

Aber nein, ich denke auch nicht, dass die Welt auf die none-x Variante gewartet hat. Aber "Gurken" Karten sind jetzt auch nichts Neues. Wem da die kognitiven Möglichkeiten Fehlen das richtig einzuordnen, der nutzt ohnehin eine Konsole. Zur Geschäftsfähigkeit gehört halt dazu das man sich mit dem Inhalt des Kaufvertrages auseinandersetzt. Und wen das Ding günstiger als eine "echte" 4070, aber schneller als eine 4060ti, dann wird das auch (zurecht) wohl seine Käufer finden.
 
  • Gefällt mir
Reaktionen: JarlBallin
Slashchat schrieb:
die treiber und das bild retten nvidia jedesmal von einem amd intel ausflug
Die Treiber? DIE TREIBER?? DIE FU...ING TREIBER!!!
Die Treiber sind es, die mich eins ums andere mal dazu bringen, die 4090 raus zu rupfen und von meinem Kollegen meine olle 6900xt zurückzufordern!!!
Die Nvidia Treiber aus dem Jahr 2000 sind eine absolute Zumutung, erst recht, wenn man einmal mit AMD Adrenaline zu tun hatte. Das einzige was derzeit verhindert, dass ich in einer öffentlich geschlossene psychiatrische Anstalt ende, ist, dass Nvidia (vor mittlerweile auch schon wieder 2 oder 3 Monaten) eine Überarbeitung der Treiberoberfläche angekündigt hat, die aber leider derzeit auf sich warten lässt...

Solange nicht diese Treiberüberarbeitung durch ist, sollte jeder, der auch nur ein positives Wort über die Nvidia Treiber verliert, mit mindestens 50 Stunden Helene Fischer und Celine Dion bestraft werden!
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm, SP-937-215 und 3 andere
TP555 schrieb:
Hi

Und wieder mal die Perfekte Kunden Verarsche, aber was ewartet man auch von Nvidia!

Mit dem Laden bin ich schon längst durch, GTX970 war meine Letzte!

Hoffentlich passen alle auf, und keiner Fällt drauf rein.

mfg.
ist AMD so viel besser?
Ich erinnere mich dass bei Fury (X) gesagt wurde der Speicher verhält sich dank Cache eh "wie 8GB"...
 
Balikon schrieb:
Warum wurde die 4070 nicht direkt "nur" mit GDDR6 ausgeliefert, wenn der reicht?
Meine Vermutung: Damals (TM) hat GDDR6 nur bis 18 GBit/s geschafft. Ich meine zumindest, damals hat GDDR6 noch nicht so einen hohen Durchsatz geschafft. Und erst später wurden dann bis 20 GBit/s prognostiziert.
 
  • Gefällt mir
Reaktionen: Balikon
Zurück
Oben