News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

Nvidia kommt schon mit der 4070 um die ecke und AMD hat nur zwei ihrer aktuellen GPU gen auf den Markt.

Da sieht Mann wieder, dass AMD einfach wie immer hinterher hängt.
 
  • Gefällt mir
Reaktionen: fox40phil
Klever schrieb:
Sollte auch ungefähr die Leistung einer 3080 Ti erbringen.
Sehe ich nicht, bei den Abspeckungen wohl eher "nur" 3080 Niveau (ohne Ti).

599 oder 649 USD, also in EU dann zum Launch rund 680 Euro (599 USD) oder 740 Euro (649 USD).
 
  • Gefällt mir
Reaktionen: Rockstar85 und fox40phil
Bin gespannt was unabhängige Tests zu der Karte sagen werden wenn sie dann erscheint. Leider ist Nvidia so knauserig mit dem VRAM. Das dürfte, wie auch bei der 4070 Ti, neben dem Preis ein dicker Minuspunkt sein..

AMD sollte auch endlich die kleineren Modelle nachschieben. Diese Salamitaktik finde ich überhaupt nicht gut. Aber eventuell geht es auch darum, die ungeduldigen zum Kauf der teureren Modelle anzuregen.
 
  • Gefällt mir
Reaktionen: Hurricane.de und lubi7
maximus_hertus schrieb:
Sehe ich nicht, bei den Abspeckungen wohl eher "nur" 3080 Niveau (ohne Ti).

Bei der 4070 Ti hat man auch angezweifelt dass sie die Leistung einer 3090 Ti erreicht, aber das tut sie, auch mit der schmaleren Speicherbusbreite, auch dank dem vergrößerten Cache (aber sicherlich nicht "3x" Performance einer 3090 Ti wie Nvidia behauptet). Denke schon, dass sie die Leistung einer 3080 Ti erreichen wird.
So oder so, werden wir die Tests abwarten müssen.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Für 4K sicherlich nicht mehr brauchbar, aber für WQHD mit max Details und hohen fps?
 
Zuletzt bearbeitet:
+38% Rohleistung (40,1 TFLOPS vs 29 TFLOPS), +42% mehr TDP

Und dann soll die 4070 Ti nur +13% schneller sein?


Möglich, klar, aber imo passt das überhaupt nicht zu nVidia mit der bisherigen 4000er Karten. Da gibt es relativ große Abstände (20-25%) zwischen den SKUs.

Bei 3080 Leistung wäre die 4070 Ti +24% schneller, was zu den bisherigen Abständen super passt und auch zu den Daten (Rohleistung, TDP).
 
Mr.Tentakeltyp schrieb:
Bin gespannt was unabhängige Tests zu der Karte sagen werden wenn sie dann erscheint. Leider ist Nvidia so knauserig mit dem VRAM. Das dürfte, wie auch bei der 4070 Ti, neben dem Preis ein dicker Minuspunkt sein..

AMD sollte auch endlich die kleineren Modelle nachschieben. Diese Salamitaktik finde ich überhaupt nicht gut. Aber eventuell geht es auch darum, die ungeduldigen zum Kauf der teureren Modelle anzuregen.
Also ich kann dir sagen, dass die 12 GB locker ausreichen für 3440x1440 . Ich habe mir eine Geforce RTX 4070 TI Gamerock gegönnt und bin richtig zufrieden mit der Karte. Schnell wie eine 3090 TI und effizienter als die Erstgenannte.

RT Leistung immer über das aktuelle AMD Topmodel.
 
  • Gefällt mir
Reaktionen: Master Chief ! und paganini
Mr.Tentakeltyp schrieb:
Bin gespannt was unabhängige Tests zu der Karte sagen werden wenn sie dann erscheint. Leider ist Nvidia so knauserig mit dem VRAM. Das dürfte, wie auch bei der 4070 Ti, neben dem Preis ein dicker Minuspunkt sein..
Nvidia ist knauserig mit dem VRAM und AMD ist knauserig mit der Raytracing Performance und Verbreitung von Technologien wie FSR 2/3 sowie Effizienz.
zivilist schrieb:
Für 4K sicherlich nicht mehr brauchbar, aber für WQHD?!
Sie "kann" auch 8K, gibt schließlich sowas wie DLSS/FSR.

HaRdWar§FreSseR schrieb:
Ich habe mir eine 4070 I GamsRock gegönnt und bin richtig zufrieden mit der Karte. Schnell wie eine 3090 TI und effizienter als die Erstgenannte.
Sofern DLSS 3 bzw. Frame Generation unterstützt wird, dann sogar um einiges schneller als eine 3090 Ti;)
 
  • Gefällt mir
Reaktionen: ben12345, simosh, Master Chief ! und eine weitere Person
wtfNow schrieb:
Sofern DLSS 3 bzw. Frame Generation unterstützt wird, dann sogar um einiges schneller als eine 3090 Ti;)
Du sagst es mit DLSS 3.0 und Frame Generation bin ich immer über der 90 Fps Marke.
 
  • Gefällt mir
Reaktionen: wtfNow
Wow ... trotzdem mit 12GB VRAM ?
Mal schauen was der Straßenpreis so sagt.

Interesse ja, aber wirklich nur zur Marktübersicht.
Möchte auf keinen Fall was kaufen.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Ja, trotz 12 GB VRAM ich dachte auch erst hmm soll ich oder soll ich nicht und was soll ich sagen bin begeistert von der 4070 TI.
 
Ich steige erst um, wenn ich auf 4K gehe und dass dann erst vielleicht in 5 Jahren mit den dann aktuellen Karten.

Mit meinem Setup bin ich erstmal zufrieden.
 
  • Gefällt mir
Reaktionen: fox40phil
192Bit Speicherinterface:freak:
 
  • Gefällt mir
Reaktionen: Beatmaster A.C., Hurricane.de, iceshield und 3 andere
Aber wieder massig L2-Cache zum Ausgleich;)
 
  • Gefällt mir
Reaktionen: TheAnswer42, Master Chief !, Klever und eine weitere Person
Chesterfield schrieb:
die 4070ti auch nicht
Die 4070Ti ist die bisher stärkste 70er Karte die man kriegen kann. Die Graka schlägt die 3070/Ti deutlich. Sogar in den meisten Fällen die 3090Ti. Wovon redest du also? Für 1080p & 1440p + DLSS die ideale Karte.
NoNameNoHonor schrieb:
So schlecht ist die 3070 nicht. Selbst mit WQHD kann man damit die meisten Spiele mit genügend FPS spielen... vielleicht wäre es ja gar nicht notwendig gewesen, die zu verkaufen ;-)
Die neuen Spiele werden aufwendiger und fressen mehr Leistung, wogegen die Nennleistung der 3070 gleich bleibt. Da liegst du somit falsch.
 
  • Gefällt mir
Reaktionen: Beatmaster A.C., Master Chief ! und HaRdWar§FreSseR
wow, die 4070 ti schlägt die 3070 TI, wer hätte das gedacht :freaky:
 
  • Gefällt mir
Reaktionen: Rockstar85, _b1nd, Coeckchen und 5 andere
Klever schrieb:
Da kann man jetzt schon mit ziemlicher Sicherheit prophezeihen dass die RTX 4070 die 4070 Ti als meistverkaufte Ada Karte ablösen wird. Sollte auch ungefähr die Leistung einer 3080 Ti erbringen.
Nur wegen der RTX Leistung sonst kannst ja ne 6950 xt für 700 nehmen hehe
 
  • Gefällt mir
Reaktionen: hanjef
yamiimax schrieb:
Wie willst sparsamer sein aber gute Leistung bringen schwierig!

ohne rtx ist amd trotzdem eine gute Alternativen!
Vielleicht sollte AMD mal 3D-V-Cache auf den GPUs verbauen.
Beim 7950X3D klappts ja auch mit schneller und sparsamer als Intel ;)
 
Zurück
Oben