News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

Hab mir jetzt für meinen 7700x die 6800 XT im Abverkauf mit Last Of Us für 570€ geholt mehr gibts nicht.

Für 16 GB Vram bin ich bereit 550€ zu investieren die Angebote der Konkurrenz für 800€ und Max 12GB lasse mich da kalt sry da kann ich auch bei meiner 1070 ti bleiben die ich für seiner Zeit für 420€ gekauft habe.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli, Dittsche, JackTheRippchen und 2 andere
JackTheRippchen schrieb:
Nvidia designt die Chips, also können sie auch das Speicherinterface designen. So wäre
3090/4090 (Ti) mit 24 GiB @ 384 bit
3080/4080 (Ti) mit 20 GiB @ 320 bit
3070/4070 (Ti) mit 16 GiB @ 256 bit
3060/4060 (Ti) mit 12 GiB @ 192 bit
3050/4050 (Ti) mit 10 GiB @ 160 bit
gar kein Problem gewesen. Konsistentes Lineup mit einer gewissen Zukunftsfähigkeit.
Ein Chip wird eben nicht allein nach dem Speicherinterface ausgerichtet. Man kann problemlos alles mögliche designen. Das Ziel ist aber maximale Performance pro Fläche.

JackTheRippchen schrieb:
Und Karten mit <= 128 bit sollten einfach wie früher auf das X verzichten.
Was für'n X? Was soll das bedeuten?
 
  • Gefällt mir
Reaktionen: aklaa
Ich darf nochmal daran erinnern, dass moderne Spiele wie z.B das "neuste" Anno 1800 mit 4GB VRAM auskommen, um rießige und detaillierte Städte darzustellen, aber ein beliebiges Remake bei 8GB VRAM einfach crasht. Wir haben ein Problem auf seiten der Spieleentwicklung. Und den Entwicklern jedes Jahr doppelt so viel VRAM zu geben ist nicht die langfristige Lösung.
 
  • Gefällt mir
Reaktionen: Cohen, iSight2TheBlind, dB150 und 4 andere
Draco Nobilis schrieb:
Man wird dafür sorgen das alle wichtigen Spiele damit kommen und ohne "unspielbar" sein werden.

Eine denkbare Theorie, mMn aber komplett unwahrscheinlich.

Der Jensen ist Geschäftsmann, kein Eiermaler. Die nächste Generation ist quasi schon fertig und in der aktuellen Zeit, ist die jetzige Generation genau richtig.

Wer ein Hardwarejunkie ist, kauft sowieso neu und wem die alte Hardware abgeraucht ist, muss kaufen. Alle anderen, werden dann aber zur 5k Generation greifen.

Daher baut man aktuell genau das, was nötig ist und nicht das, was möglich ist. Das baut man erst dann, wenn die Depression am Hardwaremarkt vorbei ist.

btt:

Der Ton macht die Musik. In diesem Falle der Preis. Einen zu hohen Preis, regelt der Markt von alleine. Oder die Menschen zahlen ihn trotzdem und jammern danach.

Wer interessiert sich für Jammerlappen? Die jammern sowieso nur und machen nichts. Die kann man auch ordentlich abzocken. :evillol:

mfg
 
sun-man schrieb:
Also ich schlag mich schon länger mit dem Gedanken meine uralte 3060TI (noch vor Corona für 380 gekauft) abzulösen. Aber die 6800?????
Da sieht man mal wieder die Unterschiede. Wenn ich mir jetzt eine GPU kaufen müsste, wäre es eine 3060 oder eine 6700XT. Mehr als 500€ will ich einfach nicht ausgeben für eine GPU.
 
  • Gefällt mir
Reaktionen: Paladin301 und sun-man
nvidia sortiert die chip nach deren kosten
ad107 35$ low end und entry
ad106 50$ mid class
ad104 85$ upper class
ad103 lower high end 110$
ad102 180$ high end
 
bensen schrieb:
Ein Chip wird eben nicht allein nach dem Speicherinterface ausgerichtet. Man kann problemlos alles mögliche designen. Das Ziel ist aber maximale Performance pro Fläche.
Nach der 4070Ti zu beurteilen erwarte ich eine Leistung einer 3080Ti. Das wird hoffentlich die sparsamste und schnelle Karte unter 200Watt Verbrauch. Auch wenn diese 500€+ kosten wird, bei den heutigen Strompreisen genau das Richtige für mich. Meine 1070 kann dann verdient in Rente gehen :D

1679988579182.png
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
JackTheRippchen schrieb:
Nvidia designt die Chips, also können sie auch das Speicherinterface designen. So wäre
3090/4090 (Ti) mit 24 GiB @ 384 bit
3080/4080 (Ti) mit 20 GiB @ 320 bit
3070/4070 (Ti) mit 16 GiB @ 256 bit
3060/4060 (Ti) mit 12 GiB @ 192 bit
3050/4050 (Ti) mit 10 GiB @ 160 bit
gar kein Problem gewesen. Konsistentes Lineup mit einer gewissen Zukunftsfähigkeit.
Niemand hat behaupted das es ein Problem für NV gewesen wäre. Das hat rein Ökonomische Gründe, nämlich eine künstliche Limitierung zu schaffen die dafür sorgt das die Karten nicht zu lange bzw. für alles genutzt werden können. Das ist wie beim Autokauf, "was du möchtest ein Navi, dann nimm gefälligst das Bose Soundsystem und (auch wenn es nichts damit zu hat) das Keylesssystem mit dazu".
bensen schrieb:
Das Ziel ist aber maximale Performance pro Fläche.
Falsch, Ziel ist maximaler Gewinn, und dann wird dafür gesorgt das du du als Kunde gezwungen wirst gefälligst das nächst teuerere Model zu nehmen. "Willst du also 16Gb VRam dann kauf gefälligst ne 4080 Ti. Die Chips haben mehr als genug Leistung.
bensen schrieb:
Was für'n X? Was soll das bedeuten?
Das X in der Produktbezeichnung, also 6500 XT z.B.. Das ist ja auch nur die Abpürzug für "Extreme", soll also etwas schnelles suggerieren. Bestes Beispiel sind die alten Grafikkarten von damals mit Shared oder Hyper Memory.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iSight2TheBlind
syfsyn schrieb:
nvidia sortiert die chip nach deren kosten

Der Preis, den Nvidia an TSMC pro Chip bezahlt, wenn man die Kosten des Wafers durch die Anzahl der Chips rechnet, sollte in etwa so sein.

Ob die Dinger funktionieren, wie gut die Qualität ausfällt und wie man sie dann noch so verlötet, dass man sie auf Mainboards einsetzen kann, steht dann auf einem anderen Blatt.

Die "ollen" Ingenieure, die die Chips designen, wollen auch noch bezahlt werden. Und die Aktionäre und der Staat, der seine Subventionen zurück will.

Dann muss man auch noch Käufer finden, für das Produkt, was man aus dem einzelnen Chip machen konnte. Zum Glück, haben die Desktop-Käufer noch nicht bemerkt, dass sie das Melkvieh sind. Sie bekommen die "nicht so guten".

Wenn die dann irgend wann anfangen zu begreifen, dass sie nicht die "Master-Race" sind, wird es noch schwerer, die aktuellen Entwicklungszyklen einzuhalten.

Aus dem Vollen schöpfen kann eigentlich nur Apple. Die haben aber auch keine Konsumenten sondern Jünger. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: Cadilac
Die Leistung der 4070 wird doch wohl sicherlich nicht so nennenswert groß sein das sich ein Umstieg von der 3070 lohnt !?
 
lohnen würd es sicherlich, aber kostet halt viel zu viel. Da würd ich eher auf die 7900 XT schielen, dass deutlich bessere Paket aktuell.
 
Amiga500 schrieb:
nicht so nennenswert groß sein

30% in FPS werden bei rum kommen. Mindestens.

Mit DLSS und Framegeneration, kann es in hohen Auflösungen auch 50% und mehr werden. Ob sich das "lohnt" musst du wissen.

Ganz sicher, willst du dann aber die 5K Generation haben. :heilig:

mfg
 
NichtExpert schrieb:
Da sieht man mal wieder die Unterschiede. Wenn ich mir jetzt eine GPU kaufen müsste, wäre es eine 3060 oder eine 6700XT. Mehr als 500€ will ich einfach nicht ausgeben für eine GPU.
Naja, ich ha die damals bei irgendeinem "19% auf alles" bei Saturn geholt. Aber die ist in 1440p einfach und schlicht so oft im GPU Limit. DLSS mag ich und nutze es auch, mich stört das nicht.
 
  • Gefällt mir
Reaktionen: NichtExpert
sikarr schrieb:
Gibt es den eigentlich hier Kandidaten für die eine 4070 in Frage kommt?
Kommt auf den Preis an.
Wenn sie die Leistung einer 3080Ti besitzt und für ~600€ im Handel steht - jo.

Da die 4070Ti derzeit für Pi mal Daumen 900€ gehandelt wird, seh ich die Karte im Augenblick eher bei ~739€ platziert so wie ich die Pappnasen kenne. Danke nein, dann lieber eine 6800XT für ~550€.
Also für mich, weil die 4070Ti schon in 4k merklich abknickt. Und ich zwar auf RT in AAAAA-Titeln verzichten kann, aber nicht mehr in niedrigeren Auflösungen spielen mag.
Und auf DLSS verlasse ich mich erst wenn es artefaktfrei arbeitet - und das garantiert.
 
TenDance schrieb:
Wenn sie die Leistung einer 3080Ti besitzt und für ~600€ im Handel steht - jo.
Das wird wohl eher nicht passieren.
TenDance schrieb:
Da die 4070Ti derzeit für Pi mal Daumen 900€ gehandelt wird, seh ich die Karte im Augenblick eher bei ~739€ platziert so wie ich die Pappnasen kenne.
Ich sehe die Karte eher bei 750€ oder gar 799€.
 
Ein Hersteller mit übermäßig großem Marktanteil, der seine Produkte unterhalb der Oberklasse mit zu wenig Speicher bestückt und Spieleentwickler, die immer mehr VRAM befüllen. Ein Schelm wer böses dabei denkt. Die 4070 ist nicht das Problem, sie ist nur ein Teil eines viel größeren.
 
  • Gefällt mir
Reaktionen: ShowOff
sikarr schrieb:
Das wird wohl eher nicht passieren.
Ich weiß, deswegen interessiert mich das nVidia-Lineup diese Generation auch Null.

Künstlich die Preise hochsetzen um die Altbestände nicht reduzieren zu müssen und dabei Dank deutlich kleinerer Chips massiv mehr GPUs pro wafer rausschneiden... diese dann zum Großteil jenseits des sweetspots betreiben weil die-Fläche die Marge drückt, aber Stromkosten der user trägt... und im für mich relevanten Preisbereich die Mehrleistung nahezu ausschließlich über DLSS herbeifaken - nope.
Dazu bei den meisten Karten noch der obligatorische Speichergeiz. Ich mein, wie krank ist das denn dass die 4070 mit 12GB für nVidia-Verhältnisse schon fast gut klingt weil man Angst hat es werden nur 8GB verbaut. Und dennoch ist das für ne 800€-Karte einfach zu wenig.

Und was spart nVidia? 10$ für den Chip und vlt noch mal 3,50$ für die zusätzliche die-Fläche um noch mal einen 64bit Controller einzubauen. Und der Fertiger 1,50$ für die Leiterbahnen.
Ach ja, gleichzeitig wäre die Speicherbandbreite 33% höher, könnte die Karte ja schneller machen als beabsichtigt. Man möchte ja dass Du in zwei Jahren gleich die nächste kaufst.
 
  • Gefällt mir
Reaktionen: Neronomicon, JJJT, Dittsche und 7 andere
bensen schrieb:
Ein Chip wird eben nicht allein nach dem Speicherinterface ausgerichtet. Man kann problemlos alles mögliche designen. Das Ziel ist aber maximale Performance pro Fläche.
Nein, maximaler Gewinn pro Fläche.
bensen schrieb:
Was für'n X? Was soll das bedeuten?
"Früher" (TM) gab es es bspw. GTX 770 für Gaming und GT 730 für Office, aktuell gibt es nur RTX und kein RT (wobei das bei der 3050 schon fast angemessen wäre).
Ergänzung ()

sikarr schrieb:
Niemand hat behaupted das es ein Problem für NV gewesen wäre.
Doch, @bensen hat behauptet, dass Krüppellösungen à la GTX 970 (3,5+0,5) GiB die Folge gewesen wären.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
Zurück
Oben