News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

sikarr schrieb:
Falsch, Ziel ist maximaler Gewinn, und da wird dafür gesorgt das du du als Kunde gezwungen wirst gefälligst das nächst teuerere Model zu nehmen.
Da ist überhaupt nichts falsch. Wenn du die Chipfläche minimieren kannst, hast du den maximalen Gewinn. Beschneiden kann man hinterher immer noch.
Mach deiner Logik hätte man ja die 3060 mit n größeren Speicherinterface bringen müssen um dann nur 8GB anzubieten.
Ergänzung ()

sikarr schrieb:
Das X in der Produktbezeichnung, also 6500 XT z.B.
Da ist er hier im Thread aber falsch.
 
bensen schrieb:
Mach deiner Logik hätte man ja die 3060 mit n größeren Speicherinterface bringen müssen um dann nur 8GB anzubieten.
Wieso, nein. Wenn du 10, 12 oder gar 16Gb VRam haben willst musst du halt zur 3070, 3080 usw. greifen. es hat seinen Grund das eine 3060 halt nur 8GB VRam hat, wenn du mehr willst musst du zu nächst größeren Model greifen, in dem Fall 3060 Ti 12Gb oder 3080.
bensen schrieb:
Da ist er hier im Thread aber falsch.
Es ging um wirre Bezeichnungen die mehr Leistung suggerieren als da ist, wie Superdupper Hyper geil etc. und am Ende bekommt man beschnittene PCIe und Speicherinterfaces dachte aber einfach an einen guten Schnapper.
 
sikarr schrieb:
Gibts genug von, gibt auch Leute die sich 1000€ Handys kaufen und dann eine 10€ Hülle dazu.
Ja das macht auch Sinn da die 2 Dinge verschiedene Funktionen haben und der Preis des einen die Funktion des anderen 0 beeinflusst. Eine 10 Euro Hülle hat die selbe Funktion wie eine 100 Euro Hülle, das einzige wo die 2 sich widersprechen ist wenn man die 1000 Euro für das Handy nur ausgegeben hat damit man was hat um damit an zu geben, dann widerspricht die 10 Euro Hülle dem. Während die Grafikkarte und der Monitor weitgehend deckungsgleiche Funktionen haben beide haben das Ziel ein möglichst schönes Bild zu zeigen, sicher auch Responsive aber eben auch schön, wenn es nur um Responsive geht reicht auch jede Schrottkarte, weil jeh nach settings kriegst auch mit ner 100-200 Euro Karte super flüssige FPS und Reaktionszeiten, ne teurere Karte brauchst also nur um schöneres Bild zu bekommen und dann ist der Monitor ein massiver Flaschenhals bei dem Versuch ein schönes Bild zu bekommen.

Das einzige vermeintliche Argument das ich sehen könnte, wäre wenn jemand auf nem Briefmarken-grossen Monitor spielt und dann die Pixeldichte bei Fullhd trotzdem gut ist, aber dann frag ich mich auch wer sich >600 Euro Grafikkarte kauft um auf nem Briefmarkengrossen Monitor zu spielen. Man versucht doch irgendwie halbwegs einen Euro so an zu legen das es einem am meisten bringt, ja natuerlich sind da die Praeferenzen leicht unterschiedlich und man ist auch leicht irrational, aber so extrem das geht ja fast ins Gegenteil wie kann ich mein Geld maximal Sinnlos anlegen.

Ich seh noch eher wie jemand nen extrem teuren Monitor kauft und ne schlechte Grafikkarte, denn immerhin spielt man mit nem Monitor nicht nur sondern arbeitet auch mit 2d Anwendungen die CPU gebunden sind oft und auch bei Spielen gibt es ja haufenweise Spiele die CPU lastig sind aber wenig Grafikpower brauchen. Strategiespiele Aufbau und co, die sehen auf 4k toll aus und laufen oft trotzdem mit deutlich billigerer Grafikkarte schnell genug und da reichen ja auch 60hz easy.

Das primäre Ziel von Handyhüllen ist das Gerät zu schützen diese Aufgabe erfüllt das 10 Euro Ding bei nem 50 aber auch 2000 Euro Handy sofern es passt.
sikarr schrieb:
Vielleicht haben die Leute sich auch irgendwann einen anständigen FHD Monitor zugelegt und der funktioniert auch noch super also warum wegwerfen?
Man kann Dinge los werden ohne sie weg zu werfen, es gibt Plattformen wie Ebay. Ein gamingmonitor mit Fullhd kriegt man auch sehr gut los. Hab erst letztens ein 24" Fullhd TN Gaming Monitor mit 144hz verkauft fuer 80 Euro auf ebay-kleinanzeigen.

sikarr schrieb:
wieso Extremst schlechte Grafik? RT und DLSS sieht auch auf FHD super aus.
Auf 24" vielleicht noch mit ächzen und krachen, auch da ist die Pixeldensity schon scheiße, aber wer der nicht sehr sehr sparsam sein muss, spielt freiwillig noch auf 24", ich ertrage nicht mal mehr 27, mag extrem sein, 27" ist sicher noch gut für viele, aber bei 27" ist fullhd einfach ne Notlösung und wenn ich >600 Euro hab für ne Grafikkarte wieso sollte ich ne Notlösung bei dem Monitor akzeptieren.

Und btw lassen wir mal die Theorie beiseite spielst du auf Fullhd noch und mit ner >600 Euro Grafikkarte? Ansonsten weiss ich nicht auf was du dich beziehst, nicht mal anekdotal Evidence, geschweige denn auf irgendwelche Statistiken ausser eine aus dem Zusammenhang gerissene das Leute generell noch mit Fullhd Monitoren spielen, aber eben nicht korreliert mit deren Ausgaben für Grafikkarten.
 
JackTheRippchen schrieb:
Nein, maximaler Gewinn pro Fläche.
Und maximalen Gewinn pro Fläche generiert man nicht mit maximaler Performance?
JackTheRippchen schrieb:
Doch, @bensen hat behauptet, dass Krüppellösungen à la GTX 970 (3,5+0,5) GiB die Folge gewesen wären.
Eine Unart einem die Worte im Mund umzudrehen. Bei gegeben Speicherinterface sind die Speicherkapazitäten vorgegeben. Das war die Aussage.
Ergänzung ()

sikarr schrieb:
Wieso, nein. Wenn du 10, 12 oder gar 16Gb VRam haben willst musst du halt zur 3070, 3080 usw. greifen. es hat seinen Grund das eine 3060 halt nur 8GB VRam hat, ...
Die 3060 hat 12 GB. Das war doch gerade der Punkt.
 
#46 - Nvidia GeForce RTX 4060: Gerüchte und Benchmarks umreißen Leistungsniveau
Das ist bei der 4000er Gen dann ein wesentlich homogener verteiltes Produktportfolio.

Damit stehen die Chancen aber auch gut, dass 4060Ti und 4060 Preislich mehr als ein gutes Stück nach unten wandern.

650€ für die 4070, ggf sogare weniger
kleiner 500€ für die 4060Ti
und
~320€ für die 4060
könnte ich mir vorstellen.
Ich bin mal gespannt, ob meine alten Preisschätzungen hinhauen und NVidia uns mal positiv überrascht.
 
Müsste mMn.

Eine 4070 Ti gibts hier und da um 800-850eur.

Die 4070 soll ja ca 15-20% langsamer sein .. da dürfte sie eigentlich max. 650 kosten, eher unter 600... Was eigentlich auch SEHR teuer ist für die 4. schnellste 4000er GPU im Nvidia Portfolio.
 
  • Gefällt mir
Reaktionen: Rockstar85, DaCrazyP, Crifty und eine weitere Person
Gortha schrieb:
#46 - Nvidia GeForce RTX 4060: Gerüchte und Benchmarks umreißen Leistungsniveau

Ich bin mal gespannt, ob meine alten Preisschätzungen hinhauen und NVidia uns mal positiv überrascht.
Nur dass die Abstände einfach zu gross sind. 700$ für die 4070 geistern ja schon durch die Gerüchte. Die nächst untere Karte ca. nen 100er weniger und die darauf folgende auch ca. nen 100er weniger, das klingt momentan realistisch. Dann kommen wir eher bei 700$, 600$ und 500$ raus. Da die ganze Palette teurer wird, ist wohl auch eher denkbar.
 
was soll ich mir kaufen hab meine 3060ti verkauft

eigentlich bleibt mir nur die 6800xt oder 4070ti, ich warte auf jeden Fall bis die 4070 erscheint vielleiht schüttelt die die Preise auf, der weil ne Übergangskarte benutzen

war aber ein sehr guter Zeitpunkt das ich meine Karte verkauft bekkommen habe für nen guten Preis
 
sikarr schrieb:
Wieso, nein. Wenn du 10, 12 oder gar 16Gb VRam haben willst musst du halt zur 3070
zeig mir die 3070 mit 12 gb vram haha
 
yamiimax schrieb:
Jepp wer braucht schon rtx lieber mehr vram🫡
Ergänzung ()


Bei 700 kannst ja auch noch ein RTX Auge zudrücken 😂

Bin gespannt wie weit die 4070 ti noch runtergeht jetzt gibts sie schon für 900
wegen einem Spiel hat plötzlich jeder Angst vor VRAM Mangel, das Teil ist einfach verdammt schlecht optimiert und sieht nicht besser aus als RE3 und ist ein reiner AMD Titel, das RT in dem Spiel ist nicht mal der Rede Wert
 
Caramelito schrieb:
Müsste mMn.

Eine 4070 Ti gibts hier und da um 800-850eur.

Die 4070 soll ja ca 15-20% langsamer sein .. da dürfte sie eigentlich max. 650 kosten, eher unter 600... Was eigentlich auch SEHR teuer ist für die 4. schnellste 4000er GPU im Nvidia Portfolio.

25% weniger Alus und dazu weniger Takt 1920 zu 2310Mhz.
also 65% von ner Ti, falls es stimmt.
 
Caramelito schrieb:
Die 4070 soll ja ca 15-20% langsamer sein .. da dürfte sie eigentlich max. 650 kosten, eher unter 600... Was eigentlich auch SEHR teuer ist für die 4. schnellste 4000er GPU im Nvidia Portfolio.
Ja aber nachdem Prinzip geht Nvidia nicht ran, im Gegenteil denn alle Karten unter der 4090 waren anfangs einfach das deutlich schlechtere Angebot, erst nach gewissen Preisanpassungen durch den Markt selbst, rückt z.B die 4080 in eine interessante Position. Nvidia verfolgt ganz klar dem Plan des Upsellings und daher wird auch jede weitere Karte unterhalb einer 4090 mit einer deutlich schlechteren Preisleistungs UVP an den Start gehen.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Glasreiniger, Rockstar85 und 2 andere
Özil schrieb:
wegen einem Spiel hat plötzlich jeder Angst vor VRAM Mangel, das Teil ist einfach verdammt schlecht optimiert und sieht nicht besser aus als RE3 und ist ein reiner AMD Titel, das RT in dem Spiel ist nicht mal der Rede Wert

Darum geht es leider nur sekundär. Das Speicherinterface ist einfach limitiert. Wenn eine ehemals als 4080 angekündigte Karte für angedachte 1100 Euro + in 4k nicht Mal die 700 Euro UVP 3080 mit 10 gb durchweg hinter sich lassen kann, dann kann man nur noch mit dem Kopf schütteln. 16 GB wären trotzdem sinnvoll gewesen. So ist die Entscheidung klar. Nvidia bekommt kein Geld dafür und über 1000 Euro nur für eine graka ist mir das zocken nicht wert.

Quelle:
 
  • Gefällt mir
Reaktionen: JackTheRippchen
BornBad schrieb:
25% weniger Alus und dazu weniger Takt 1920 zu 2310Mhz.
also 65% von ner Ti, falls es stimmt.
Hab noch etwas Alufolie vielleicht hilfts😂
Ergänzung ()

sikarr schrieb:
Zitiere gefälligst richtig oder lass es!
Was bringt mir die 3060 mit den 12 (super Leistung yeah!) wenn die 3070 und TI nur 8 hat wtf aja RTX bringt es mir
Ergänzung ()

C0rteX schrieb:
Darum geht es leider nur sekundär. Das Speicherinterface ist einfach limitiert. Wenn eine ehemals als 4080 angekündigte Karte für angedachte 1100 Euro + in 4k nicht Mal die 700 Euro UVP 3080 mit 10 gb durchweg hinter sich lassen kann
Ja man dann lieber ne 6950 xt 👊🏻
 
Zuletzt bearbeitet:
Ist mir leider zu ineffizent. Ich schau Mal wie die 7800xt aussehen wird oder wie weit die 7900xt noch fällt. Die 6700xt hat für den OLED TV leider nicht durchweg genug Saft. War von Anfang an klar, aber 500 Euro mehr wollte ich dann für 20 bis 30 Prozent mehr Leistung auch nicht zahlen. Die Vernunft und das Urteilsvermögen siegen dann zum Glück doch wieder.
 
  • Gefällt mir
Reaktionen: DeltaPee
Dank FSR 2.0 oder auch bald FSR 3.0 von AMD brauch ich als 1080p Spieler ja gar nimmer neue Grafikkarten Kaufen. Da reicht ne 6700 XT ewig.
 
blackiwid schrieb:
Auf 24" vielleicht noch mit ächzen und krachen, auch da ist die Pixeldensity schon scheiße, aber wer der nicht sehr sehr sparsam sein muss, spielt freiwillig noch auf 24", ich ertrage nicht mal mehr 27, mag extrem sein, 27" ist sicher noch gut für viele, aber bei 27" ist fullhd einfach ne Notlösung und wenn ich >600 Euro hab für ne Grafikkarte wieso sollte ich ne Notlösung bei dem Monitor akzeptieren.

Und btw lassen wir mal die Theorie beiseite spielst du auf Fullhd noch und mit ner >600 Euro Grafikkarte? Ansonsten weiss ich nicht auf was du dich beziehst, nicht mal anekdotal Evidence, geschweige denn auf irgendwelche Statistiken ausser eine aus dem Zusammenhang gerissene das Leute generell noch mit Fullhd Monitoren spielen, aber eben nicht korreliert mit deren Ausgaben für Grafikkarten.
Für mich ist 24" bei 1080p eine gute Pixeldichte, deswegen habe ich mir bei 32" einen 1440p Monitor geholt, da er dieselbe Pixeldichte bietet. Ich "ertrage" das sehr gut und die RTX 3060 kann den noch ganz gut befeuern. Brauche zum Glück keine Pixeldichte von 4k@32" oder 1440p@27".
 
sikarr schrieb:
es hat seinen Grund das eine 3060 halt nur 8GB VRam hat, wenn du mehr willst musst du zu nächst größeren Model greifen, in dem Fall 3060 Ti 12Gb oder 3080.
Die langsamere 3060 non-Ti kam mit 12 GiB auf den Markt, während die 3060 Ti mit 8 GiB ausgerüstet ist.
Die verstümmelte 3060 non-Ti mit 8 GiB wurde später nachgeschoben.
Ergänzung ()

bensen schrieb:
Und maximalen Gewinn pro Fläche generiert man nicht mit maximaler Performance?
Nein, natürlich nicht, sondern durch durch Minimierung der Die-Fläche, weil das mehr Dies pro Wafer ergibt. Also anstatt mehr Raster-/Tensor-/Whatever-Kerne bei niedrigerem Takt weniger davon (= weniger Transistoren) bei höherem Takt, wenn dies noch kühlbar ist und in etwas die gleiche Performanz bringt. Energie bezahlt schließlich der Endanwender.

bensen schrieb:
Eine Unart einem die Worte im Mund umzudrehen. Bei gegeben Speicherinterface sind die Speicherkapazitäten vorgegeben. Das war die Aussage.
Das Speicherinterface ist aber nicht einfach gegeben, sondern ein Freiheitsgrad im Chipdesign. Außerdem hätten die "gegebenen" Speicherinterfaces bei RTX 3070 und RTX 3080 die doppelte Speichermenge hergegeben, ohne dass krumme Dinger wie die GTX 970 entstehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hominem
auch komisch,
erste 70er Ti mit beschnittener Anbindung von 192-bit. Gabs in keiner vorherigen Reihe bei 70ern...und Ti schon garnicht.
 
Zurück
Oben