News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

Mironicus1337 schrieb:
Wie man den Chip einsetzt und welcher Name dazu passt, bestimmt alleine Nvidia.
Der drittgrößte Chip war schon oft die Grundlage für eine 70er Karte, vor allem dann wenn die Konkurrenz schwächer war.

1. Neulinge haben sich früher vorgestellt, also hallo und willkommen bei ComputerBase
2. Deswegen hatte ich die technische Betrachtung eingebracht.

Deine Kritik in allen Ehren, aber lesen kannst du?
 
Zuletzt bearbeitet:
Mironicus1337 schrieb:
Nur meine Meinung darf gelten! Mimimimi.
Warum er sagt wo er für sich die Grenze zieht und bei dem Preis mit der Menge VRAM bleibt bei ihm der Geldbeutel zu kann ich verstehen. Ich machs genauso (anderer Grund) aber auch ich verweigere Nvidia mein Geld diesmal und hab mir ne XTX besorgt. Völlig legitim. BTW: Ist das für mich auch eher ne 4060 als 70er. Nvidia ist nur mit ihrem 4080 12GB Schmu nicht durchgekommen deswegen sieht das Portfolio auch so schräg aus.
 
  • Gefällt mir
Reaktionen: Rockstar85
Fujiyama schrieb:
Ich nehmen als Referenz die Hardwareumfrage bei Steam dort hat die 3070 trotz des hohen Preises eine hohe Verbreitung.(Übrigens auch die 3060 Modelle)
Nur sind die beiden absolut und relativ gesehen ein gutes Stück günstiger ;)
Leute kaufen nicht plötzlich GPUs für deutlich mehr weil, nur weil die neuen GPUs der 70er und 60er Klasse den selben Namen haben. Sonst hätten sie ja auch vorher die 3070 Ti oder sogar 3080 gekauft.

Hätte sich der Lohn während den letzten X Monaten Inflation auch proportional erhöht, würde das Ganze vielleicht anders aussehen. Hat er aber nicht, weswegen das en Gros der Leute den Umfragen nach Anno 2023 bei Luxus-Gütern, wozu >500€ GPUs definitiv gehören, sparen will... Was man auch aktuell bei Nvidia sieht: die 30XX Karten sammeln sich, genau wie die 40XX Karten.
 
ben12345 schrieb:
in dem absolut neuesten spiel mit offensichtlichen optimierungsproblemen. Deshalb habe ich geschrieben wenn in ein Paar Jahren der Speicher nicht mehr reicht macht man dlss an.

Das war nur ein Beispiel.
In Resident Evil geht der Karte schon in 1080p auch der VRAM aus. Willst da auch DLSS aktivieren? Es bleiben da zwei Möglichkeiten: Textur-Details senken, RT deaktivieren

"absolut ok"
 
ben12345 schrieb:
also ich sehe die 6800 eher als 3080 10gig "Gegner" denn als 3070 Gegner. Die Preise sind halt bei AMD deutlich stärker gesunken (sicherlich nicht aus Nächstenliebe seitens AMD wie viele das immer gerne behaupten)
Naja schau einfach mal in die Tests zu Release der 6800(XT). Die 6700XT ist der Gegenspieler zur 3060ti. Auszug ausm Test der 6800 und 6800XT:
Obsolet, wie im Vorfeld durchaus gemunkelt, machen Radeon RX 6800 XT und Radeon RX 6800 die Gegenspieler GeForce RTX 3080 und GeForce RTX 3070 aber nicht. Beide Serien haben spezifische Vorteile, aber auch Schwächen. [..] Die Radeon RX 6800 legt sich derweil mit der GeForce RTX 3070 an und hat es schon im Standardparcours einfacher. 7 bis 9 Prozent mehr FPS verbucht die AMD-Grafikkarte in Ultra HD für sich, in WQHD sind es noch 3 bis 6 Prozent.

ben12345 schrieb:
Spontan fallen mir da Control, Cyberpunk, Witcher 3 Remake und Metro Exodus enhanced ein.
Und in allen Titeln kann ich RT gut nutzen. Nicht auf voller Pulle und Nativ in den CP Projekt Red Titeln sowieso nicht ohne Upsampling, aber das schaffen die Ampere Konkurrenten auch nicht.
ben12345 schrieb:
Mich stört bei der ganzen Debatte meist die recht einseitige Darstellung der "AMD- Fraktion", der üppigere und sicher auch lobenswerte Speicherausbau wird da im Bezug auf die Zukunftssicherheit immer als eine Art Allheilmittel bezeichnet.
Naja da gehöre ich keiner Fraktion an. Hatte auch schon Nvidia Karten im PC. Zuletzt eine 3060, als die Preise noch recht hoch waren. Dank DLSS ging damit meistens WQHD ganz gut, als die 6800 für 499€ zu haben war bin ich aber gewechselt, weil DLSS mich nicht zu 100% überzeugt hatte. Trotzdem ein tolles Feature, keine Frage. Ich hätte ehrlicherweise auch gern eine stärkere Nvidia als die 3060 gekauft mit mehr als 8GB für WQHD. Da landet man bei der 3080 10GB die es mit Glück mal unter 800€ gab. Da kam dann nur noch AMD in Frage.
 
yamiimax schrieb:
2023 zu einer Fhd Karte degradiert

Nicht mal das. In Resident Evil reichen ihr die 8GB in 1080p nicht aus.
Keine Ahnung wie man das schön reden kann.
 
Man braucht 2023 nun mal mindestens. 12 gb vram für wqhd
 
@DonDonat
Die 3070 und 3060 waren nicht günstiger, die meiste zeit waren sie deutlich über die UVP. Trotzdem wurden sie viel gekauft. Falls nicht irgend ne Mining Hype entsteht dürfte die 4060 und 4070 vermutlich günstiger auf dem Markt zu kaufen sein.
Die 3070 hatte ne Zeit lang gerne die 1000 Euro Grenze überschritten.
 
nächste Karte wird wohl eine 7800XT werden.
Ergänzung ()

DrFreaK666 schrieb:
Nicht mal das. In Resident Evil reichen ihr die 8GB in 1080p nicht aus.
Keine Ahnung wie man das schön reden kann.
Wofür gibt es Regler in den Einstellungen? Habt ihr die noch nicht entdeckt?
 
  • Gefällt mir
Reaktionen: CiX
Rockstar85 schrieb:
Wenn die 4070 am Ende 2 SM weniger als die 4070ti hast, ist alles gut. Da dies nicht der Fall ist, ist deine Diskussion eigentlich überfällig und Pseudomoralistisch
Ja und du kommst mit pseudo Argumenten die nur deine eigenen sind. Ist genauso sinnlos. Wo steht denn geschrieben das eine 70er Karte 2SM weniger haben muss als die 70ti? Ist das ein Gesetzt? Nein ist es nicht. Nur weil du der Meinung bist das es so sein sollte ist das noch lange nicht richtig. Eine 70ti war auch noch nie der Vollausbau des Chips ist das jetzt auch falsch?
Und ich versuche nicht die Karten an der Chipgröße festzumachen, denn das geht einfach nicht. Genauso gibt es keinerlei anderen technischen Bedingungen die erfüllt sein müssen damit ne Karte eine 80er´, 70er oder was auch immer ist, dafür ändert Nvidia das zu häufig von Gen zu Gen. Und auch wenn gibt es keinen Anspruch das es immer so ist. Das kann der Chiphersteller so machen wie er lustig ist, ob mir das passt oder nicht.
Sich dann dann ewig darüber aufzuregen das der Chip ja der eigenen Ansicht nach anders heißen müsste was bringt das denn bitte? Was hättest du denn gewonnen wenn die 4070 dann 4060ti heißt? Wird die Karte dadurch besser oder billiger?
Die 4080 haben sie auch zur 4070ti gemacht, hat an der karte selber aber nichts geändert außer dem Namen. Zu teuer sind die (bzw. alle) Karten immer noch.
 
  • Gefällt mir
Reaktionen: ThirdLife und Gortha
Zumal heute die maximalen Texturen oft für FullHD keinen Mehrwert bieten, da sie nicht zur Geltung kommen.
Man sollte die Details, gerade Texturen der Auflösung anpassen.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
yamiimax schrieb:
Man braucht 2023 nun mal mindestens. 12 gb vram für wqhd

Ich habe 8GB VRAM für UHD, läuft alles ohne Probleme. Was soll da nicht gehen? Gezockt werden esport titel, also die mit den meisten spielerzahlen.

Oder wolltest du eher schreiben, dass DEINE games unter 12GB für wqhd nicht laufen in 2023? Tellerrand und so
 
  • Gefällt mir
Reaktionen: ThirdLife, Gortha und DerFahnder
Dai6oro schrieb:
Nvidia ist nur mit ihrem 4080 12GB Schmu nicht durchgekommen deswegen sieht das Portfolio auch so schräg aus.
Häh wenn sie denn damit durchgekommen wären dann wären die Karten darunter doch noch falscher bezeichnet. Dann wäre die 4070 ja eine 4070ti gewesen und die 4060ti eine 4070.
 
  • Gefällt mir
Reaktionen: Gortha und schneeland
CiX schrieb:
Ich habe 8GB VRAM für UHD, läuft alles ohne Probleme. Was soll da nicht gehen? Gezockt werden esport titel, also die mit den meisten spielerzahlen.

Oder wolltest du eher schreiben, dass DEINE games unter 12GB für wqhd nicht laufen in 2023? Tellerrand und so
Die wenigsten kaufen sich eine 700€ Karte Aufwärts für E-Sport Titel. Das hat nichts mit Tellerrand zutun, denn die meisten wollen eher mit so einer Karte AAA Titel spielen, denn für die meisten E-Sport Titel würde auch eine 6600xt locker noch Jahre ausreichen.

Ich denke wenn man E-Sport Titel mit so teuren Karten spielen will, ist man glaube ich deutlich eher der Exot und nicht die anderen ;)
 
Hattest du nicht darauf geantwortet das man 12gb in WQHD nicht brauch weil alles in E-Sport Titeln mit 8gb in UHD laufen würde, in einem Thread zur 4070 mit 599$ msrp?

Es ist doch super wenn mit deiner 8gb Karte alles super in den E-Sport Titeln läuft. Aber das ist für AAA Titel nun mal nicht der Fall. Darum schrieb ich ja das wenn man sich eine 700€ (vermuteter Preis) Karte zulegt, will man auch halbwegs damit Ruhe haben.

Und zur deiner Frage: die 3070ti hat vor ca einem Monat noch gut 700€ gekostet.
 
Poati schrieb:
Dabei müsste man aber annehmen, dass die Größe des Speicherinterfaces auch eine von Gott gegebene Größe für die jeweiligen Chips ist und sich keineswegs bei der Planung auch größer dimensionieren ließe. Die Größe des Interfaces gibt natürlich bei fertigen GPUs die möglichen Speicherausbauten vor, so dass häufig nur die doppelte Menge richtig Sinn ergibt. Bei der 3080 konnte man zumindest noch ein wenig nachlegen, weil der Chip physikalisch noch ein größeres Interface hatte. Solch eine Strategie hätte man auch in den anderen Klassen fahren können. Also nein Nvidia "musste" hier gar nichts. Die haben die Karten so gebaut und bestückt, wie geplant.
Ansich richtig, deswegen habe ich "musste" in Anführungsstrichen geschrieben. Nur wären die Karten mit anderem Speicherinterface schneller bzw. langsamer geworden, je nachdem. Siehe die RTX 3060 mit 8GB, die ist ja vor allem wegen dem kleinen Speicherinterface deutlich langsamer als die 12gb Version. Und eine fiktive RTX 3070 mit 12GB Speicher mit einem 192bit Interface wäre dann auch langsamer geworden, als die richtige mit 256 bit und nur GB.

Aber ja, sie hätten die Karten von vornherein anders planen können/müssen. Will hier auch Nvidia gar nicht verteidigen, find das auch nicht gut und hab mir wegen dem Speicher selber ne AMD gekauft :D
 
SonyFriend schrieb:
Wofür gibt es Regler in den Einstellungen? Habt ihr die noch nicht entdeckt?

Natürlich. Die Karte ist aber nicht zu langsam, sie hat zu wenig VRAM. Das ist ein Unterschied
 
Achso, ich dachte schon, dass die Karten immer gleich viel Vram im Spiel verbrauchen
 
Dai6oro schrieb:
700€? Dafür bekommst aktuell ne 6900XT.
...die wahrscheinlich ungefähr die gleiche Leistung bietet.

Allerdings kannst du eine gebrauchte 6900XT für unter 600 finden, was natürlich normalerweise der bessere Deal ist. Für 4K würde ich beide Karten niemandem empfehlen.
 
Zurück
Oben