News GeForce-Gerüchte: RTX 4060 Ti soll Ende Mai 8 GB und 3070-Leistung bringen

CiX schrieb:
Leute, die meinen dass 8gb nicht ausreichend seien, sollten dazu schreiben wo das der Fall ist. AAA z.b.
Einige AAA-Titel aus 2023. Und viele künftige, die noch folgen werden. Genau das ist der Trick. Zum Launch werden saftige, lange Balken aufgetischt. Während sich über die Jahre im Hintergrund die Software ändert / bzw. die Anforderungen ändern. Sei es nur durch miese Optimierung der Spiele.

Was du verlangst ist, dass dir jemand 2021 im RTX3070 gesagt hätte haben sollen, dass ein The Last Of Us, ein Dead Space Remake, ein Hogwarts Legacy usw. mit 8GB Probleme bereiten können.

Letztlich haben eine nicht kleine Anzahl an Kommentatoren genau dies bereits vor Jahren getan. Einen faktischen Beweis kann man vllt. bei sich unveränderlichen Parametern verlangen. Was hier nicht der Fall ist.

CiX schrieb:
also vom letzten Titel abgesehen alles Titel, die Stunden über Stunden gezockt werden von vielen Vielen Menschen, im Gegensatz zu der irrelevanten AAA Blase hier.
Für diese Spiele braucht es keine 2023er 500€ Grafikkarte.

Fazit:
Die hohen Verkaufspreise implizieren (für viele) eine universelle Tauglichkeit des Produkts.
Je nach Auflösung und Größe der Spieleproduktion ist diese bereits ab Tag 1 in Gefahr.
 
PeacemakerAT schrieb:
400-450 zzgl. Mwst
selbst wenn es "nur" 400€ inkl. MWST wären, es ist doch spätestens mit den Benches der 4070 ersichtlich, dass Nvidia bei Lovelace lediglich DLSS 3 + FG als Verkaufsargument anbringen kann und dafür ist ein solcher Preis für eine ansonsten vermutlich gar nicht so gut dastehende 4060TI einfach unverschämt hoch.
 
Jaah, danke Nvidia! Bringt sie, ASAP. Ich werde euren Schrott zwar nicht kaufen, weil der Linux-Support (der richtige, FOSS!!, nicht diese pseudo-source-fakes) beschiessen ist.

Aber hoffentlich bekomme wir dann eine Radeon RX 6700 XT für unter 300€.
 
Zwirbelkatz schrieb:
Was du verlangst ist, dass dir jemand 2021 im RTX3070 gesagt hätte haben sollen, dass ein The Last Of Us, ein Dead Space Remake, ein Hogwarts Legacy usw. mit 8GB Probleme bereiten können.

Letztlich haben eine nicht kleine Anzahl an Kommentatoren genau dies bereits vor Jahren getan. Einen faktischen Beweis kann man vllt. bei sich unveränderlichen Parametern verlangen. Was hier nicht der Fall ist.


ich verlange nichts dergleichen. Mein anliegen ist, Aussagen spezifischer zu gestalten wie „für AAA kann es zu wenig sein“, anstatt pauschalisiert zu behaupten, man könne mit der Karte nicht spielen weil nur 8gb. ich denke du verstehst den Unterschied?

weiterhin geht es mir auch nicht um einen faktischen Beweis, für welche Games genau die 8gb nicht reichen. Natürlich weiß das kein Mensch, wie es für welche kommenden Games genau aussieht. Dennoch reicht hier die Warnung „für zukünftige AAA wahrscheinlich ungeeignet“ anstatt „geht nicht“.

Zwirbelkatz schrieb:
Für diese Spiele braucht es keine 2023er 500€ Grafikkarte.

brauchen nicht, aber… :D

deinem Fazit stimme ich uneingeschränkt zu.
für uns hier im Forum, wo die Leute wahrscheinlich genau wissen was für hardware sie genau für welches Game brauchen ist das was anderes als für die Leute, die sehen „oh 500€, damit muss die Performance ja gut sein“ usw
was geschäftsgebahren und Unmut über lediglich 8gb vram angeht bin ich ganz bei dir. Dennoch ist die Aussage vieler Schreiber hier, man könne nicht damit zocken oder nur fhd, pauschal einfach falsch.
 
  • Gefällt mir
Reaktionen: M11E, Vigilant, Connecto und eine weitere Person
Nvidia macht es geschickt. Geizt mit dem VRAM und versucht dann die Fische mit den Argumenten "DLSS3 und FG" zu ködern.
Und das Schlimmste ist, es funktioniert sogar.
 
CiX schrieb:
weiterhin geht es mir auch nicht um einen faktischen Beweis, für welche Games genau die 8gb nicht reichen. Natürlich weiß das kein Mensch, wie es für welche kommenden Games genau aussieht.

Warum kommende Games? Die GS hatte doch erst neulich einen Stresstest. Mit aktuellen.

https://www.gamestar.de/artikel/hat-eure-grafikkarte-genug-vram-benchmarks,3392742.html

Ditto Hardware Unboxed und deren Fazit: "8 GB sind die neue Einstiegklasse." In diesem Fall für demnächst 500 Euro plus. Die Hardwarelast der AAA-Titel von heute war schon immer der Benchmark für die Anforderungen der AA- und Indietitel von spätestens übermorgen. Wer sich in solchen Preisregionen für Fortnite, CS und Gedöns verläuft, der hat eh die Kontrolle über seine Finanzen verloren. :D

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cele
CiX schrieb:
Dennoch ist die Aussage vieler Schreiber hier, man könne nicht damit zocken oder nur fhd, pauschal einfach falsch.
Jep. Ist mal wieder ziemlich anstrengend geworden, diesem Thread zu folgen. Passiert häufiger in letzter Zeit, wenn es kontrovers wird. Liegt wohl daran, dass es eine starke Neigung gibt, Meinungen zu Fakten zu erheben, News, Tests und sonstige Berichte unreflektiert und undifferenziert wiederzugeben und sich Faulheit hinsichtlich eigener Recherchefähigkeit breit macht. Muss ja nicht gleich dem Ansatz für wissenschaftliche Arbeit folgen, aber selbst ein Mindestmaß an kritischem Hinterfragen scheint aus der Mode gekommen zu sein.

Worüber ich mich wirklich freuen würde: Rotzt nicht immer irgendwelche Videos und Links ohne weitere Info in die Threads. Sondern schaut sie euch auch an und liefert zumindest ein Minimum an Zusammenfassung mit. Oder ist das zu viel verlangt?

Bspw. "Hier wird von (YT)-Fuzzi X das oder die Produkt(e) Y unter die Lupe genommen oder dieses Thema besprochen. Das Ergebnis ist Z, weil..."

Na ja, scheint eine Krankheit dieser Zeit zu sein, weil nicht nur in diesem Thema so.

Was die GPU-Speicher-Diskussion betrifft, sollte man aber auch den Studios und Publishern (siehe Plagues Tale, Hogwarts etc.) für mangelnde Optimierung ihrer Produkte mal kräftig auf die Finger schlagen. Darf eigentlich nicht sein, dass trotz Herumgedrehe an den Einstellungen unterhalb von 4K und reduzierter Texturqualität der Videospeicher zugemüllt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Roy Schwarz, M11E, ThomasK_7 und 2 andere
Windell schrieb:
Nvidia macht es geschickt. Geizt mit dem VRAM und versucht dann die Fische mit den Argumenten "DLSS3 und FG" zu ködern.
Und das Schlimmste ist, es funktioniert sogar.

Offenbar funktioniert es ja nicht, wenn AMD 60 Prozent Marktanteil bei einen den größten Händler Mindfactory in der Woche des Releases der 4070 hat. Die meisten Menschen sagen nein zu dieses mittelmäßigen Produkten zu absurden Preisen.

Es gibt immer ein paar Unbelehrbare denen man 3 A4 Seiten Erklärung mit Kontext inkl. Links und Videos zu Fachquellen schreiben kann und man bekommt nichtmal eine ansatzweise plausible Antwort.

Irgendwie scheinen einige da die Querdenkerlogik anzuwenden. Das passt nicht in mein Weltbild, also muss es Lügenpresse sein.

Die können ja auch gerne weiter kaufen. Sowas sollte schon bestraft werden. Wer aus dem 3070 8 GB Desaster und den aktuellen Anforderungen der next Gen Titel nicht gelernt hat, der hat einfach Pech.

Steve von Hardware Unboxed und einige andere zuverlässige Quellen hat vor genau dieser Situation der 3070 vor 2 Jahren bereits gewarnt. Jetzt sprechen diese Leute die gleichen Warnungen bezüglich der 12 GB in der Mittelklasse aus. Es ist das Minimum, was eine Karte dieser Leistungsklasse haben sollte. Minimum mit Premium Preis? Nein danke, Nvidia...

Nächste Jahr gibt es einen Konsolen Refresh.
Wenn der 24 oder 32 GB hat, weil das Zeug derzeit billig ist, dann heulen die gleichen Leute herum weil ihre 900 Euro 12 GB Karte nicht mehr reicht, um die Softwarefeatures auf die sie so unverzichtbar schwören zu nutzen.

Verdient.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper2000, M11E und PeacemakerAT
@C0rteX Also hier auf CB sehe ich Einige die mit DLSS3 und FG argumentieren. War bei der 4070 ja auch so in den Kommentaren.
 
Klar, weil sie so ein Ding gekauft haben, statt abzuwarten und sich richtig zu informieren und jetzt nicht die Eier haben sich diesen "Fehler" einzugestehen.

Das sind aber auch immer die gleichen und tötet jede konstruktive Diskussion. Die Kritik ist halt überall in der Mehrzahl.
 
@C0rteX

Bin da grundsätzlich bei Dir, würde dem aber noch zur Seite stellen, dass auch die Spiele, welche aktuell diese Diskussion anheizen, mit der deutlichen Kritik bedacht werden müssen, dass sie einen Mangel an Optimierungen aufweisen. Hogwarts, TLoU, Plague Tale sind keine "Next Gen"-Games. Das würde ich für Cyberpunk in der aktuellen Version mit PT verwenden, ansonsten fällt mir spontan kein Titel ein, der das technisch rechtfertigt.

Das 8GB heute für neue Grafikkarten ein schlechter Witz ist, dürfte außer Frage stehen.
 
Kann ich so nicht grundsätzlich zustimmen. The Last of US ist eines der schönsten spiele die es gibt. Rein von der Umsetzung läuft das Ding mit genug Speicher auch tadellos. Die Shaderkomplierung und die Ladezeiten sind noch nicht optimiert. Das war offenbar nicht mehr zu schaffen vor Release. Resident evil läuft mir genug Speicher ebenfalls gut.

Und bei Cyberpunk wurde seitens CD Project viel darüber berichtet, wie die alten Konsolen technische Umsetzung behindern. Deshalb wird beim kommenden addons auch keine Last Gen mehr supported. Die Anforderungen werden auch da gewaltig steigen. Wegen dem ganzen Aufwand bei der Programmierung haben sie ja auch jetzt die unreal engine 5 lizenziert. Die eigene engine über so viele Plattformen zu supporten ist nämlich die Hölle.

Es ist ja auch gar keine Frage das man mehr optimieren könnte. Es wird halt "vorrangig" für Konsolen entwickelt und bei der sehr aufwendigen Optimierung für den PC gespart. Man musste fehlende Optimierungen und schlechte Ports schon immer kompensieren. Das bedenkt man bei seiner Kaufentscheidung und heult nicht darüber herum das die Entwickler keine 3 Monate länger am Code gebastelt haben.

Oder man spielt das Game einfach 6 Monate nach Release und hofft das die Verkaufszahlen weitere Optimierungen gerechtfertigt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper2000 und msv
Denkt ihr nVidia weiß nicht, dass 8GB zu wenig sind und bei den meisten Spielern sauer aufstoßen wird? Natürlich wissen die das. Aber machen es trotzdem. Einfach nur deswegen, weil Sie es können und genau wissen, dass Leute es trotzdem kaufen werden. Sieht man ja hier sehr gut, dass Leute jetzt schon die Karten verteidigen.
Deswegen wird nVidia daran auch nichts ändern.
 
  • Gefällt mir
Reaktionen: M11E
C0rteX schrieb:
The Last of US ist eines der schönsten spiele die es gibt
Es sieht sehr gut aus, keine Frage. Weil die Entwickler halt hinsichtlich Texturen, Modelle, Beleuchtung, Animation, Kamera, Leveldesign und grundsätzlicher Inszenierung hervorragende Arbeit geleistet haben.

Aus meiner Sicht aber nicht "Next Gen", weil hier u.a. keine neuen Techniken zum Einsatz kommen.

Und dennoch muss sich auch ein TLoU die Frage gefallen lassen, weshalb es mit den Texturen nicht optimal umgeht (keine signifikante optische Steigerung bei Ultra im Vergleich zu Hoch, dagegen deutlicher optischer Verlust bei Medium im Vergleich zu Hoch bspw.).
 
Kandira schrieb:
Denkt ihr nVidia weiß nicht, dass 8GB zu wenig sind und bei den meisten Spielern sauer aufstoßen wird? Natürlich wissen die das. Aber machen es trotzdem. Einfach nur deswegen, weil Sie es können und genau wissen, dass Leute es trotzdem kaufen werden. Sieht man ja hier sehr gut, dass Leute jetzt schon die Karten verteidigen.
Deswegen wird nVidia daran auch nichts ändern.
Dann bin ich mal gespannt welche Ausreden es gibt, wenn AMD ihre sogenannten Speicherkrüppel bringt.
AMD.png

Die RX 7700 XT wird sicher auch einschlagen. Ungefähr RX 6800 Level bei 4GB weniger VRam und sicher nicht billiger.

Windell schrieb:
@C0rteX Also hier auf CB sehe ich Einige die mit DLSS3 und FG argumentieren. War bei der 4070 ja auch so in den Kommentaren.

C0rteX schrieb:
Klar, weil sie so ein Ding gekauft haben, statt abzuwarten und sich richtig zu informieren und jetzt nicht die Eier haben sich diesen "Fehler" einzugestehen.
FG frustriert euch ja mal so richtig...kann man auch verstehen wenn man nur zuschauen kann was da bewegt wird.

2.png1.png3.png4.png
5.png6.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Weil kein RT drin ist? Na dann wären die Anforderungen erst explodiert. Die Reflektionen sind ohne schon der Hammer. Ich brauche dieses Feature nicht wenn es mir keinen spürbaren Mehrwert bietet und nur unverhältnismäßig Leistung kostet.

Forza Horizon 5? Die RT Reflektionen lass ich aus, weil ich einfach keinen Unterschied gesehen habe, schon gar nicht bei 290 km/h.

RT wird in den meisten Fällen immernoch zu inflationär und schlecht performant eingesetzt, statt es wirklich nur da zu nutzen, wo es Sinn macht und einen Mehrwert bringt.

Aber das liegt auch an Nvidia. Die supporten einen Titel und wenn man es so implementiert, dass auf AMD Karten nicht so gut läuft, umso besser.
 
  • Gefällt mir
Reaktionen: M11E
Mag sein. RT ist nicht gleich RT. Kommt auch hier immer auf die Implementierung an, gehört meiner bescheidenen Meinung nach aber zu einem "Next Gen"-Feature.

Und hinsichtlich des Grafikkartenmarktes würde ich mir wirklich wünschen, dass AMD hier technologisch möglichst schnell aufschließt, damit das Feature-Set wieder in Balance und die Konkurrenz-Situation zu Nvidia ausgeglichen ist.

Würde dem Markt sicherlich gut tun.
 
DaHell63 schrieb:
kann man auch verstehen wenn man nur zuschauen kann was da bewegt wird.
Die gewaltigen FPS Einbrüche gerade bei den neueren Titeln sind schon beeindruckend.
Was da los ? geht der etwa der Speicher aus ?
 
Jaja...wie der gute Steve bewiesen hat sind alle Karten unter 16GB VRam ja schon in 1080p spieleuntauglich.
 
Ich beziehe mich auf deine Verlinkten Benchmarks.
Was ist da bei Howards, Dying Light 2 und Spiderman los ?

DaHell63 schrieb:
Die RX 7700 XT wird sicher auch einschlagen. Ungefähr RX 6800 Level bei 4GB weniger VRam und sicher nicht billiger.

Dann ist das Ding DOA, wer soll das kaufen ?
 
Zuletzt bearbeitet:
Zurück
Oben