News GeForce-Gerüchte: RTX 4060 Ti soll Ende Mai 8 GB und 3070-Leistung bringen

War es nicht so dass vor allem bei Spiderman FG und/oder DLSS3 völlig unbrauchbar ist? Aber ein langer Balken ist eben ein langer Balken.
 
Zuletzt bearbeitet:
BOBderBAGGER schrieb:
Ich beziehe mich auf deine Verlinkten Benchmarks.
Was ist da bei Howards, Dying Light 2 und Spiderman los ?
Wenn der Tester will, kann er jede Karte schlecht aussehen lassen..bei dem VRam Unterschied auch in dieser Hinsicht natürlich leichter.
Natürlich würde ich eine Karte mit mehr VRam (bei den selben Stärken und Features) einer Karte mit weniger VRam vorziehen...keine Frage.

AMD nutzt das eben jetzt mit ultra Texturen, die keinen Mehrwert zu hoch stellen. Wie eben TLOU/Resi 4/Far Cry6.
Nvidia nutzt ihre Raytracing Stärke und implementiert eben nicht nur Schatten die berechnet werden.
Verwerflich finde ich beides nicht die eigenen Vorteile in den Vordergrund zu rücken.

Das hatten wir ja auch schon immer...Nvidia mit ihrer 64x Tesselationsberechnung, obwohl ab 16x keinerlei Mehrwert mehr gegeben war. Trotzdem wurde so getestet und AMD hat dadurch nicht besonders gut ausgesehen.

Wenn Du Dir das VRam fressende TLOU ansiehst...komischerweise haben sogar die Spieler mit einer RX 6600 XT ihren Spass daran...trotz nur 8GB VRam der sogar noch beschnitten ist.
 
Ja die Mär das AMD für den VRAM Verbrauch bei Spielen verantwortlich ist. Siehe letzten Beweis mit Dead Island 2 oh Moment ...

BTW.Nicht weniger Nvidia Besitzer hätten sich AMDs Lösung gewünscht wo man die Tesselation Stufe per Treiber einstellen kann. Denn Nvidia hat damit nicht nur AMD geschadet sondern (wieder mal) die Besitzer von älteren Nvidia Karten ebenso. Zum Dank haben die ne neue Nvidia gekauft.
 
Ihr könnt ja ruhig den sinnlos Verbrauch feiern...muss man aber nicht. Genausowenig wie jeden max...oder angeblichen max Benchmark. Das habe ich inzwischen schon gelernt, dass bei den Usern hier max nicht gleich max bedeuted, sondern dass AMD max was anderes ist.
 
DaHell63 schrieb:
Wenn der Tester will, kann er jede Karte schlecht aussehen lassen
Also FG doch nicht sooo geil ? Oder ist der Tester jetzt schuld weil er neuere und beliebte Titel ausgewählt hat ?

DaHell63 schrieb:
.komischerweise haben sogar die Spieler mit einer RX 6600 XT ihren Spass daran
Bei einer 300€ GPU erwarte ich vielleicht was anderes und senke meine Einstellungen.

@Dai6oro
Er meint VRAM verbrauch.
 
Zuletzt bearbeitet:
DaHell63 schrieb:
Ihr könnt ja ruhig den sinnlos Verbrauch feiern...muss man aber nicht. Genausowenig wie jeden max...oder angeblichen max Benchmark. Das habe ich inzwischen schon gelernt, dass bei den Usern hier max nicht gleich max bedeuted, sondern dass AMD max was anderes ist.
Sinnlos Verbrauch ? Also das was z.B. Ampere rausgefeuert hat und damals niemanden interessiert hat? Nein also ich hatte Ampere (3090) wie käme ich dazu das jetzt AMD anzukreiden? Vor allem beim Limit mit 144FPS hat Ampere immer noch die "Krone" auf.
1681986128920.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Piep00 und C0rteX
D0m1n4t0r schrieb:
Man stelle sich mal vor Nvidia würde allen Karten ne Speicherverdopplung spendieren. Man könnte die locker 3-4 Jahre oder noch länger nutzen. Aber ne, es wird absichtlich nur soviel Speicher verbaut dass es für aktuelle Sachen gerade eben so passt, so dass man sich alle 2 Jahre was neues kaufen muss.
Das ist genau der Punkt.
Die Leistung und Hardware, sowie Funktionen der Karten der RTX4000 und damals schon RTX3000 Karten sind sehr gut, tolle Produkte, wenn auch zu teuer.
Sobald aber der Speicher dazu kommt ist alles unter einer 4080 direkt unbrauchbar.
Ich weiß, ich schrei es in jedem Thread vor mich in, wie so ne defekte Schallplatte, aber das hat doch alles Kalkül von NV, die Karte ist direkt nach 5 weiteren Titeln unbrauchbar.
Und nein kommt mir jetzt nicht mit "E-Sports" Titeln und die laufen auch in 10 Jahren noch usw.
Es geht um neue Spiele, Spiele für die die Karten gedacht sind und nicht für ein Valorant oder CS:Go oder oder. Das sind Titel die laufen auf einem Toaster wenn es sein muss.

Ich würde NV weder für eine 4060,4060Ti,4070,4070Ti noch irgend einen Euro geben, für die 4070 vll. 300 Euro oder so.
Diese Speicherknauserei muss ein Ende haben bei NV und nur wenn man diese Produkte links liegen lässt denken die Deppen mal um.

Natürlich würde das selbe für eine 4080 oder 4090 auch gelten, aber die haben ja genügend Speicher, sind nur "überteuert"....

BTW: Samsung usw. muss schon Werk zumachen weil zu viel Speicher rumliegt und die bauen hier immer noch diese Speichermengen ein.... (gilt für viele anderen Hersteller auch)...
 
  • Gefällt mir
Reaktionen: BGnom, Windell, BOBderBAGGER und 3 andere
Frag den Softwareentwickler. Evtl weil sie es können und die Konsolen auch so viel VRAM zur Verfügung stellen können.
 
Unti schrieb:
Sobald aber der Speicher dazu kommt ist alles unter einer 4080 direkt unbrauchbar.
Ich weiß, ich schrei es in jedem Thread vor mich in, wie so ne defekte Schallplatte, aber das hat doch alles Kalkül von NV, die Karte ist direkt nach 5 weiteren Titeln unbrauchbar.
Und jeder, der das behauptet, behauptet das falsche.
Nicht jeder spielt sofort die neuen Titel, wenn sie rauskommen.
Nicht jeder spielt alle diese Titel überhaupt.
Nicht jeder, der diese Titel spielt, spielt sie in 4k oder WQHD.
Nicht jeder, der diese Titel spielt, spielt sie in Ultra.

Ich gehöre zu folgender Gruppe: Nicht jeder!

Und never ist eine Grafikkarte mit 8 GB unbrauchbar. Jeder, der das behauptet, hat einen falschen Horizont.
 
  • Gefällt mir
Reaktionen: qu1gon, ComputerJunge, Sam Miles und eine weitere Person
SonyFriend schrieb:
Und never ist eine Grafikkarte mit 8 GB unbrauchbar. Jeder, der das behauptet, hat einen falschen Horizont.

Auch wenns bei dir immer noch nicht angekommen ist:

Es geht nicht darum das 8GB schlagartig unbrauchbar sind, sondern das 8GB für diesen Preis ein Witz sind.

Das ist ein Produkt mit Sollbruchstelle.

RE4 Remake hat es eindrucksvoll gezeigt, dass eine 3070er locker schnell genug ist um hohe FPS zu zaubern, da aber bei aktivierten Zusatzfeatures (mit denen nVidia nunmal groß wirbt), dass Spiel sich einfach schließt, da der VRAM der Karte nicht ausreichend ist. Und das obwohl die Karte genügend Leistung besitzt.

Das ist pure Kalkulation, dass Leute in spätestens 2 Jahren die nächste Generation kaufen, da immer mehr Spiele nicht mehr sauber laufen.
 
  • Gefällt mir
Reaktionen: Piep00, BGnom, >NvidiaFanboy< und 3 andere
ja dann kauft doch nicht oder nehmt AMD mit 12 oder 16 GB - wo ist das Problem?
 
SonyFriend schrieb:
ja dann kauft doch nicht oder nehmt AMD mit 16 GB - wo ist das Problem?

Wir sind in einem Forum und dürfen Produkte für Ihre Eigenschaften kritisieren. Und bei nVidia ist das dringend nötig, da sich das in den letzten Jahren immer schlimmer zeigt, dass hier komplett auf Anti-Consumer gesetzt wird.

Wenn es dir nicht passt, bleib doch einfach dem Forum fern?
 
  • Gefällt mir
Reaktionen: Piep00, BGnom, Vigilant und eine weitere Person
nee, ist nicht mein Problem, ich habe ausgesorgt.
Ich möchte nur die verstehen, die darin (4060ti) ein Problem sehen und sie gänzlich abtun.
 
Es gab ja eine ähnliche Debatte zur 6500XT. Ein User Test, der sogar einen Test zur 6400 macht, zeigte auf, dass diese Karten trotz ihrer Beschneidungen und Nachteile (weil aus dem mobilen Bereich einfach hochgezogen), auch viele Vorteile haben und deutlich schneller sind wie eine APU/IGP und dazu auch noch spielbar sind für vieles und dies passabel. Die haben auch keine 8 GB VRAM sondern nur 4 (mit einer Ausnahme).

Eine 6600 ohne XT ist mit ~229 Euro eine durchaus sehr brauchbare Karte und die hat auch 8GB VRAM. Was hier wieder in genau diesen Thema sichtbar ist, sind die Aansprüche, mit einer 4060 auch Oberklasse mit Full Details spielen zu wollen für am liebsten 300 Euro. Aber mal ganz ehrlich. Wer eine 4060 hier in einer Nachfolgekette mit 1060 vergleicht sollte merken, dass der Preis natürlich etwas zu hoch ist aber die Karte für max. WQHD gedacht ist und dazu ganz sicher nicht für mehr auch genutzt werden sollte.

Gemessen an der Stromaufnahme ist die Karte sehr wohl eine sehr gute Karte und wird dafür viel Leistung bieten. NAtürlich zu teuer aber warten wir mal 6 Monate ab und schauen dann nach dem Straßenpreis.
 
  • Gefällt mir
Reaktionen: M11E und SonyFriend
aldaric schrieb:
Es geht nicht darum das 8GB schlagartig unbrauchbar sind, sondern das 8GB für diesen Preis ein Witz sind.
Es ging exakt um die irreführende Formulierung "alles unter .... direkt unbrauchbar." im Sinne von brauchste-gar-nicht-erst-auspacken-und-einstecken. Und diese Aussage ist selbstverständlich Unsinn. Welche Spiele für "diese Karten gedacht sein" könnten, wird sich nach der Veröffentlichung herauskristallisieren.

Auch ich meine, die Ernüchterung wird keine kleine sein. Trotzdem können auch diese überteuerten 8GB-Karten im individuellen Anforderungskontext brauchbar sein. Verkaufsschlager mit Legendenpotential werden sie jedoch sicher nicht werden.

, sondern das 8GB für diesen Preis ein Witz sind.
Das ist meiner Meinung nach unstrittig - selbst bei den "Freunden-von-Nvidia".
 
  • Gefällt mir
Reaktionen: Klever, aldaric, Vigilant und 2 andere
Im Kontext das wir uns hier in einem Hardwareforum bewegen, ist es natürlich auch verständlich das es hier wahrscheinlich Wenige gibt, die mit so einer Karte glücklich werden würden. Da die 60er Karten Mal für Mainstream full HD gaming standen, ist das natürlich schwer zu verarbeiten.

Besonders wenn das nächste Modell dann bereits für 630 Euro im Regal steht. Na wenigstens hat die 12 GB Karte dann genug Speicher für Full HD, um damit die nächsten 4 Jahre relativ save zu sein. Aber von attraktiv sind beide Lösungen trotzdem weit entfernt. Mal ganz davon abgesehen, dass sich Leute ja nicht für Full HD gaming entscheiden, weil das Geld so locker sitzt.

Für 170 Euro für Games wie Hello Kitty das große Inselabenteuer oder Barbies dreamland sollte es aber reichen. Bin mir nicht sicher, ob wir die Zielgruppe hier haben. 🤣
 
  • Gefällt mir
Reaktionen: aldaric und ComputerJunge
C0rteX schrieb:
Im Kontext das wir uns hier in einem Hardwareforum bewegen, ist es natürlich auch verständlich das es hier wahrscheinlich Wenige gibt, die mit so einer Karte glücklich werden würden.
Sehe ich auch so.

Mir stört nur diese dramatisch-übertriebene Wortwahl. Meine Vega war ja auch "schnell" für nix zu gebrauchen. ;)
 
  • Gefällt mir
Reaktionen: Fallout667
Da ist bei einigen überhaupt kein Urteilsvermögen zu erkennen. Wobei ich auch Mal gerne ein überspitztes Kommentar droppe, wenn ich das Gefühl habe, dass überhaupt nicht auf Argumente und Quellen eingegangen wird oder das Lügenpresse Argument kommt. Reproduzierbare Benchmarks anzweifeln, das zeugt schon von besonderer clevernes. Ich bin nicht in einem Hardwareforum, um dann realitätsferne Gespräche mit völlig beratungsresistenten Leuten zu führen.

Seit ich meine Ignoreliste gefüllt habe und die Banner für ignorierte Inhalte einfach zu lasse, rege ich mich über sowas auch nicht mehr auf. Man spricht einfach mit den Leuten, die an einem Wissensgewinn interessiert sind. Die einseitigen Sichtweisen und die lückenhafte "Argumentationsstruktur" erkennt man ja meist nach spätestens drei Posts.

Ist überhaupt die Lösung. Die Fanboys sperren einfach alle anderen und umgedreht. 🤣🤣🤣

Plötzlich herrscht überall Konsens. 🤣🤣🤣
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aldaric, msv und ComputerJunge
Artikel-Update: Nun im Angebot des belgischen Händlers 2Compute aufgetauchte PC-Systeme von MSI bestätigen den 8 GB großen – oder vielmehr kleinen – Speicherausbau der weiterhin noch nicht offiziell vorgestellten GeForce RTX 4060 und RTX 4060 Ti, wie zunächst VideoCardz berichtete. Nvidia ist Gerüchten zufolge wiederum nicht der einzige Hersteller, der Next-Gen-Grafikkarten mit lediglich 8 GB Grafikspeicher ausstatten wird: Auch AMD plane für die Radeon RX 7600 (XT) mit 8 GB GDDR6.
 
Zurück
Oben