News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

SonyFriend schrieb:
was nutzt dein breiter Bus, wenn dein VRAM nicht schnell genug liefert?
Andersherum: es gehen auch 128 Bit wenn der VRAM dahinter schnell ist.
Nicht ganz.

Ein Spiel lädt nicht ganz viel in den VRam, weil es weis das die Anbindung nur 128 Bit beträgt. Die Leute mit 4060/Ti, egal ob mit 8 oder 16GB VRam, werden im Strahl kotzen. Das gibt heftige Framedrops wenn nachgeladen wird, weil das einfach zu langsam geschieht. Da werden sehr oft Texturen im Spiel noch nicht fertig geladen sein.

Ich finde das sehr spannend. Nvidia hat sich mit 4070/Ti bis 4060/Ti mit ihren 8-12GB VRam selbst erhängt. In 1440p werden die Leute mit 4070 12GB noch dieses Jahr am Limit sein und schon nächstes Jahr von Ultra auf Hoch stellen müssen, nicht weil die Grafikkarte zu langsam ist, sondern weil der VRam aufgebraucht ist.
 
  • Gefällt mir
Reaktionen: C0rteX
qu1gon schrieb:
das NVIDIA seine Kunden jedes Jahr auf's Neue verarscht, um es mal treffend zu formulieren.
Naja das kann man so sehen, allerdings ist es inzwischen ziemlich vorhersehbar das NV so handelt.
Also wer ist daran schuld? NV oder der Kunde der trotz besseren Wissens nicht auf eben diese Karte wartet bzw. bei AMD mit mehr VRam kauft?

Piecemaker schrieb:
In 1440p werden die Leute mit 4070 12GB noch dieses Jahr am Limit sein und schon nächstes Jahr von Ultra auf Hoch stellen müssen, nicht weil die Grafikkarte zu langsam ist, sondern weil der VRam aufgebraucht ist.
Da reden wir gerne nochmal Ende des Jahres drüber.
Bei mir ist da noch ordentlich Luft auf UWQHD, meine vorherige 6700XT hat auf jeden Fall eines gezeigt, wenn AMD es nicht schafft die 12gb in irgendeiner sinnvollen Weise zu nutzen dann tut es die 4070 so schnell auch nicht, das gilt auch für die Ti.

Der Top Anzeiger bei benötigtem VRam jetzt und in der nächsten Zeit, ist gerade auf dem PC erschienen und wurde weiter nach unten optimiert was den VRamhunger angeht. Da wird denke ich so schnell nichts knapp.
https://www.computerbase.de/forum/t...it-groesserer-ad103-gpu.2143303/post-28190685
Wenn man natürlich nicht in der Lage ist zu warten bis der unoptimierte Spieleschrott, halbwegs auf Spur gepatcht ist muss man natürlich mehr Ram besitzen.
Ich habe da bei der 4070 keinerlei Bedenken.

Piecemaker schrieb:
Ein Spiel lädt nicht ganz viel in den VRam, weil es weis das die Anbindung nur 128 Bit beträgt.
Tut es nicht? Aber warum weiß das Spiel bzw. der Treiber dann das es bei AMD mehr VRam braucht als mit NV, und dementsprechend mehr belegt, da sollte es auch kein Problem sein das für eine 4060Ti auch so zu handeln.
Denke ich mir zumindest so mit meinem Laienwissen
 
Piecemaker schrieb:
Nvidia hat zwar Konkurrenz, aber trifft die falschen Entscheidungen für die Zukunft ihrer Marke.
Ich würde sagen dass ist jetzt reine "meiningsspekulation".

jedenfalls zeigt die jüngere verteilung der marktanteile keinen deutenswerten einbruch bei nvidia - auch wenn alle hier über die entwicklung jammern, die nachfrage scheint zumindest so gut zu sein dass nvidia ein geschäft dabei macht.
nvidia scheint eher die strategie zu fahren bei der kleinere stückzahlen umgesetzt werden aber mit höheren verkaufspreisen/margen. es wäre hier an den kunden auf abstand zu gehen wenn ihnen diese produktpolitik nicht zusagt.
das dürfte das einzige sein was nvidia (oder auch andere hersteller) dazu bringen kann die strategie zu überdenken.

jedenfalls ist es nicht die erste fragwürdige portfolioentscheidung seitens nvidias...man denke da an die gtx970 oder die gtx770 mit "nur" 2 gb vram. wirklich geschadet hat es ihnen offenbar nicht...
 
  • Gefällt mir
Reaktionen: ThirdLife
Piecemaker schrieb:
Nicht ganz.

Ein Spiel lädt nicht ganz viel in den VRam, weil es weis das die Anbindung nur 128 Bit beträgt. Die Leute mit 4060/Ti, egal ob mit 8 oder 16GB VRam, werden im Strahl kotzen. Das gibt heftige Framedrops wenn nachgeladen wird, weil das einfach zu langsam geschieht. Da werden sehr oft Texturen im Spiel noch nicht fertig geladen sein.
Gehen wir mal vom selben 21Gbps Memory aus, das sind dann bei 128 Bit SI rund 336GB/s. Dürfte wohl ganz knapp langen wenn du bisher auch mit Games von einer HDD oder SATA SSD zocken konntest mit 500MB/s. Wir reden hier von VRAM in der Größe von 8-16GB.

16GB wären in 0,0476 Sek also randvoll geladen. Auf einer 6750XT reden wir von 432GB/s, könnte den Speicher in 0,0370 Sek vollladen. Hört man dort von massivsten Rucklern ? Nein ? Warum solls dann hier magisch so sein ?

Bei der 4060Ti reden wir über eine Karte mit mickrigen 32SMs, das sind 2048 Shader. Bei einer 4090 reden wir von 8192 Shadern und 128 SMs. Wenn wir mal nur davon ausgehen dass man proportional runter gehen könnte würden 96-Bit bei 32SM den 384 Bit bei 128 SMs gleichkommen.

Wie gesagt: wer braucht für 2km Dorf-zu-Dorf wo täglich fünf Autos fahren eine Autobahn mit vier Spuren ?

cypeak schrieb:
jedenfalls ist es nicht die erste fragwürdige portfolioentscheidung seitens nvidias...man denke da an die gtx970 oder die gtx770 mit "nur" 2 gb vram. wirklich geschadet hat es ihnen offenbar nicht...
Zu dem Zeitpunkt hab ich noch gar nicht wirklich mich mit der Technik an sich beschäftigt sondern Reviews gelesen und reihenweise FPS-Charts verglichen. Mir war scheissegal wie die fps zustandekamen solange sie eben kamen und das innerhalb des Budgets das ich hatte und möglichst leise weil ich damals noch luftgekühlt habe.

Ich bezweifel dass ein geistig gesunder Kunde heutzutage anders vorgeht wenn er technisch nicht im Thema drinhängt. FPS pro Dollar zählen - nix anderes. Ob dann irgendwo mit was gemogelt wird spielt wenig Rolle solange es dennoch gut läuft.
 
qu1gon schrieb:
Hab auch so langsam bzw. nicht so langsam sondern wirklich das Gefühl, das NVIDIA seine Kunden jedes Jahr auf's Neue verarscht, um es mal treffend zu formulieren.
Naja ein Geheimnis ist das ja auch nicht. Aber was will man als Endkunde halt machen, außer zusagen man kauft es nicht?
Das habe ich bei der 2000er Reihe gemacht, bei der 3000er wollte ich zur UVP upgraden aber ich war nicht bereit Scalper-Preise zu zahlen. Bei der 4000er Reihe wars dann jetzt leider langsam an der Zeit. AMD kommt leider nicht infrage aufgrund von NVENC.
 
  • Gefällt mir
Reaktionen: qu1gon
A.Xander schrieb:
Naja das kann man so sehen, allerdings ist es inzwischen ziemlich vorhersehbar das NV so handelt.
Also wer ist daran schuld? NV oder der Kunde der trotz besseren Wissens nicht auf eben diese Karte wartet bzw. bei AMD mit mehr VRam kauft?
Vorhersehbar, ja, man rechnet schon damit, ändert aber auch nichts.
Klar NVIDIA's Schuld, ist ja die Ursache. Der Kunde kann ja nur reagieren und das kaufen was es gibt.

Meine persönliche Meinung:

NVIDIA Karten sind noch immer die besseren und siegen in fast allen Features.
Beim VRAM ist es ja nicht so, das er nicht vorhanden wäre, man nicht spielen könnte und genaugenommen reicht der aktuell für quasi alle Games aus. Bis zur nächsten GEN sollte es damit nicht wirklich Probleme geben.
Der VRAM wird auch effizienter genutzt, 8GB sind bei "grün" quasi wie 9GB hab ich mal aufgeschnappt.
Sehe das mit den 12GB VRAM nicht als echtes Problem, ist eher so "könnten noch etwas mehr sein bzw. 16GB" und das ist auch klar so - sprich, ist hat für den Preis mehr als klar zu kritisieren.

DLSS3, AMD hat noch immer kein FSR3 am Start.
NVIDIA hat die deutlich bessere RT-Performance, was mir wichtiger ist, als das ich mit 140 FPS statt 130 FPS in Rasterizing zocken kann.
Dann gibt es eine High-End Karte, wo AMD (noch) keine Alternative hat und bei den kleineren Modellen hat aktuell auch nur NVIDIA etwas anzubieten. Bisher war DLSS auch die ausgereiftere Technik.
Deutlich und aktuell (auch wenn manchen egal) immens besser, ist die Effizienz. Also schon im Werkszustand sehr gut und AMD kann da null mithalten und wenn man dann bedenkt, das man da noch selbst ein gutes Stück herunterregeln kann, fast ohne Leistungsverlust oder noch weiter runter + etwas übertaktung um gleiche Leistung bei NOCH weniger Leistungsaufnahme zu bekommen, sind das schon Welten.
Wenn ich mir da so eine 4070 Gaming X von MSI ansehe, mit 0,1 Sone - einfach geile Sache.
Siehe hier das >> Video <<.
Die Nase vorn hat Team grün auch mit NVENC (z.B. bezüglich Streaming etc.) und auch geringfügig besser ist G-Sync, Reflex, DLSS (wie erwähnt). Vielleicht hab ich noch was vergessen...

... mein persönliches Fazit daher, man bezahlt bei AMD (etwas) weniger, bekommt auch etwas mehr Rasterizing-Leistung und ja die etwas mehr VRAM in der Mittelklasse, welche der NVIDIA gut getan und sie quasi perfekt gemacht hätten (für mich aber weit entfernt von etwas wie einem K.O.-Kriterium).
Aber eben auch NICHT das was NVIDIA schließlich für den (Auf)Preis bietet.
Das muss man nunmal sehen, ob man jetzt RT oder NVENC etc. nutzt oder nicht, tut ja nichts zur Sache.
Ergänzung ()

Dawhite schrieb:
Naja ein Geheimnis ist das ja auch nicht. Aber was will man als Endkunde halt machen, außer zusagen man kauft es nicht?
Das habe ich bei der 2000er Reihe gemacht, bei der 3000er wollte ich zur UVP upgraden aber ich war nicht bereit Scalper-Preise zu zahlen. Bei der 4000er Reihe wars dann jetzt leider langsam an der Zeit. AMD kommt leider nicht infrage aufgrund von NVENC.
Siehe meinen Post drüber... ja eben, wir Kunden können ja nur reagieren bzw. uns, sofern erhältlich,
nur für eine Alternative entscheiden.
 
  • Gefällt mir
Reaktionen: A.Xander
cypeak schrieb:
das ist so für sich alleine schlichtweg falsch.
Nein, ist es nicht, weil das business as usual ist.

cypeak schrieb:
nvidia existiert nicht im "luftleeren" raum. solange es konkurrenz/wettbewerb gibt, kann nvidia sich auch nicht alles erlauben sofern man etwas verkaufen oder marktanteile halten möchte.
Richtig. Das Ziel, möglichst viel Geld bei möglichst niedrigstem Einsatz richtet sich natürlich auch nach der Konkurrenz und dem Kaufverhalten der Konsumenten bzw. dem Bedarf.

cypeak schrieb:
desweiteren, mit verlaub: technische einschränkungen so beiseite wischen zu wollen hat was was vom kindischen "ich-will-aber-nicht".
Worüber diskutierst du hier mit mir eigentlich? Ich habe lediglich meine Meinung zur Speicherbestückung und zur Bepreisung der 40er Karten geäußert. Anschließend habe ich eine kleine Liste gemacht, wie ich als Kunde die Bestückung lieber hätte, insbesondere wenn es denn unbedingt mit zwei Speichervarinanten daher kommen soll.

Das hast du zitiert und dabei technische Einschränkungen erwähnt. Darauf habe ich geantwortet und dir klar gemacht, worum es mir geht. Die technischen Einschränkungen sind mir bewusst mein lieber.

cypeak schrieb:
aber all das ist nur nebensächlich; denn du hast stets die möglichkeit das angebotene nicht zu kaufen wenn es dich nicht überzeugt. das gilt für so ziemlich nicht alle zum leben essentiell notwendige güter.
Absolut. Deswegen lasse ich ja bisher auch die Finger davon, weil mich diese Produkte nicht überzeugen. Kann ich deswegen hier nicht Meinung über das Produkt kundtun?

cypeak schrieb:
was ist also genau dein argument? dass nvidia dir nicht deine wunsch-gpu zum wunschpreis liefert?
Was für ein Argument? Warum? Für was? Ich bin doch nicht derjenige, der irgendjemanden hier von irgendetwas überzeugen will. Eigentlich bist du derjenige, der mich zitiert hat und mir versucht salopp gesagt die Entscheidung von nvidia zur "erklären". Das interessiert mich nicht die Bohne. Oder bist du nvidias Anwalt?

Nochmal:
Wenn nvidia eine 4070 mit 192-Bit/12-GiB ausstattet, ich die Ausstattung für den Preis nicht okay finde und mir mehr gewünscht hätte, dann interessiert mich eine Aussage wie "ja aber da geht nicht einfach 16GiB wegen des Interfaces" nicht, denn schließlich KÖNNTE sie auch mit den 256-Bit/16GiB kommen! Tut sie aber nicht, weil der Hersteller sich so entschieden hat, genau so wie der Hersteller diese vormals als 4080 (!) vermarkten wollte und sich nach dem Shitstorm umentschied. Wait, war das auch im "Zuge des Engineerings" ?

Projiziere diesen Umstand jetzt auch auf die Modelle darunter und du verstehst hoffentlich endlich den Kern meiner Aussage und hörst auf meine Kommentare vollkommen vom Zusammenhang gerissen zu zitieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX und Piecemaker
@Jan

Heise berichtet auch über eine mögliche 4070 mit 16GiB.

Über eine hypothetische GeForce RTX 4070 mit 16 GByte schreibt der für Leaks bekannte Twitter-Account "kopite7kimi". Dem Wortlaut steht eine Markteinführung noch nicht fest, Nvidia würde aber über eine solche sinnieren.

Da der AD104-Grafikchip über ein 192 Bit breites Speicher-Interface verfügt, gestaltet sich eine Kapazität von 16 GByte schwieriger: Mit einer Stutzung auf 128 Datenleitungen würde die Übertragungsrate und damit die Spielleistung sinken. Deshalb erwägt Nvidia offenbar eine Version mit der AD103-GPU, die auch auf der GeForce RTX 4080 zum Einsatz kommt.
 
qu1gon schrieb:
DLSS3, AMD hat noch immer kein FSR3 am Start.
Das war der Grund nach einer Ewigkeit AMD mal wieder zu wechseln, mit DLSS3 hat die ganze Geschichte mit RT zusammen für mich den Status erreicht wo ich auch mal sagen konnte. Teuer aber geil und nicht wie vorher. Naja ist schon besser aber der Preis.
Ich meine Path Tracing ist schon richtig schau.
Auf FSR 3 bin ich auch mal gespannt, finde AMD hat mit FSR sehr gute und schnelle Arbeit geleistet.
 
  • Gefällt mir
Reaktionen: qu1gon
Interessiert mich nicht mehr was da veranstaltet wird. Bin immer noch super zufrieden zur 4080 gegriffen zu haben.
 
Piecemaker schrieb:
https://www.computerbase.de/artikel/grafikkarten/rtx-video-super-resolution-test.83486/

Wissen viele gar nicht das ihre Karte das kann. Ist aber auch bissle heftig. 1080p Youtube Video + VSR an = 200 Watt Stromverbrauch.
Kommt extrem aufs Material an.

Ein normales Video das ich schauen würde (LTT, Igors etc.) liegt bei 1080p30 und da komm ich mit meiner 4090 auf 80W (62,2 Mio Pixel pro Sekunde die berechnet werden müssen). Bei 1440p60 hast du halt eine deutlich größere Menge an Daten (184,3 Mio Pixel pro Sekunde).

Sollte eigentlich logisch sein und die üblichen Panik-Aussagen im Keim ersticken. Wenn du ein 720p30 (27,6 Mio PpS) Dokuvideo in deutlich besserer Qualität sehen willst kostet dich das 40W vielleicht. Also schön locker bleiben. Das ziehen die Radeons dann im Standby gefühlt ohne was zu machen. ;)
 
A.Xander schrieb:
Teuer aber geil und nicht wie vorher. Naja ist schon besser aber der Preis.
Ja hatte ich ja was dazu geschrieben, man bekommt ja auch mehr, ist nicht einfach "nur" teurer.

Der Satz könnte auch auf anderes Produkt passen :)
Sinngemäß ein tolles schnelles Auto, kostet mehr aber ist halt geil. Wie gesagt sinngemäß. ;-)

Zu AMD wie gesagt, gilt auch für Intel,... ich hoffe sehr das sich die Verhätnisse anpassen und es immer spannender wird bei den Grakas - das einfach ein Kopf an Kopf Rennen stattfindet.
Also die beiden schnell und möglichst gleichziehen. Dann kann sich keiner mehr sowas wie aktuell Nvidia mit dem VRAM mehr erlauben. Da muss alles sitzen und mehr.
 
  • Gefällt mir
Reaktionen: A.Xander
ShiftC schrieb:
dann interessiert mich eine Aussage wie "ja aber da geht nicht einfach 16GiB wegen des Interfaces" nicht, denn schließlich KÖNNTE sie auch mit den 256-Bit/16GiB kommen! Tut sie aber nicht, weil der Hersteller sich so entschieden hat,
Und das ist wie gesagt der Knackpunkt.

Wäre das so passiert. würde man sich über Radeon Karten gar nicht unterhalten. RTX 3070 256bit aber mit 16GB Vram für 499€ und schon hätte die RX 6800 niemanden mehr interessiert.
 
ThirdLife schrieb:
Das ist der Punkt. Langsam. Hier wird so getan als ob man in drei Wochen nix mehr zocken kann.


Welche neuen Konsolen ? Es gibt keine neuen Konsolen. PS5 Pro könnte evtl. irgendwann Ende 24 auftauchen. Und wenns dann fünf Spiele dafür gibt was dann ? Sinds fünf von was ? 92.000+ Games bei Steam ?

Ja ne so gehts nicht. Da geht die Welt unter. Erst die Butter so teuer, dann der Strom und die tolle Gasheizung die man sich noch lachend 2021 eingebaut hat und jetzt muss man evtl. auf 2-5 Games verzichten ENDE 2024. Menno. Man hats nicht leicht im Schland. :heul:
Normalerweise kauft man eine Grafikkarte sodass sie eine Weile hält. Meine 1060 hat 7 Jahre ihren Dienst getan. 7 Jahre sind viel, jedoch sollte eine 500-800 € Karte sicher 3 Jahre alles zocken können auf 2k mit hohen Details. Und das ist hier einfach nicht gegeben. Nicht jedermann kann es sich leisten, eine Grafikkarte zu wechseln wie andere ihr IPhone.

Mit den neuen Konsolen meine ich die PS 5. Ich glaube fast, du willst mich falsch verstehen. Klar sind die Konsolen bereits eine Weile draussen, aber erst jetzt kommen langsam die Spiele, die nicht mehr für die PS4 und Xbox one mitoptimiert werden, sondern auf die Hardware der neuen Generation ausgelegt sind. (Wobei die Series S die Sache ein wenig erschwert)

Grafikkarten, die doppelt so teuer sind wie die ganze PS5 und dennoch weniger VRAM bieten, ist lachhaft. Natürlich kannst du weiterhin solch eine Meinung vertreten und dich ausnehmen lassen, aber ohne kritische Rückmeldungen an Nvidia wird es nur schlimmer.
Da heutzutage die Rohleistung der Grafikkarten länger mithalten kann, als es Nvidia lieb ist, beschränken sie den VRAM gezielt auf genau "aktuell noch ausreichend" damit man alle 2-3 Jahre kaufen muss, wenn man bei der Auflösung bleiben will und keine verwaschenen/nachladenden Texturen will.
 
  • Gefällt mir
Reaktionen: C0rteX und msv
SavageSkull schrieb:
Schön das man die Wahl hat:
  • langsame Karte mit viel Speicher
  • schnelle Karte mit zu wenig Speicher
  • Karte bei der alles stimmt, außer dem Preis
Kurz und knackig zusammengefasst ! 👍🏻
 
  • Gefällt mir
Reaktionen: C0rteX
losullus schrieb:
jedoch sollte eine 500-800 € Karte sicher 3 Jahre alles zocken können auf 2k mit hohen Details. Und das ist hier einfach nicht gegeben
Warum sollte das nicht gehen. Du redest von hohen Details und nicht Ultra Details. Auch Rt erwähnst du nicht. Da sehe ich keinerlei Probleme. Vor allem da Nvidia besser im Vram Limit Arbeitet als AMD. 500-800€ bist du in der Rtx4070 Reihe.

Die hier genannte 4060ti wird knapp unterhalb der 500€ Grenze kommen.
 
losullus schrieb:
Grafikkarten, die doppelt so teuer sind wie die ganze PS5 und dennoch weniger VRAM bieten
Um mal ein paar Sachen aufzuklären. Die PS5 besitzt keinen expliziten VRam, sie besitzt 16GB kombinierten Ram und ist im allgemeinen nicht mit dem Aufbau eines PCs vergleichbar.
Eine Karte die man für den Preis einer PS5 bekommt bringt wesentlich mehr Leistung bei gleicher optischer Qualität.
Da sie sich im Aufbau so verschieden sind braucht die Grafikkarte für den PC auch nicht soviel Vram.
4k nativ auf Grafik und FPS Niveau einer PS5 mit einer 4070 bitteschön.

TLOU PS5 Einstellung 4k nativ.jpg

Da ist ja noch ordentlich Luft was Ram und GPU Leistung angeht.

losullus schrieb:
Da heutzutage die Rohleistung der Grafikkarten länger mithalten kann, als es Nvidia lieb ist, beschränken sie den VRAM gezielt auf genau "aktuell noch ausreichend" damit man alle 2-3 Jahre kaufen muss, wenn man bei der Auflösung bleiben will und keine verwaschenen/nachladenden Texturen will.
Die Auflösung ist nur zweitrangig.
Hier gibt es noch ein schönes Video mit Fakten zum Ram Verbrauch
 
  • Gefällt mir
Reaktionen: ThirdLife, Mörtel und Gsonz
losullus schrieb:
Normalerweise kauft man eine Grafikkarte sodass sie eine Weile hält. Meine 1060 hat 7 Jahre ihren Dienst getan.
Nö, das war n Ausnahmefall, nicht allzuviele Entwicklungen auf dem Gaming-Markt kombiniert mit einer starken Architektur. Das ist ganz sicher nicht der Usus.

losullus schrieb:
7 Jahre sind viel, jedoch sollte eine 500-800 € Karte sicher 3 Jahre alles zocken können auf 2k mit hohen Details.
Sollte sie ? Wo steht das ? Gibts das auch im Grundgesetz verankert ? Was wenn auf einmal in einem Gebiet bestimmte Entwicklungen rasant viel mehr Leistung benötigen ?

Und wer sagt`, dass das hier nicht möglich ist ausser die Panic-Mode Foristen ? Deine Glaskugel ?

losullus schrieb:
Und das ist hier einfach nicht gegeben. Nicht jedermann kann es sich leisten, eine Grafikkarte zu wechseln wie andere ihr IPhone.
Also wenn man alle 2-300€ für eine GPU zuzahlt abzüglich Verkauf der "alten" Karte, dann muss man reich sein ? Wenn dir dein Hobby nichtmal nen Zehner im Monat wert ist, dann ist es evtl. vielleicht gar nicht so sehr dein Hobby.

losullus schrieb:
Mit den neuen Konsolen meine ich die PS 5. Ich glaube fast, du willst mich falsch verstehen. Klar sind die Konsolen bereits eine Weile draussen, aber erst jetzt kommen langsam die Spiele, die nicht mehr für die PS4 und Xbox one mitoptimiert werden, sondern auf die Hardware der neuen Generation ausgelegt sind. (Wobei die Series S die Sache ein wenig erschwert)
Jo die sind dann auf eine GPU der Leistungsklasse Radeon 6700 optimiert. Das wird sich mit einer 4070 und Co bestimmt NIEMALS abbilden lassen. :daumen:

losullus schrieb:
Grafikkarten, die doppelt so teuer sind wie die ganze PS5 und dennoch weniger VRAM bieten, ist lachhaft.
Dir ist schon klar, dass die Hardware einer Konsole quersubventioniert wird über die Spiele ? Nein ? Cool, dann hast jetzt was gelernt. Also ne 4070 für 199€ wäre in dem Fall für dich ok, wenn du dann halt für jedes Game im Steam Store ab jetzt 120€ abdrückst ?

Und dass eine 4060 Ti doppelt so teuer wie ne PS5 wird (also ca. 1k€), wo hast du das denn her ? 🤔

losullus schrieb:
Natürlich kannst du weiterhin solch eine Meinung vertreten und dich ausnehmen lassen, aber ohne kritische Rückmeldungen an Nvidia wird es nur schlimmer.
Wieso ausnehmen lassen ? Ich hab gesehen was die Tests zeigen, hatte einen massiven Performance-Sprung zur 3080 Ti und hab die Karte gewollt. Hätte ich dasselbe Geld für ne Karte mit nur 20% Mehrleistung hingelegt ? Nö. Aber das is der Unterschied - ich bin dann halt konsequent und moser nicht nur rum wie viele hier im Forum die dann am Ende dennoch zugreifen.

losullus schrieb:
Da heutzutage die Rohleistung der Grafikkarten länger mithalten kann, als es Nvidia lieb ist, beschränken sie den VRAM gezielt auf genau "aktuell noch ausreichend" damit man alle 2-3 Jahre kaufen muss, wenn man bei der Auflösung bleiben will und keine verwaschenen/nachladenden Texturen will.
Ah, die Rohleistung der GPUs heute kann länger mithalten ? Wie schlägt sich eine 3060 dann in CP2077 UHD mit Pathtracing ? Sind da flüssige 120Hz möglich ? Nein ? Gut dass wir drüber geredet haben. :daumen:

Verwaschene Texturen. Hab ich selbst mit ner 770 oder 970 nie erlebt. Vor allem: da musst du ja grad mitreden mit deiner 1060 - aka VRAM MASCHINEEEE - die schon vor Jahren somit viel zu wenig Speicher hatte gemessen an den Topmodellen die es damals gab.🤣
 
Zuletzt bearbeitet:
Zurück
Oben