News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

Das ist im Prinzip gar nicht mal so unwahrscheinlich. Da die 3080 bereits ein recht stark beschnittener 102er Chip ist, dürfte die 3070 gar nicht soo weit entfernt liegen, Schätzungsweise kommt diese bei 48SMs dann auf 3072 Shader statt 4352 um auf die 2080S ~20% draufzulegen und sich mit einer 2080Ti zu messen.

8GB Speicher wären dann bei einem günstigen Preis in Ordnung. Fällt der Preis höher aus, ginge es Richtung Speicherkrüppel.
 
Zuletzt bearbeitet von einem Moderator:
KlaraElfer schrieb:
Warum sollte denn der Vollausbau eines Chips niedriger takten? Tut doch die 2080 Super verglichen mit der 2070 Super auch nicht. Du wirfst hier mehrere Dinge durcheinander und achtest nicht darauf, dass 2080 Super mit dem TU104 kam und die 2080 Ti mit dem TU102.
2080/90/Titan kommen alle mit demselben Chip, das sagte ich doch vorher schon, weshalb dein Vergleich mit Turing nicht zieht, weil sich die Rahmenbedingungen geändert haben.
Jetzt wird für die 80er der große Chip verbaut und damit ist das mit Turing nicht mehr vergleichbar.
Ob GPU A mit mehr Shadern nun einen anderen Chip oder denselben verwendet, spielt für diesen Umstand keine Rolle. Fakt ist, dass die 2080Ti mehr Shader als eine 2080 Super hat und Fakt ist, dass dasselbe bei Ampere der Fall sein wird. Ich denke, für diese Feststellung braucht man auch keine offiziellen Specs, um zu wissen, dass eine 3080Ti/3090 mehr haben wird, als eine 3080. ;)

Wodurch das mehr an Shadern zustande kommt, ob nun durch einen anderen oder denselben Chip, ist doch völlig egal. Die 2080 Super und 2070 bewegen sich zudem deutlich von dem entfernt, was eine 2080Ti hat oder augenscheinlich GA102 an Shadern haben wird. Daher ist der Vergleich diesbezüglich auch weniger sinnvoll.

Für sinnvolle Vergleiche sollte man auch eher Herstellerintern bleiben. AMD hat grundsätzlich die Strategie, dass das beste Produkt immer den höchsten Takt bekommt. Sei es bei Hawaii, Polaris, Fiji, Vega, aktuell Navi oder bei den CPUs Ryzen.

Aber bei Nvidia ist es halt so, dass die ganz großen GPUs mit viel Shadern auch niedriger takten als solche wie eben eine 2070 oder 2080 Super.
 
Linmoum schrieb:
Ob GPU A mit mehr Shadern nun einen anderen Chip oder denselben verwendet, spielt für diesen Umstand keine Rolle.

Also bisher spielte das bei jeder GPU die am Markt war eine ziemlich zentrale Rolle.
Die Salvage SKU mit dem schlechteren Binning taktete niedriger, ausnahmslos, weil die natürlich auch günstiger verkauft werden will und auch Teildefekte aufweist oder Taktrate X mit Spannung Y nicht stabil schafft.

Linmoum schrieb:
Fakt ist, dass die 2080Ti mehr Shader als eine 2080 Super hat und Fakt ist, dass dasselbe bei Ampere der Fall sein wird.

Aber 2080 Super und 2080Ti hatten jeweils einen eigenen Chip, womit deine Schlussfolgerung für Ampere im Bezug auf die Taktraten nicht schlüssig ist. Nvidia müsste für die 3080 die besseren Chips billig verschleudern und für die 3090/3080Ti die schlechteren Chips verwenden. Das wird so nicht passieren.
Linmoum schrieb:
Wodurch das mehr an Shadern zustande kommt, ob nun durch einen anderen oder denselben Chip, ist doch völlig egal.

Nein, ganz und gar nicht. Das sollte man eigentlich mitbekommen haben, selbst wenn man nur ab und zum News dazu liest... oder gehts dir einfach nur darum, die 2090 schlecht zu reden, dass die dann einfach nicht so hoch takten darf, weil das nicht in deine Realität passt? Ob AMD oder Nvidia vorne ist, ist doch sowas von egal.
Bisher haben die beschnittenen Chips nie so hoch getaktet wie der Fast Vollausbau oder Vollausbau.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: kennbo82 und maggotno999
@KlaraElfer So pauschal kann man jetzt nicht sagen, dass beschnittene ICs langsamer takten. Ich hatte mal eine HD 7870 XT, die einen beschnittenen Tahiti-Chip besitzt, siehe hier:
https://www.computerbase.de/2012-12/test-vtx3d-hd-7870-black-tahiti-le/

Die hat es performancemäßig durch den höheren Takt problemlos mit einer 7950 aufnehmen können (war im Nachhinein allerdings trotzdem kein soo guter Deal, weil nach paar Jahren dann der VRAM vor der Rohleistung am Ende war).
Mit OC habe ich damals auch rumgespielt, weiß nicht mehr, wie viel da ging, aber >1000 MHz ohne Spannungserhöhung waren auf jeden Fall drin.

Allgemein spricht für deine These, dass für die beschnittenen Chips natürlich die schlechteren ICs genommen werden, die dann in verschiedenen Dingen schlechter abschneiden können, natürlich auch in der Taktbarkeit.
Dagegen spricht, dass das Abschalten bestimmter Einheiten auf dem Chip im Allgemeinen eher einen positiven Einfluss haben sollte, da die abgeschalteten Bereiche dann schon mal nicht limitieren können und das Taktsignal muss weniger Lasten treiben.
Würde mal behaupten, das wird einfach von Fall zu Fall unterschiedlich sein.
 
Beitrag schrieb:
So pauschal kann man jetzt nicht sagen, dass beschnittene ICs langsamer takten. Ich hatte mal eine HD 7870 XT, die einen beschnittenen Tahiti-Chip besitzt, siehe hier:

975Mhz GPU Takt sind aber weniger als 1050 bei der 7970Ghz.
Dass es dann GPUs gibt die den Takt nicht schaffen und zusätzlich Defekte aufweisen und dann extrem beschnitten werden, ist kein Wunder.

Beitrag schrieb:
Die hat es performancemäßig durch den höheren Takt problemlos mit einer 7950 aufnehmen können (war im Nachhinein allerdings trotzdem kein soo guter Deal, weil nach paar Jahren dann der VRAM vor der Rohleistung am Ende war).

Die HD 7950 kam Ende 2011, Tahiti LE Ende 2012.

Beitrag schrieb:
Dagegen spricht, dass das Abschalten bestimmter Einheiten auf dem Chip im Allgemeinen eher einen positiven Einfluss haben sollte, da die abgeschalteten Bereiche dann schon mal nicht limitieren können und das Taktsignal muss weniger Lasten treiben.

Wenn die TDP ansonsten limitieren würde, sehe ich das auch so.
 
Zuletzt bearbeitet von einem Moderator:
Klar, Tahiti LE musste ja auch später kommen. Das war 'ne kleine Serie zur reinen Resteverwertung und die Reste musste man sicherlich erstmal ansammeln, um 'ne Serie draus zu basteln.
Die Taktbarkeit von Tahiti LE dürfte ähnlich gut wie bei der 7970 gewesen sein - geringfügig weniger Takt bei geringfügig weniger Spannung.
 
Tahiti ist aber auch eher ein Sonderfall. Man hätte schon zu Release viel höhere Taktraten bringen können und wollte einfach auf Sparsamkeit trimmen.
Meine HD 7950 ging problemlos auf 1150Mhz hoch.
 
habla2k schrieb:
Du kannst aber nicht ne Karte nehmen, die über ein Jahr nach Release rauskam. Du musst schon die Releasekarten vergleichen.

https://geizhals.de/nvidia-geforce-rtx-2070-founders-edition-900-1g160-2550-000-a1870926.html

und

https://geizhals.de/gigabyte-geforce-gtx-1080-founders-edition-gv-n1080d5x-8gd-b-a1441847.html

Dann stimmt das sehr wohl.

PS: Eine 3080 TI gibt es nicht -> 3090.

Deine Links sind leider wertlos.

Zum Release der GTX 1080 gab es nur die FE für 789€, habe ich selbst am 1. Tag gekauft.
Die RTX 2070 gab es zum Release ab 519€.

Das:

habla2k schrieb:
Schon die RTX 2070 war so teuer wie die GTX 1080.Solche Sprünge macht Nvidia nicht zum ersten Mal.

ist somit natürlich Schwachsinn :rolleyes:
 
  • Gefällt mir
Reaktionen: MeisterOek, forbeatn, KlaraElfer und eine weitere Person
Da frage ich mich ob sie die neue RTX Technologie dort in die GPU einsetzen. Wenn ja wird das ein guter Grund sein zu wechseln.
 
scheru schrieb:
Grundsätzlich spricht auch nichts dagegen für die Beste Hardware einen hohen Preis aufzurufen, sich zu wünschen mehr zahlen zu dürfen ist aber ein bisserl komisch.
Ich stelle in meinem Post aber deutlich heraus, dass man für das mehr bezahlen natürlich auch eine gewisse Gegenleistung erhält. So verhält sich das nunmal in einer Marktwirtschaft.

Du wirfst da ein paar Dinge durcheinander. Ich hab ziemlich viel in dem Thread gelesen und die Beschwerden haben eher das als schlecht empfundene Preis / Leistungsverhältnis als Ursache, als den Preis per se.
Das empfinde ich wiederum anders. Es wird hier immer wieder ganz dick herausgestellt, dass über 1000,-€ für eine Grafikkarte per se ein geradezu unanständiger Preis wären.

An der Preis-/Leistung kann es ja technologisch gesehen nicht liegen. Bieten die neuen Karten unter Nutzung derer Funktionen ja Faktoren an zusätzlicher Leistung. Das gabs seit Generationen nicht mehr. Nutzen halt im Augenblick nur wenige Titel. Das ist aber nicht der Technik oder dem technischen Potenzial der Karte anzulasten.

Und das lässt sich ja ganz einfach mit einem Blick auf die Gewinnmargen belegen. Nvidia fährt extrem hohe Gewinne ein, fast 30% des Umsatzes im letzten Jahr.
Die einen nennen es extrem hohe Gewinne, die anderen solides und nachhaltiges Wirtschaften.
War NVIDIA nicht von Corona betroffen? Wieso bleiben die News über Massenentlassungen und Kurzarbeit dort aus?

Als Vergleich dazu AMD, im Q1 2020 hat sich der Umsatz im Vergleich zum Vorjahr um 40% erhöht, der Gewinn verzehnfacht(!) und trotzdem liegt der Gewinn "nur" bei 10% des Umsatzes.
Was ein weiterer Beweis dafür wäre, dass sie mit ihren Produkten hart auf Kante nähen.... Und die Fertigung+Rest der Produkte teurer sind, als es hier so manchem Forumsorakel lieb ist.

Und das spiegelt sich in den Preisen wieder, die AMD Produkte sind aus Konsumentensicht deutlich attraktiver in der P/L.
Trifft auf den Grafikkartenbereich meines Erachtens nicht zu. Da wird einem oft nur alter Wein in neuen Schläuchen serviert....
Eher preislich angemessen, wenn man es so nennen will.

Der Bugatti Veyron kostet astronomische 2 Millionen € und trotzdem macht der Hersteller bei dem Prestigeprojekt pro verkauftem Stück 4,7 Millionen € Verlust. -Worüber soll man sich da aufregen?
Dass es für einen persönlich unvernünftig teuer scheint? So wie bei den PC Komponenten auch?

Im PC Markt hat sich verhältnismäßig wenig getan. Erstes Beispiel, das mir einfällt:
Um Witcher 3, ein immerhin 5 Jahre altes Spiel, mit Mittelklasse Anforderungen (1440p, 60FPS) spielen zu können, ist immer noch eine Grafikkarte im Preisbereich von 300€ notwendig. Da zieht's mir nicht gerade die Socken aus......
Und allein in der Aussage stellst Du schon den Widerspruch in sich heraus.
Es hat sich nichts getan, aber Du setzt als Mittelklasse mal eben ganz entspannt 1440p bei 60FPS voraus.

Wenn die Nvidia Karten wahlweise mit dem doppelten VRAM verfügbar wären, würden zwei Dinge passieren die super wären für die Konsumenten aber Nvidia nicht in die mittelfristige Gewinnmaximierung passen.
1. die Langlebigkeit erhöht sich vermutlich. 2. Sie graben ihren Quadro Karten Marktanteile ab, weil's plötzlich eine Alternative gibt.
Stimmt- Ich habe ja auch nur herausgestellt, dass es durchaus Gründe gäbe auch einer teuren Karte durchaus noch mehr Geld hinterherzuwerfen. Und zwar in sinnvoller Art und Weise

LG
Zero
 
  • Gefällt mir
Reaktionen: adAstra
@PPPP
Bevor du meine Links als wertlos und meine Aussage als Schwasinn abtust, wäre es schön, wenn du zu deiner Behauptung, es gab die 2070 für 519€ zu Release, ebenfalls mal einen Link hättest.

Aber hey, warum schon eine Diskussionskultur pflegen, wenn man auch einfach nur pöbeln kann, hm?
 
  • Gefällt mir
Reaktionen: resterudi
KlaraElfer schrieb:
8GB Speicher wären dann bei einem günstigen Preis in Ordnung. Fällt der Preis höher aus, ginge es Richtung Speicherkrüppel.

Sorry, aber das ist ziemlicher Käse, den Du da schreibst, denn der Speicherausbau einer Grafikkarte soll auf die Leistungsfähigkeit abgestimmt sein und nur weil eine Grafikkarte dann etwas günstiger angesetzt wird preislich auf dem Markt, ist der Speicherausbau dann passend und bei einem höheren Preis eben nicht?

So wird da kein Schuh daraus, wenn eine RTX 3070 (mutmaßlich mit GA104 Vollausbau oder leicht beschnitten um noch eine Lücke für eine RTX 3070 Ti/"Super" zu lassen) mit nur 8 GB auf dem Leistungsniveau etwa einer RTX 2080Ti mit immer 11GB kommt, denn so ist das zu wenig/typischer Speichergeiz/ein Rückschritt nVidias und nichts anderes.

Das zu erwartende absolute Minimum wären da 10GB (möglich ist das allemal und (GDDR6(X)-Speicherpreise sind ein Scheinargument bei 2GB mehr, um bewusst die Nutzungsdauer zu limitieren), besser 12 GB, auch angesichts dessen was die Next Gen Konsolen bekommen werden und zukünftig von Spielentwicklern angesetzt/gebraucht wird.

Das wird mehr sein, wegen RT-Raytracing, VR, 4K/UHD-Texturen usw. und ist eben immer regelmäßig angestiegen (nein, nicht alle Entwickler werden auf einmal resourcenschonendes Programmieren für sich entdecken) und AMD/RTG hat schon angekündigt, das 4GB und darunter definitiv ausgedient haben (auch wenn sie und nVidia noch solche Einsteiger-GPUs mit so wenig Speicherplatz verkaufen, die aber nicht mehr wirklich empfehlenswert sind).

Mit Blick auf die Zukunft reichen mir 8 GB nicht mehr denn das ist schon jetzt Mindeststandard im Desktop (bei mobilen dGPUs eher 6GB) und damit bin ich als jemand der 4+ (eher 6+ Jahre bei den hohen, immer mehr steigenden GPU-Preisen) Nutzung ansetzt ganz gewiss nicht alleine, sondern statistisch gesehen sicherlich in der Mehrheit und 8GB gibt es in der Oberklasse mit den R9 290X/390 Modellen AMDs zuerst schon gefühlt eine kleine Ewigkeit.

Die Enthusiasten, die sich hier auf CB äussernd, alle 1 bis 2 Jahre spätestens meinen eine neue GPU anschaffen zu müssen, sind arg weit vom Durchschnittsspieler entfernt (der keine Lust hat diese Preisetreiberei bei den GPUs und ständig neue Börsenrekorde der jeweiligen Unternehmen zu finanzieren).

AMD/RTG wird vermutlich jetzt auch mehr Speicherausbau mit RDNA2 bringen, und wenn dem so sein sollte, kann sich das nVidia allemal leisten, wird es vermutlich aber nicht tun wollen ;).

Das kann bei einigen klar und gerechtfertigt die Kaufentscheidung beeinflussen, wenn man eben bei ähnlicher Leistung mehr für das Geld bekommt, dem einen sind RTX-Features und Effizienz vielleicht wichtiger, dem anderen mehr Speicher/Langlebigkeit und ein ausgeglichener Markt (siehe auch, was RyZen CPUs bewirkt haben) ohne Preisdiktat eines
Quasi-Monopolisten/Marktführers.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und OR4LIFE
@Chismon Den Speicheraufbau auf die Leistungsfähigkeit abzustimmen ist so 'ne Sache. Ich weiß schon, was du meinst, aber es gibt unzählige Szenarien. Final Fantasy 15 bspw. ist März 2018 rausgekommen und fordert bei meiner GTX 1080 die kompletten 8 GB VRAM + die komplette GPU-Leistung. Also exakt auf Kante genäht noch passend/ausreichend. Aber bei anderen Spielen ist der VRAM bei mir selten mal über 6 GB - meistens bei 4,X oder 5,X in Spielen. Und wenn man anspruchslose und ältere Titel reinnimmt, geht da natürlich noch viel weniger.
Dann ist es natürlich auch so, dass die Leistungsfähigkeit und der VRAM eigentlich gar nicht soo viel miteinander zu tun haben. Man kann bspw. durch höhere Texturdetails ja die Optik verbessern, ohne dass die GPU deutlich mehr ackern muss und ungekehrt kann ein Spiel die GPU richtig fordern, aber Matschtexturen haben, die kaum VRAM belegen. Dann kann man einige Spiele wie Skyrim oder Fallout 4 noch bis zum Gehtnichtmehr zumodden und dabei ebenfalls den VRAM-Verbrauch deutlich ändern.

Insofern kann man imo keinen Punkt festmachen ala: "Die Grafikkarte schneidet im Leistungsranking so und so ab, also braucht sie mindestens X GB VRAM, Y GB wären gut und mehr als Z GB unnötig."

Wo ich aber ganz bei dir bin: Wenn eine neue Karte bei der Performance genau auf oder über einer alten landet, die aber mehr VRAM hatte, dann hat das natürlich 'nen faden Beigeschmack und den hat man bei Nvidia in letzter Zeit öfter s mal gehabt. Ich persönlich finde VRAM auch wichtig, weil ich schon mal mit der 7870 XT den "Fehler" gemacht habe ein Modell mit weniger VRAM zu nehmen und die Karte irgendwann dann ersetzt habe, wo ich eine 7950 mit gleicher Leistung aber 1 GB mehr Speicher noch behalten hätte.
Aber warum hab ich das gemacht? Weil ich Geld sparen wollte. Insofern hat @KlaraElfer natürlich völlig recht - der Preis entscheidet mit darüber, wie viel VRAM ok ist. Du würdest doch auch bereit sein mehr zu zahlen, wenn du dafür mehr VRAM bekommst, oder etwa nicht? Doof ist natürlich nur, wenn es in der anvisierten Preis- und Leistungsklasse kein Modell gibt, mit dessen VRAM man zufrieden ist.

Ich persönlich denke mal, dass die 10 GB von Nvidia schon ok sind. Bei den Usern mit aktuelleren Systemen sind ja erst seit ein paar Jahren überhaupt 6 / 8 GB Standard geworden und daran müssen die Entwickler sich auch ungefähr orientieren. Da werden die neuen Karten vmtl. eher nicht binnen wenigen Jahren zu totalen Speicherkrüppeln, man muss nach einiger Zeit vllt. mal die Texturen von "ultra" auf "sehr hoch" stellen o.ä. Aber so genau weiß meine Glaskugel das auch nicht.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Beitrag schrieb:
... Speicheraufbau auf die Leistungsfähigkeit abzustimmen ist so 'ne Sache. Ich weiß schon, was du meinst, aber es gibt unzählige Szenarien. Final Fantasy 15 bspw. ist März 2018 rausgekommen und fordert bei meiner GTX 1080 die kompletten 8 GB VRAM + die komplette GPU-Leistung. Also exakt auf Kante genäht noch passend/ausreichend. Aber bei anderen Spielen ist der VRAM bei mir selten mal über 6 GB - meistens bei 4,X oder 5,X in Spielen. Und wenn man anspruchslose und ältere Titel reinnimmt, geht da natürlich noch viel weniger.
Dann ist es natürlich auch so, dass die Leistungsfähigkeit und der VRAM eigentlich gar nicht soo viel miteinander zu tun haben. Man kann bspw. durch höhere Texturdetails ja die Optik verbessern, ohne dass die GPU deutlich mehr ackern muss und ungekehrt kann ein Spiel die GPU richtig fordern, aber Matschtexturen haben, die kaum VRAM belegen. Dann kann man einige Spiele wie Skyrim oder Fallout 4 noch bis zum Gehtnichtmehr zumodden und dabei ebenfalls den VRAM-Verbrauch deutlich ändern.

Insofern kann man imo keinen Punkt festmachen ala: "Die Grafikkarte schneidet im Leistungsranking so und so ab, also braucht sie mindestens X GB VRAM, Y GB wären gut und mehr als Z GB unnötig."

Wo ich aber ganz bei dir bin: Wenn eine neue Karte bei der Performance genau auf oder über einer alten landet, die aber mehr VRAM hatte, dann hat das natürlich 'nen faden Beigeschmack und den hat man bei Nvidia in letzter Zeit öfter s mal gehabt. Ich persönlich finde VRAM auch wichtig, weil ich schon mal mit der 7870 XT den "Fehler" gemacht habe ein Modell mit weniger VRAM zu nehmen und die Karte irgendwann dann ersetzt habe, wo ich eine 7950 mit gleicher Leistung aber 1 GB mehr Speicher noch behalten hätte.
Aber warum hab ich das gemacht? Weil ich Geld sparen wollte. Insofern hat @KlaraElfer natürlich völlig recht - der Preis entscheidet mit darüber, wie viel VRAM ok ist. Du würdest doch auch bereit sein mehr zu zahlen, wenn du dafür mehr VRAM bekommst, oder etwa nicht? Doof ist natürlich nur, wenn es in der anvisierten Preis- und Leistungsklasse kein Modell gibt, mit dessen VRAM man zufrieden ist.

Ich persönlich denke mal, dass die 10 GB von Nvidia schon ok sind. Bei den Usern mit aktuelleren Systemen sind ja erst seit ein paar Jahren überhaupt 6 / 8 GB Standard geworden und daran müssen die Entwickler sich auch ungefähr orientieren. Da werden die neuen Karten vmtl. eher nicht binnen wenigen Jahren zu totalen Speicherkrüppeln, man muss nach einiger Zeit vllt. mal die Texturen von "ultra" auf "sehr hoch" stellen o.ä. Aber so genau weiß meine Glaskugel das auch nicht.

Das Problem ist doch, wenn man eine Grafikkarte gekauft hat, die noch massig Leistung hat um in einigen Jahren vollkommen in Spielen ausreichend zu sein, und dann aufgrund unzureichender Speicherausstattung den "Speichertod" stirbt bzw. der Mangel an Speicher Spiele unspielbar macht oder diese gar nicht mehr laufen.

So gesehen gibt es kaum etwas schlimmeres bei Grafikkarten fuer mittel- bis langfristig orientierte Nutzer und deswegen kaufen viele auch gerade in Bezug auf Speicher vorausschauend Grafikkarten, nicht nur weil in den letzten Jahren massiv nVidia und dann nachziehend auch von AMD/RTG an der Preisschraube gedreht wurde, sondern weil es - abseits reiner Profitmaximierung - einfach unsinnig ist Speicherkrueppel zu verkaufen, da man damit im Nachhinein eher Kunden verprellt und der Umwelt ebenso keine Gefallen tut.

Es sollte also auch im Interesse der GPU-Entwickler sein, die Karten (wahlweise) mit genuegend Speicher zu verkaufen, die der Leistung angemessen sind und auch das Produkt runder machen fuer mittel- bis langfristig orientierte Nutzer, aber das gelingt AMD/RTG meistens auch besser (die RX 5600XT ist mit den gerade einmal 6GB leider eine unruehmliche Ausnahme, bedingt natuerlich auch durch die vorherige Positionierung der RX 5700, und ich hoffe, dass AMD/RTG da nicht auf den nVidia Trend aufspringt, denn ich denke das koennen sie sich (umsatz-/marktanteiltechnisch) nicht leisten).

Die fuer Ampere in Aussicht gestellte Speicherkompression ist sicherlich ein guter Ansatz, wird aber Speichergroesse nicht gaenzlich ersetzen koennen, sondern versuchen zu kaschieren, wenn der Speicher knapp wird.

HBBC hat sich ja leider mit Vega auch nicht wirklich durchsetzen koennen, auch wenn es vom Ansatz her eine sehr gute Idee war, weil die Umsetzung eben nicht vollends geglueckt ist und eben nur AMD/RTG darauf gesetzt hat/mit der Technik zwar ein Alleinstellungsmerkmal hatte, aber bei dem kleinen GPU-Marktanteil reicht so etwas eben nicht.

Die Preise lagen zu Kepler-Zeiten, bspw. einer GTX 670 (ich habe damals bewusst auf die 4GB Variante verzichtet, weil der damalige Preisaufschlag extrem unsinnig war mit ueber 200 Dollar und in keinem gesunden Kosten-Nutzenverhaeltnis stand und man sich das bei nVidia wohl bewusst vergolden lassen wollte), fuer den doppelten Speicher auch viel zu hoch, aber das ist beileibe nicht mehr so und ja die GDDR6 Speicherpreise sind relativ niedrig aktuell angesiedelt (und nicht angestiegen, auch wenn das Anfang des Jahres noch von nVidia lanciert wurde, dass diese sicherlich steigen werden, um evt. die Kartenpreise dadurch wieder anheben zu koennen), weswegen sich eine Speicherausbauerhoehung durch die Bank bei den GPUs sehr anboete.

Wir reden hier aber auch nicht von Speicherverdoppelung wie zu Kepler Zeiten, zumindest nicht bei einer RTX 3070, sondern von sehr moderaten 2GB bis moderaten 4GB Zuwachs beim Speicherausbau, welches alles andere als ein grosses Loch in nVidias Taschen reissen duerfte, aber natuerlich nicht die gewuenschte Gewinnmarge erzeugt (nur ist eben eine hoch angesetzte Gewinnmarge auch nicht alles, wie man es gut an der aktuellen, von den Verkaufszahlen eher gefloppten Turing Generation sieht).

Irgendwann winken die potentiellen Kunden dann ab, wenn das Gesamtpaket nicht rund genug und zu teuer ist und steigen eben auf Konsole oder die Konkurrenz um, weil/wenn diese mehr bieten kann.

Die Wahl eine Version mit mehr Speicher zu kaufen gibt es ja bei den aktuellen GPU-Generationen leider mittlerweile eigentlich nicht mehr (die RX 5500XT einmal ausgenommen, die sowieso noch viel zu hoch preislich von AMD/RTG angesetzt worden ist, aber mit RDNA2 eher in von vornherein gerechtfertigte Preisgefilde endlich wandern duerfte).

Wenn man sich die Polaris Karten und den Aufpreis fuer die Speicherverdoppelung anschaut, so ging das vollkommen in Ordnung und wenigstens hatte man die Option fuer maximal 50 Euro mehr langfristig mit dem Speicher auf der sicheren Seite zu sein, was sich jetzt (wo 4GB schon oft zu knapp sind, wenn man sich nicht zu sehr einschraenken will) ja ganz klar ausgezahlt hat (von einer R9 390(X) mit 8GB moechte ich gar nicht erst anfangen, die sich immer noch extrem gut/wacker schlaegt auch Dank des ueppigen Speichers).

Momentan werden nur 10GB bei der RTX 3080/dem teuren GA 102 Grosschip den Geruechten nach in Aussicht gestellt und wenn sich das bewahrheiten sollte, dass darunter wieder eine "Nullrunde" mit maximal 8GB bei den GA 104 Karten im Anmarsch ist, kann nVidia die Speicher-Bauernfaenger gerne behalten, denn was bringt es, wenn man eine GPU hat, die stark ist und in 2 Jahren aber vielleicht schon mangels Speicher nicht mehr ordentlich ausgefahren werden kann.

Ach, dann kann man ja gerne in 2 Jahren nachkaufen, koennte man dann einwerfen, das haette nVidia wohl gerne und viele moechten dass verstaendlicherweise wohl eher nicht bei den Mondpreisen, die aktuell verlangt werden, dann sollen sie sich andere Dummen suchen, die Ihre auch mit Speicherverknappung erzielten Boersenrekorde finanzieren.

Seit ein Jahr paar Jahren, wie lange gibt es Hawaii, Polaris und selbst Pascal schon? Genau, deutlich laenger als zwei Jahre und nVidia hat ja sogar wieder den Speicher bei der RTX2060 Vanilla und GTX 1660Ti auf 6GB zurueck gefahren, obwohl es in etwa die gleiche Leistungsklasse wie eine aeltere GTX 1070 mit 8GB ist und genau das gleiche kann man auch bei der RTX 2080 ("Super") im Vergleich zur GTX 1080Ti vorwerfen (Reduktion im Speicher von 11GB auf 8GB bei gleicher Leistungsklasse).

Natuerlich kann man immer alles herunter stellen, aber wieso sollte man bei einer Einsteiger-4K/UHD Karte wie einer RTX 2080Ti bzw. RTX 3070 (mit vermutlich noch deutlich staerkerer RT-Raytracing Leistung) auf 4K/UHD Texturen verzichten wollen, falls der Speicher dann nur auf 8GB begrenzt sein sollte?

Bei den womoeglich 600(+) Euro, die nVidia evt. fuer eine RTX 3070 abruft, sollten auch allermindestens 2 GB Speicher mehr moeglich sein als beim Vorgaenger, ebenso wie fuer eine RTX 3080 kolportiert, wie ich finde.

Wenn AMD/RTG in der Leistungsklasse tatsaechlich 12 GB bieten sollte, faellt die Entscheidung fuer mich zumindest vermutlich nicht sonderlich schwer ;).
 
Zuletzt bearbeitet:
Es ist schon auch schade, dass in jedem Thread über Nvidia, zielsicher nach kurzer Zeit zu fast 100% nur nochüber Speichermengen diskutiert wird. Wem der Speicher nicht reicht, der möge AMD kaufen, falls die mehr bieten sollten. Oder gar nichts. Ich hatte die GTX970 und war zufrieden. Dann hat PCGH das Fass aufgemacht wegen dem Speicher. Habe die Karte zurückgegeben 100€ draufgelegt und die GTX980 gekauft. War etwas schneller, aber nicht spürbar. Also das hätte ich mir damals sparen können. Ich kaufe nur noch das Gesamtpaket in dem der Speicher eben genug sein muss. DLSS und Raytracing war bei der RTX2080FE der Kaufgrund und ja der Speicher ist mir bislang noch nicht mal ansatzweise voll gelaufen.
 
Mein Gott, warum beschwert ihr euch alle
Wenn ich jetzt auf den 10900k setze und die pcie 4,0 Technik missachte brauche ich mir von den RTX 3000 eh nicht Zuviel erhoffen

da würde ich lieber eine ASUS rog Strix 2080 ti auf 2130 mhz boosten und mit Flüssigmetall kühlen

für zen2 Fans ist der RAM eher interessant
 
Zurück
Oben