News GPU-Gerüchte: Die GeForce RTX 4090 kommt vor RTX 4080 und RTX 4070

Zer0Strat schrieb:
Jup, ExcutableFix hat ziemlich verlässlich geliefert. Er hat aber auch keine Aussagen zur Performance von Zen 4 gemacht. ^^
Er hat sich weder zur Performance von Zen 4 noch zu den Grafikkarten geäußert.

Das Problem mit Twitter ist, es ist verdammt wenig Platz in den Tweets. Das ist vollkommen ausreichend für Fakten. Aber es wird verdammt eng wenn man Spekulationen weitergeben will. Dann muss nämlich mehr Information transportiert werden.

Und meiner Einschätzung nach ist, dass sich Executable Fix sehr zurückhält und nur Dinge weitergibt die er sicher weiß.
 
MichaG schrieb:
Es gibt neue Gerüchte über Nvidias Fahrplan zur Veröffentlichung der neuen GeForce-Grafikkarten. Demnach soll bei der nächsten Generation die RTX 4090 als Flaggschiff beim Marktstart den Anfang machen. RTX 4080 und RTX 4070 folgen angeblich mit Abstand.

Zur News: GPU-Gerüchte: Die GeForce RTX 4090 kommt vor RTX 4080 und RTX 4070
Ohhh bitte macht nen Raytracing Leistungs Check mit Minecraft, inkl #Pathtracing Shaders....
Mich wie auch viele andere würde es wirklich sehr interessieren, wie es sich mit der Performance in HD, QHD und 4k verhät und gegenüber den vorigen Generationen vereändert hat. <3 <3 <3
Der Beitrag von Linus ist ja schon etwas älter. Dort ware es glaub ich eine 2070 für HD mit DLSS.

Leider gab es ja seither keine bezahlbaren GPUs.
Ergänzung ()

Rulf schrieb:
logo...es müssen erstmal die kleineren varianten selektiert werden...
da aber auch gleich geld eingefahren werden muß fängt man eben mit den dicken dingern an, damit sich die kunden nicht woanders bedienen und solange man halt noch mondpreise verlangen kann...
Die Mondpreise werden vermutlich schlimm werden. Vermutlich werden weitere 2 Jahre GPUs unbezahlbar bleiben. Selbst kurz vorm Release sind die GPUs noch nicht so günstig wie zu release.... Wir reden hier über 2 Jahre alte GPUs, wo der UVP im Jahr 2020 bei 699 € !?!?!?! lag und der heute noch immer nicht erreicht hat und die günstigest Cusomversion noch immer 850€ kostet.

https://geizhals.de/?cat=gra16_512&...plz=&dist=&mail=&sort=p&bl1_id=30#productlist
Vermutlich werden auch bei der 4000 Serie 2 Jahre lang keine Karten verfügbar sein. Aber was solls, dann warten wir halt noch länger auf GPUs.
Die besten Games auf Steam brauchen keine gute GPU. Aber ohne bezahlbare GPUs, wird auch kein Entwickler sich die Mühe machen, Grafik zu integrieren, die nur die Zielgruppe überpropotrtional verkleinert.
 
Zuletzt bearbeitet:
Averomoe schrieb:
Ich habe dazu ja eine These:
nVidia SELBST streut bewusst falsche bzw. irreführende Infos,
Das ist möglich.
Aber ganz ehrlich in den Leaks waren jetzt auch keine wirklich kritischen Infos drin. Egal ob bei AMD noch bei Nvidia. Alle "Informationen" sind mit einem hohen Unsicherheitsfaktor verbunden
Averomoe schrieb:
um einfacher die Maulwürfe intern aufdecken zu können, un diese dingfest zu machen. Wenn ich in Sitzung A den August und in Sitzung B den Oktober als Startzeitraum nenne, kann ich schneller rausfinden, an wem es gelegen haben könnte.
Ich gehe davon aus, dass es weder bei AMD noch Nvidia Maulwürfe gibt. Dafür waren die Infos zu dürftig.
Und deshalb gibt es auch keine Notwendigkeit die Maulwürfe zu jagen.

ich gehe davon aus dass es AMD sowie Nvidia witzig finden was da alles spekuliert wird. Und vielleicht schieben sie den Leakern eine Nebelkerze unter.

Ich denke was es beide Unternehmen nicht witzig finden ist wenn konkrete Informationen wie Bestellnummer verbreitet werden.
Unnu schrieb:
Finde ich jetzt nicht. Das spricht eher dafür, dass sowohl AMD als auch nVidia jetzt weitaus besser die Deckel auf ihren Töpfen im Griff haben, bzw. offensichtlich sehr genau wissen wer alles wohin leaken kann/könnte und die IS auch recht gut im Griff haben.
Das haben sie doch schon eine ganze Weile.

Man muss nur anschauen wie ab Anfang September 2020 viele über die schlechte Performance von RDNA 2 spekuliert haben. Da haben einige Leaker und Youtuber den Abgesang auf AMD verbreitet. Und nach dem Preview vom 8. Oktober hat sich das Bild schlagartig gedreht.
Und anschließend haben es alle gewusst.

Unnu schrieb:
Und es bleibt spannend. Das ist doch schön. Jede Menge Spekulatius lange vor Weihnachten.
Das finde ich auch. Nur sollte man immer einen Schuss Realismus wahren.
 
  • Gefällt mir
Reaktionen: Unnu
Averomoe schrieb:
wie die große Zahl unterschiedlicher Aussagen zustande kommt.
Och, da kann ich helfen.
Da hat der Engineer vom Kollegen des Lagermitarbeiters, dessen Freund in der Fab nebenan die Wafer belichtet vom Mitarbeiter des Haupt-Architekten ....

Und jeder hat etwas anderes Vernommen. 😂
 
  • Gefällt mir
Reaktionen: ETI1120
Die performance Vorstellungen basieren darauf davon den chips sku angenommen werden
Wie viele sm pro sku am ende wirklich aktiv sind ist noch völlig offen.
Echte leaks waren die sm Struktur diese kann stimmen weil diese dem hopper sm struktur ähnlich ist
Und der nvidia hack von märz wo die pläne standen also welche chipgrößen geplant sind.
Darum hat man so viel Spekulationen wild umher dabei ist perfomance einschätzung wirklich nur noch am Takt auszugehen
Viele gehen von über 2,2-2,5ghz aus was aber von der dichte seitens hopper ausgeschlossen werden kann.
Zumal diverse maximale chipgröße im umlauf waren
Der ad102 soll maximal 606mm² groß sein
Im Gegensatz zu gh1000 der 814mnm² misst in 4nm
Beide haben maximal 144sm dabei ist der hopper sogar Efizienter bei 2,0ghz nur 450w auf 4nm
also muss angesichts der wärmedichte ada geringer Takten
Einzige lösung das ada etwa bei 2,0ghz landen wird wäre wen große teile des chips deaktiviert werden
Und genau das passiert frühestens Mitte Juli beim finalen Sortieren.
Dann werden sm und skus bestimmt. je chip
Den Anfang machen ad102 und ad103
ad104 wird erst august soweit sein
Ad106 erst im sept.
Ab dann dauert es etwa 2 Monate bis zum release. und 3 Monate bis auslieferung zumal hier der Welthandel und Transportverzögerung nicht beachtet wird.
Die Massen gpu also die 070er und 060er werden wahrschienlich erst dez bis januar februar überhaupt verfügbar sein.
High end wird einen extra premium preis haben
ein ad102 als sku mit 110sm kleinste Annahme wird min 2000€ kosten und als rtx 4090 kommen ich gehen von etwa 2,0ghz Takt aus
Darunter kommt der ad103 als rtx4080 mit etwa 2,2ghz und maximal 76sm von 110sm
Bisher hatte tpu die sichersten quellen einzig den ad102 mit 136sm /144smbezweifle ich.
ad104 hat physisch 72sm
Warum nun das liegt an der architektur man kann immer noch nicht chips in mehreckig schneiden
Von den 72sm bleiben 60sm übrig
Dabei muss gesagt werden das nvidia 2 reihen zu je 3 sm hat 6*12*128
Selbst ampere hat große teile der chips deaktiviert das sieht man deutlich bei ga104 und ga106
Wäre es so das eine rehe sm struktuiert wären dann könnte ich sagen das ga104 48sm hat und ga106 36sm
Dem ist aber nicht so.

Zurück zu ada wo der Hinweis zu hopper Architektur deutlich zu sehen ist.

Bei ada sind es 128 + unklare fp64 Einheiten da 64 int64 vorhanden sind können es wie bisher 24 sei oder weniger also 12
macht maximal 140fp32 und mimimal 128fp32 pro sm
bsp ampere hat 64fp32+ 24fp64=88fp32 pro sm
Der Grund liegt daran das die fp64 Einheiten für fp32 angesteuert werden können.
Was bei turing nur bedingt geht weil man es per Maschinen code in dx12 zuschreiben muss.
Wurde in ampere in hardware auf treiberebene realisiert womit ampere dadurch schneller wurde als es die sm Stuktur ahnen lässt
Das nvidia dies dann als 128 fp32 Leistung pro sm deklariert ist Täuschung den die int32 tun da nichts.
Das sieht bei ada anders aus hier sind reale 128fp32 + 64 int32 drin + unbekannte fp64 Einheiten
das geht aus dem leak mit der sm struktur nicht hervor. Denkbar wäre das 12 fp64 shader sind pro sm
Das nvidia die fp64 gänzlich aus der architektur bei ada rausgeworfen hat ist zwar möglich behindert aber die quadro reihe diese braucht die doppelte Genauigkeit
Und über software dies über die fp32 laufen zu lassen würde zu wärme stau führen.
Oder die komplette quadro reihe wird mit dem hopper chip ausgelegt
Das ist zwar möglich aber teuer. zumal keine rt cores in der architektur sind
ich halt diese bilder für echt
https://g-pc.info/wp-content/upload...aphics-Cards-low_res-scale-4_00x-scaled-1.jpg
und
https://elchapuzasinformatico.com/wp-content/uploads/2022/05/NVIDIA-Ada-Lovelace-SM-AD102.jpg
zwar sidn beide quellen auch nur spekualtion webseiten in taiwan und einmal in spanisch
Die quelle beider bilder sind industrie quelle bzw twitter
Einige infos stammen aus dem nvidia hack.
darum geistern die abstrusen pefrmance voraussagen jede Woche neu
Das liegt schlicht daran das keiner weiß wie gut ada die wärme abführt den das wird den Takt der erreicht wird und somit die performance bestimmen
Der kleinste nenner wären 1,8ghz da nvidia sehr wahrscheinlich komplett auf die fertigungsdichte gegangen ist Was bei 4nm etwa 50% ist.
606mm² beinhalten faktisch doppelt so viele transistoren als ampere mit 628mm²
das geht aus dem hopper whitepaper hervor dessen sm struktur ist offiziell bei nvidia zu sehen
https://developer-blogs.nvidia.com/...22/03/Full-H100-GPU-with-144-SMs-1024x457.png
https://developer-blogs.nvidia.com/.../H100-Streaming-Multiprocessor-SM-625x869.png
Der unterschied liegt daran das hopper kein RT core hat
aber man sieht das 128fp32 und 64fp64 und 32 int32 vorhanden sind.
Daraus leite ich ab das die int32 und fp64 einheiten bei ada entweder zusammengelegt wurden oder das 64 fp32 + 64 fp64 einheiten sind
Nvidia wirbt ja gerne mit software basierende flexible geauigkeit zuordnung bei den chips sprich es können alle 128fp einheiten alles von doppelte bis halbe genauigkeit.
Und es hängt quasi nur vom treiber ab was den aktiv ist.
So ein ansatz ist machbar würde aber den usecase auf single taks limitieren und an könnte doppelte und eifnache genauigkeit nicht parralele laufen lassen.
Was bei prodessioneller nutzung zum nachteil wird.
Für gamer ist das alles egal hier zählt einfache genauigkeit nur dann frage ich mich wie dann tile base render funktionieren soll
Wo ganze und halbe Genauigkeit das Bild schneller rendern soll wenn das zutrifft müsste das per afr gehen je tpc
Da aber die fp32 kaum bei halber genauigkeit doppelt so viele rendern kann sowie nicht halb so viel in fp64 wird das nix
Einzig die Möglichkeit ganz in fp16 und ganz in fp32 zu rendern bliebe da, das wäre ein Alptraum wenn das in games per dx12 umgesetzt werden müsste
Und würde genau den Vorteil von dx12-2 zunichte machen wo man mit tbr die renderlast halbieren kann. indem das Bild in teilen nur in geringer Genauigkeit rendert.
Den im Treiber kann man dies nicht implementieren das muss entweder ganz oder gar nicht gehen
Mit dedizierten fp64 Einheiten die auch fp16 sowie fp32 können wäre das anders da hier das in der treiber ebene dies erfolgt
Das könnte zusätzliche Leistung bringen wieviel hängt vom grad des tbr ab.
Das aber ist reine Spekulation die reine fp32 Leistung können wir als gesetzt sehen.
Nur eben Takt und sm menge ist unklar

Hätte ich ne gtx1080 könnte ich den Nachweis der fp32 Leistung von pascal vs ampere nachweisen das die fp32 Rechnungen von mir stimmen.
Die konnte ich mit der fermi architektur tesla architektur und kepler architektur nach berücksichtigung der sm struktur beweisen.
Bisher waren alle Ergebnisse bis auf +-5% wegen vram generation genau.
Womit wir beim vergleich wären rtx3060 vs gtx1080 wieso letztere 16% hinten liegt? wogegen die kleinere sku gtx1060 der halb so groß ist nur 84% langsamer ist erklärt sich mir nicht
Außer man zielt genau auf dem vram ab und nutzt msaa was durchaus unterschiede machen kann.
Oder man setzt auf 2 unterschiedliche cpu als unterbau. insgesamt machen gtx1080 mit 8,7tf vs rtx3060 9,15tf nur sinn wenn die 8,7tf irgendwo limitiert werden.
Den der gp106 mit 4,95tf ist genau die 84% langsamer wie von mir gemessen
also wie kommt tpu zu der Annahme die rtx3060 wäre 22% schneller als ne gtx1080?
Dies kann man nur anhand test in festgelegten standards prüfen.
Und genau da liegt das problem echte vergleichbarkeit ist schwer da ständig standards bei spiel und spielsettings je generation geändert werden.
Wohl wissend das es gar nicht auf das spiel was populär ist geht, sondern um die engine womit das spiel designet wurde.
man kann bspw alle ue4 spiele in eine titel vereinen idealerweise dem letzten das gleiche gilt für ue5
Und andere engine generationen
Da es nur 8 engines gibt wovon 5 exklusiv sind und ein paar Abzweigungen bräuchte es nur maximal 16 spiele um alles am markt abzudecken. In vier apis

unity (open source)
unreal engine(epic games nahezu alle publisher lizensierte Ableger)
idtech engine/void /iwtech und viel andere die von idtech3 abstammen (idtech und lizenzsierte Ableger)
RE engine (capcom exklusiv)
cryengine/ dunia ist ein Ableger/ frostbyte engine auch (crytek lizenzierte ablegerea ubisoft uvm)
anvil engine/snowdrop ist ein Ableger(ubisoft )
Sage engine mittlerweile veraltet dx8 based (ea)
gamebroy letzte spiel war fallout 3 ist veraltet
creation engine derzeit bethesda

Wenn man vom dem Standpunkt ausgeht und alle 4 apis berücksichtigt bekommt man ne überblick wo genau die jeweilige gpu gen landet.
Und so werde ich die nächste gen sofern Sinnvolle tbp konfig und preis vergleichen

Bedingung ist aber Fokus auf dxr da raster schon jetzt bei der mittelklasse jenseits der 200fps angekommen sind. 1080p (04er gpu klasse)
Die alternative wäre 4k als standard das aber wird nicht reichen bei gpu im peisbereich von 300€

ich sehe aber die 30tf marke ab 2025 fallen bei dem preis.
ja es sind noch 3 Jahre bis dahin
Die diesjährige high end klasse wird zwischen 55-70tf sein
Der sprung ist diesmal größer und kann bewusst wie bei pascal release (2016 gtx10) gesehen werden.
Es gibt nur ein Manko
Die höhere tbp pro sku. Und dies wäre mein Kritikpunkt bei ner rtx4060ti 225w für etwa 46sm bei 450€
Die Leistung überzeugt nur der strombedarf nicht
Und der ad106 kommt erst q2 2023 mit 180w schafft aber nur 18tf
Und ich gehe von einer ps5 pro (2024) Performance mit etwa 30tf aus darum ist das keine Lösung für mich.
Warum dieser Pessimismus es liegt an der ue5 anhand der demos die es derzeit gibt reicht gerade mal die rtx3090 aus für annehmbare fps in 1080p
Und der ga102 hat etwa 29tf dies kann sich bei der 3rd gen von rt core ändern beim ad104 bei etwa 20tf was dann diese Leistung hat.
real geht es hier um bezahlbare dxr Leistung bei etwa 400€ die frage die sich stellt ist wird ad104 noch fürn rtx4060ti genutzt
Das nvidia hier sku nutzen wird ist sicher aber je chip nur eine sku ist unwahrscheinlich dafür wäre der Prozess zu unausgereift.
Die high end chips sind gut für Zukunftsprognosen in der nächsten generation ab 2026 für den Einstiegsbereich zwischen 200-400€
Also das was die Masse kauft und wo die Konsolen ihre maximal Leistung haben auf im spiel festgelegten designs. Was aktuell 1080p ist
Das wird sich ändern und bald auf tbr basieren wo die Auflösung szenebedingt angepasst wird.
Es gibt quasi kein natives 1440p oder sogar 2160p mehr es wird zwischen 720p bis 2160p gehen
das wird es aber nur in dx12_2 geben und das muss von den gpu in hardware unterstützt sein.
Ein vergleich mit gpu die diese feature nicht haben wäre also ungerecht.
Darum braucht es zwingend bei der nächsten gen festgelegte spiele aus den Jahren 2005-2022 zu je 4 Titel in 4 genres idealerweise unterschiedliche engines
first 3rd person top down und open world topdown

alles mit optionalen capframex bilder vom fps und gpu load unterlegt
Ob es dann populäre titel sind ist Nebensache
Dies könnte man in spieltest nachlegen den nur so lässt sich wirklich eine Vergleichstabelle zwischen den gpu gen herstellen.
So wie es jetzt läuft ist es mehr einschätzen wo es sein könnte anstatt es faktisch zu belegen.
Was Gerüchte angeht ist diesmal deutlich mehr bekannt geworden als es 2018 war wo bis ende des sommer nicht klar war was kommt turing kam für mich überraschend und war sehr enttäuschend.
ampere dagegen hatte mehr Supstanz war aber auch unklar da nix zu den sm struktur bekannt war.
Das ist diesmal aufgrund vom nvidia hack anders.
Was am ende zählt ist preis und Leistung
 
  • Gefällt mir
Reaktionen: b|ank0r
Zum Thema Leaks, der konkrete Tweet hat sich aber auf Zen 4 bezogen:

1654863991527.png
 
lynx007 schrieb:
Die besten Games auf Steam brauchen keine gute GPU. Aber ohne bezahlbare GPUs, wird auch kein Entwickler sich die Mühe machen, Grafik zu integrieren, die nur die Zielgruppe überpropotrtional verkleinert.
Das ganze wird doch eh für Konsolen optimiert, und am Ende schaut die Aushilfe vom Praktikanten drüber ob es auch am PC startet. Die Unreal Engine wurde auch auf die Playstation 5 zugeschnitten.

Da hat man auch die Lösung für das Rätsel, warum die Alten Karten so langlebig waren - Die letzte Konsolengeneration ist von Ende 2013.
 
Ich denke nicht ,das Nvidia mit den Mondpreisen ala Turing weitermachen kann, wenn man sich die derzeitig wirtschaftliche Lage anschaut. Die Inflation wird noch weiter steigen, die Sprit und Energiepreise noch deutlich anziehen und noch sind die Inflationswehen auf dem Arbeitsmarkt nicht angekommen. Aber eine deutliche Arbeitslosensteigerung, werden wir schon im nächsten Jahr 2023 sehen.

So rasant wie derzeit in allen Bereichen, vor allem für die Bürger in den Systemrelavanten Bereichen wie Energie, Sprit, Lebensmittel die Preise explodieren, wer soll da noch mehr als 1000,00 Euro für eine Graikkarte ausgeben.

Ich denke auch im Bereich Hardware für den PC werden die fetten Jahre der letzten Zeit vorbei sein, wo man nahezu jeden Preis aufrufen konnte, indem man die Verfügbarkeit nicht bedienen konnte oder wollte. Der Krieg in der Ukraine wird noch lange dauern und welche Auswirkungen wir schon jetzt nach knapp 4.Monaten sehen und spüren, ist sicherlich erst der Anfang.

Irgendwie erinnert mich der ganze Hype um die neuen Grafikkarten von Nvidia und dann wohl auch von AMD und deren zu erwartenden Preispolitik an Slapstick , wenn man dann sieht, wie sich Bürger an der Tankstelle wegen einem Spritpreis von 2,20 oder 2,40 Euro aufregen. Da kannn man mal sehen, wie gut das Marketing dieser Firmen schon funktioniert, das man so sehr in der virtuellen Welt lebt, das man die reale Welt und deren Probleme gar nicht mehr wahrnimmt und völlig ausblendet.
 
  • Gefällt mir
Reaktionen: 0ssi
Zotac2012 schrieb:
Ich denke nicht ,das Nvidia mit den Mondpreisen ala Turing weitermachen kann, wenn man sich die derzeitig wirtschaftliche Lage anschaut.
Energie wird teurer, Rohstoffe werden teurer, Transport wird teurer, Fertigungs-Kapazitäten werden teurer, jeder versucht grad auf der Preiswelle mitzunehmen was geht, selbst Scalper werden hingenommen und die Leute nehmen es stoisch hin.

"Gaming" ist aktuell ein reines Luxus-Hobby und wird es mMn. auch noch eine ganze Weile bleiben, vorallem im High-End-Bereich. Dazu noch die ganzen unbekannten Variablen, wie neue Corona-Lockdowns am Jahresende, neue weltpolitische Verwerfungen, neuer Cryptobullshit etc...

Keiner kann aktuell sagen wo die Reise hingeht und hinterher sind wir alle schlauer und haben es natürlich alle gewusst. :)
 
Jetzt gibt es schon Gerüchte über eine "Verschiebung", obwohl die Generation noch gar keinen Termin hat.

Next Level Bullshit
 
  • Gefällt mir
Reaktionen: 0ssi und Gsonz
Und dieses September RTX4090, Oktober 4080 und November 4070 ist total bekloppt
weil das bedeutet ja, dass erst die Reichen Zocken dürfen, die weniger Reichen später
und die Armen nie oder was ? Klar ist Zocken Hobby und Luxus aber ich finde es assi.
 
Diese Firmen waren nie Wohltätigkeitsvereine.
Die Logik dahinter ist die: Wem eine 4070 genügen würde aber sich eine 4090 leisten kann wird unter Umständen auch eine 4090 nehmen wenn es am Anfang nur die gibt. Deshalb gibt es Rabatte auch erst wenn ein Produkt länger am Markt ist, das ist ja nichts Neues.
Sie könnten natürlich auch auf die kleinen schauen, weniger Umsatz machen, keine Profite in neue Entwicklungen stecken und nach ein paar Jahren feststellen, dass sich das Grafikkartengeschäft doch nicht lohnt - ohje, keine Grafikkarten mehr.
 
Klar ist die Marge bei günstigeren Karten für den Hersteller geringer aber ich dachte Alles wird teurer
also haben doch auch Alle weniger Geld und man kauft nur eh nur noch, was man sich leisten kann !?

Wenn das Geld nicht für 4090 oder 4080 reicht, sondern nur für 4070 oder 4060 wozu dann warten ?
Dieses Spiel auf Zeit ist einfach nur dumm von Nvidia wobei ja eh wieder Nichts verfügbar sein wird.

Release der RTX3080FE war im September 2020 aber bis Heute nicht auf deren Webseite verfügbar.
Vermutlich wird sie dann ab September 2022 endlich lieferbar sein, pünktlich zum RTX4080 Release.

:lol:
 
0ssi schrieb:
aber ich dachte Alles wird teurer
also haben doch auch Alle weniger Geld und man kauft nur eh nur noch, was man sich leisten kann !?
Das halte ich nicht für eine hiebfeste Kaufkraftanalyse. Viele Dinge sind (nicht ausschließlich) auch deshalb teurer weil die Nachfrage gestiegen ist. Manch einer hat vielleicht weniger Geld zur Verfügung, streicht den nächsten Urlaub aber hat dafür mehr Budget für die nächste Grafikkarte. Und dann gibt es auch Käuferschichten die die Teuerung aufgrund ihrer Kostenstruktur oder Lebensgewohnheiten gar nicht spüren. Oder sie sind sogar Krisengewinner.
Wenn es um Marketing in diesem Maßstab geht glaube ich nicht an Zufälle, die kennen ihre Märkte schon.
Deshalb halte ich das
0ssi schrieb:
Wenn das Geld nicht für 4090 oder 4080 reicht, sondern nur für 4070 oder 4060 wozu dann warten ?
Dieses Spiel auf Zeit ist einfach nur dumm von Nvidia
für eine engstirnige Sichtweise.
 
Bei Produkten,die für alle Käuferschichten zugänglich sind macht es aus unternehmerischer Sicht aus mehreren Gründen Sinn zuerst das teurere aber auch schnellere/ste Modell einzuführen. Auch aus psychologischer Sicht des Käufers , man zahlt viel (vielleicht auch mehr als nötig) kauft aber sich auch eine gewisse Exklusivität wie Erstbedienung und eine längere Laufzeit der Aktualität ein in einem Segment was eigentlich nicht für diese Art der Vermarktung gedacht ist. Im oberen Luxussegment dann genau das Gegenteil, da werden bessere und teurere Sondermodelle eher nachgeschoben da das ein Segment ist was nicht für alle Käuferschichten zugänglich ist weil die Einstiegssumme einfach derart hoch ist und der Preis i.d.R. bei der Zielgruppe mehr oder weniger egal ist.
 
Das mag Alles sein aber der einzig logische Grund wäre, dass die Produktionskosten der günstigen Modelle
zu nah an der UVP sind und die UVP somit eine Show/Lüge ist was man auch Kundenverarschung nennt. :grr:
 
Die UVP hat generell eine symbolische Bedeutung und dient der Orientierung in einem gesunden Markt mit Konkurrenzprodukten. Letztendlich bestimmt der Markt den Wert einer Ware. In schwierigen Zeiten kann es sein, dass du für Brot den jetzigen Preis einer Grafikkarte oder mehr zahlen musst, ein gravierender Unterschied zum heutigen Zeitpunkt und auch hoffentlich für die Zukunft. Drück mal lieber die Daumen ,dass das unsere einzige Sorge bleibt, dass zuerst die 4090 und später die kleineren Modelle eingeführt werden.
 
  • Gefällt mir
Reaktionen: Nore Ply
Zurück
Oben