Smartcom5
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.704
Ich hatte mir da bereits seinerzeit vor über einem Monat schon Gedanken drüber gemacht …Xes schrieb:Extrem schade, dass sich Nvidia nicht rechtzeitig mit Entwicklern zusammengesetzt hat um RT und DLSS zumindest in einer Handvoll (von Start ab verfügbaren) Titeln präsentieren zu können.
Ich bitte die jeweiligen (zusammenhangslosen) Formulierungen zu entschuldigen!
Es sind größtenteils allesamt Gedankensplitter, welche bereits vor geraumer Zeit entstanden sind – etliche gar letzten Monat zur Vorstellung der Turing-Architektur auf der Gamescom.
Es sind größtenteils allesamt Gedankensplitter, welche bereits vor geraumer Zeit entstanden sind – etliche gar letzten Monat zur Vorstellung der Turing-Architektur auf der Gamescom.
Aus der Not heraus etwas bringen zu müssen, hat sich nVidia wohl aufgrund AMD's anhaltender Untätigkeit zu der Initiative des Raytracing entschlossen. Das bot zu dem Zeitpunkt ein manigfaltiges Repertoire an positiven Begleiterscheinungen.
Die Hauptbeweggründe wären in dem Fall folgende …
Beabsichtigtes Schauspiel
Für Diejenigen, die es noch immer nicht verstanden haben;
nVidia will gar nicht, daß ihr eine Karte der RTX-Generation kauft (wird sich aber aus naheliegenden Gründen und aufgrund des deutlich höheren Profites eher nicht beschweren, wenn ein paar Fanboys zuschlagen werden und den Early-Adaptor spielen wollen)!
Die ganze Farce Namens RTX dürfte eine gezielte Manipulation des Kunden sein, damit dieser empört sich über die neue RTX 2xxx-Generation aufregt und echauffiert mit den Worten „Ne nVidia, so einen Scheiß mach‘ ich nicht mit! Da kaufe ich mir lieber noch eher eine GTX 1080 Ti im Abverkauf und habe die nächsten Jahre Ruhe!“ zur alten Generation greift.
Warum? Ganz einfach, es funktioniert.
Gezielter Misskredit
Die Grafikkarten der RTX 2xxx-Generation bieten offensichtlich bewußt von Seiten nVidia's kaum Mehrleistung (was man durch den RT-Nonsense elegant verschleiert), bringen dem Kunden praktischen keinen Nutzen und im Gros kann man die 2xxx-Generation einzig auf eine bewußt überteuerte Preissteigerung zum Zwecke der Etablierung höherer Preise mißbrauchen.
→ Et voilà: Problem der Restbestände elegant gelöst;
Die Jahre alten Karten auf Halde noch zum UVP abverkauft, eine gesamte Grafikkarten-Generation vollständig eingespart (da die RTX 2xxx-Generation ohnehin nichts anderes als die GTX 1xxx-Generation plus nutzlose RT-Cores sind), obendrein noch einen riesigen Reibach gemacht und nächstes Mal wirkt der Leistungs-Unterschied zur neueren 3xxx-Serie dann umso brachialer, da man die RTX 2xxx-Generation bewußt nicht wesentlich schneller gemacht hat.
Glaubt man denn allen Ernstes, daß nVidia hingehen würde und die riesigen Bestände als Verlustgeschäft abschreiben würde? Mitnichten! Dafür gib‘s doch Marketing.
Husarenstück an Marketing
Die Preise sind schon ziemlich clever gewählt …
Durch die doch ziemlich ausverschämt teuren neuen Karten erscheinen die Karten der alten GTX 10x0-Generation ja geradezu als Schnäppchen – und werden gekauft. Hier wird von nVidia in geradezu perfider Manier mit der Psychologie des Kunden gespielt.
Man macht die neuen Karten einfach derart teuer, daß Niemand wirklich so dämlich sein sollte, sie tatsächlich zu solchen Preisen haben zu wollen – aber genau dies dürfte hier absolut gewollt sein. Man will wahrscheinlich (zum jetzigen Zeitpunkt) auch gar keine neuen Karten verkaufen.
Nachwirkungen des Mining Hype?
Der gemeine Gamer dachte doch allen Ernstes, daß er einfach mit dem Kauf der nächsten Karte auf die neueste Generation von nVidia warten könne. Oh, welch Trugschluß! Da hat der Kunde wohl nicht die Rechnung mit nVidia gemacht!
Warum sollte nVidia auch neue Karten verkaufen wollen, wenn sie durch ihre maßlose Geldgier derart auf den Mining-Hype gesetzt haben, daß sie nach dem ja doch recht abruptem Absturz der jeweiligen Kurse auf bis zu einer Million (sic!) Karten der GTX 10x0-Serie sitzen geblieben sind?
Wir erinnern uns, selbst schon ein einzelner großer AIB-Partner von nVidia mußte bis zu 300.000 Karten der alten Serie wieder an nVidia retournieren lassen – aufgrund fehlender Verkäufe.
Eine Frage des Absatzes
Also hat man sich bei nVidia gedacht, man verkauft die Posten der alten Karten einfach weiter – und zwar so lange, bis sie allesamt verbraucht sind. Wie stellt man das an?
Man bringt eine 'neue' Generation, die nichts wirklich Neues bringt, macht sie absichtlich derart technisch wie preislich unattraktiv, daß die ältere Generation geradezu wie ein Schnäppchen wirken muß und verkauft stattdessen die alte Generation. Dem Kunden bleibt aus Gründen fehlender Mitbewerber keine andere Option – sie ist schlicht alternativlos.
Raytracing als PhysX 2.0
Auf der einen Seite wirkt der plötzliche Vorstoß Richtung Raytracing doch schon sehr überraschend, auf den zweiten Blick bietet er nVidia wiederum die grandiose Möglichkeit erneut eine entsprechende Hersteller-eigene Technik zu etablieren, wie es PhysX ist und war. Die ultimative Konsequenz wäre (wie auch schon bei PhysX), daß man viele Spiele in der Zukunft gar nicht mehr ohne eine entsprechende RT-Karte spielen könnte. Das wäre demnach die selbe beabsichtigte Analogie, wie sie nVidia schon bei PhysX verfolgte.
N.U.R.B.S. läßt grüßen
Weiterhin hat nVidia schon einmal einen solchen Vorstoß Richtung experimenteller Technik fernab der normalen und im Markt üblichen Render-Verfahren mit Polygonen versucht. Wer alt genug ist und sich an den Markt erinnert, welcher damals™ noch im professionellen Sektor und in der Industrie vollständig von SGI mit OpenGL beherrscht wurde und im privaten Sektor ATi die Obberhand hatte (und man den Namen nVidia gar überhaupt nicht kannte), der wird sich an nVidia's NV-1 erinnern können, nVidia's erste Grafikkarte überhaupt.
Welche ja eben nicht eine Grafikkarte und Rasterizer für Polygone (wie damals wie heute üblich) war, sondern auf die N.U.R.B.S.-Technik und Quadratic Texture Maps setzte. Am Rande vielleicht etwas Geschichte in Verbindung mit 3Dfx.
Nun ja, die Karte war ein absoluter Flop, charmant gesagt. Sie war ein kapitales Desaster und brachte nVidia, '95 gerade erst in den jungen Kinderschuhen, an den finanziellen Ruin. Und das, obwohl nVidia die Karte gar noch um diverse Audi-Chips ergänzte – ein Novum, wofür (zu diesem Zeitpunkt) bisher eine eigene Soundkarte wie eine SoundBlaster oder Ähnliches vonnöten war. Der Grund lag darin, daß wohl außerhalb von nVidia Niemand so recht sich vorstellen konnte, daß dies sich durchsetzen und was werden könnte – etwaige Parallelen oder gar eine Analogie zu Turing und Raytracing wären in diesem Fall übrigens rein zufälliger Natur!
Analogien für die Zukunft
Ob Turing das Selbe Schicksal ereilen möge, wie seinerzeit die NV-1 und NV-2 vor 23 Jahren? Möglich ist‘s. Verschwand doch nVidia's zum Launch zum Preis von $450 und später nur noch $ 249,99 USD selbst damals schon überteuerte NV-1-Architektur (vergleichbare Grafikkarten kosteten etwa die Hälfte …) kurz nach dem Augenblick vom Markt, als Microsoft im DirectX ankündigte.
Der Nachfolger NV-2 erschien übrigens nie – er wurde folgerichtig noch vor Auslieferung eingestelt und ersatzlos gestrichen.
Kuriose Randnotiz: Selbst auf der ersten Karte mit nVidia-Chip lieferte AMD bereits Chips zu.
Die Hauptbeweggründe wären in dem Fall folgende …
- Man überspringt elegant eine gesamte Generation.
… und spart sich Entwicklungskosten, indem man einfach ein paar RT-Kerne auf Pascal packt.
Die Neuauflage auf 12nm sorgt schon für entsprechende Mehrleistung ohne größere Mühe. - Man bekommt die Restbestände zweifellos unter das bereitwillig (siehe unten) zahlende Volk, zum UVP.
- Man etabliert nebenbei eine weitere Preissteigerung bei Grafikkarten.
- Man etabliert im Vorbeitgehen eine weitere proprietäre nVidia-Only-Technik à la PhysX
- Es wird funktionieren, weil AMD im Moment mit Nichts kontern kann und wird.
- nVidia verbaut bewußt den zurzeit langsamsten GDDR6 der gesamten Industrie. Auf Karten für +1200,– €. Also wird selbst damit schon wieder mit diesem Winkelzug à la Billigheimer die Marge und der Profit massiv erhöht.
- Man generiert bei all dem massive Gewinne.
Beabsichtigtes Schauspiel
Für Diejenigen, die es noch immer nicht verstanden haben;
nVidia will gar nicht, daß ihr eine Karte der RTX-Generation kauft (wird sich aber aus naheliegenden Gründen und aufgrund des deutlich höheren Profites eher nicht beschweren, wenn ein paar Fanboys zuschlagen werden und den Early-Adaptor spielen wollen)!
Die ganze Farce Namens RTX dürfte eine gezielte Manipulation des Kunden sein, damit dieser empört sich über die neue RTX 2xxx-Generation aufregt und echauffiert mit den Worten „Ne nVidia, so einen Scheiß mach‘ ich nicht mit! Da kaufe ich mir lieber noch eher eine GTX 1080 Ti im Abverkauf und habe die nächsten Jahre Ruhe!“ zur alten Generation greift.
Warum? Ganz einfach, es funktioniert.
… und Kommentare derlei Couleur dürfte man am Tage der Veröffentlichung allerorten auf sämtlichen Portalen lesen. Der Plan scheint aufzugehen. In all den Themen der letzten Tage las man ja immer wieder, daß man dann eh wieder zur GTX 1080 Ti greifen kann, was wohl beabsichtigt war.Killerphil51 schrieb:Bin immer froher mir vor kurzem die 1070ti geholt zu haben und mir das ganze erstmal vollkommen egal sein kann. Hatte schon ein ungutes Gefühl was die neuen Karten betrifft...
Gezielter Misskredit
Die Grafikkarten der RTX 2xxx-Generation bieten offensichtlich bewußt von Seiten nVidia's kaum Mehrleistung (was man durch den RT-Nonsense elegant verschleiert), bringen dem Kunden praktischen keinen Nutzen und im Gros kann man die 2xxx-Generation einzig auf eine bewußt überteuerte Preissteigerung zum Zwecke der Etablierung höherer Preise mißbrauchen.
→ Et voilà: Problem der Restbestände elegant gelöst;
Die Jahre alten Karten auf Halde noch zum UVP abverkauft, eine gesamte Grafikkarten-Generation vollständig eingespart (da die RTX 2xxx-Generation ohnehin nichts anderes als die GTX 1xxx-Generation plus nutzlose RT-Cores sind), obendrein noch einen riesigen Reibach gemacht und nächstes Mal wirkt der Leistungs-Unterschied zur neueren 3xxx-Serie dann umso brachialer, da man die RTX 2xxx-Generation bewußt nicht wesentlich schneller gemacht hat.
Glaubt man denn allen Ernstes, daß nVidia hingehen würde und die riesigen Bestände als Verlustgeschäft abschreiben würde? Mitnichten! Dafür gib‘s doch Marketing.
Husarenstück an Marketing
Die Preise sind schon ziemlich clever gewählt …
Durch die doch ziemlich ausverschämt teuren neuen Karten erscheinen die Karten der alten GTX 10x0-Generation ja geradezu als Schnäppchen – und werden gekauft. Hier wird von nVidia in geradezu perfider Manier mit der Psychologie des Kunden gespielt.
Man macht die neuen Karten einfach derart teuer, daß Niemand wirklich so dämlich sein sollte, sie tatsächlich zu solchen Preisen haben zu wollen – aber genau dies dürfte hier absolut gewollt sein. Man will wahrscheinlich (zum jetzigen Zeitpunkt) auch gar keine neuen Karten verkaufen.
Nachwirkungen des Mining Hype?
Der gemeine Gamer dachte doch allen Ernstes, daß er einfach mit dem Kauf der nächsten Karte auf die neueste Generation von nVidia warten könne. Oh, welch Trugschluß! Da hat der Kunde wohl nicht die Rechnung mit nVidia gemacht!
Warum sollte nVidia auch neue Karten verkaufen wollen, wenn sie durch ihre maßlose Geldgier derart auf den Mining-Hype gesetzt haben, daß sie nach dem ja doch recht abruptem Absturz der jeweiligen Kurse auf bis zu einer Million (sic!) Karten der GTX 10x0-Serie sitzen geblieben sind?
Wir erinnern uns, selbst schon ein einzelner großer AIB-Partner von nVidia mußte bis zu 300.000 Karten der alten Serie wieder an nVidia retournieren lassen – aufgrund fehlender Verkäufe.
Eine Frage des Absatzes
Also hat man sich bei nVidia gedacht, man verkauft die Posten der alten Karten einfach weiter – und zwar so lange, bis sie allesamt verbraucht sind. Wie stellt man das an?
Man bringt eine 'neue' Generation, die nichts wirklich Neues bringt, macht sie absichtlich derart technisch wie preislich unattraktiv, daß die ältere Generation geradezu wie ein Schnäppchen wirken muß und verkauft stattdessen die alte Generation. Dem Kunden bleibt aus Gründen fehlender Mitbewerber keine andere Option – sie ist schlicht alternativlos.
Raytracing als PhysX 2.0
Auf der einen Seite wirkt der plötzliche Vorstoß Richtung Raytracing doch schon sehr überraschend, auf den zweiten Blick bietet er nVidia wiederum die grandiose Möglichkeit erneut eine entsprechende Hersteller-eigene Technik zu etablieren, wie es PhysX ist und war. Die ultimative Konsequenz wäre (wie auch schon bei PhysX), daß man viele Spiele in der Zukunft gar nicht mehr ohne eine entsprechende RT-Karte spielen könnte. Das wäre demnach die selbe beabsichtigte Analogie, wie sie nVidia schon bei PhysX verfolgte.
N.U.R.B.S. läßt grüßen
Weiterhin hat nVidia schon einmal einen solchen Vorstoß Richtung experimenteller Technik fernab der normalen und im Markt üblichen Render-Verfahren mit Polygonen versucht. Wer alt genug ist und sich an den Markt erinnert, welcher damals™ noch im professionellen Sektor und in der Industrie vollständig von SGI mit OpenGL beherrscht wurde und im privaten Sektor ATi die Obberhand hatte (und man den Namen nVidia gar überhaupt nicht kannte), der wird sich an nVidia's NV-1 erinnern können, nVidia's erste Grafikkarte überhaupt.
Welche ja eben nicht eine Grafikkarte und Rasterizer für Polygone (wie damals wie heute üblich) war, sondern auf die N.U.R.B.S.-Technik und Quadratic Texture Maps setzte. Am Rande vielleicht etwas Geschichte in Verbindung mit 3Dfx.
Nun ja, die Karte war ein absoluter Flop, charmant gesagt. Sie war ein kapitales Desaster und brachte nVidia, '95 gerade erst in den jungen Kinderschuhen, an den finanziellen Ruin. Und das, obwohl nVidia die Karte gar noch um diverse Audi-Chips ergänzte – ein Novum, wofür (zu diesem Zeitpunkt) bisher eine eigene Soundkarte wie eine SoundBlaster oder Ähnliches vonnöten war. Der Grund lag darin, daß wohl außerhalb von nVidia Niemand so recht sich vorstellen konnte, daß dies sich durchsetzen und was werden könnte – etwaige Parallelen oder gar eine Analogie zu Turing und Raytracing wären in diesem Fall übrigens rein zufälliger Natur!
Analogien für die Zukunft
Ob Turing das Selbe Schicksal ereilen möge, wie seinerzeit die NV-1 und NV-2 vor 23 Jahren? Möglich ist‘s. Verschwand doch nVidia's zum Launch zum Preis von $450 und später nur noch $ 249,99 USD selbst damals schon überteuerte NV-1-Architektur (vergleichbare Grafikkarten kosteten etwa die Hälfte …) kurz nach dem Augenblick vom Markt, als Microsoft im DirectX ankündigte.
Der Nachfolger NV-2 erschien übrigens nie – er wurde folgerichtig noch vor Auslieferung eingestelt und ersatzlos gestrichen.
Kuriose Randnotiz: Selbst auf der ersten Karte mit nVidia-Chip lieferte AMD bereits Chips zu.
In diesem Sinne
Smartcom
Zuletzt bearbeitet: