News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Zuletzt bearbeitet:
Ach @Bulletchief du bist so vorhersehbar, echt traurig!
Nur wer die grüne, rote oder blaue Brille auf hat, bezeichnet die Anderen als FanBase.

Wir werden sehen, wenn alles Tests gemacht wurden, wie die Farbe schimmert. Aber bitte vergiss deinen Alu-Hut nicht, es könnten "Chemtrails" unterwegs sein.
 
DevPandi schrieb:
immer diese Milchmädchenrechnung
Nur um auf eine Einzige von einigen diskussionswürdigen Aussagen einzugehen:

Es ist keine Milchmädchenrechnung, sondern messbar. Die GPU wird bei weniger Watt mehr oder gleich viel Leisten.

Umgedreht könnte man auch sagen, dass deutlich mehr elektrische Leistung von Ampere benötigt werden würde, um auf Ada Level zu kommen, wenn möglich.

Natürlich werden in der Praxis die wenigsten GPUs z.B. 4090 weniger oder gleich viel verbrauchen, wie ihr Vorgänger, die 3090.

Dies liegt aber nicht an der GPU. Sondern daran, dass die Eigentümer gerne die Mehrleistung nutzen möchten für in Ihren Augen nötigen Features. Für die Bedürfnisse von 4K, RTRT, 144 Fps gibt es kaum genug Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bright0001 und .Sentinel.
Is halt mal wieder wie es so ist.
Mich hat nVidia in ihrem Softwarezoo gefangen. Weil der (für mich) einfach funktioniert. RTX Broadcastgedöhnse mit Rauschunterdrückung (fürs Homeoffice richtig geil), das Shadowplay funktioniert auch einfach so wies soll.

Sicher gibt bestimmt bei AMD Gegenstücke. Aber alleine das Aufnehmen von so 5 min Clips geht bei meinem Freunden mit AMD-Grakas regelmäßig schief. Das muss nicht an der Hardware liegen, sonst kann durchaus ein Layer-8 Problem sein, aber man merkt sichs eben doch.

Was will ich damit sagen? AMD müsste, um als Beispiel jetzt mich, zu gewinnen, deutlich mehr als nur "Performance" oder "Preis" bieten, das müsste ein super Gesamtpacket werden.

Aber wahrscheinlich bin ich einfach kein Maßstab. ^^
 
Nvidia wird den schlechten Launch der 3000er noch toppen, im negativen Sinne.

Ich hoffe AMD hat ein besseres Gesamtpaket.
 
Der Launch war nur für Gamer schlecht. Die Mining Farmen haben Paletten von den Dingern bekommen.

@thebagger das ist ein gutes und legitimes Argument! Und da muss AMD auch endlich ansetzen!
Ich brauche solchen kram nicht, da ich kene Clips, Videos usw. produziere, aber Nvidia hat da schon die Nase vorn!
 
Es ist auch der Monolith-Ansatz von nvidia, der die Kosten maßgeblich in die Höhe treibt. AMD werden günstigere Produktionskosten für RDNA3 nachgesagt. Wir werden es ja bald wissen.

Nvidia muss ihr gesamtes Business hinterfragen, wenn plötzlich 1.200€ den Einstiegspreis im mittleren Segment (4070 12 GB - ich weigere mich es 4080 zu nennen) darstellen. Wäre die PS5 besser verfügbar, wären noch viel mehr Kunden ins Konsolenlager geswitcht. Es dürfte bei diesen Preisen in Zukunft noch stärker in Richtung Konsole gehen.

Zudem gönnt sich nvidia eine beachtliche Marge, siehe computerbase-Artikel vom 17.2.2022:

"Mit dem vierten Quartal hat Nvidia dem Fiskaljahr 2022 die Krone aufgesetzt. Am Ende stehen 61 Prozent mehr Umsatz und 125 Prozent mehr Gewinn als im kompletten Vorjahr, vor allem der Gewinn kann sich mit 9,75 Milliarden US-Dollar mehr als sehen lassen.
Es ist vor allem das Verhältnis von Umsatz zu Gewinn, das kaum ein anderes Unternehmen in dieser Form aufweisen kann. Und das zeigt, wie sehr Nvidia von der extremen Nachfrage nach Grafikkarten letztlich profitiert und damit sehr viel Geld verdient. Bei 7,6 Milliarden US-Dollar Umsatz im letzten Quartal lag der Nettogewinn bei 3 Milliarden US-Dollar. "

Mein Verständnis für die hohen Preise hält sich arg in Grenzen.
 
  • Gefällt mir
Reaktionen: Geringverdiener und jo0
Nachdem so viele ihre Bereitschaft, deutlich über UVP zu bezahlen, mit dem letzten Start gezeigt haben, gibt es ab nun nur noch "schwierige Verfügbarkeit".
AMD wird von den Preisen her, denke ich, nicht deutlich drunter sein, sollten sie ähnliche Leistung liefern.
 
Gerithos schrieb:
Dann Verkauf sie. Kommentare wie deine liest man immer mal wieder und es ist wirklich schade, dass es nvidia gelungen ist, mir diesem proprietärem Mist einen offenen Wettbewerb zu verhindern
Ich hab einfach keine Lust drauf mir den Stress zu machen die Teile loszuwerden und mich um neue Monitore zu kümmern, zumal ich mit beiden top zufrieden bin und es halt auch damals schon keine Monitore für 200€ waren sondern deutlich teurer.

Der finanzielle Verlust durchs Verkaufen + zeitlicher Aufwand wäre deutlich größer als der Aufpreis den ich für Nvidia-Produkte zahlen muss. War halt ein doofer Zeitpunkt damals zwei Monitore zu kaufen und jetzt ist man halt an Nvidia gebunden🤷‍♂️
 
Gr33nHulk schrieb:
Was mittlerweile G-Sync unterstützt, unterstützt auch Freesync.
Aber nicht immer zu 100% bzw. verlässlich. Nvidia führt ein Liste mit offiziell unterstützten FreeSync-Monitoren, die ist aber recht überschaubar und deckt nur einen kleinen Teil aller FreeSync-Monitore ab. Bei allen, die nicht auf der Liste stehen, ist es dann Glücksache. Das reicht dann von "problemlos" über "mit Einschränkungen (nur bestimmte Hz-Bereiche) bis zu "unbrauchbar".

Mein FreeSync-Monitor hat mit "G-Sync compatible" beispielsweise das Problem, dass beim Spielen in unregelmäßigen Abständen immer mal 2-3 Sekunden ein schwarzes Bild hat.

Die Umsetzung von Nvidia ist also mehr eine Notlösung als eine echte FreeSync-Unterstützung.
 
So an sich sind es ja tolle Karten bis auf diese Preisgestaltung und auch der Stromhunger sind halt absolut gegen den Trend.
Ich bin sehr gespannt was AMD da bringt :)))
 
Syrato schrieb:
Ach @Bulletchief du bist so vorhersehbar, echt traurig!
Nur wer die grüne, rote oder blaue Brille auf hat, bezeichnet die Anderen als FanBase.

Wir werden sehen, wenn alles Tests gemacht wurden, wie die Farbe schimmert. Aber bitte vergiss deinen Alu-Hut nicht, es könnten "Chemtrails" unterwegs sein.
Schlecht gefrühstückt oder was ist dein Problem?
 
Draco Nobilis schrieb:
Was die Umfrage angeht, 2800+ Teilnehmer, von denen etwa 20-24% eine Karte der 4080 12GB Krüppel oder höher ins Auge fassen. NVIDIA hat bereits gewonnen.
Man darf sich da nicht täuschen lassen.
Die Ergebnisse in Fachforen können auch locker 500 oder 1000% neben den realen Zahlen liegen.
Das sieht man immer gut bei den benutzten Betriebssystemen, wo z.B. Linux hier mit 15% oder 20% realen 2% gegenübersteht.

Die meisten kennen auch ihr Budget welches sie bereit sind auszugeben und suchen/kaufen dann.

Einzig die absoluten Hardcore-Nvidia-Fans, und Enthusiasten mit einem Monatsgehalt oberhalb der 15 oder 20K werden einfach weiter kaufen.
Jetzt startet Nvidia die neue Generation mit Karten, die sie ausschliesslich an diese Leute los werden. 😂

Aber wer wer weiss, vielleicht liegt der Preis der Partnerkarten auch einfach mal viel niedriger.
 
DevPandi schrieb:
Ob DLSS3.0 wirklich die neuen "Tensore-Kerne" benötigt oder mal wieder eine künstliche Beschränkung von NVIDIA ist, wird sich wohl durch findige Modder zeigen.
DLSS 3 benötigt die neuen Rechenkerne nicht. DLSS benötigt im Grunde überhaupt keine dedizierten Rechenkerne. Auch DLSS 2 und DLSS 1 nicht. Es fehlt denn aber dann die benötigte Rechenleistung um das wahlweise in der notwendigen Geschwindigkeit oder Qualität zu tun.

DevPandi schrieb:
... immer diese Milchmädchenrechnung. Das ist das selbe Märchen wie aus dem Autosektor, dass die Motoren heute viel effizienter sind. Gleichzeitig opfert man jede Effizienz dafür, dass die Autos schwerer und größer geworden sind und immer mehr PS haben.

...schreibst Du erst... und dann das:
DevPandi schrieb:
NVIDIA hat - und dass muss man ihnen zugestehen - wirklich alle Mittel in den letzten Jahren entwickelt um eigentlich den absoluten Bedarf an Energie sogar zusenken bei Grafikkarten.
Du widersprichst mir also und gibst mir danach mit genau meiner Argumentation in einer meiner Ausführungen vor dem Post recht?

Man muss die Grafikkarten nicht auslasten. Belässt man die Obergrenzen der Engine bei den gewählten Settings (Auflösung, Qualität und FPS), stopft man sich die neue Grafikkarte rein und fährt unabhängig der Maximalleistung energietechnisch spürbar besser.
 
  • Gefällt mir
Reaktionen: Bright0001 und Geringverdiener
Technisch hat Nvidia, sollte man den eigenen Aussagen glauben schenken, eigentlich alles richtig gemacht. Die Karten machen einen Leistungs- und Effizienzsprung, der einer neuen Generation würdig zu sein scheint. Aber leider legen sie auch preislich einen solchen Sprung hin, dass ich definitiv nicht von Anfang an auf den Zug aufspringen werde.
 
aber auch nur in der Raytracing-Performance. Die Leistungsgewinne bei der Rasterization sind überschaubar.

Für viele, da zähle ich mich auch dazu, ist die Raytracing-Leistung der Karten aber komplett irrelevant.
 
Zwirbelkatz schrieb:
Mal schauen, zumindest gibt es jetzt bereits das 6900xt Flagschiff in Richtung 750€ und nicht wie ehemals 1000€.

Cleric schrieb:
Vermutlich ist das tatsächlich die Logik hinter NVIDIAs Strategie. Das hat nur einen kleinen Haken. Wenn NVIDIA und die AIB-Partner nun schon seit Monaten auf historisch hohen Lagerbeständen sitzen und die Karten trotz kleckerweiser Preissenkungen nicht abverkauft bekommen, zeigt das doch irgendwie, dass bei diesem Preisniveau die Kaufbereitschaft abseits von Minern verschwindend gering ist.

Aber anscheinend, so zumindest von einigen Tech-Journalisten gemutmaßt, hat NVIDIA Lovelace in einer Phase designed bzw. finalisiert, wo sie noch davon ausgingen, dass sie dieses Preisniveau aufrufen können. Denn Miner bezahlen alles, so lange es rentabel ist. Und Minern ist auch der absolute Stromverbrauch egal, so lange die Energieeffizienz passt. Aber NVIDIA hat natürlich nie Miner im Blick, alles nur für Gamer. ;)

Nur hat sich der Markt dramatisch geändert. Und das, was NVIDIA mal angenommen hat, passt nun überhaupt nicht mehr zur aktuellen Lage.

Ja also ich finde den günstigsten Einstieg für 6900 xt bei 859 €.
Amd wird es genauso versuchen. Die denken eben, dass die meisten diese Preise bezahlen werden.
Solange ihnen Zahlen nichts anderes sagen, werden sie es auch versuchen.
Amd hat wahrscheinlich nur den Vorteil, dass sie es den Boardpartnern nicht recht machen müssen wegen zu vollen Lagern. Bei Amd Karten dürften die Lager nicht so voll sein.

Und die Nvidia AIB sollten nicht rumheulen die haben ihren Gewinn an den erhöhten Preisen, inklusive Abschläge für nicht verkaufte, ordentlich gemacht.
Da wird keiner große Verluste machen, es werden halte eben Paar Prozent weniger Gewinn.
Ja genau darum gehts, sie werden es versuchen, wenn keiner käuft werden sie die Preise senken.
Dann werden sie eventuell mal die Traumblase verlassen und merken, dass die meisten Gamer nicht bereit sind 1000 € für eine Karte zu bezahlen.
 
  • Gefällt mir
Reaktionen: PHuV
Bei solchen Preisen würde ich nie und nimmer eine Grafikkarte kaufen, egal ob Nvidia, AMD oder Intel.

Ich persönlich denke an den hohen Preisen und den 4080 Varianten, dass dies eine Maßnahme ist um bewusst die 3000er Serie los zu werden. Die 4000er Karten sind ganz sicher mit einer fetten Gewinnspanne aufgesetzt.
Da kann man noch so über äußere Umstände sprechen, über 1000€ für eine "4070er" Grafikkarte sind nicht gerechtfertigt.

Spannend wird es wie AMD die RDNA3 preislich ansetzen wird. Jetzt wo NVIDIA zuerst den Hammer fallen lassen hat, sollte man nicht erwarten das AMD viel günstiger werden wird und wenn dann wirklich um Marktanteile zu gewinnenn aber der Endkundenmarkt ist überschaubar und bis OEM's & co darauf aufsrpringen werden wird es dauern und wer weiß wie NVIDIA preislich mit OEM's & co umgeht, da ist es sicherlich besser gestellt.
 
  • Gefällt mir
Reaktionen: Wintermute
Geht die Rechnung von Nvidia auf?

Ich würde wirklich mal gerne wissen, wie in der Vergangenheit der Absatzmarkt für Grafikkarten ausgesehen hat, genauer gesagt, was genau wir da für Kunden hatten. 50% Mining, 20% Content Creation, 30% Gaming? Ich weiß es nicht, aber das ist ja entscheidend bei der Antwort auf die Frage, wie die Preisgestaltung in den nächsten Jahren aussehen wird. Einfach mal Zahlen hätte ich gerne. Die sind sicher gut unter Verschluss bei Nvidia, AMD und Co.

Ich behaupte einfach mal, dass die Sache mit dem Kryptomining weitergehen wird, aber auf wesentlich kleinerer Flamme. Sofern man nicht technisch überall vom proof-of-work-System wegkommt (und nicht bei Eth), wird es politisch Druck geben, denn keiner akzeptiert in solchen Zeiten einen Energiebedarf in der Höhe ganzer europäischer Nationen zu wertschöpfungsfreien, spekulativen Zwecken. Nicht bei 50ct/kwh.

Ich brauche die Grafikkarte, um Inhalte zu erstellen. Stundenlang auf's Rendering und andere Sachen zu warten tötet Kreativität und Motivation - bei mir zumindest. So wie ich die Präsentation von Nvidia verfolgt habe, bleibt die Kundenschaft definitiv im Fokus und denen kann man locker eine vierstellige Summe abziehen.

Und die Gamer? Ich seh's aus der langfristigen Perspektive. Kinder und Jugendliche nehmen Smartphones, in einigen Fällen auch Konsolen. Der Computer mit all seiner wundervollen Leistung schiebt sich selbst weiter in die Nische für Enthusiasten rein, die vor allem männlich, über 30 und gutverdienend sind. Das ist meine Vorurteilsbox. Ich kann beim besten Willen nicht nachvollziehen, wie man der Jugend einen Personal Computer schmackhaft machen will, wenn ein gutes Gerät nicht für unter 2000€ zu haben ist. Das ist einfach nicht im Budget der meisten. Natürlich kann man das mit den Einstiegskarten und -komponenten auch günstig erreichen, aber wir sind dann eben auf einem Level, den Konsolen und die Mobilgeräte auch abdecken können.
Wenn die Tests zur RTX 4080 kommen im Premiere Pro - Bereich dominiert die Karte dann dank CUDA, muss ich all den Stolz, Frust, die Tränen und vor allem Logik und Vernunft runterschlucken. Das ist zumindest der bekloppte Plan. Ich seh es inzwischen so: Man kauft nicht einen Computer mit Grafikkarte. Man kauft eine Grafikkarte und packt die anderen Komponenten drumherum.
 
  • Gefällt mir
Reaktionen: Schokolade, Xler, derohneWolftanzt und eine weitere Person
Zurück
Oben