News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Eine Frage, die später definitiv interessant wird: wie will Nvidia den Aktionären den mit Sicherheit deutlich (nur die Frage, wie deutlich in %) reduzierten Spike bei Initial-Verkäufen in Kombination mit dem Ausbleiben eines Anstiegs des 30er Verkaufs erklären?

Denn weil man die Preise der alten Karten künstlich hoch hält, gibt es auch keine wirkliche Incentive nun doch zu ner veralteten 30er Serie zu greifen und bei den Preisen, der derzeitigen Inflation und den Energie-Preisen und dem Ausblick für die Zukunft wird es mit Sicherheit auch danach keinen großen Spike oder ein merkliches Wachstum im Konsumer-Markt geben.

Wie es im Datacenter usw. aussieht, ist natürlich ne andere Frage. Ohne dass man nun aber X mio. Mining GPU Verkäufe im Gaming verstecken kann, wirds halt etwas schwer hier irgendwie noch Wachstum zu erzeugen.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
HAse_ONE schrieb:
Was sind denn die wichtigsten Spiele? Wohl vor allem tripple A Spiele. Und wenn ich ganz ehrlich bin, gehen mir mittlerweile 98% der ganzen tripple A Spiele am A vorbei.
Ich hatte in den letzten Jahren den meisten Spaß beim Zocken mit Indiegames und kleineren AA Spielen und die aller aller wenigsten Indiegames haben DLSS. Da brauch ich Rohleistung.
Spiele mit sehr hohen Grafikanforderungen und sehr hohen Maximal Settings, insbesondere RT das in Zukunft immer größere Verwendung finden wird. Und da gehören die allermeisten Indie Games jetzt absolut nicht dazu. Die sind jetzt nich dafür bekannt eine 3090ti oder 6900XT in die Knie zu zwingen.
 
wenn jensen Meint er könne den Markt bestimmen lebt der wohl in Wolken
oder hat infos über rdna3 oder glaubt dran das sein lineup mit dem sagen wir mal betrug durchkommt.
erstere ist unwahrscheinlich
zweitere Sehr Wahrscheinlich
Den es scheint so als ob der softwarestack es möglich macht das die gpu entweder extrem hochtakten ~2,8-3,1ghz oder jensen sieht dlss3 als mittel für vergleiche vs amd rdna3.
Das aber wäre fatal.

Das würde den verdacht aufkommen das er als Ingenieur nicht versteht wie ada funktioniert.
Den die AI Zauberdose versteht kaum einer.
Das RT durchaus deutlich schneller geworden ist steht sicher. Den der Ansatz dies endlich mit out of order zu ermöglichen macht Sinn.
Die reine raster Leistung ist aber wie bisher rein linear und da scheint man den Ansatz von turing genommen zu haben
Sofern keine fp64 im design ist, was anzunehmen ist wird ada deutlich mehr sm brauchen um ampere zu überholen.
Die alternative ist höherer Takt. Was die Effizienz der Architektur in die tonne kloppt
Wenn man dann sich hinstellt und dann höhere Einstiegspreise predigt weil man komplett am Markt vorbei entwickelt hat ist wirklich dreist oder der Herr führt sein unternehmen in die pleite.
Das ist kaum vorstellbar aber durchaus möglich.

ich sehe die hohen Preise eher als Versöhnungsangebot an die AIB
Der Bruch mit evga war schmerzhaft in den usa bis zu 40% Marktanteil.
Andere aib werden sich die Hände reiben wäre da nicht das problem der Logistik den diese bricht auch weg.
Und bis die anderen aib das auffangen dauert es.
Das preise steigen freut den Herrn aber das dies an die Händler geht nicht.

Darum diese immense preise für die neue gen, das eigentliche Problem sehe ich eher da, das ada kaum bis gar nicht viel mehr Rasterleistung haben wird als ampere.
Die einzige Möglichkeit das aufzufangen ist wie gesagt Takt.
Und genau hier wird dlss3 eingreifen
ich kann mir vorstellen das dlss3 im Treiber aktiviert wird.
Das aber bedingt das im Gegensatz zur Behauptung das dlss3 in spielen eingebunden werden muss. Es wirklich nur bedeutet das die gpu die int32 in den tensor core rechnet was möglich ist. oder der halbe sm deaktiviert wird und der Takt der gpu ins nirvana geschickt wird.
Hier wird lediglich Fertigung sowie wärme das limit sein.
Fertigung sehe ich bei etwa 3,7-3,8ghz wärme eher wie gut kannste abführen man sehe sich die Kühler an.
Das man durch mehr Fläche die transistor höher Takten kann ist sicher. Siehe ampere das auch etwa 1/3 der chip deaktiviert hat Ausnahme ga107.
Und samsung sweetspot von 1,6ghz auf knapp 2,0ghz prügelt. sofern die Kühlung mitmacht.
Ada sehe ich bei etwa sweetspot bei gleicher wärmedichte wie ampere etwa 3,0ghz.
Da aber ada um 50% mehr dichte hat sind es bei allen aktiven Transistoren nur noch 2,3ghz.
Inwieweit dann der Takt steigt bei 50% des chips dann höher taktet ist wirklich wärme bedingt zwischen 12% und 25% ist möglich, das hängt nur vom design ab nehme ich 2,5ghz *1,12=2,8ghz was auch test belegen.
Die 25% sind aber möglich was dann 2,5*1,25=3,12ghz wären
leider skaliert das nur dann wenn Teile des chips weniger beansprucht werden.

Nehme ich beim ad104 rtx4080 12gb 60sm 3,12ghz an ist die maxed Leistung derzeit bei raster ~24tf Und damit Punktlandung zur rtx3080 12gb.
man sehe sich die Preise an 830€ vs 1100€
Das wird nvidia nicht halten können.
Und das ist mit dlss3 Annahme da kann nur die dxr Leistung gezeigt worden sein.

Was aber auch die Hoffnung steigen lässt das valhalla und the division 2 ein dxr update bekommen.
Unmöglich ist das nicht.
Noch höher zu Takten ist machbar aber dafür müsste die Abwärme schon arg gut abgeführt werden.
ich hoffe wirklich das noch 32fp64 drin sind das würde die Leistungsannahme bestätigen.
Aber auch widersprechen den dann sind mehr als 2,5ghz illusorisch und wir wissen das unter dlss3 der Takt steigt.
Wenn mein verdacht sich bestätigt und dlss3 eine Treiberoption darstellt die entweder upscaled oder den halben sm deaktiviert dann ist das kein wirklicher vergleich. möglich ohne diese Funktion.
Was aber auch ahnen lässt wieso ada so derbe schlechte p/w haben wird.

am ende regt sich die hälfte darüber auf das man soviel fürn Umgelabelte rtx4070 zahlen soll
ich finde eher das die Leistungssteigerung von ada eher das problem ist.
Und nvidia ehrlicher sein sollte und größere chips für die sku nehmen sollte. und diese geringer Takten.
Nur bei ein chippreis von 200$ des ad102 wird das nix.
Kein wunder also das man so vorgegangen ist.
Aber die Leistung erwarte ich deutlich geringer als beim Wechsel turing zu ampere. ~0-40% je sku
Es hätte so schön werden können.
ad104 60sm 2,3ghz 180w als rtx4060 12gb ~17,6tf 479€
aber bei ne chippreis von 90$ leider nicht umsetzbar. min wären hier 649€

Mit dieser Steilvorlage ist amd nicht im Zugzwang erwartet also keine Preiskampf von ihnen.
amd n33 wird der Gegner sein für die rtx4080 12gb
Und amd kann billiger fertigen n33 Vollausbau min preis beträgt stolze 420$ (509€)
Und erreicht beim cut auf 3072alu etwa 17tf und voll etwa 23tf
wäre amd dreist könnte amd den rx7700xt mit 23tf 180w tbp 2,8ghz 599$ =719€ Gegenstellen.
Dann wäre 1099€ vs 719€
Jetzt kann amd beruhigt sogar 899€ ansetzen (749$)
Erst die test werden die endgültige preise festsetzen.
 
devilsown schrieb:
Freue mich schon darauf, dass irgendwelche Hacker DLSS 3 auch auf 30xx Karten bringen, ich kauf nämlich Nvidia die Geschichte nicht ab dass das nicht möglich sei...
Ja- Dann hast Du aufgrund mangelnder Performance auf den Karten unter einer 3090 dann aber Lag und Ruckler.
Creeed schrieb:
Ich bin ganz ehrlich, ich werde diesen Wahnsinn nicht mehr mit machen. Es reicht jetzt endgültig beim Energieverbrauch.
Der Energieverbrauch sinkt durch gesteigerte Effizienz. Baust Du Dir die leistungsfähigste Karte ein und betreibst Die mit den Einstellungen, die Du jetzt auch verwendest, wirst Du mit deutlich weniger Stromverbrauch auskommen.

Creeed schrieb:
Statt mal sparsame Karten mit annehmbarer Perfomance zu entwickeln wird einfach weiter aufgebohrt. Aber es sind ja nicht nur die GraKas, CPUs das Gleiche.
Deswegen geht man auf Softwareseite und AI Seite immer weiter und bohrt eben genau NICHT einfach so alles auf, sondern verwaltet die bereits berechneten Pixel immer genauer und effizienter.

Cleric schrieb:
Wobei NVIDIA sicher wieder gerne über 60% Brutto-Marge hätte. Im letzten Quartal ist die auf 43.48% gefallen. Tiefster Stand seit über 10 Jahren. ;)
Brutto- Margen sind uninteressant. Die Netto- Marge zählt und die liegt bei NVIDIA gesamt bei ca. 36% wobei der überwiegenden Teil aus dem Datacenter- Geschäft kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade und Maggolos
GeneralJules schrieb:
Wenn der Markt zusätzlich noch mit Miningkarten und Restbeständen geflutet wird, umso besser.
Die Frage ist halt nur, wann dies passieren wird.
Ich brauche keine besondere Spielekarte, aber so eine günstige 3080/90 für Blender anstelle meiner RX570 wäre schon ganz nett und würde mir wohl auch erst mal für ne Weile reichen
 
RogueSix schrieb:
Wenn es ein für mich attraktives custom Modell deutlich unter €1999 geben sollte, dann ist das Viech fällig
Da wünsche ich viel Glück. Allerdings fürchte ich dass das länger dauern könnte. Denn die billigsten sind die FEs, nicht Dir Customs.

dideldei schrieb:
Ich warte hier nur noch auf die CB Worte „warme Semmel und melken“
Ist schon vor Dir passiert!

@eXtra Falls sie etwas gutes abliefern (und bislang bin ich optimistisch), bekommt Team rot mein Geld. Nvidia auf jeden Fall nicht.

… und wenn Team Rot versagt?
Stehst Du ohne GPU da. Das wäre doof.

Zwirbelkatz schrieb:
Eine Spekulation, die sich alles Andere als abwegig anhört.
Keine Spekulation, wenn man den heise Artikel liest.

Zwirbelkatz schrieb:
Ich hoffe insgeheim immer noch, dass Kunden mit einer solchen Kaufkraft dazu in der Lage sind, 1x schnell Google anzuwerfen um schnell zu merken, was sie da eigentlich kaufen.
Du bist offensichtlich ein hardcore Optimist.
nVidisten kaufen. Und jammern evtl. später, oder reden sich ihre Entscheidung danach dann eben schön.
(Gilt auch für AMD-Fans, falls da mal wieder was schief gelaufen sein sollte)
Klassische Psychologie.

theGucky schrieb:
Wenn sie im mittleren Bereich also der 4080 eine gleichgute Karte für weniger Geld anbieten, dann hat AMD gewonnen.
Nein. War bisher nicht so, wenn AMD tatsächlich mal besser war und wird wohl auch so bleiben.

Darius Széll schrieb:
und Nvidia scheint nichts aus dem 8GB Debakel der Ampere 3070ti/3070/360ti gelernt zu haben.
Doch, natürlich haben die gelernt:
Völlig egal wie absurd die Preise oder wie schlecht sie ihre Partnee behandeln, das Zeug wird ihnen quasi aus den Händen gerissen.
Ergo machen sie genau so weiter!
 
Zuletzt bearbeitet:
Nvidia DLSS 3 soll bis zu 4× mehr FPS als nativ liefern, doch eine GeForce RTX 4000 ist Pflicht.
Das ist jetzt aber auch keine sonderlich überragende Leistung, wenn man mal in die Fußnoten der Diagramme guckt. Bei DLSS kam da nämlich der Performance Mode zum Einsatz, also der zweitschnellste (und entsprechend niedriger Qualität) mit einem Skalierungsfaktor von 2. Es wird also nativem 4K einer internen Renderauflösung von 1080p (+ DLSS Upscaling) gegenübergestellt.
Die FPS skalieren zwar nicht unbedingt linear mit der Pixelmenge, aber dass man bis zu 4x schneller ist, dürfte zum größten Teil schlicht dem geschuldet sein, dass nur 1/4 der Pixelmenge der nativen Auflösung gerendert werden muss.
 
Delgado schrieb:
Ich dachte immer, eine Rechnung geht auf. Sich aus?
SCNR ;)
"Sich ausgehen" ist in Östereich verbreitet. Ob es Regionen in Deutschland gibt, die das auch sagen???
 
the_pi_man schrieb:
"Sich ausgehen" ist in Östereich verbreitet. Ob es Regionen in Deutschland gibt, die das auch sagen???
In NRW oder Gegend sagt man wohl auch statt "es ging um" "es ging sich um" :)
 
Wenn AMD was gutes abliefert werde ich nach langer Zeit ca. 12 Jahre wieder zu AMD wechseln. Nvidia kann sich ihre Fake 4080 behalten.
 
  • Gefällt mir
Reaktionen: Dai6oro
Buddha1337 schrieb:
Bereue es wirklich immer mehr dass ich mir damals zwei native GSYNC Monitore gekauft habe. Würde gerne ne AMD Karte kaufen, aber mir deswegen zwei neue Monitore anzuschaffen macht einfach gar keinen Sinn.
Yup, den Fehler habe ich auch nur einmal gemacht und nachdem mein erster G-Sync Monitor hopps ging, einen Freesync Monitor gewählt, der auf der G-Sync compatible Liste steht. Nun bin ich zumindest nicht wegen meinem Monitor abhängig von einer Marke.
 
Die Scalper-Preise der 3080Ti waren schon schlimm, aber nVidia krönt sich dieses Jahr selbst als Scalper-Urgroßvater.

Ich bin aufgrund von G-Sync only an nVidia gebunden. Darum gibt es als nächste Investition einen anderen Monitor, um mir AMD als Alternative offen zu halten. 4000er Serie fällt für mich aus!
 
Bekomme leicht Brechreiz wenn ich das Statement der Lederjacke höre "Grafikkarten werden nie wieder günstiger sondern immer nur noch teurer".

Zum Glück gibt es noch einigermaßen Wettbewerb, obwohl Intel sich da eher disqualifiziert hat.
 
Eine der schwierigsten Umfragen... Warum... Weil alles etwas sehr ambivalent ist.

Erst mal zum Preis. Wenn die 4090 wirklich so toll abliefert - dann ist der Preis irgendwo auch gerechtfertigt. Beim Rest sieht das dann aber schon anders aus. Die 4080er sind halt deutlich zu teuer... die umgelabelte 4070 eh...
Nehme ich den zu erwartenden Stromverbrauch dazu, ja dann sieht es selbst für die 4090 übel aus. Nur wird AMD da "besser" sein? Bei NV ist aber auch übel, das die 450Watt für die FE gelten, die Boardpartner ja aber wohl bis 600Watt Stoff geben dürfen...
DLS 3.0 - sorry NV ihr müsst doch bemerkt haben, das die Konkurrenz da was offenes anbietet... Ihr beschneidet nun die Funktionalität weiter, weil mindestens eine 4XXX Grafikkarte benötigt wird... Das ist endgültig der Todesstoß. Also a) würde ich mich als NV Kunde mit 3XXX ein Stück verarscht fühlen. Als Entwickler würde ich mir sagen was soll ich für 1-3 % Marktanteil was umsetzen...
Mal davon ab wenn das stimmt, dann müssten echte kleine 4XXX Karten ja auch die neuen Cores bekommen...
Dann werden die kleinen Karten wohl auch "teuer"...

Aber auch da. Schlussendlich könnte NV doch noch mal Kasse machen. Es hängt davon ab was AMD macht. Und ob AMD einen echten Kostenvorteil hat, den man an den Kunden weitergibt.
NV ist in der monolithischen Sackgasse. Sie haben Godzilla erschaffen. Das kostet. Es wird für sie zum Albtraum wenn AMD einen Kostenvorteil hat den man gewillt ist zu nutzen um Marktanteiule zu gewinnen - wie bei Ryzen damals. Wenn AMD das nicht macht... Wie gesgagt ich glaub da sind noch immer genügend da die Geld in die Hand nehmen und kaufen....
 
Danke @xexex sprichst mir aus der Seele.

Ich glaube der Hauptgrund, weswegen viele den langfristigen Schritt bezüglich Cloud Computing fürchten ist einfach, dass Sie die Hardware nicht mehr bei sich haben. Quasi Kontrollverlust + Deutschlands mangelnder Ausbau bzgl Internet.a

Sowas kann man sich auf mitteler Sicht nicht mehr Leisten (High End Hardware)
 
  • Gefällt mir
Reaktionen: xexex
SomeDifferent schrieb:
Ich bin aufgrund von G-Sync only an nVidia gebunden.
Das waren doch nur die früheren Monitore mit Modulen.....bis sich auch das als unnötige Kundengängelung entpuppte.
Was mittlerweile G-Sync unterstützt, unterstützt auch Freesync.

Ich habe selbst, bis auf wenige Ausnahmen, durchweg auf Nvidia gesetzt, dennoch immer auf Ungebundenheit geachtet was andere Hardware angeht.
Irgendwann ist dann aber halt auch Schluss mit der Kundenverarsche und jetzt steige ich eben problemlos auf AMD um......sollte zumindest nach allen Veröffentlichungen und Tests sich das momentane Bild bestätigen.

Novasun schrieb:
Wenn die 4090 wirklich so toll abliefert - dann ist der Preis irgendwo auch gerechtfertigt.
Sehe ich nicht im geringsten so. Ja die 4090 sieht im Vergleich zu den beiden 4080 noch OK aus, zumindest was VRAM + SI und ALUs + SMs angeht, da sind die 4080er ja schon fast katastrophal.
Aber der Rest ist genauso veraltet ausgestattet, das ist kein High-End, ergo der Preis deutlich zu hoch.
 
Zuletzt bearbeitet:
F: War das Release der GeForce RTX 4000 überzeugend?
A: Ist mir völlig egal, ich warte ohnehin auf unabhängige Tests und Reviews

Release vom Hersteller sind immer überzeugend. Selbst jene von Alchemist war es. Wobei ich bei der RTX 4000 nicht glaube, dass es dann so bescheidend wird, wie bei Alchemist bei den Tests.

F: Sind 1.099 Euro für den Einstieg in GeForce RTX 4000 zu viel?
A: Enthaltung

Ich versteh die Frage nicht. Es kommen doch wohl noch 4060 oder 4050, die unter 1.000 € kosten.

F: Wie ist die Aufteilung in zwei GeForce RTX 4080 zu bewerten?
A: Für mich ist die GeForce RTX 4080 12GB eigentlich eine GeForce RTX 4070

Eigentlich sage ich immer, Namen sind Schall und Rauch. Aber das Empfinde selbst ich als doch zu Hinterhältig. Selbst mir fällt es immer schwerer die Leistung einer Karte Einzuordnen, ohne ein paar Diagramme anzuschauen, und wenn man jetzt nicht ganz genau schaut, welche 4080 man im Diagramm sieht, oder welche in einem OEM Rechner verbaut ist, kann man schnell zu Trugschlüsse kommen.

F: Wäre DLSS 3 für dich ein Grund eine GeForce RTX 4000 zu kaufen?
A: Enthaltung

Kein Primärer Kaufgrund, aber im Zweifelsfall ein "Nice to have".

F: Planst du den Kauf einer GeForce RTX 4000
A: Ich bin mir noch nicht sicher, ob ich eine GeForce RTX 4000 kaufen werde

Natürlich muss ich wissen, was noch unterhalb der 4080 (4070) kommt, und was auch AMD am Start hat. Und dann die Frage, ob ich allgemein einen neuen Gamingrechner kaufe.

F: Welche GeForce RTX 4000 planst du zu kaufen?
A: Ich warte auf die kleineren Modelle

Oder AMD.

F: Geht die Rechnung von Nvidia auf?
A: Enthaltung

Keine Ahnung. Ich habe in letzter Zeit AMD oft unterschätzt. Wobei die RTX 4000 doch in TSMC N4 sind und RDNA-3 in TSMC N5 bzw. N6. Oder kommt noch eine Navi 30 in TSMC N4?
 
Jetzt mal ehrlich, kommt ihr PC-Gamer euch eigentlich nicht irgendwie verarscht vor wenn solche Präsentationen von Grafikkarten veröffentlicht werden? Ich meine vor 1-1,5 Jahren war die 3090 oder 3090 TI der absolute Hammer. Ein Preis wo die meisten nur noch den Kopf schütteln. Und jetzt, soll die 4090 wieder sowas von deutlich besser und schneller sein als diese poplige 3090 TI. Kannst eigentlich nur noch für
Office verwenden (etwas überspitzt ausgedrückt).
 
Völlig irre, wie viele Leute hier die Realität ausblenden.

Die Preise orientieren sich nun mal an der aktuellen Markt-Situation und die ist durch Krisen wie die Corona-Pandemie, Naturkatastrophen, (bevorstehender) Krieg und Resourcenknappheit so heftig unter die Räder gekommen wie schon sehr sehr lange nicht mehr.

Offenbar sind hier einige zu oft mit Zocken beschäftigt und sehen nicht mehr, was in der Welt passiert bzw. welche Konsequenzen das alles hat.
Der (protestantische) Verzicht auf den neuesten Grafikbeschleuniger schafft da hoffentlich zeitlichen Freiraum.

Derzeit sieht die Lage danach aus, dass die UVP der neuen Karten hierzulande sogar noch angehoben werden könnte.
Der Euro bewegt sich nämlich weiterhin abwärts. Knapp unter 90 USD Cent sind sehr wahrscheinlich.

Eine RTX4090 FE würde hier also auf 2200€ UVP klettern.
Aber auch das wäre noch ein Schnäppchen sobald China in Taiwan einmarschiert - denn dann reden wir nicht mehr von 4-stelligen Beträgen, die man für derlei "Spielzeug" auf den Tisch legen wird.
 
  • Gefällt mir
Reaktionen: Schokolade, superfunky, PHuV und 3 andere
Zurück
Oben