News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Tiara G. schrieb:
Ich gehe fest davon aus, dass Ada Lovelace sehr gut werden wird. Sie sind 2-4x schneller und kosten aber garnicht mehr. Das ist doch super.
2-4x schneller mit DLSS3 zu nicht DLSS das ist Äpfel mit Birnen vergleichen.

Würde mich nicht wundern wenn eine 4080 16GB nur 20% vor einer 3090TI liegt in Raster was schon echt traurig wäre.
 
  • Gefällt mir
Reaktionen: Inxession und dideldei
Tiara G. schrieb:
[…] Das gleiche bei den Preisen, die stehen doch überhaupt nicht fest.

"Sind 1.099 Euro für den Einstieg in GeForce RTX 4000 zu viel?"

Gruß
T.
Doch, tun sie 😉.
 

Anhänge

  • FB850744-AE33-43B6-BE0C-165E1822C29D.jpeg
    FB850744-AE33-43B6-BE0C-165E1822C29D.jpeg
    1,2 MB · Aufrufe: 191
  • Gefällt mir
Reaktionen: Laphonso, Samuelz und TigerNationDE
B.L. Swagger schrieb:
Das Stand sogar bei meinem Rm850X Netzteil von 2020 im Kleingedruckten, dass ich die PCIe Kabel der GPU nach 30x(oder wie viel auch immer) Tauschen soll, ist doch ewig schon so.

und weil Youtuber das nicht mal wissen, haben Seiten extra bei NV nachgefragt.



We have confirmed with NVIDIA that the 30-cycle spec for the 16-pin connector is the same as it has been for the past 20+ years. The same 30-cycle spec exists for the standard PCIe/ATX 8-pin connector (aka mini-fit Molex). The same connector is used by AMD and all other GPU vendors too so all of those cards also share a 30-cycle life. So in short, nothing has changed for the RTX 40 GPU series.

What? 30 Steckzyklen für PCIe power???
So wenige Zyklen finden sich normalerweise nur RF-Stecker.
 
W0dan schrieb:
Was will ich da mit mehr Leistung?
:
Was will ich da mit einer 4090, wenn wahrscheinlich 70-80% der Leistung ungenutzt bleibt?
:
Bis dahin bin ich wunschlos glücklich.
Du hast die Frage allgemein gestellt, und diese habe ich allgemein beantwortet. Du machst jetzt daraus eine individuelle Frage, und die kann ich nicht beantworten
W0dan schrieb:
Ich will ja nicht bestreiten, dass es keine Anwendungsfälle oder Daseinsberechtigung gibt, denn die gibt es
Und mehr wollte ich nicht sagen. Es gibt Anwendungsfälle, wo eine 4090 eben angebracht ist, siehe höhere Frameraten und höhere Auflösungen 4-8K UHD. Das Du das nicht so brauchst, ist ein anderes Thema.

Wenn die 4090 wirklich im Tensor Bereich 1400 kontra 320 TFlops liefert (Faktor 4), wird diese Karte für alle ML/DL-Anwendungen heiß begehrt sein. Sprich, die Karten werden nach wie vor reisenden Absatz finden, egal wie alle hier die Preise finden. Von den besseren Renderingzeiten für Medienanwendungen mal ganz zu schweigen. Zeit ist hier auch Geld, und die werden die schnellere Generation Ada schneller haben wollen als manchen hier lieb ist. Diese Karten - und das bedenken die meisten hier nicht - werden ja nicht nur an Computerspieler verkauft.

Ich behaupte, die ersten 6-9 Monate werden alle Ada Karten wie bei Ampere Mangelware werden oder nur teuer zu kaufen sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
spannend werden die benchmarks, die balken sind unbestechlich.

Auf dem Papier sieht eine 4080 aktuell um 50% langsamer als eine 4090 aus. sowas gabs noch nie.

ich denke das nvidia die benchmarks zum verhängnis werden. ob eine 4080 12gb in allen tests dann eine 3090 schlägt wird spannend, rtx und dlss spielen nicht die rolle die nvidia gerne hätte
 
  • Gefällt mir
Reaktionen: TigerNationDE
DRVNabsolute schrieb:
200 Euro weniger an der UVP als der Vorgänger die 3090Ti
Die 3090 ti ist nicht der Vorgänger, sondern die 3090, jetzt rein von der Platzierung im Portfolio gesehen. Davon ab ist die 4090 nicht einmal zu teuer an sich, das liegt nur am Wechselkurs. Das Problem sind die beiden 4080, sowohl die echte als auch der fake sind absurd eingepreist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shinigami1 und TigerNationDE
Moep89 schrieb:
Was wirklich passieren wird: Die Dinger gehen trotz Verarsche bei Bezeichnung und völlig absurden Preisen erneut weg wie warme Semmeln, weil mal wieder alle nur meckern, aber dann doch anscheinend zu viel Geld haben
Es meckern nicht Alle. Die Mehrheit hat gar keine Stimme dazu. Da wird eben gekauft. Vor allem wenn das mit der Leistung stimmt. Da kann man eben schnell schwach werden. Ich war fast bereit im Dezember eine 3090 zu kaufen. Zum Glück habe Ich das dann nicht gemacht un eine gebrauchte 1080Ti als Nachfolger für meine 980Ti zu kaufen. Die jetzt auch nix mehr Wert ist. Da sehen 1500€ ja noch wenig aus im Vergleich. Aber Ich warte auch erstmal alle Test etc ab und schaue wie der Markt sich entwickelt. Vielleicht kaufe Ich auch erst noch eine 3090. Die gehen ja jetzt bei ebay raus wie nix. Mal schauen.
 
zwei gedanken:
es kommt (trotz dem zu hohen preis) unterm strich darauf an was die neue generation ohne dlss auf die straße bringt. es wäre nicht das erste mal dass die zahlen vom datenblat beeindrucken, dies sich aber nicht im erwarteten umfang in der performance zeigt.

ob nvidia damit "durchkommt" hängt in erster line von dem was amd zeigen kann und welchen preispunkt man da wählt. sofern amd ihre raytracing-schwäche einiger massen in den griff bekommt und einen attraktiven preis veranschlagt, hätte nvidia ein echtes problem!
 
Corpus Delicti schrieb:
Und wenn Game-Streaming von der breiten Masse akzeptiert ist, werden spätestens dann die Preise
nNidia-style angezogen.
Würde meiner Aussage ja nicht widersprechen. Abos sind halt der Zeitgeist. Immerhin gibts ja hoffentlich noch Alternativen in Form von AMD und Intel
 
B.L. Swagger schrieb:
@mtheis1987

Ich glaube ab 2020 haben alle guten Netzteile ATX2.4 was mit den Spannungswandlungen der 3000 Serie die teils sehr hoch waren ohne Probleme umgehen konnten. Und NV und Partner würden die Teile nicht auf den Markt bringen wenn sie das nicht ausgibig getestet hätten.
Jay macht einfach wieder Panik wie immer und später entschuldigt er sich dann wie immer xD
Hast du dir auch ne überteuerte 3000 Karte letztes Jahr gekauft, weil er meinte man soll sie lieber kaufen, weil sie Bald vom Handel verschwinden? Sind einige sehr pissig auf ihn weil sie es getan haben und die jetzt 50% billiger sind ;)

Alles gut, ich brauche definitiv ein neues da meins in die Jahre gekommen ist und langsam anfängt kleine Problemchen zu entwickeln. Also hole ich gleich ein ATX3.0 im Bereich um die 1200W, dann ist auch für zukünftige Ausbauten noch genug Leistung da.
 
Fighter1993 schrieb:
Würde mich nicht wundern wenn eine 4080 16GB nur 20% vor einer 3090TI liegt in Raster was schon echt traurig wäre.
Provokant mit Augenzwinkern:
Wen interessiert noch Raster? Das ist so Grafik aus dem letzten Jahrzehnt...

Metro Exodus und Cyberpunk sind blass ohne Raster
Raytracing = Viel bessere Atmosphäre, bessere Immersion, geilere Reflexionen und bessere Licht und Schatten Effekte

Nvidia fährt genau das Marketing:
Willst Du Spiele in altbackenem Raster spielen oder in schön?

Raytracing = Realismus, Fortschritt, optische Aufwertung.

Altbacken = AMD
Schön = Nvidia

Daher, wenn interessiert Raster? Dazu braucht man keine next gen GPU.

Olles blasses Raster kann ich in Watchdogs auch mit der 5700XT spielen...

/Provokation und AUgenzwinken Ende ;)

Bevor einige direkt wieder Schaum vorm Mund haben: Ich Euch habe genau das 2018 vorrausgesagt.
Das war ein Marathon, der Lauf geht in die dritte Raytracing Chip Runde.
Nvidia geht allin mit Raytracing.
AMD kann es sich nicht erlauben, Raytracing zu ignorieren.
Sonst hätten sie ja auch nicht bei ihren sponsored Titeln Far Cry und 6 Resident Evl das (wenn auch leicht limitierte) Raytracing platziert.
 
  • Gefällt mir
Reaktionen: MeisterOek, Fighter1993, PHuV und eine weitere Person
TigerNationDE schrieb:
Möglich. Ich wünsch mir einfach nen fairen Kampf. Wenn beide gleich auf sind, ist das für uns Gamer am Ende nur gut.
Hat doch bei rdna 2 und Ampere auch keinen interessiert. Die 6800 XT non xt war eigtl DIE Karte der letzten gen, perf/Watt unerreicht, trtofzem haben alle grün gekauft. Selbst die 6900xt, die sich bis auf wenige Prozent mit einer 3090 messen kann, bekommt im Prinzip keine Liebe, obwohl sie immer wesentlich günstiger als die 3090 war und ist. Es wird sich nichts ändern glaube ich. Aber gespannt bin ich trotzdem auf das chipper Design und die Leistung von den AMD Karten.
 
cyberpirate schrieb:
Vielleicht kaufe Ich auch erst noch eine 3090. Die gehen ja jetzt bei ebay raus wie nix. Mal schauen.
Genau so sehe ich das auch. Vorallem wenn du eben nicht in 4K spielst. Hatte in den vergangenen Monaten mehrere 3090 und 3080Ti zum testen und wollte mir selbst keine Kaufen weil ich auf die 40er warten wollte. Wenn ich aber sehe wie man die Leistung nun bewirbt, wirds nachher nen Rechenspiel. Dann setz ich mir lieber ne 3090 TUF oder so rein als unnötigerweise ne 40er die ich für 3440er Auflösung nicht brauch.

Dieses individuelle Betrachten fehlt mir in all den Diskussionen immer. Es wird immer nur allgemein gesprochen. Dabei haben wir so viele unterschiedliche Szenarien. Der eine spielt immernoch in 1080p und will einfach so viel FPS wie eben möglich, der nächste in 2560, 3440 oder eben 4k. Es ist halt echt schwer zu sagen du musst nun unbedingt die oder die Karte kaufen.
 
Da Nvidia bei der Präsentation bzw. direkt danach erklärt hat, das DLSS 3.0 nur füe die 40XX Karten kommt, habe ich meine 1 Woche vorher gekaufte 3080 12GB zurückgesendet.

Nvidia hat ja, mit Nachdruck, deutlich gemacht, das alles andere als die 40XX Karten ab 12.Okt. nur noch Elektroschrott ist.
 
ssotfangel schrieb:
rtx und dlss spielen nicht die rolle die nvidia gerne hätte
Das ist ein Irrtum und mich amüsiert diese Scheuklappe zunehmend.
Siehe die Umfrage, HIER, heute.
 
  • Gefällt mir
Reaktionen: PHuV
Gerithos schrieb:
Hat doch bei rdna 2 und Ampere auch keinen interessiert. Die 6800 XT non xt war eigtl DIE Karte der letzten gen, perf/Watt unerreicht, trtofzem haben alle grün gekauft. Selbst die 6900xt, die sich bis auf wenige Prozent mit einer 3090 messen kann, bekommt im Prinzip keine Liebe, obwohl sie immer wesentlich günstiger als die 3090 war und ist. Es wird sich nichts ändern glaube ich. Aber gespannt bin ich trotzdem auf das chipper Design und die Leistung von den AMD Karten.
Ich habe ne 6900 und ne 6950 zuletz gehabt. Die AMD Software ist einfach grausam, und die Kompatibilität in einigen Spielen echt grausam. Und ich spiel durch die Bank alles. Natürlich kannst du "konfigurieren" damit es besser läuft. Aber gefühlt ist eine nVidia einfach leichter in der Bedienung. Und das war für mich schon vor 15 Jahren so. Das hat sich nie geändert. Und das ist nicht nur meine Meinung, sondern auch die vieler Kunden denen ich Systeme gestellt habe. Ich denke das übersehen viele auf CB und Co. einfach, weil sie sich entsprechend mit sowas auskennen und ohne weiteres mal eben Einstellung XY ändern.

Dazu fährt nVidia halt WIEDER viel mehr Marketing im Gaming Sektor. Als RDNA anfing hat AMD groß mit AMD Gaming aufgetrumpft. Von wegen "Ich bin Team Red" (ich erinnere mich noch, denn zu der Zeit hab ich nen riesen Team Red Beitrag erstellt) Danach ist das wieder gen 0 gegangen. Du siehst AMD gefühlt nur in irgendwelchen Bubbles werben (was ich für total unsinnig halte, denn diese Leute kennen das AMD Lineup meist eh), während Nvidia ne riesen Promowelle fährt.
 
mtheis1987 schrieb:
Alles gut, ich brauche definitiv ein neues da meins in die Jahre gekommen ist und langsam anfängt kleine Problemchen zu entwickeln. Also hole ich gleich ein ATX3.0 im Bereich um die 1200W, dann ist auch für zukünftige Ausbauten noch genug Leistung da.
Sollte ich mich dafür entscheiden OC zu betreiben würde ich auch auf 1200W und gleich ein neues gehen, aber ich finde bisher die FE wieder die schönste Karte und es regt mich bis heute auf, dass ich sie damals nicht bekommen hab und jetzt ne hässliche Gigabyte Vision OC drin habe, auch wenn ich die gegen meine Launch 3080 Zotac getauscht habe, weil einer unbedingt mit meiner Minen wollte :D also ne 3080 ti für 900€ und das wo sie bei 1600€ lagen ;)
Aber sind wir ehrlich, wenn ich Geld für ne 2000€ GPU habe, würde es mich nicht mal juken wenn ATX 3.0 Pflicht wäre, dass macht dann auch nix mehr imo.
 
Gerithos schrieb:
500 eur günstiger als die 3090 ist doch kein punch für naivlinge
Was meinst Du? Ich verstehe den Satz nicht, wird an meiner Müdigkeit liegen 😅
 
Zurück
Oben