News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

hans_meiser schrieb:
Eigentlich aber nicht. Wenn dann NV eine Karte für 999 € anbietet und die sofort ausverkauft sind und dann Monatelang nicht zu kriegen sind, aber Partnerkarten bei 1.299 € anfangen, nützt Dir der NV Preis ja auch nichts.
Naja es kann irgendwann ein realistischer Preis werden, je nach Marktsituation. Aber jetzt aktuell ist das eher ein Platzhalter-Preis. So war das gemeint. Bei unzureichender Verfügbarkeit sind natürlich auch Preise von 2000€ oder mehr möglich bei einer 5080

Trotzdem sagt ein Preis von irgendeinem Händler vor Release quasi gar nichts aus
 
  • Gefällt mir
Reaktionen: shaboo, hans_meiser und Fighter1993
ReVan1199 schrieb:
Viele Spiele werden nur noch notdürftig dafür optimiert, mit Grafikkarten der Mittelklasse und FSR/DLSS unter FullHD flüssig zu laufen.
Und das erkennst du woran? Weil Spiel x nur y FPS liefert?
Bei den wenigsten Spielen kann man mit bloßem Auge erkennen, ob es gut oder schlecht optimiert ist. Erst recht nicht, wenn man keine Ahnung von Spieleentwicklung hat.

Araska schrieb:
Joa. Satte 10%. Bei optimal gesteckter Verbindung.
Nein. Es wurden schon 1400W durch den Stecker geprügelt und Jay von Jayz2Cents hat die Hälfte der Pins entfernt und hatte auch keine sonderlichen Probleme.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und hans_meiser
Fakechaser schrieb:
Wahnsinn.
Und wenn man dabei bedenkt, dass die neue Generation wegen des Gewichts nur noch von Nvidia lizensierte Mainboards unterstützen soll, versteht man auch warum.

Waren nicht für genau so etwas am Gehäuse anschraubbare Befestigungsbarren auf dem Markt?
 
Wieso gehen viele hier davon aus, dass, bloß weil 575W theoretisch möglich sind, diese auch immer, zu jeder Zeit, direkt nach dem Einschalten und beim idle im Windows Desktop voll abgerufen werden? :confused_alt:

Die maximal möglichen 450W meiner 4090 sehe ich auch nur sehr sehr selten, viel öfter sehe ich Werte zwischen 250 und 350W bei 4K, Max. Settings, inkl. RT und dann ca. 90 FPS. Wohlgemerkt, mein FPS Limit liegt bei 240FPS, das schafft die Karte aber bei Max. Settings in den meisten Games nicht mal.
 
  • Gefällt mir
Reaktionen: B3rry und w33werner
Araska schrieb:
Waren nicht für genau so etwas am Gehäuse anschraubbare Befestigungsbarren auf dem Markt?
Die gibt es in mehreren Formen immer noch. Manche Gehäuse haben Stützen eingebaut, es gibt Teleskopstützen die man zwischen Karte und Gehäuseboden propft, es gibt "Schienen" die an die Kartenschächte angeschraubt werden und die Karte halten.
 
Sehr schön, dann bleibt zum Verkaufsstart vielleicht eine für mich ürbrig. :)
 
  • Gefällt mir
Reaktionen: aluis
ElliotAlderson schrieb:
Und das erkennst du woran? Weil Spiel x nur y FPS liefert?
Bei den wenigsten Spielen kann man mit bloßem Auge erkennen, ob es gut oder schlecht optimiert ist. Erst recht nicht, wenn man keine Ahnung von Spieleentwicklung hat. [...]
Ich halte es für vollkommen legitim die Anzahl der FPS in Verbindung der Grafik, als wesentlichen Punkt zu nehmen, wie gut das Spiel entwickelt/optimiert ist. Natürlich geht es dann auch noch tiefer, insbesondere wenn man in der Materie drin ist und wenn man betrachten möchte, welche Engine wird verwendet, welche Szenen werden dargestellt, welche Ladezeiten existieren, welche Besonderheiten existieren, z.B. die Persistenz in Starfield mit der Creation Engine, etc..
 
Fakechaser schrieb:
Wahnsinn.
Und wenn man dabei bedenkt, dass die neue Generation wegen des Gewichts nur noch von Nvidia lizensierte Mainboards unterstützen soll, versteht man auch warum.
Die Karten sind doch ausreichend dick. An 3-4 Slotblenden angeschraubt, wird die Gewichtskraft gut abgefangen.
Muss nur die Karte selber steif genug sein.
 
Ein Drittel mehr Performance für ein Drittel mehr Verbrauch. So könnte es sein.
 
pmkrefeld schrieb:
E-Autos aind durch die Kapazität des Akkus begrenzt, so hat jeder von Fahrer bis Hersteller eine Motivation so wenig wie möglich zu verbrauchen.

Das gleiche gilt bspw. auch in Notebooks: seit der 10er Serie bei nvidia werden nur noch abgespeckte Chips in Notebooks verbaut. Niemand hätte Spaß an den <15min Akkulaufzeit bei einer 600W GPU und einem 99Wh Akku.

Und ja, eine 5090 in E-Auto sind ein Problem. Wenn man die Hardware in einem Tesla voll auslasten würde (z.b. durch die Nutzung des Autopilot) so steigt der Verbrauch potenziell um über 10% weil die nvidia gpus so viel Strom fressen.
Bei Notebooks hat das damit zu tun das nur 150w bis 250w halbwegs leise gekühlt werden können. Keiner mit einem gaming Notebooks spielt im Akku mode
 
Bei dem was die 5080 verbrauchen soll wäre es aus meiner Sicht lachhaft wenn sie nicht schneller als die 4090 wäre. Ich erwarte da schon 20% Mehrleistung im Vergleich.
 
  • Gefällt mir
Reaktionen: RAZORLIGHT, legenddiaz und Celinna
Bierliebhaber schrieb:
Das passt doch vorne und hinten nicht zusammen. Deindustrialisierung ist doch, wenn du das schon am Strom festmachst, mit dem günstigsten Strom, also mit Windkraft und PV, noch am geringsten, und mit besonders teurem Strom, also Atomkraft, am teuersten...
Fuckkkk :DDDD man kann den Leuten hier nicht mehr helfen.
Diese ganzen bösen Länder die extra teuren Strom per Atomkraft herstellen. Nur damit sie mehr dafür bezahlen können! Ja, genau so muss das sein. Immerhin sagen das bestimmte Journos und Politiker, die auch glauben, der Strom würde "im Netz gespeichert werden" und in Batterien seien "Kobolde".

Ja, so macht das alles perfekt Sinn. Man muss es sich nur einreden.
 
  • Gefällt mir
Reaktionen: Supie, YY247 und Öcher Tivoli
Nvidia wird bei GPU langsam das was Intel bis zuletzt bei CPU war. Weil es kaum bis keinen Fortschritt bei der Fertigungstechnologie gibt, muß die Mehrleistung mit maximalem Stromverbrauch erreicht werden. Selbst wenn sie wieder die schnellste Karte haben werden, hat daß ganze einen ganz üblen Beigeschmack. Und die "professionellen" Karten verballern ja nochmehr Leistung.
Es müsste langsam mal darauf geachtet werden, endlich wieder energieeffiziente Archtitekturen zu entwickeln und auf den Mark zu werfen.

Strom kommt eben nicht nur aus der Wand.
 
Ich verlange von jeder Gaming Grafikkarte die eine TDP von über 300W hat und von jedem PKW das über 2 Tonnen schwer ist, extra Umweltsteuer.
Wieso nicht, wenn der kleine Mann jedes Jahr mehr fürs sprit zahlen muss.
 
Die 5090 wird nice - da werden aber manche 600W Netzteile Probleme bekommen ! 🤣
 
Standeck schrieb:
Bei dem was die 5080 verbrauchen soll wäre es aus meiner Sicht lachhaft wenn sie nicht schneller als die 4090 wäre. Ich erwarte da schon 20% Mehrleistung im Vergleich.
Vergleich mal die Specs der beiden Karten miteinander. Da wirst du schnell feststellen, dass da realistisch gesehen nur maximal ein Gleichstand bei rum kommen kann. Eventuell ist sie in Raytracing-Benchmarks oder durch ein exklusives DLSS 4 Feature schneller als die 4090.
Aber sicher nicht in normalen Benchmarks.

So viel Mehrleistung allein durch eine neue Architektur kann ich mir beim besten Willen nicht vorstellen
 
  • Gefällt mir
Reaktionen: shaboo
Standeck schrieb:
Bei dem was die 5080 verbrauchen soll wäre es aus meiner Sicht lachhaft wenn sie nicht schneller als die 4090 wäre. Ich erwarte da schon 20% Mehrleistung im Vergleich.
Verbraucht die 5080 mehr als die 4090, oder was habe ich da verpasst?
 
  • Gefällt mir
Reaktionen: MalWiederIch und BReTT PiTT
nuestra schrieb:
Bei Notebooks hat das damit zu tun das nur 150w bis 250w halbwegs leise gekühlt werden können. Keiner mit einem gaming Notebooks spielt im Akku mode

Das ist zwar subjektiv, aber 150 bis 250W in Notebook kriegt man nicht ansatzweise leise gekühlt (abgesehen von Lastspitzen). Hatte selbst und im Freundeskreis praktisch schon alles was es an Gaming-Notebooks gibt, von Dell über Alienware, Razer, Gigabyte etc etc.

Das einzige was mich dabingehend überzeugt hatte war ein Gigabyte Aourus 17 glaube ich, dünn leicht und mit einer 3080ti bei 80W. Ergebnis:Witcher 3 bei 4k max Details und 60+ fps... und zwar wirklich leise. Traumhaft. Und in einem Review würde man nur rummeckern, dass die GPU nicht die Maximale mögliche TDP hat 🤡

Man spielt zwar selten nur auf dem Akku, aber es geht halt beianchen Notebooms durchaus. Und selbst wenn man 600+ W an Abwärme abführen könnte, wäre der Akku schneller leer als Windoof hochfahren kann 😁
 
  • Gefällt mir
Reaktionen: shaboo
@pmkrefeld 600w sind nicht zu kühlen. Aber falls doch würden sich die Notebooks wie die 5090 gut verkaufen. Beim area51m r1 waren maximal 200w gpu im Notebook zu kühlen und das mit schön rauschigen Lüftern. Und nochmals mit einem gaming Notebook kannst du nicht im Akku Mode hochwertig spielen.
 
Zurück
Oben