News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

Araska schrieb:
NVidia dreht die Wassertemperatur zu schnell hoch - etliche Frösche fühlen sich unwohl und quaken noch.
Weil viele sich dann die neue Generation nicht leisten können und einen Grund suchen, sich das schlecht zu reden - ist aber deren Problem da nicht lebensnotwendig. Mir ist Verbrauch und Preis egal. Auch 1 KWh und 2500€ würde ich kaufen



Und wer auch nur 500€ in den letzten 2 Jahren in Nvidia investiert hat, bekommt die Karte GRATIS und sein Geld zurück.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hahaqp, ElliotAlderson, MacMuffin und eine weitere Person
Simanova schrieb:
Wenn dein 650W Netzteil einen 12pin High Power Anschluss hat ja, oder 3x 8pin, ebenfalls ja. Ansonsten nein.
Die 4080/90 laufen auch mit 2x 8Pins, nur ziehen die dan halt nur so viel, was die 2 hergeben...sozusagen ein hardwareseitig reduziertes Powerlimit

Nvidia verbessert wieder das €/FPS wieder nicht...freuen wir uns also schon auf die 6090 für 4500€ ^^
 
  • Gefällt mir
Reaktionen: Creekground, alkaAdeluxx und Luxmanl525
Millennial_24K schrieb:
und die RTX 5090 zum neuen Bestseller wird.
Macht ja auch Sinn.
Wer die letzten 2 Jahre hier genau mitgelesen hat, findet unter den 4090er Usern hier nur Bestnoten mit Rückblick auf die letzten 2 Jahre.
Ich kann mich an genau einen einzigen Fall erinnern, da hat hier jemand die 4090 quasi 1:1 verkauft bekommen und sich eine 7900XTX geholt, weil nur eine Handvoll Rastergames dauerhaft spielt und den RT und DLSS nicht nutzt, die 4090 also voll am usecase am Ende vorbeiging.

Die 4090 war die beste GPU der letzten Generation an allen Fronten, und natürlich wird so ein Produkt dann ein Bestseller unter Enthusiasten.
Und bekommt top Wiederverkaufspreise, höhere als jede andere GPU.

Dass die 5090 das Ganze fortsetzt wäre also nur folgerichtig.
Meine 4090 wird mir sogar im absuluten worst case von 3000 Euro dennoch 50% des 5090 Anschaffugspreises refinanzieren. Und das geht nicht nur mir so ^^

Und nochmals, NIEMAND braucht eine 5090 oder 5080 fürs Gaming....
 
  • Gefällt mir
Reaktionen: shaboo, ElliotAlderson, Quidproquo77 und 2 andere
lubi7 schrieb:
Die 4080/90 laufen auch mit 2x 8Pins, nur ziehen die dan halt nur so viel, was die 2 hergeben...sozusagen ein hardwareseitig reduziertes Powerlimit
Da kommts auf den NT Hersteller an, was der an W rauslässt auf der NT Seite. Zwar sind 150W pro 8 Pin Anschluss Standard, aber theoretisch passt da viel mehr Leistung durch. Einige NT Hersteller lassen das auch zu. Gerade wenn Du zwei verschiedene 12V Schienen für PCIe hast, könnte man 2x 1x 8 Pin anschliessen und kommt dann auch auf 600W. Elektrisch gesehen gibts kein Limit im Stecker, wenn Du die 300W pro PCIe Netzteil Anschluss also über nur einen der 2 8 Pin Stecker jagst gehen die auch über einen Stecker raus. Vorausgesetzt die Graka kann das verarbeiten beim "Input" - weiss nicht ob da ggf. ein Limiter drin ist.
 
Also für mich kommt Nvidia in der Liste der unsympathischsten Unternehmen knapp hinter Weyland-Yutani und der Soylent-Corporation.

 
  • Gefällt mir
Reaktionen: Sp4wNickle
@Supie ja das mit dem stecker könnte sein, aber habe gesehen das mann das mit einem weiteren stecker umgehen könnte.

@cookie_dent die 2500€ karte wird es wohl nicht werden......das Schnäpchen kann ich mir nicht leiste.
Bei den anderen komponenten muß mainboard Cpu und den Arbeitsspeicher tauschen.
 
Laut eigenem Bericht hier auf Computerbase hatte auch die RTX 4090 schon PowerLimits von 600 Watt und mehr, es sollte also wohl kaum sehr überraschend sein, wenn die RTX 5090 auch in diese Bereiche kommt. https://www.computerbase.de/news/grafikkarten/nvidia-geforce-rtx-4090-3ghz-600-watt.82035/

Selbst die Founders Edition der RTX 4090 hatte schon ein flexibles PowerLimit bis zu 600 Watt, wenn sie auch offiziell mit einer TDP von 450 Watt angegeben war.
 
  • Gefällt mir
Reaktionen: Nighteye
Laut Gerüchten lies sich Alles suboptimal. Denn die 5080 ist in jeder Hinsicht einer 4090 unterlegen. Braucht nur ca 40W weniger. Aber die kostet ungefähr das Selbe. Laut UVP. Wenn das Alles stimmt.

Habe gelesen dass die 5080 1800€ kosten soll.

Die PC Preise gehen durch die Decke und die Effizienz geht in den Keller. Meist zahlt man deutlich über UVP.
Die Kühllösungen sind billig.
Hab die Nase voll. Meine 4060 langt nur noch für 17fps in 1080 oder muss halt auf Niedrig zocken. Spiele sind schice optimiert. Hole mir ne Konsole und dazu nen Apple Computer. Damit spare ich richtig viel Kohle und Strom.
 
Zuletzt bearbeitet:
CadillacFan77 schrieb:
Oder Manor Lords. Ist ein gutes Beispiel....

Ging ja mit eigener Engine erst "online" bei Release.
Manor Lords kam mit der Unreal Engine 4, es gab keine eigene Engine.
Und der Wechsel erfolgte hauptsächlich nicht wegen Lumen und Nanite, sondern um die hohe CPU Last abzumildern. Außerdem erlaubt Microsoft auf deren Plattform keine Spiele mehr mit Unreal Engine 4. Außerdem gibt es nun vernünftigen Directx12 Support, besseren für DLSS/FSR/TSR.
Physx wurde durch Chaos Physics ersetzt usw. Es sind also wie so oft technische Gründe.
CadillacFan77 schrieb:
Sah bombastisch aus und lief gut.
Tut es immernoch, mit den Vorteilen der UE5, wobei weder Lumen noch Nanite genutzt werden.
CadillacFan77 schrieb:
Dann haben sie auf UE5 umgestellt. Spiel sieht imho noch immer gleich aus. Bis auf den Schattenwurf der Wolken vielleicht.
Das ist so auch falsch. Die haben auf UE5 umgestellt, aber einiges am Spielmotor geändert, was den FPS Vergleich schwierig macht. Bei mir hat sich nicht viel getan, vielleicht 15% weniger FPS, bei flüssigerem Gameplay, weniger CPU Last und hübschere Grafik. Außerdem ist das immer noch ein Early Access Spiel.
Vergleichst du dabei überhaupt die gleiche Map? Wo hast du gemessen?
CadillacFan77 schrieb:
Aber meine Graka zieht nun bei gleichen Settings 100-120W mehr. Für nix.
Ist bei mir nicht so, alles hübsch dasselbe.
lubi7 schrieb:
Nvidia verbessert wieder das €/FPS wieder nicht...freuen wir uns also schon auf die 6090 für 4500€ ^^
Noch hat sich das €/FPS Verhältnis mit jeder Generation massiv verbessert, ich glaube nicht, dass Nvidia es sich leisten kann, das nicht zu tun.
Stanzlinger schrieb:
Weil viele sich dann die neue Generation nicht leisten können und einen Grund suchen, sich das schlecht zu reden - ist aber deren Problem da nicht lebensnotwendig. Mir ist Verbrauch und Preis egal. Auch 1 KWh und 2500€ würde ich kaufen
Das ist mir deutlich zu einfach. Denn viel Geld konnte man früher schon in CF und SLI Systemen versenken, die dann auch vom Verbrauch in aktuellen Gefilden waren.
In den 1990 und anfänglichen 2000er Jahren waren PCs genauso teuer wie heute und hielten gerade mal 1-2 Jahre bis sie technisch veraltet waren. Wir befinden uns eigentlich in keiner so schlechten Situation, vor allem wenn dann in ein paar Jahren jeder Kek sein eigenes Spiel bzw. Mod mit AI an den Start bringen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli und shaboo
Beatmaster A.C. schrieb:
Ach, bei der 4090 wurde doch auch 600W angegeben und Panik brach aus. Am Ende wurden die 600W nur mit extremen OC erreicht.
Im Stock war bei 455W schon Schluß.
Mit (144fps) frame Limiter war man schon unter 400W
mit etwas Undervolting war man dann bei unter 300W.
Wird bei der 5080/5090 auch nicht viel anders, wenn nicht sogar noch effizienter.
Genau so sieht's aus Bro 🤝💯
 
  • Gefällt mir
Reaktionen: Beatmaster A.C.
pacifico schrieb:
Mal ehrlich, wer sich so nen Hobel in den rechner steckt, interessiert sich nicht für die Stromrechung, Kontostand oder Umweltschutz.

Is so.
Naja, sagt wer der angibt eine 4080 zu besitzen…

Aber ich bin mit der einverstanden, ich mache nicht die Umwelt nicht gerne absichtlich kaputt, andererseits ist es mir komplett egal ob meine Graka ein paar Waat mehr verbraucht, sogar wenn unnötig. Ich bin dadurch nicht der grösste Verbrecher auf der Welt.

Du machst es wie sonst wo auch auf dem Social Media : laut schreien, um die eigene Misäre zu verheimlichen.
 
Abwarten und Chai trinken - sind ja nur noch 2 Tage bis zur Vorstellung und der genau Energiebedarf ist denke ich auch nur für wenige das Entscheidente Kriterium...

Und bei GPUs im Privatverbrauch (also jetzt nicht bei irgendwelchen Kryptofarmen etc.) die Umwelt ins spiel zu bringen, riecht für mich nach einer Ablenkungsstrategie aus der ausgerechnet nicht Enviromentalistischen Ecke (ähnlich wie wenn Windkraftgegner plötzlich ihre Vogelliebe entdecken, obwohl die bei Fensterscheiben und Katzen nie ein Thema war) - da werden gerne viele nebenbaustellen aufgemacht, damit sich nicht auf die Haupverursacher konzentriert wird und sich möglichst viele Endverbraucher "gegängelt" fühlen, anstelle sich gegen Fossil-Lobby und Tierindustrie zu vereinigen.
 
Stanzlinger schrieb:
Weil viele sich dann die neue Generation nicht leisten können und einen Grund suchen, sich das schlecht zu reden - ist aber deren Problem da nicht lebensnotwendig. Mir ist Verbrauch und Preis egal. Auch 1 KWh und 2500€ würde ich kaufen



Und wer auch nur 500€ in den letzten 2 Jahren in Nvidia investiert hat, bekommt die Karte GRATIS und sein Geld zurück.
Wenn wir darüber reden, das man sein Hobby in einem gesunden Maß ausübt, dann ist das in einer Zeit, wo alle vom Umweltschutz krakeelen, aber sich viele jede Gen die stromfressendste Ratepixel-Fakeframe-GPU mit AI-Scharlatanerei kaufen, um Wischiwaschi-FPS-Rekorde zu brechen, die keinerlei objektiven Vergleichswert mehr bieten und die neuen Gamenegines, für minimale Grafikfortschitte, oder sogar Rückschitte (je nach Einschätzung), bei extrem ansteigenden und nicht mehr in relation zum Gafikgewinn stehenden Hardwareanforderungen, nach neuen Reqs schreien und im Grunde nur grundlegend ausreichende Althardware künstlich obsolet machen, da ist jegliche Kritik daran im Gegenteil äusserst angebracht!

Die Triebkäufer müssen sich halt ihre maßlose Investition schönreden...
 
Stanzlinger schrieb:
Und wer auch nur 500€ in den letzten 2 Jahren in Nvidia investiert hat, bekommt die Karte GRATIS und sein Geld zurück.
Genau. Gute Idee. 🤦‍♂️
Außer es geht mal in die andere Richtung, dann ist die Grafikkarte ganz schnell wieder weg und noch mehr.
Aber das kann ja nicht passieren bei Aktien. Es gibt seit Jahren nur die eine Richtung, dass muss ewig so weitergehen. Da sind wir in der Geschichte der Börse sicher die ersten, die das erkannt haben! :lol:


Laphonso schrieb:
Meine 4090 wird mir sogar im absuluten worst case von 3000 Euro dennoch 50% des 5090 Anschaffugspreises refinanzieren. Und das geht nicht nur mir so ^^
Ja, die Rechnung ist auf jeden Fall solide für ein Milchmädchen. Schätze du hast die RTX4090 geschenkt bekommen, dann ist das sicherlich korrekt.
Wenn nicht, hast du die neue Karte nämlich komplett bezahlt, weil du die alte ja auch bereits bezahlt hast und dort nur einen Teil zurück bekommst.
Diese dämliche Argumentation ist hier im Forum leider sehr verbreitet. 🤦‍♂️
 
Fyrex schrieb:
Genau. Gute Idee. 🤦‍♂️
Außer es geht mal in die andere Richtung, dann ist die Grafikkarte ganz schnell wieder weg und noch mehr.
Aber das kann ja nicht passieren bei Aktien. Es gibt seit Jahren nur die eine Richtung, dass muss ewig so weitergehen. Da sind wir in der Geschichte der Börse sicher die ersten, die das erkannt haben! :lol:
Ich spreche hier nur von 500€. Das ist Spielgeld. Wem der Verlust zu viel ist, der kann sich wohl auch auch keine 5090 leisten
 
Ich finde die Entwicklung bedenkswert, bereits die Radeon RX7900XTX war bei mir aufgrund des Verbrauchs raus. Wenn das so weiter geht, braucht bald jede Grafikkarte 1KW, und das nur, um Spiele zu spielen...

LG
Micha
 
  • Gefällt mir
Reaktionen: Creekground
@michelthemaster Solange Leistungszuwachs an erster stelle steht vermutlich ja (zumindest wenn "Bald" relativ ist) - ist ja nicht so als würde die Effizienz nicht auch steigen (was heutige Mini-PCs schaffen stellt Gaming-PCs vor 20 oder auch weniger Jahren ja bereits deutlich in den schatten), aber am meisten zusätzliche Leistung lässt sich halt durch mehr CUDA Cores erreichen die alle befeuert werden müssen...
 
Serandi schrieb:
Wenn sie jetzt für über 1600€ weggeht, sei es drum, wenn nicht, auch gut, denn mehr Leistung benötige ich erst mal absolut nicht.
Also 1600€ solltest du noch locker bekommen dafür.
Habe letztens auf Ebay gesehen, wie meine Asus TUF 4090 gebraucht sogar noch für 1800€ bei Ebay mit bieten über die Theke ging.
Ich habe damals 2000€ bezahlt und das ist jetzt ca. 2 Jahre her.
Echt eine gute Werterhaltung muss ich sagen. 😉👌
 

Anhänge

  • asdf.jpg
    asdf.jpg
    13,2 KB · Aufrufe: 79
  • Gefällt mir
Reaktionen: ReVan1199 und Serandi
Laphonso schrieb:
Weil viele in diesem Forum bei allem, was grün ist, rot sehen. ;-)
Ist besser als wie in anderen Sozial-Medien die bei grün, viele blau sehen 🤣

pacifico schrieb:
Mal ehrlich, wer sich so nen Hobel in den rechner steckt, interessiert sich nicht für die Stromrechung, Kontostand oder Umweltschutz.
Also ich bin Strom verschwenderisch, aber interessiere mich trotzdem für die Umwelt und hoffe das Deutschland irgendwann einmal 100% EE wird. (Ohne das Thema jetzt aufzureißen)

Das mit den Hohen kosten muss man immer für sich abwegen, es ist nun mal ein Hobby und Hobby sind da zum Geldverbrennen und sich vom alltag abzulenken.

Bei mir wird es wahrscheinlich nur die 5070 TI, weil mein zweites Hobby die Fotografie wesentlich teurer ist, da habe ich erst ein neues Objektiv für 2600€, weil mein altes kaputt ging.
 
Zurück
Oben