News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

FreedomOfSpeech schrieb:
Weshalb? Durch die erneuerbaren Energien braucht man kein schlechtes Gewissen zu haben und die Kosten sinken und sinken und sinken.
Für den der, warum auch immer, keine Solarzellen aufstellen kann sinken dies Energiekosten nicht!
 
  • Gefällt mir
Reaktionen: gartenriese
S.Kara schrieb:
Wäre für mich zwar Nice2Have, aber bin mit meinen 16 GB bis jetzt noch nie ans Limit gekommen.
DIe Karte soll ja auch 2-3 Jahre halten sobald sie erscheint. Ob 2027-2028 16GB noch locker ausreichen?
 
Myki schrieb:
Man muss als Familienvater ja auch mal die Vorteile genießen, dass man keine Zeit hat. So spart man sich teure Anschaffungen und den daran hängenden Rattenschwanz an Kosten. Das ist einfach nur noch krank, was die Teile verbrauchen und was sie in der Anschaffung kosten. Ich weiß, Fortschritt und so.
Kann ich dir als Familienvater schon zustimmen, aber durch die wenige Zeit zockt man (also ich ^^) eh weniger somit ist das mit Verbrauch eher egal.
 
Bei 50% mehrleistung wär ich sofort dabei. Dann wird die 4090 fürn taui verkloppt und gut ist.
 
-> m1 <- schrieb:
Gutes Marketing! Jeder ist dann beruhigt, dass die Karte doch viel effizienter ist als gedacht. Löst ein positives Gefühl aus. 🙃
Funktioniert immer. Besser als zu hohe Erwartungen, die nicht eingehalten werden können.
Ja, das sind diese Psychospielchen.

500 oder 600Watt klopper wird mir auch nie ins Haus kommen.

Das doch schon absurd, meine überall wird geheult hier weniger strom verbrauch und da müssen die Hersteller nachbessern, ausser GPU Hersteller die haben wohl ein Freifahrtschein.

Da müsste de Politik mal eingreifen, dann müssten die Hersteller sich mal wieder mehr gedanken machen und nicht immer nur die Brechstangentaktik nutzen.
Ergänzung ()

Yibby schrieb:
Das finde ich auch immer beeindruckend, dass man bei z.b. league nur so 30watt verbrauch hat
Lol ist auch absolut CPU limit, genauso wie Dota2, da wacht meine 6800XT noch nichtmal wirklich auf, trotz UHD und max settings dümpelt die irgendwo bei 40% Auslastung rum, die fährt noch nichtmal ihr takt voll aus.
 
Zuletzt bearbeitet:
Trinoo schrieb:
falls sich das bewahrheitet, geht das alles in die falsche Richtung... lieber die Effizienz erhöhen und dafür einen geringeren Leistungssprung, das wäre mal Fortschritt, die Brechstangenmethode kann doch jeder.

Diesen "Fehler" hat AMD mit den neuen 9000er Ryzen-CPUs gemacht.

Das gejaule in den Foren ist immer noch groß. Die wollen lieber ~10% mehr Performance für ~60% mehr Verbrauch.
 
  • Gefällt mir
Reaktionen: Araska
ebird schrieb:
So ein Schwachsinn. Ich habe bis vor kurzem an einem 5120x1440 Monitor mit der RX470 bei 120Watt gespielt.
Rechnen ist nicht deine Stärke....

5120x1440 sind gerade mal 7.372.800 Pixel.....meine 5120*3840 sind 19.660.800 - das ist das 3-Fache an Leistung was ich benötige für das gleiche Erlebnis...also 300% mehr
Ergänzung ()

SSD960 schrieb:
Für den der, warum auch immer, keine Solarzellen aufstellen kann sinken dies Energiekosten nicht

Würde sagen Pech des einzelnen. Denn für jemanden, der zur Miete wohnt steigt ja auch die Kaltmiete und er kann nichts dagegen machen - für jemand der seine Bude bezahlt hat, entfällt diese Kaltmiete dauerhaft - egal wieviel andere bezahlen müssen.

Und als Mieter hat man nun auch einen Rechtsanspruch für eine Solaranlage auf dem Balkon. Wer im Keller wohnt, hat da natürlich auch Pech - aber das wusste er ja vorher
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando
@SSD960 Andere sind schuld, weil du in der Situation bist? Politik wird für die Masse gemacht, nicht für den einzelnen. Wenn viele durch Förderung den Strom nun gratis vom Dach bekommen, dann mag das für den einzelnen ungerecht sein - aber er könnte ja auch was in seinem Leben ändern und daran Teil haben.
 
MaverickM schrieb:
Wie kommst Du da drauf!?
Ricarda Lang und Anna-Lena Baerbock sagen das.
Ergänzung ()

SSD960 schrieb:
Für den der, warum auch immer, keine Solarzellen aufstellen kann sinken dies Energiekosten nicht!
Die Grünen sagen, dass die Sonne keine Rechnung schickt.
 
  • Gefällt mir
Reaktionen: DerSnacker
nebukadnezar.ll schrieb:
Glaub das reicht nicht...
Ergänzung ()

Sas87 schrieb:
Jetzt bei der 5080 stehen sogar 25% mehr TDP im Raum, und das obwohl Grafikkarten inzwischen schon ordentlich "saufen".
Ich finde das nicht gut. Aber ist halt nur meine Meinung. 😊
Gut findet das keiner, vermutlich jeder hier hätte gern ne 5090 mit 5W Peak. Ein Zuviel an Effizienz gibt es schlicht nicht.

Letztendlich geht es hier um eine persönliche Akzeptanzgrenze. Für einige ist das derzeit Gebotene bereits darüber, für andere "edged" es gerade, und die dritte Gruppe sieht es (noch) ganz relaxed. Keine dieser drei Gruppen hat objektiv Recht.
 
Zuletzt bearbeitet:
komandar schrieb:
Du gehst hier von deutschen Nutzern welche eine Minderheit sind aus. Schau hier mal über den Tellerrand. Die Nord-/Südamerikaner sowie den kompletten Asien interessiert der Stromverbrauch so gut wie kein Stück weil er einfach extrem günstig ist.

Ich habe in der Familie 2 befreundete amerikanische Familien mit denen wir ständig im Kontakt stehen. Das einzige worüber die sich in den letzten Jahren aufregen sind die Kosten für ihre Klima-/Heizungsanlage weil diese durchgehend laufen.

Da fallen zwei/drei PCs in der Familie die nur ein paar Stunden am Tag laufen nicht ins Gewicht.
hast du Recht.., sehr traurig...
 
Sas87 schrieb:
Ja, aber da kann man mal sehen wie mit dem Begriff "Effizienz" geblendet wird.
2% mehr Leistung durch Entwicklung und 30% mehr Leistung durch 30 % mehr Stromverbrauch würden am Ende auch zu einer effizienteren Karte führen, aber trotzdem wäre die Entwicklung schlecht.

Stell der aktuellen Entwicklung mal z.B. den Fortschritt von einer GTX 980 zu einer GTX 1080 gegenüber. 40% Mehrleistung bei 9% mehr TDP und beim Strom quasi ohne realen Mehrverbrauch.
Und zu der Zeit waren auch noch nicht alle so stark im "Energiesparmodus" wie jetzt.

Jetzt bei der 5080 stehen sogar 25% mehr TDP im Raum, und das obwohl Grafikkarten inzwischen schon ordentlich "saufen".
Ich finde das nicht gut. Aber ist halt nur meine Meinung. 😊
Ich finde es sowieso erschreckend, dass bei all der technologischen Entwicklung, die dahinter steckt, der Leistungszuwachs zwischen den Generationen auch einfach auf das "die shrinkage" runter gebrochen werden kann. Das ist natürlich ebenso eine naive Milchmädchenrechnung, die die ganzen technischen Details außer Acht lässt aber in manchen Fällen denkt man da schon, was leistet das Produkt da eigentlich, wenn der Zugewinn erstmal "nur" auf eine kleinere Fertigungsstruktur zurückzuführen ist. Aber das ist nur mein Eindruck als naiver Laie.
 
Stanzlinger schrieb:
Rechnen ist nicht deine Stärke....

5120x1440 sind gerade mal 7.372.800 Pixel.....meine 5120*3840 sind 19.660.800 - das ist das 3-Fache an Leistung was ich benötige für das gleiche Erlebnis...also 300% mehr
LOL Versuche es noch einmal mit Klug-scheißen.

Dieser Versuch ging etwas nach hinten los. 5K ist 5120×2880 im 16:9 Verhältnis, exakt doppelt so viele Pixel wie mein Monitor. Zeige mir doch mal einen Monitor mit 4:3 Verhältnis und den entprechended 5120x3840 Pixeln.
Zudem ist die Skalierung nicht linear, da Texturen ausfüllen wesentlich weniger Leistung braucht als beispielsweise Kantenglättung. Deshalb kann ein Spiel beispielsweise in FHD mit 84fps laufen und in 4K immer noch mit 44fps in 4K (siehe Alan Wake auf der 4070Ti Super). Oder Cyberpunk 122fps in FHD und 54fps in 4K. Und dass trotz der vierfachen Pixel. Das kann auch je nach Spiel Variieren, aber es wird immer unter 4:1 liegen, wahrscheinlich sogar immer unter 3:1 (ganz alte Spiele mal ausgenommen wo wir über 400fps landen und andere Effekte wirken). Bei AMD ist es meistens noch viel extremer.
 
Die User die eine Karte jenseits der 1500€ kaufen nur um sie dann bei 4K Gaming zu knechten habe ich nie verstanden, was kein Angriff sein soll. Jeder hat seine Ansprüche, dennoch sehe ich für mich darin keine Logik.

Warum rennen der Auflösung so viele Spieler hinterher? Ich habe nebeneinander auf dem Tisch 1 zu 1 nen 450€ 27 Zolll Asus 4K 120hz und ein 420€ 24 Zoll Acer FHD 180hz vergleichen können, mit Upscaling on sieht man zwar dennoch Unterschiede, zumindest wenn man die Umgebung im Stillstand betrachtet oder bei Screenshots halt. Beim üblichen Dynamischen Spielgeschehen war vom 4K Subjektiv gesehen nicht mehr viel übrig.

Natives G-Sync und eines der am besten selektierten FHD Panels ggü der Preisklasse im 4K Spektrum war für meine Ansprüche die bessere Wahl. Netter beifang: Cpu Limit= Konstante Frametimes bei gesyncten 60 hz are smooth like melting butter in a Pan, Im Gpu lmit @4K mit drops unter 50-60Hz : = Mad Frametimes, ergo auch mad input-Lag. Zumindest meiner Erfahrung nach. Ich habe hier im Karton ne 4070Ti Super Aorus Master liegen, kein Bock sie zu montieren weil ich dafür den Rechner komplett neu bauen muss. Krass Was für riesen Viecher das mittlerweile sind...
 
@Cassiopea : Es gibt auch noch die Randgruppe Simracer. Die haben oft ein Triple Screen Setup. Dort sind wir dann schnell bei 7680x1440, was immerhin auch schon 11 Mill. Pixel sind. Wenn man dann bei neuen Spielen auch noch dreistellige fps Zahlen haben möchte, wirds eng!
 
Shoryuken94 schrieb:
. Der Mensch strebt nach Fortschritt.
Immer höherer Stromverbrauch ist aber ein Rückschritt

Allein die Hitzeentwicklung bei so einer Rtx Heizung ist beachtlich. Das scheinst du komplett zu unterschätzen
Das Teil ist schon mit einem kleinen Heizstrahler zu vergleichen

Wärme kann ja nicht einfach gekühlt werden und dann ist sie weg. Die ist immer doch da, nur an einem anderen Ort. zB in deiner Bude im Hochsommer

Man kann natürlich auch Rohre nach draußen verlegen. Aber das hat nichts mehr mit zocken zu tun. Das ist schon idiotisch
 
Also ich muss sagen die Hitze stört jetzt gerade mit der RTX4090 sehr.
Mein System heizt den Raum extrem auf.
Sobald die Klimaanlage nicht mehr läuft - 27 Grad Raumtemperatur.
Fenster öffnen bringt zu keiner Tageszeit was.
 
ebird schrieb:
LOL Versuche es noch einmal mit Klug-scheißen.

Dieser Versuch ging etwas nach hinten los. 5K ist 5120×2880 im 16:9 Verhältnis, exakt doppelt so viele Pixel wie mein Monitor. Zeige mir doch mal einen Monitor mit 4:3 Verhältnis und den entprechended 5120x3840 Pixeln.
Das Verhältnis spielt hier gar keine Rolle. Egal ob 4:3 , 16:9 oder 21:10 - die Pixelanzahl ist nun mal höher. Aber ich habe einen Fehler gemacht, die Auflösung beträgt "nur" 5120 * 2160 was 11.059.200 Pixel entspricht und somit knapp 60% mehr sind. Und 60% mehr wäre somit gerade so der Sprung von einer 4090 zur 5090
 
Zurück
Oben