So wie wir am besten nur 1-2x pro Woche duschen sollen, Licht wenn möglich immer ausschalten wo es geht, das Auto stehen lassen sollen wo es geht, da fehlt nur noch eine Empfehlung keine dGPU mit mehr als 250W TDP zu kaufen... und keine CPU mit mehr als 65W TDP...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr
3v0lut!0n schrieb:Klasse, ein hoch auf die Bevormundung.
Im Endeffekt werden die wirklichen HighEnd Karten doch eh nur von wenigen gekauft, der Großteil greift auf günstige Mittelklasse oder Auslaufmodelle der letzten Generation zurück. Der Stromverbrauch ist vollkommen irrelevant, die paar Euro im Jahr machen keinen Unterschied
Weißt du was schlimm ist. Menschen die meinen Ihr Fehlverhalten hätte keinen Effekt. Die EU hat etwa 450 Millionen Einwohner. Ein Prozent sind 4,5 Millionen- ein halbes Prozent 2,75 Millionen...
Die Verordnung bezüglich Staubsauger (seid wann laufen die 24/7? hat meine ich das Äquivalent von mehreren Kohlekraftwerken eingespart...
Für sich alleine mag es keinen Unterschied machen. Du bist nur nicht alleine. Und im Maßstab der EU macht selbst so gefühlter Kleinmist ganz schön was aus...
Und ich habe ja auch geschrieben wenn das noch 1-2 Generationen so weitergeht...
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.252
Da kommt nächstes Jahr was die RX7500 soll ca 75 Watt haben und ein H/W encoder. 😉crustenscharbap schrieb:Würde mir gerne mal so ein Mini ITX basteln mit einer RX 6400/6500. Die hat aber keine Hardware Encoder. So schade.
Hoffentlich gleich mit 8gb wäre auch schön.
Was auch mal cool wäre ein Test zur RX6700 10gb und ein Test zur RX6500 8gb.
Ergänzung ()
Die verballern auch einiges Strom leider.Topi41 schrieb:Monitore sind da allerdings noch nicht mitgemessen,
Und wenn man sichs leisten könnte aber diverse Prinzipien besitzt oder gar nicht erst den Mehrwert der Karten erkennen kann oder die Abwärme in keinster Art und Weise sinnvoll in der Wohnung unterzubringen ist?Dr. MaRV schrieb:Es wird nur genörgelt, weil man sich das Hobby auf HighEnd Niveau nicht mehr leisten kann. Zum einen Aufgrund der höheren Anschaffungspreise der Hardware, zum anderen aufgrund der Verteuerung von Energie. So ist mein Empfinden in der Anlegenheit.
Soll ich mit ner 4090 und der zugehörigen Wärme in den Hausgang umziehen so als Art "Zentralheizung", damit alle Räume gleichmäßig die Wärme erhalten oder ne Klimaanlage anschaffen damit der PC im Sommer überhaupt Betriebserlaubnis hat?
Die Ausmaße im Verbrauch sind so dermaßen über alle sinnvollen Maße hinausgewachsen, dass die Karten alleine Probleme erschaffen wo vorher keine gewesen sind.
Die Leute wollen mehr Leistung bei gleichem Verbrauch ihrer Schmerzgrenze und das ist die Effizienz die man möchte. Da ist Nvidia komplett vorbei gezogen und der Kundenkreis ist sicherlich sehr schmal dieses mal.
Du hast es auch nicht Verstanden, was Effizienz bedeutet. Ist dir die Karte zu hungrig und dadurch auch zu warm, greif zur kommenden 4060 (ti) die wird vermutlich bei ähnlichem Verbrauch der 3060(ti) und ähnlicher Abwärme, die Leistung der 3080 oder 3090 bringen können. Hast du bereits eine 3080 oder 3090, bleibst du einfach bei dieser. Oder gehst zur 4070/4080. Da wirst du vermutlich bei gleichem Verbrauch einer 3080 mehr Leistung als eine 3090 bekommen. Wer noch mehr Leistung benötigt, der muss auch mit den damit einhergehenden Nachteilen leben. Punkt! Es gibt mehr Modelle wie das an der Spitze. Für jeden Geschmack ist etwas dabei. Das war schon immer so und wird auch so bleiben.eax1990 schrieb:
Die Karte ist effizienter als ihre Vorgänger, auch wenn sie in Summe mehr Last aufnimmt als eine 3090. Was gibt's daran nicht zu verstehen? Außerdem geht es hier um das maximal mögliche. Rührt man die Taktraten nicht an, ist die Leistungsaufnahme und damit auch die Abwärme geringer, als im hier thematisierten Szenario. Man hat dein Eindruck, dass man nur das Spitzenprodukt kaufen kann und das auch noch bis zum äußersten Ausgereizt werden muss, über die vom Hersteller gesetzten Grenzen hinaus.
Zuletzt bearbeitet:
lucky_luke
Lt. Junior Grade
- Registriert
- Apr. 2002
- Beiträge
- 461
Ich bin schon etwas älter und mittlerweile nur noch Gelegenheitspieler in 4K60. ICH freue mich schon riesig auf die 4090 - bin gerade dabei meine 3090 zu verkaufen und habe ein gutes Gefühl bei der 4090.
Wenn die 4090 wirklich rund 80-100% schneller ist als eine 3090, werde ich bei 4K60 vermutlich sogar ordentlich Energie sparen, jedenfalls bei aktuellen Titeln, bei denen die 3090 mit 4K60 schon an ihre Grenzen kommt (ich spiele z.B. gerne Ghost Recon Breakpoint - da ist meine 3090 bei 4K60 am Anschlag).
Wenn ich für die 3090 noch 700-800 EUR bekomme und das gegen die 1.950 EUR rechne, finde ich die Kosten auch gar nicht mehr so hoch.
Insofern: Es gibt auch Leute, die sich die neuen Karten kaufen und sich freuen 😊
Wenn die 4090 wirklich rund 80-100% schneller ist als eine 3090, werde ich bei 4K60 vermutlich sogar ordentlich Energie sparen, jedenfalls bei aktuellen Titeln, bei denen die 3090 mit 4K60 schon an ihre Grenzen kommt (ich spiele z.B. gerne Ghost Recon Breakpoint - da ist meine 3090 bei 4K60 am Anschlag).
Wenn ich für die 3090 noch 700-800 EUR bekomme und das gegen die 1.950 EUR rechne, finde ich die Kosten auch gar nicht mehr so hoch.
Insofern: Es gibt auch Leute, die sich die neuen Karten kaufen und sich freuen 😊
MiniM3
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.326
Wenn das Ironie war dann 5 von 5 Punkten.lolekdeluxe schrieb:Ich hoffe nur das sich nicht zu viele die RTX 4090 kaufen sonst ist der Balckout schon sicher.
Sonst muss ich dir sagen das jeder Staubsauger, Föhn, Mikrowelle, Herd, Wasserkocher, Heizlüfter usw. Mehr oder sogar ein vielfaches verbraucht.
Also wenn Millionen Deutsche Haushalte Samstag vormittag Staubsaugen bricht unser Stromnetz auch nicht zusammen.
Aber wir können uns gern auf ein Experiment alle verabreden und machen Sonntag 19 Uhr alle gleichzeitig ein Ressourcen lastiges Spiel an. 😉
I
IdefixWindhund
Gast
Hab die voraussichtlichen Kosten für Erdgas für 2023 von den Stadtwerken vorliegen. Ich kaufe 2x RTX 4090 und heize damit Wohnzimmer, und Bad, da will ich es zumindest warm haben. 😁
Ich habe mich früher als kleines Kind immer gewundert, wieso EDV Kühler so ähnlich aussehen wie der Grillrost. Ich weiß jetzt warum. 👍🏼
Ich habe mich früher als kleines Kind immer gewundert, wieso EDV Kühler so ähnlich aussehen wie der Grillrost. Ich weiß jetzt warum. 👍🏼
Ist eine Mischung aus vielen Aspekten:McLovin14 schrieb:Mittlerweile beunruhigt mich die Ruhe um RDNA3 ein wenig. Am 3.11. ist Launch (oder Ankündigung) laut AMD, sollten da nicht langsam Infos durchsickern?
Oder hat AMD seine Leute so gut im Griff?
- Nvidia hat mehr Marktanteile und auch mehr Präsenz im Marketing, im Hype und auch bei Dramen und shitstorms in der Vergangenheit
- Nvidia kauft sich auch offensiv Berichterstattung, siehe LTT und Marques 3090er "8K Gaming" (lol) Videos vor 2 Jahren
- Nvidia legte die letzten GPU Releases all die Jahre immer vor, war also zuerst dran = generiert mehr Aufmerksamkeit
- Nvidia "muss" aufgrund der Preispolitik auch die Featuresets entprechend platzieren, damit das anläuft. Die Botschaft lautet:
"Es ist egal, was AMD macht, wenn Ihr 1600+ Dollar bzw 2000+ Euro für eine 4090 ausgebt, habt Ihr die overall beste und schnellste GPU. Oldschool Raster fps sind von gestern, die Zukunft liegt im Realismus = RTX on. Oh, und OFA Technik bringt Zusatzframes und multipliziert die DLSS Frames um den Faktor 2 bis 4" - AMD ist bisher besser damit gefahren - siehe den RDNA 2 Release - erst direkt bei der Präsentation mit der eigenen GPU Power und den Features die treue Zielgruppe zu bedienen...
...und um zu zeigen, dass es jedes Mal ein Irrtum ist zu glauben, dass Nvidia den GPU Kampf pauschal schon vorher gewonnen hat. - AMD kann und will keinen Marketing Wettkampf starten mit einem Wettbewerber, der 70-80% des Marktes beherrscht, sondern will durch die Ergebnisse und Produkte überzeugen
- AMD vermeidet daher Teaser und Spekulationen, was durchaus clever ist. Denn während wir schon jetzt sehr genau erahnen, was die 4000er abliefern werden, haben wir keinen Schimmer, wie stark die RDNA3 GPUs wirklich sind.
Das ist eine Form subtilen Hypes - Sollte die 7900XT der 4090 - das wäre überraschend - "gefährlich" werden, hat sie der Ada Hype entsprechend schnell entzaubert, mit noch mehr Wirkung pro AMD.
- AMD wird wie bei Borderlands, Resident Evil oder Far Cry 6 auch 2023 Studios beauftragen, dafür zu sorgen, dass die Nvidia GPUs die Benchmarks nicht gewinnen können oder sogar wieder verlieren. "Zufällig". Um halt irgendwie selling points zu haben und das "still" zu kontern. Das bringt viel mehr als Leaks, Teaser und Hype.
AMD beginnt das am Ende der Kette, Nvidia vor der Kette.
Das ist so meine Bewertung ^^
Zuletzt bearbeitet:
Ano_Dezimal
Lieutenant
- Registriert
- Juli 2019
- Beiträge
- 839
Also krank ist hier wirklich nur eines. Und zwar die EinstellungNovasun schrieb:Denn sorry, das ist krank.
Ich weis auch nicht warum man sich hier Gedanken darüber machen sollte was in 1 oder 2 Generation ist. Wir leben immerhin im hier und jetzt. Und ich verstehe auch nicht warum manche echt glauben das die Hardware der Grund dafür sein könnte das es mal Probleme gibt. Es gibt so viele Dinge auf der Welt die einen hohen Verbrauch haben, das interessiert einfach niemanden. Da hackt man hier lieber auf einer Grafikkarte rum die am Ende sogar noch weniger verbrauchen wird als jetzige, weil die Leistung einfach höher ist. Und von UV will ich gar nicht erst reden.
Ich werde es zwar wahrscheinlich nicht erleben, aber wenn die EU oder sonstige Politiker wirklich da einen Deckel drauf machen wollten, dann sage ich mal willkommen im Mittelalter. Die Meute wird mit Heugabeln die Büros stürmen. Denn eines ist sicher, die nächsten Generationen lassen sich weitaus weniger gefallen als wir.
Klingt nach absolut vernünftigen Empfehlungen.F1Freak schrieb:So wie wir am besten nur 1-2x pro Woche duschen sollen, Licht wenn möglich immer ausschalten wo es geht, das Auto stehen lassen sollen wo es geht, da fehlt nur noch eine Empfehlung keine dGPU mit mehr als 250W TDP zu kaufen... und keine CPU mit mehr als 65W TDP...
Sollte - bis auf den Zusatz bez Hardware - jeder als Kind von seinen Eltern gehört haben vernünftig mit Ressourcen umzugehen.
Es scheint zunhemend realistischer. 🤩lucky_luke schrieb:Wenn die 4090 wirklich rund 80-100% schneller ist als eine 3090,
https://videocardz.com/newz/nvidia-...cores-leaked-at-least-82-faster-than-rtx-3090
Das wäre...brachial....
Sunjy Kamikaze
Commodore
- Registriert
- Aug. 2015
- Beiträge
- 4.466
gibts den schon vermutungen wo die AMD Karten liegen werden?
Sunjy Kamikaze schrieb:gibts den schon vermutungen wo die AMD Karten liegen werden?
Nichts Belastbares.
Ich behaupte seit Monaten:
"Alte" klassische Rastergrafik = AMD RNDA3 > Nvidia Ada Lovelace
Die 7000er AMD GPUS werden in Games 10-15% mehr fps im Mittel in non-RT "klassischen" nativen Tests/Benchmarks fahren
"Neue" realistische alias Raytracing Mode Grafik = Nvidia Ada Lovelace > AMD RDNA3
Die RTX 4000er werden 40%-50% mehr fps nativ in Raytracing Gamebenchmarks bereits ohne DLSS schieben, zumindest da wo AMD sponsored Games nicht die Raytracing Effekte (Licht+Schatten+Reflexionen) kastrieren (Far Cry 6, Resident Evil Village)
Wie AMD die OFA "DLSS 3" fps kontern will, wird noch spannend. Ich nenne das Nvidias Versenktorpedo gegen RDNA3 (in der Zielgruppe der Enthusiasten, nicht im Midrange, da gibts kein RTX4000). Wenn die Realität und 3rd Party Tests das Marketing bestätigen.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.252
Aber der Abstand zur RTX4080 echt zu heftig finde ich und die RTX4080 12gb wird auch nicht der Bringer.Laphonso schrieb:Es scheint zunhemend realistischer. 🤩
https://videocardz.com/newz/nvidia-...cores-leaked-at-least-82-faster-than-rtx-3090
Anhang anzeigen 1268152
Das wäre...brachial....
KurzGedacht
Lt. Commander
- Registriert
- Mai 2013
- Beiträge
- 1.787
Ich könnte mir vorstellen, dass die Ansage an die Netzteil Hersteller Recht früh erfolgt ist und man nachher festgestellt hat, dass man so viel Leistung vermutlich doch gar nicht braucht.Sturmwind80 schrieb:nvidia soll ja selber überrascht gewesen sein wie gut die Ausbeute der Chips ist und wenig Strom diese benötigen
Ich bin Mal gespannt ob es zwischen 400 und 600w Leistungsaufnahme tatsächlich noch einen Leistungsunterschied geben wird.... Würde mich ehrlich gesagt verwundern.
mux
Lt. Junior Grade
- Registriert
- Apr. 2011
- Beiträge
- 317
Ich bin etwas erstaunt, aber eigentlich mehr enttäuscht, was hier viele, zu viele für einen Scheiß schreiben!
Es wurde ja schon in mehreren Beiträgen zur Effizienz und Einstellungsmöglichkeiten thematisiert - muss ich nicht nochmal...
Dass in einen Computer-Technik-Forum so wenig Menschen einen Blassen von Technik haben ist ja schon erschreckend, aber dass man sich dann auch noch mit diesem Unwissen abfällig äußert, ist echt schwach!
Fragt doch, wenn Ihr was nicht wisst - tue ich auch. Unser Schulsystem muss echt so am Boden liegen oder viele haben schon in der Schule nicht gelernt die richtigen Fragen zu stellen (naturwissenschaftliche Grundlagen gehören doch zur Bildung, ne) und lieber behauptet was sich cool anhörte und nachgequatscht
Warum bin ich heute nur so aggressiv drauf? Irgendwann schlägt die erlebte Dummheit halt auch mal auf den Magen...
Edit: keinen Blassen bedeutet in unserer Region "keinen Schimmer haben"
Es wurde ja schon in mehreren Beiträgen zur Effizienz und Einstellungsmöglichkeiten thematisiert - muss ich nicht nochmal...
Dass in einen Computer-Technik-Forum so wenig Menschen einen Blassen von Technik haben ist ja schon erschreckend, aber dass man sich dann auch noch mit diesem Unwissen abfällig äußert, ist echt schwach!
Fragt doch, wenn Ihr was nicht wisst - tue ich auch. Unser Schulsystem muss echt so am Boden liegen oder viele haben schon in der Schule nicht gelernt die richtigen Fragen zu stellen (naturwissenschaftliche Grundlagen gehören doch zur Bildung, ne) und lieber behauptet was sich cool anhörte und nachgequatscht
Warum bin ich heute nur so aggressiv drauf? Irgendwann schlägt die erlebte Dummheit halt auch mal auf den Magen...
Edit: keinen Blassen bedeutet in unserer Region "keinen Schimmer haben"
- Registriert
- Sep. 2020
- Beiträge
- 699
Riecht etwas danach das die RTX4080 12GB auf dem Niveau der RTX3090 Ti landen kann. Wäre nicht verwunderlich, Nvidia hat das eigentlich oft so tariert das die 70er der neuen Generation auf dem Niveau ankommt wie das Top Modell der Vorgängergeneration (z.B. 3070 ~2080 Ti // 970 ~780).Mcr-King schrieb:Aber der Abstand zur RTX4080 echt zu heftig finde ich und die RTX4080 12gb wird auch nicht der Bringer.
Der Abstand von 4090 zu 4080 16GB ist aber absolut krank, die Chipdaten bzgl. Tranistoren und FLOPS geben das aber grob auch her. Da kann man heute dann schon auf den Release der 4080 Ti warten, die sich dann da preislich wie Performancemäßig schön dazwischen platzieren wird im kommenden Sommer.
Youngtimer
Lieutenant
- Registriert
- Juni 2017
- Beiträge
- 778
Laphonso schrieb:Wie AMD die OFA "DLSS 3" fps kontern will, wird noch spannend. Ich nenne das Nvidias Versenktorpedo gegen RDNA3 (in der Zielgruppe der Enthusiasten, nicht im Midrange, da gibts kein RTX4000). Wenn die Realität und 3rd Party Tests das Marketing bestätigen.
Ich sehe auch das Berechnungen die nicht klassisch auf Rasterizing sondern auf künstlicher Intelligenz und Schätzungen erfolgen wird in Zukunft immer wichtiger. Bei der 4090 besteht gefühlt der halbe Chip aus diesen KI-Einheiten bzw. Tensor Cores (hellgrün). Damit wird halt nicht wie bisher bekannt die Auflösung hochgerechnet, sondern ganze Frames erzeugt. Das dies weit mehr als ein bisschen Zwischenbild Berechnung wie im Fernseher ist, dürfte klar sein. Gut umgesetzt könnte die Leistung aber gerade auch die Effizienz geradezu explodieren. Darum finde das Ganze Thema rund um KI und Deep Learning sehr spannend.
Die 4090 hat durch DLSS 3 weit mehr Potential als einfach nur 70-80% schneller als der Vorgänger zu sein. Ich würde jetzt nicht unbedingt Versenktorpedo sagen, eher key selling point aber ich glaube wir meinen in etwas das Gleiche