Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt
Ich persönlich hoffe das irgendwie ein staatliches Regulativ eingreift und die Leistungsaufnahme bei Grafikkarten und Prozessoren auf vernünftige Werte begrenzt.
Was genau soll das denn bringen? Hanni und Nanni, die >1000€ bzw. >1500€ für ne GPU bezahlen, werden sich durch Zoll-Gebühren nicht davon abhalten lassen ein entsprechendes Top-Modell aus UK/CH/Sonstwoher zu importieren. Gleichzeitig deckelt man das GPU-Angebot für den Pöbel halt auf X070 Niveau, was den Preisen sicherlich nicht gerade helfen wird.
Ich glaube so ein Gesetz wird exakt nichts bringen, außer dafür zu sorgen, dass alle in Summe mehr bezahlen als eigenlich notwendig wäre.
(Du bist nur exemplarisch zitiert, das gilt auch für alle EU-Rufer)
Nvidia traue ich es zwar zu, für den Platz an der Sonne die letzten Reserven heraus zu pressen, ein einzelner Chip in N5 wird aber wohl eher nie in diese Regionen mit der TGP kommen.
Das sind mit dem Rest des Rechners zusammengenommen, Regionen eines kleineren Heizlüfters. Hallo???
Thermi 2.0? Passt ja sogar von der Bezeichnung.. ist nur eine "0" dazu gekommen:
480 -> 4080..
Damals war ja schon die 460 eine bessere, weil u.a. effizientere und sparsamere Wahl
Für 400 Euro habe ich vergessen zu erwähnen. Wobei die RX6800@Stock mit ihren 250 Watt weit von 150 Watt entfernt ist. Mit UV geht das vielleicht, aber dann bin ich bei meiner GTX 1070 nur noch bei ca. 100 Watt. Da hinkt der Vergleich dann schon wieder.
Man muss ja nicht jeden Schwachsinn mitmachen. Da ich kein RT brauche, da mir die Ergebnisse bis auf ein paar Ausnahmen sowieso nicht gefallen, kann meine mittlerweile 5 Jahre alte GTX 1080 Ti bleiben. Selbst die ist an heißen Tagen im Sommer schon unerträglich. Hatte noch nie solange eine Grafikkarte im Einsatz, das war die beste Anschaffung.
Irgendwer meinte noch das das doch nur 20 Euro mehr Stromkosten pro Monat seien, ich weiß nicht in welcher Welt manche leben das 20 Euro mehr laufende Kosten im Monat scheiß egal sind, das sind 240 Euro im Jahr Mehrkosten.
Das war ich und am Ende kommt es doch auf den Einzelfall an und dort kann ja wieder jeder selber entscheiden was er für richtig oder Falsch hält.
Ich Zahle im Sommer Monatlich mit PC, Klimasplit Geräten, Meerwasser Aquarium und der Rest vom Haus, 350 - 400€ Strom im Monat, und das ich dann sage "20€ mehr oder weniger" machen den Braten auch nicht Fett, ist nun mal einfach Fakt oder meinst du die 20€ im Monat fallen auf bei der Jahresabrechnung !?
Wie gesagt, nicht immer von Sich selber auf den Rest der Welt schließen, Sicher ist mein Fall nicht der Regel oder Normal Fall, jedoch kenne ich in meinem Umfeld genug Leute die Ähnlich denken, andere sehen es wieder anders, was auch ok und nicht Falsch ist.
Aber am Ende ist es Leben und Leben lassen und jeder soll sich das Kaufen oder Machen was er möchte oder sich Leisten kann!
Deswegen halte ich auf von solchen EU Regelungen usw. Absolut nichts...
Das Kind "Umwelt" ist schon vor vielen Jahren in den Brunnen gefallen!
Für 400 Euro habe ich vergessen zu erwähnen. Wobei die RX6800@Stock mit ihren 250 Watt weit von 150 Watt entfernt ist. Mit UV geht das vielleicht, aber dann bin ich bei meiner GTX 1070 nur noch bei ca. 100 Watt. Da hinkt der Vergleich dann schon wieder.
Nein du vergleichst ja selben Verbrauch und schaust dann ob doppelt Leistung da ist. Über 200 verbauche ich nur wenn ich sie volle Pulle laufen lasse. Control mit raytracing, ...
Der Preis ist natürlich ein anderes Problem. Abzüglich meiner alten vega, habe ich auch 'nur' 400 bezahlt.
Also schon die 450W halte ich für vollkommen inakzeptabel, aber 650-850W(!!!) sind kompletter Irrsinn. Was zu Hölle geht hier ab?
Ich kann auch diverse Kommentatoren hier nicht verstehen, die dieses Vorgehen hier auch noch in Schutz nehmen und meinen, man würde ja auch Mehrleistung dafür bekommen. Ihr habt doch den Schuss nicht gehört. Einfach stumpf die Leistungsaufnahme zu steigern kann nicht der Anspruch der Entwicklungsabteilungen von Chipherstellern sein. Und es kann nicht euer Anspruch an diese sein, solche Produkte kritiklos zu akzeptieren.
Also schon die 450W halte ich für vollkommen inakzeptabel, aber 650-850W(!!!) sind kompletter Irrsinn. Was zu Hölle geht hier ab?
Ich kann auch diverse Kommentatoren hier nicht verstehen, die dieses Vorgehen hier auch noch in Schutz nehmen und meinen, man würde ja auch Mehrleistung dafür bekommen. Ihr habt doch den Schuss nicht gehört. Einfach stumpf die Leistungsaufnahme zu steigern kann nicht der Anspruch der Entwicklungsabteilungen von Chipherstellern sein. Und es kann nicht euer Anspruch an diese sein, solche Produkte kritiklos zu akzeptieren.
Es hat doch keiner gesagt das du eine RTX4000 kaufen musst wer High End will muss mit High End verbrauch leben war immer so und wird immer so Bleiben
In Meinem fall will ich in UWQHD in ultra mit MAX RT im 3 stelligen FPS Bereich spielen also muss ich mit dem Verbrauch leben und nehme das gerne in kauf
Irgendwann ist die Physische Grenze erreicht und dann geht es mit Verbrauch steil bergauf, wenn man mehr Leistung will.
Aber soweit sind wir doch noch nicht, oder?^^
Der Hauptzielgruppe von nvidia (Miner) ist der Verbrauch doch eh egal 🤷♂️
1. Besteht der Chip nicht bloß aus Cuda-Cores.
2. Müssen sich die 50% auch erstmal bewahrheiten. Sind von allen beteiligten auch nur spekuliert.
3. Gelten die 50% - wenn es denn 50% sind - für den Sweetspot. Wie hoch ist die Wahrscheinlichkeit, dass eine Top-Grafikkarte taktmäßig im Sweetspot gefahren wird?
Aber wenn das RDNA3 dann bei der 7900 zieht sind das bis zu 400watt weniger was die 4080/4090 brauchen. Ist zwar nicht viel aber lächerlich im Vergleich zu Nvidia. Ich hoffe das es so nicht kommen wird.
Und ehrlich gesagt kann ich mir weder 850 noch 650 Watt vorstellen.
Dumm nur für die die sich zum 3080 Release ein 1kw Netzteil gekauft haben weil das ist jetzt zu klein für die nächsten Generation Nvidia Karten
Ein Highend-PC heute verbraucht beim Spielen vielleicht 550 Watt im Durchschnitt, einer mit einer 850W-Grafikkarte vielleicht 800 Watt. Das sind 250 Watt mehr, und wenn man alleine an Wochenenden 4 Stunden spielt ist schon das nicht nichts...
Ich habe keine Zahlen dazu parat, aber ich würde annehmen, dass der typische Durchschnittsverbrauch eines Gaming-PCs und der Grafikkarte darin, noch deutlicher unterhalb des Maximalwerts liegt.
Nicht jedes Spiel hält die GPU die ganze Zeit am Anschlag.
Ich spiele z.B. auch öfter Sachen wie World of Warships (das standardmäßig auf 75FPS gedrosselt ist) oder Hearts of Iron 4, Civ 5+6 usw. Dabei kommt schon meine "alte" RTX2080 nicht wirklich ins Schwitzen bzw. langweilt sich nur und bleibt deutlich unter ihrem theoretischen Maximalverbrauch.
Die meisten Cores der 9900K-CPU drehen auch meist nur Däumchen, selbst bei neueren und anspruchsvolleren Spiele. Entsprechend niedrig ist der typische Verbrauch.
Aber wie gesagt, man muss die Stromversorgung und Kühlung des Gaming-PCs trotzdem auf das theoretische Maximum (+ etwas Sicherheit) auslegen, damit der stabil funktioniert.