Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGPU-Gerüchte: Details zur AD102-Referenz-Platine für RTX 4090/4080
Da muss ich dich leider entäuschen junger Padawan. Die Rechung geht nicht auf. Siehe Vergangenheit. Außer du spielst in Full HD und drehst nicht alle Regler auf.
Wieder gilt, ohne die Leistung zu kennen, ergibt das Aufregen über eine TBP keinen Sinn. Wenn die Perf/W durch die neue Architektur und Fertigung steigt, dann wird es sicherlich auch Modelle geben, die im Bereich von 100-150W TBP die nötige Mehrleistung bringen. Bleibt dann nur zu hoffen, dass viel VRAM nicht enthusiasten exklusiv bleibt.
Wer diese karten braucht besitzt meist ein 4k Monitor mit 120+hz. Also Monitor und Grafikkarte kosten dann schon über 3k €.
Die 50 oder 100€ mehr stromkosten im jahr wird die Leute dann nicht mehr anheben.
Ich denke aber auch das 4k 120hz mit gsync auch den hardcore gamern reicht und nicht den max Verbrauch auslasten wird.
Bei guter Hardware geht es ja eher darum nicht unter einem bestimmten fps zu kommen damit es flüssig ist.. Niemand braucht 200fps bei 4k..
ich frage mich, wie die Karten bei theoretischen 450-600W überhaupt noch anständig geküht werden können. Mit Luft kommt man doch auch jetzt schon ans Limit. es müssten dafür wohl auch neue Kühllösungen entwickelt oder serienmäßige Flüssigkühlungen verwendet werden. Größe und Gewicht der Karten dürften dann auch nochmal zulegen. Und im früheren Highend-Bereich von 250W gibt dann wohl bald nur noch die Einsteigerlösungen XX50 oder XX60 (Ti). Mir persönlich gefällt die Entwicklung im PC-Bereich hin zu immer höherer Stromaufnahme nicht so, da die Menschheit aber nach immer mehr Leistung giert, wird sich aber wohl daran nichts mehr ändern...
Interessant das sich fast alle am reinen Verbrauch aufhängen und die mögliche/wahrscheinliche Leistung gar nicht entgegen stellen. Eine Karte könnten auch 1000W benötigen, sofern sie dann 3x schneller als eine 3090 ist, ist sie deutlich effizienter. Und am Ende zählt nur die Effizienz also der Verbrauch im Verhältniss zur Leistung und nicht der Verbrauch alleine.
Wer diese karten braucht besitzt meist ein 4k Monitor mit 120+hz. Also Monitor und Grafikkarte kosten dann schon über 3k €.
Die 50 oder 100€ mehr stromkosten im jahr wird die Leute dann nicht mehr anheben.
Ich denke aber auch das 4k 120hz mit gsync auch den hardcore gamern reicht und nicht den max Verbrauch auslasten wird.
Bei guter Hardware geht es ja eher darum nicht unter einem bestimmten fps zu kommen damit es flüssig ist.. Niemand braucht 200fps bei 4k..
Immer diese Vorurteile! Es gibt Personen, die wollen ALLES aus dem Rechner holen und doch auf die Umwelt achten, es geht nicht immer nur ums Geld.
Ich befürwortet dieses 100% mehr Verbrauch für 10% Mehrleistung auch nicht und ich hoffe, dass die Hersteller und die Regierung irgendwann eine Einsicht haben und es es einbremsen.
Denn es geht, effizient zu sein UND doch Performance abzuliefern!
@DiePalme so läuft das nicht! Das sind Wünsche und Träume! Es wird eher 2facher Stromverbrauch für 1.5fache Leistung sein und dann wird das Verhältnis nur schlechter.
Ich mein, bei den stetig steigenden Strompreisen, wer freut sich da nicht, dass die Karten bald 2-3x so viel Strom verbrauchen wie vor 5-6 Jahren? Tolle Entwicklung und gerne zu begrüßen. Weiter so 👏
Ich habe dieses Jahr den Stromverbrauch meines Rechners gemessen und ein paar Einstellungen vorgenommen um ihn etwas zu senken. Da passt mit der neuen Entwicklung etwas nicht zusammen.
Davon abgesehen, werden die Karten nicht leise sein und der Kühler wird große Abmaße haben müssen. Macht es soviel Sinn in einem Gehäuse viele 100 Watt zu blasen und diese warme Luft wieder mit Gehäuselüfter nach Außen zu bringen?
Es geht in meinen Augen nicht nur um den hohen Stromverbrauch, sondern es solle auch die Wärme effizient in die Umgebungsluft abgegeben werden. Wenn man schon viel Energie benötigt, dann muss nicht noch zusätzlich diese sinnlos vergeudet werden.
Das mach doch alles kein Sinn bei den CO2 Werten für die Zukunft.
Vor vielen Jahren hatte ich Mal eine Grafikkarte, bei der man ein externes Netzteil über die Slotblende mit anschließen musste.
Scheint ja schon wieder in die gleiche Richtung zu gehen...
Ich hatte bei der 30er Generation nur eine 3080, da wird es bei der 40er sicher keine 4090ti werden bei den Verbräuchen - immer vorausgesetzt das Upgrade gegenüber der aktuellen 6900xt lohnt sich irgendwie...
Jetzt werde ich zum Aluhutträger aber NVidia scheint an Gaming gar nicht interessiert? Als Feigenblatt werden noch Grafikanschlüsse verbaut aber gab es wirklich so viele die mal locker 600 W plus das was über PCIE Slot kommt wegheizen wollen für ein paar FPS?
Im Sommer braucht man bei 600W+ eigentlich ne Klimaanlage, sonst kann man das nicht betreiben. Man muss auch beachten, dass so eine massive Abwärme sehr effektiv aus dem Gehäuse transportiert werden muss, ansonsten brechen andere Komponenten vermutlich ein (z.B. SSDs/CPU).
Das Interesse von nvidia am Gaming-Markt muss man abwarten, wenn die Karten ne fette Hashrate liefern, dann kannst du davon ausgehen, dass es nur noch Fassade ist. Und ihre Prognose machen auch deutlich klar, dass es nicht mehr ihr "Hauptgeschäft" sein soll.
Ich warte den Release der Karten mal ganz entspannt ab und kaufe die Karte, die bei 300-350 Watt die beste Performance liefert, durch den Wechsel von Samsung 8nm auf TSMC 5nm erwarte ich einen ordentlichen Performance per Watt Sprung.
Fakt ist jedenfalls, dass die Karten von Generation zu Generation bei gleicher Leistungsaufnahme stets effizienter geworden sind und weniger erwarte ich von RTX 4000/RDNA3 auch nicht.