News GPU-Gerüchte: Details zur AD102-Referenz-Platine für RTX 4090/4080

Zer0Strat schrieb:
Nein, es gibt so was wie eine absolute Grenze des sinnvoll Machbaren.
Sag bloß, natürlich war 1kW übertrieben, der neue ATX Standard begrenzt die Leistungsaufnahme ja auch irgendwann.
 
  • Gefällt mir
Reaktionen: Zockmock
Zer0Strat schrieb:
Nein, es gibt so was wie eine absolute Grenze des sinnvoll Machbaren.
Meinst du, WER den Längeren hat? 🤗

Ich finde diese immer mehr Strom um noch was rauszuhauen auch nicht gut, gefällt mit gar nicht.
 
  • Gefällt mir
Reaktionen: CableGuy82 und MurpH1986
Leon_FR schrieb:
Da muss ich dich leider entäuschen junger Padawan. Die Rechung geht nicht auf. Siehe Vergangenheit. Außer du spielst in Full HD und drehst nicht alle Regler auf.
Momentan wächst die Leistung beim Gros der Spieler Kunden nicht, als das man Angst haben müsse, dass eine starke Grafikkarte von heute schnell altert.
 
Wieder gilt, ohne die Leistung zu kennen, ergibt das Aufregen über eine TBP keinen Sinn. Wenn die Perf/W durch die neue Architektur und Fertigung steigt, dann wird es sicherlich auch Modelle geben, die im Bereich von 100-150W TBP die nötige Mehrleistung bringen. Bleibt dann nur zu hoffen, dass viel VRAM nicht enthusiasten exklusiv bleibt.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Wie oft habe ich gehört von diversen Reviewern: "Uns ist das Netzteil verreckt beim Testen einer übertakteten RTX 3090..."

Das wird bestimmt besser mit Lovelace. :freaky:
 
  • Gefällt mir
Reaktionen: CableGuy82, konkretor, Denniss und 4 andere
Wer diese karten braucht besitzt meist ein 4k Monitor mit 120+hz. Also Monitor und Grafikkarte kosten dann schon über 3k €.
Die 50 oder 100€ mehr stromkosten im jahr wird die Leute dann nicht mehr anheben.
Ich denke aber auch das 4k 120hz mit gsync auch den hardcore gamern reicht und nicht den max Verbrauch auslasten wird.
Bei guter Hardware geht es ja eher darum nicht unter einem bestimmten fps zu kommen damit es flüssig ist.. Niemand braucht 200fps bei 4k..
 
  • Gefällt mir
Reaktionen: Lübke82 und Newbie_9000
ich frage mich, wie die Karten bei theoretischen 450-600W überhaupt noch anständig geküht werden können. Mit Luft kommt man doch auch jetzt schon ans Limit. es müssten dafür wohl auch neue Kühllösungen entwickelt oder serienmäßige Flüssigkühlungen verwendet werden. Größe und Gewicht der Karten dürften dann auch nochmal zulegen. Und im früheren Highend-Bereich von 250W gibt dann wohl bald nur noch die Einsteigerlösungen XX50 oder XX60 (Ti). Mir persönlich gefällt die Entwicklung im PC-Bereich hin zu immer höherer Stromaufnahme nicht so, da die Menschheit aber nach immer mehr Leistung giert, wird sich aber wohl daran nichts mehr ändern...
 
  • Gefällt mir
Reaktionen: CableGuy82, Öcher Tivoli, edenjung und 3 andere
Y2KCertified! schrieb:
Das heutige Kerngeschäft mit Videospielen soll dagegen nur 100 Milliarden Dollar umfassen. Der Fokus für Nvidia ist damit klar."

Quelle: https://www.deraktionaer.de/artikel...in-blick-auf-die-grosse-zukunft-20247629.html
Kein Wunder ! Das richtet sich nVidia mit ihren Aktionen (Miner First, Preis, Verbrauch) selbst so hin ... :grr:

MfG Föhn.
Ergänzung ()

Drullo321 schrieb:
einen normalen Gaming-PC in einem 28km² Raum :lol:
Coole Zocking Arena :utripper:

MfG Föhn.
 
  • Gefällt mir
Reaktionen: CableGuy82, derSafran, Piep00 und eine weitere Person
Siddig Obakro schrieb:
Stromverbrauch, exorbitant hohe Preise (die Preise von vor 5-6 Jahren kann man sich nur noch ertäumen)

1080 Ti (FE!) UVP 819€ 2017 - was soll dieses Geheule das nicht mal auf Fakten beruht?
 
  • Gefällt mir
Reaktionen: Bulletchief, Newbie_9000 und hanjef
Scr1p schrieb:
Ohja bitte nur 12GB für die 4080, genau mein Humor.
Werden wohl 20 GB (320 bit).
Oder aber mindestens 16 GB (256 bit).
Aber 12 GB wären NV auch ohne Anstrengung zuzutrauen ... :D

MfG Föhn.
 

Anhänge

  • GPU Speicher.jpg
    GPU Speicher.jpg
    605,4 KB · Aufrufe: 259
  • Gefällt mir
Reaktionen: CableGuy82, derSafran, Denniss und eine weitere Person
Onkel Föhn schrieb:
Werden wohl 20 GB (320 bit).
Oder aber mindestens 16 GB (256 bit).
Aber 12 GB wären NV auch ohne Anstrengung zuzutrauen ... :D

MfG Föhn.

4070 mit 12 wär ein Traum. Am besten mit 3080ti leistung. Da würd ich meine 2070s auswechseln mit. Das sollte auch des alte Netzteil schaffen
 
  • Gefällt mir
Reaktionen: Vitec, lubi7 und Onkel Föhn
hahaqp schrieb:
1080 Ti (FE!) UVP 819€ 2017 - was soll dieses Geheule das nicht mal auf Fakten beruht?

Ähm - und was kostet eine 3080Ti heute? Also Straßenpreis, ich denke darauf bezieht sich sein Post?
Keine Ahnung was Du unter "Fakten" verstehst.
 
  • Gefällt mir
Reaktionen: CableGuy82
Ich bin mal ganz sarkastisch und sage, ich finde den hohen Verbrauch super. Um so unattraktiver werden die Karten für Mining.

Bei Gamern läuft der Rechner ja nicht bei Volllast 24/7
 
  • Gefällt mir
Reaktionen: amico81, Newbie_9000 und cookie_dent
Interessant das sich fast alle am reinen Verbrauch aufhängen und die mögliche/wahrscheinliche Leistung gar nicht entgegen stellen. Eine Karte könnten auch 1000W benötigen, sofern sie dann 3x schneller als eine 3090 ist, ist sie deutlich effizienter. Und am Ende zählt nur die Effizienz also der Verbrauch im Verhältniss zur Leistung und nicht der Verbrauch alleine.
 
  • Gefällt mir
Reaktionen: Newbie_9000
MiniM3 schrieb:
Wer diese karten braucht besitzt meist ein 4k Monitor mit 120+hz. Also Monitor und Grafikkarte kosten dann schon über 3k €.
Die 50 oder 100€ mehr stromkosten im jahr wird die Leute dann nicht mehr anheben.
Ich denke aber auch das 4k 120hz mit gsync auch den hardcore gamern reicht und nicht den max Verbrauch auslasten wird.
Bei guter Hardware geht es ja eher darum nicht unter einem bestimmten fps zu kommen damit es flüssig ist.. Niemand braucht 200fps bei 4k..
Immer diese Vorurteile! Es gibt Personen, die wollen ALLES aus dem Rechner holen und doch auf die Umwelt achten, es geht nicht immer nur ums Geld.

Ich befürwortet dieses 100% mehr Verbrauch für 10% Mehrleistung auch nicht und ich hoffe, dass die Hersteller und die Regierung irgendwann eine Einsicht haben und es es einbremsen.
Denn es geht, effizient zu sein UND doch Performance abzuliefern!

@DiePalme so läuft das nicht! Das sind Wünsche und Träume! Es wird eher 2facher Stromverbrauch für 1.5fache Leistung sein und dann wird das Verhältnis nur schlechter.
 
  • Gefällt mir
Reaktionen: CableGuy82
warte jetzt noch bis zum release der neuen. sollten die aber wirklich soviel strom verbrauchen, bin ich raus. die spinnen die öme!
 
  • Gefällt mir
Reaktionen: CableGuy82
^Dodo.bW schrieb:
Ich mein, bei den stetig steigenden Strompreisen, wer freut sich da nicht, dass die Karten bald 2-3x so viel Strom verbrauchen wie vor 5-6 Jahren? Tolle Entwicklung und gerne zu begrüßen. Weiter so 👏

Ich habe dieses Jahr den Stromverbrauch meines Rechners gemessen und ein paar Einstellungen vorgenommen um ihn etwas zu senken. Da passt mit der neuen Entwicklung etwas nicht zusammen.

Davon abgesehen, werden die Karten nicht leise sein und der Kühler wird große Abmaße haben müssen. Macht es soviel Sinn in einem Gehäuse viele 100 Watt zu blasen und diese warme Luft wieder mit Gehäuselüfter nach Außen zu bringen?

Es geht in meinen Augen nicht nur um den hohen Stromverbrauch, sondern es solle auch die Wärme effizient in die Umgebungsluft abgegeben werden. Wenn man schon viel Energie benötigt, dann muss nicht noch zusätzlich diese sinnlos vergeudet werden.

Das mach doch alles kein Sinn bei den CO2 Werten für die Zukunft.
 
  • Gefällt mir
Reaktionen: derSafran, CableGuy82 und konkretor
Vor vielen Jahren hatte ich Mal eine Grafikkarte, bei der man ein externes Netzteil über die Slotblende mit anschließen musste.
Scheint ja schon wieder in die gleiche Richtung zu gehen...


Ich hatte bei der 30er Generation nur eine 3080, da wird es bei der 40er sicher keine 4090ti werden bei den Verbräuchen - immer vorausgesetzt das Upgrade gegenüber der aktuellen 6900xt lohnt sich irgendwie...
 
Wattwanderer schrieb:
Jetzt werde ich zum Aluhutträger aber NVidia scheint an Gaming gar nicht interessiert? Als Feigenblatt werden noch Grafikanschlüsse verbaut aber gab es wirklich so viele die mal locker 600 W plus das was über PCIE Slot kommt wegheizen wollen für ein paar FPS?

Im Sommer braucht man bei 600W+ eigentlich ne Klimaanlage, sonst kann man das nicht betreiben. Man muss auch beachten, dass so eine massive Abwärme sehr effektiv aus dem Gehäuse transportiert werden muss, ansonsten brechen andere Komponenten vermutlich ein (z.B. SSDs/CPU).

Das Interesse von nvidia am Gaming-Markt muss man abwarten, wenn die Karten ne fette Hashrate liefern, dann kannst du davon ausgehen, dass es nur noch Fassade ist. Und ihre Prognose machen auch deutlich klar, dass es nicht mehr ihr "Hauptgeschäft" sein soll.

Ich warte den Release der Karten mal ganz entspannt ab und kaufe die Karte, die bei 300-350 Watt die beste Performance liefert, durch den Wechsel von Samsung 8nm auf TSMC 5nm erwarte ich einen ordentlichen Performance per Watt Sprung.

Fakt ist jedenfalls, dass die Karten von Generation zu Generation bei gleicher Leistungsaufnahme stets effizienter geworden sind und weniger erwarte ich von RTX 4000/RDNA3 auch nicht.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Newbie_9000
Was bin ich Froh auf Custom Wakü umgestiegen zu sein mit meiner 3090 :)

also ich freue mich sehr auf die 4090 und 600 watt :)
 
Zurück
Oben