Kann dir keiner sagen, weil das Teil noch nicht draußen ist.Leon_FR schrieb:schaff das ding ne 4080ti ?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen
- Ersteller SVΞN
- Erstellt am
- Zur News: Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen
Ich weiß noch als ich vom Phenom II auf den Xeon umgestiegen bin und begeistert war, dass gleich einige Watt weniger gezogen wurden. Mittlerweile geht der Verbrauch ja stetig hoch. Bei CPU und GPU. Bisher stand nvidia bei mir immer für Effizienz (und Knickrigkeit beim VRAM). Hoffentlich sind die Karten im Mittelfeld dann wirklich nicht so stromhungrig.
Wenn man bedenkt, dass ein Staubsauger nicht mehr als 900 Watt verbrauchen darf und der ja vielleicht nur maximal eine Stunde die Woche an ist.
Wenn man bedenkt, dass ein Staubsauger nicht mehr als 900 Watt verbrauchen darf und der ja vielleicht nur maximal eine Stunde die Woche an ist.
Hejo
Commander
- Registriert
- Jan. 2012
- Beiträge
- 2.131
Schaut so aus als werde ich die diesjährige Generation überspringen, aber was alle Komponenten angeht...
Nicht weil ich irgendwann von sinkenden Preisen ausgehe sondern vlt. verschieben sich meine Prioritäten einfach woanders hin. Urlaub in der Post-Corona-Zeit wäre ja auch mal wieder was tolles .
Nicht weil ich irgendwann von sinkenden Preisen ausgehe sondern vlt. verschieben sich meine Prioritäten einfach woanders hin. Urlaub in der Post-Corona-Zeit wäre ja auch mal wieder was tolles .
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.852
Ich glaube bei Grafikkarten Themen sollte hier im Artikel einfach nichts mehr zum Thema Leistungsaufnahme gesagt werden. Endet ansonsten immer darin, dass sich mindestens 2/3 aller Kommentare darauf bezieht.
Topic:
Wird bei AMD und Nvidia eine spannende Generation. Beide dürften den größten Leistungssprung zwischen zwei Generationen seit sehr vielen Jahren machen.
Ich muss mal gucken, ob es eine Rote oder Grüne wird oder ob ich dieses Jahr einfach aussetze und eine Generation überspringe. Hängt am Ende von der wirklichen Mehrleistung ab. Gibt auch zu viele andere Dinge, in die man gut Geld investieren kann. Von daher mal abwarten und überraschen lassen.
Topic:
Wird bei AMD und Nvidia eine spannende Generation. Beide dürften den größten Leistungssprung zwischen zwei Generationen seit sehr vielen Jahren machen.
Ich muss mal gucken, ob es eine Rote oder Grüne wird oder ob ich dieses Jahr einfach aussetze und eine Generation überspringe. Hängt am Ende von der wirklichen Mehrleistung ab. Gibt auch zu viele andere Dinge, in die man gut Geld investieren kann. Von daher mal abwarten und überraschen lassen.
Kann mir die 600 Watt aufwärts auch nicht so richtig vorstellen, von 800 und mehr ganz zu schweigen. Grundsätzlich stört mich ein hoher Stromverbrauch nicht, die daraus resultierenden folgen wie preis, Abwärme und die damit verbundene Lautstärke hingegen schon. Wenn selbst die 4060 300 Watt und mehr zieht überspringe ich ebenfalls, und suche ne gebrauchte 3000er.
Viper816
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 543
Draco Nobilis schrieb:Leider muss man sagen, das die Zeichen für eine breite Verfügbarkeit außerhalb des Mining Sektors sehr schlecht stehen. Jedenfalls sehe ich keine positiven.
Irgendwie werde auch ich das Gefühl nicht los, dass nach der "Ampere"-Erfahrung nun Ada aka Lovelace vor allem mit dem Fokus Mining entwickelt wurde. Aber ist natürlich nur ein Gefühl und natürlich die jahrelange Erfahrung mit nvidia.
Schliesslich wird Ampere laut nvidia Buchhaltung ja vor allem an Gamer verkauft, was aber schon vielfach wiederlegt worden ist.
PS: Vieleicht solltet ihr noch erwähnen, dass die Info aus dem nvidia-Hack stammt
Zuletzt bearbeitet:
(PS)
ThirdLife
Commander
- Registriert
- Aug. 2019
- Beiträge
- 2.981
Geschichten aus dem Paulanergarten ?Topflappen schrieb:Model Brechstange wird das vermutlich nicht werden, aber brachial ist die kolportierte Leitung allemal.
Mit 600W kann ich mein ganzes Haus locker warm halten, über 150m² auf kuschelige 23°C.
Ich kann mit meiner 3080 Ti und 450W + 150W CPU nichtmal mein 60qm Wohnzimmer heizen.
Anderes Universum ? Die Physik scheint bei dir zumindest komplett anders zu funktionieren.
Jo klar. Und holst dir eine dann gleich schnelle 3080 die 320W+ braucht ? Klingt logisch.CiX schrieb:Wenn selbst die 4060 300 Watt und mehr zieht überspringe ich ebenfalls, und suche ne gebrauchte 3000er.
Wo haben alle immer nur ihre Zahlen her ? Da ist die Rede von Server-Arch und 850W und alle mutmassen dass eine 4050 auch gleich drölfzig Watt zieht. Eieiei.
2020 erst von 520W auf 750W für 200 Taler gewechselt, da die 2080Ti in Leistungsspitzen das erste mal ein Seasonic von mir überlastet hat. Das obwohl ich nie mehr als 440W am Messgerät gesehen habe! Nun ja … 750W wird für die nächsten 5-6 Jahre hier definitiv bleiben und höher gehe ich auch 100% nicht. Ist doch bekloppt. Bei dem Verbrauch kann ich nicht mehr in Ruhe meinen Spaß am PC haben, da es einfach zu heiß werden würde! Ich habe schon bei der 3080 vor der Veröffentlichung zu mir gesagt: die Mehrleistung von 2080 -> 3080 erkauft sich nVidia nur mit Mehrleistung bei der Stromaufnahme und so war bzw ist es ja auch. Die Zeiten wo die Verkleinerung der Strukturbreite eine Leistungssteigerung darstellt scheinen vollends vorbei?!
der Unzensierte
Vice Admiral
- Registriert
- Juni 2009
- Beiträge
- 7.009
Ich kann mir nicht vorstellen das diese Angaben zum Verbrauch die Dauerleistung der Consumer-GPU darstellen. Das wäre schon sehr extrem und pornös. Was ich mir vorstellen kann ist das Nvidia an die PSU-Hersteller ran getreten ist und denen im Zusammenhang mit dem neuen PCI-Stecker mal heimgeleuchtet hat mit welchen Lastspitzen man da zu rechnen hat. Das könnte geleakt worden sein und jetzt die Runde machen. Aber schauen wir mal. Nur weil ich es mir nicht vorstellen kann heißt das ja nicht das es ausgeschlossen ist. Ich (und sicher viele andere) konnte mir bis vor wenigen Tagen so einiges nicht vorstellen.
Matthias B. V.
Lieutenant
- Registriert
- März 2021
- Beiträge
- 847
Denke die xx90er lohnen sich eh nie. Dann lieber die xx70er für die Hälfte kaufen und nach zwei Generationen nochmal für den Rest ne neue xx70er aufrüsten die dann schneller und moderner ist.MeisterOek schrieb:Das erste Mal, dass eine Grafikkarte nach meinem Netzteil auswählen würde. Habe erst vor einem Jahr ein 850Watt Netzteil für die 3000er Serie gekauft (ganz schön optimistisch, da nicht bekommen für UVP) und möchte nicht wieder ein neues kaufen. Also ist die 4090 dann wohl schon ausgeschlossen.
Hoffe nur dass Nvidia in Zukunft beim Speicher nicht so geizig ist. 12-16Gb für ne xx70er sollten schon drin sein. Die xx80er dann mit 16Gb sowie die xx60er mit 8-12Gb und alles ist gut.
Glaube aber eh nicht dass die 850W Wirklichkeit werden. 450-500W TDP denke ich sollte für normale Karten das Maximum sein - Mehr bekommt ja keiner oder WaKü oder noch extremere Maßnahmen gekühlt. Und die Heizung kannst Dir auch sparen...
MicHannes
Banned
- Registriert
- Mai 2020
- Beiträge
- 36
Ich bin aus Gründen des Umweltschutzes nicht für derart hohe Wattzahlen beim Verbrauch von Grafikkarten. Im Gegenteil, mein nächster Laptop (Thinkpad T16) wird wohl ein AMD Ryzen 6850U mit max. 28 Watt TDP und iGPU sein (Radeon 680M). Der kann alles was ich will und läßt sich mit LPDDR5 6?00 bestücken, was ebenfalls stromsparend ist. Ich will den Computer auch notfalls mit einer eigenen, noch zu bauenden Solarstromanlage betreiben können, und der scheint mir dafür optimal geeignet zu sein. Externe Grafikkarten mit 600 und mehr Watt sind m.E. nicht zukunftsgerichtet.
ThirdLife
Commander
- Registriert
- Aug. 2019
- Beiträge
- 2.981
Und auch das stimmt (leider?) nicht. Die 3080 ist mit ein bisschen optimieren sowohl schneller als auch sparsamer als die 2080 Ti. Dass nVidia hier mit der Brechstange noch ein paar Prozent zusätzlich holt ist unerheblich.Silencium schrieb:Ich habe schon bei der 3080 vor der Veröffentlichung zu mir gesagt: die Mehrleistung von 2080 -> 3080 erkauft sich nVidia nur mit Mehrleistung bei der Stromaufnahme und so war bzw ist es ja auch. Die Zeiten wo die Verkleinerung der Strukturbreite eine Leistungssteigerung darstellt scheinen vollends vorbei?!
Auch ist ja bekannt dass Samsungs 8nm Node nicht besonders prickelnd läuft. Gut zu sehen anhand der 6916 Shader A100er Karte, die ist nochmal knapp 32% fetter als ne 3090, hat 40GB HBM2 Speicher und zieht bei 1410 Mhz Takt nur 250W - basiert eben auf TSMC 7.
Jetzt lass mal TSMC 5 ran und du siehst wie sich das alles schnell relativiert. Die Zeiten von Leistungssteigerung sind noch lange nicht vorbei, aber man kann eben nicht erwarten bei jedem Node-Step 50% mehr Leistung und 50% mehr Effizienz zu kriegen. Irgendwo muss man einen Tradeoff machen ob man will oder nicht.
Cohen
Commodore
- Registriert
- Aug. 2010
- Beiträge
- 4.545
Wenn dir die Konsolensettings ausreichen, brauchst du kein Highend-Modell mit 600W Leistungsaufnahme.kingkohn schrieb:600W Leistungsaufnahme? Benutzen die kein kleineres Fertigungsverfahren?
Das ist mir echt zu blöd. Die Konsolen werden wieder viel interessanter...
Da wird vermutlich eine RTX 4050 oder 4050 Ti vollkommen ausreichen.
MeisterOek
Commander
- Registriert
- Nov. 2014
- Beiträge
- 2.991
Matthias B. V. schrieb:Denke die xx90er lohnen sich eh nie. Dann lieber die xx70er für die Hälfte kaufen und nach zwei Generationen nochmal für den Rest ne neue xx70er aufrüsten die dann schneller und moderner ist.
Ich kauf alle 2-3 Generationen die 80er und das hat bisher auch immer sehr gut funktioniert. Nach meiner 1080 war eigentlich die 3080 dran.....aber ja, ich denke nicht, dass die 4080 non-Ti so viel verbrauchen wird.
Ähnliche Themen
- Antworten
- 166
- Aufrufe
- 25.527
- Antworten
- 27
- Aufrufe
- 4.999