News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?

UNDERESTIMATED schrieb:
Wenn du für 3000€ fragen musst läuft was verkehrt bei dir :D

Frag lieber nach 25000, kauf von 20 ein neues Dach mit Solarkollektoren nebst Zusatz zur Versorgung und von den restlichen 5 einen Urlaub+die GPU.
Es soll ja Menschen geben, die aus verschiedenen Gründen (selbst verschuldet oder nicht), gerade so über die Runden kommen. Eine etwas weniger arrogante Haltung wäre zu begrüssen.
 
  • Gefällt mir
Reaktionen: Andre Prime, Zarlak, PegasusHunter und 4 andere
v_ossi schrieb:
Das liegt meinem Empfinden nach einzig und allein daran, dass seit ~5 Jahren viele Enthusiasten durch die sich immer weiter drehende Preisspirale aus ihrem Hobby gedrängt wurden.
Mag schwer vorstellbar sein, aber wer bis zur Nvidia 1000er Reihe immer High end kaufen konnte, ist jetzt raus. Wird einigen sauer aufstoßen.

Sehe ich nicht so wirklich. Auch früher gab es schon Grafikkarten und CPUs für 1000 Mark, zum anderen waren GTX 480, 680, 980Ti und alles was es sonst noch gab zwar zu Ihrer Zeit die höchste Ausbaustufe, nur stopften sich die High End Kunden da dann auch zwei, drei oder auch vier GPUs in den Rechner.

Das ist zudem nicht wirklich etwas PC Hardware spezifisches. Das ist bei Autos etc. ja auch nicht anders. Früher hattest du ein breites Angebot an großen Motoren, wenn du heute mehr als 4 Zylinder möchtest, wird es schon spürbar teurer.
v_ossi schrieb:
Liegt vlt. mit dem allgemein gesteigerten Umweltbewusstsein zusammen. (Unnötig) Energie zu verschwenden ist eben nicht mehr wirklich zeitgemäß.

Da kann man jetzt mit individueller Freiheit oder anderen Hobbys kommen, ändert aber nichts daran, dass ne potentielle 4090 (sehr wahrscheinlich) unverhältnismäßig viel Energie raus bläst.

Ich kritisiere nicht das Umweltbewusstsein der Menschen, sondern welchen Stellenwert das ganze mittlerweile hier annimmt und das fast jedes Thema damit erstickt wird und Diskussionen und Berichterstattung abseits dessen nur noch schwierig möglich ist. Das ist ein Thema was sehr viele Bereiche betrifft und auch wieder nicht Spezifisch für den Themenbereich PC ist. In fast allen anderen Foren und Interessensgruppen wird das auch Thematisiert und in Unterforen heiß diskutiert, es steht aber nicht über den eigentlichen Themen, als wenn wir uns hier in einem Forum für Finanzen und Umweltbewusstes Leben unterwegs sind. Davon ab habe ich das starke Gefühl, dass das Thema hier immer sehr heiß diskutiert wird, obwohl es Gesamtenergetisch keinen großen Anteil am Leben der Menschen ausmacht. Da wird mit den E-Auto Kilowattstunde um Kilowattstunde durchgejagt, die alte Energieschleuder von Kühlschrank tut es ja auch noch und im Winter muss auch mit T-Shirt zu hause gesessen werden, Regelmäßig gibt es billig Fleisch aus dem Discounter, aber wenn eine Grafikkarte ein paar Watt mehr verbraucht, ist es vorbei. Ich habe es bewusst so pauschalisiert dargestellt und nein es trifft nicht auf alle zu, würde mich aber sehr stark wundern, wenn alle Menschen dir hier so meckern im restlichen Leben so bewusst mit Energie umgehen. Wäre dem so, sollte CB tatsächlich als Ökoforum neu firmieren, denn dann haben sie die richtige Zielgruppe schon am Start, oder es gäbe die aktuelle Klima und Energiedebatte nicht mehr.... Oder, und das ist meine Theorie, man bekommt hier einfache plakative Beispiele geliefert, über die man sich wenig Gedanken machen muss, also springt man auf den aktuellen Geist der Zeit auf um sein Gewissen zumindest unterbewusst zu beruigen, ohne wirklich Initiativen ergreifen zu müssen die einen nennenswerten Effekt haben.


Generell kann jeder seine Meinung dazu haben und dazu vertreten, ich frage mich bei dem Umfang nur, warum man das ausgerechnet bei diesem Thema in diesem Forum alles ablädt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gesualdo, Laphonso und ThirdLife
Mal ehrlich, der Verbrauch ist doch Latte.
Wer eine HighEnd GPU der nächsten Generation nutzen möchte braucht halt auch ein entsprechend dimensioniertes Netzteil, die paar Euro sollten dann auch noch drin sein wenn man eh 4stellig in die GPU investiert. Bei 99,9% der Nutzer läuft der Kasten auch nicht 24/7, daher ist es doch egal was da gezogen wird.
Ich habe jetzt seit diversen Jahren ein AX860i im System und ein AX1200i ungenutzt rumliegen, wird mehr gebraucht landet das bei Ebay und ein neues wird gekauft, so schwer ist das doch nicht.
 
  • Gefällt mir
Reaktionen: Laphonso
ThirdLife schrieb:
Oder die 4070 mit einem UV betreiben. Aber ich glaube da verlangt man von den ganzen angeblichen "Enthusiasten" einfach zuviel Denkarbeit. :D
Dann könnte man aber durchaus die Frage stellen, warum die nicht herstellerseitig schon mit weniger Verbrauch entworfen wurde, wenn die sich ohne Nebenwirkungen undervolten lassen sollte.
 
  • Gefällt mir
Reaktionen: ComputerJunge
UNDERESTIMATED schrieb:
Wenn du für 3000€ fragen musst läuft was verkehrt bei dir :D

Frag lieber nach 25000, kauf von 20 ein neues Dach mit Solarkollektoren nebst Zusatz zur Versorgung und von den restlichen 5 einen Urlaub+die GPU.


Das ist aber eine ziemlich arrogante Einstellung. Die finanziellen Verhältnisse sind höchst verschieden und nicht jeder hat das Glück im Überfluss zu leben. Manch einer kommt gerade so über die Runden und das teils aus Gründen, die er nicht zu verantwortet hat und man sich auch nicht ausgesucht hat.
 
  • Gefällt mir
Reaktionen: Zarlak, Benji21 und Col.Maybourne
mibbio schrieb:
Dann könnte man aber durchaus die Frage stellen, warum die nicht herstellerseitig schon mit weniger Verbrauch entworfen wurde, wenn die sich ohne Nebenwirkungen undervolten lassen sollte.

Weil sie für die Hardware-Tests die letzten 3-4% rausquetschen um vor dem Konkurrenten zu liegen. Ist doch bei der 3000er Generation genauso. 5% weniger Leistung und 20% Stromsparen ist normal.
 
  • Gefällt mir
Reaktionen: ThirdLife
Wenn die Leistung 1:1 mit der Stormaufnahme mitwächst, warum dann keine 900W?
Es zwingt ja niemanden die zu kaufen. Ich kann dann auch mit einer 4070 Leben die nur 300W zieht und dabei 50% mehr Leistung hat als eine 3090. Oder eine 4080 mit doppelter 3090 Leistung bei 450W.
 
  • Gefällt mir
Reaktionen: Laphonso
HanneloreHorst schrieb:
Die geilere News wäre doch mal „nVidia bringt neue Generation auf dem Markt , moderate 20% mehr Leistung für 4k und 8k Gaming mit RT bei der Hälfte des Verbrauchs.

Weil mehr Rohleistung bei mehr Verbrauch fast gleich hoch skaliert, puh, das ist nun wirklich kein Meisterwerk.
4K, 60-120hz, auf Ultra, ohne DLSS mit Raytracing beim Akku Betrieb auf Notebooks wäre mal was. Also bei Spielen mit einer Grafik wie Cyberpunk.
Auf der einen Seite eine 20%-Leistungssteigerung vorschlagen, auf der anderen Seite von nativem 4K, Ultra-Settings, und Raytracing im Akkubetrieb phantasieren.

Das passt doch vorne und hinten nicht.
 
  • Gefällt mir
Reaktionen: ThirdLife
HanneloreHorst schrieb:
@ThirdLife
Vielleicht lag das mangelnde Lese-Text-Verständnis deinerseits daran, dass ich das Ganze mit dem Smartphone auch nicht gerade ordentlich geschrieben habe, ich nehm das also mal auf meine Kappe.
Weiss nicht.

HanneloreHorst schrieb:
Zumindest einen Teil, für deine Arroganz kann ich nichts,
Niveau sieht nur von unten aus wie Arroganz.

HanneloreHorst schrieb:
ich tippe mal auf eine unempathische Erziehung im familiären als auch sozialem Umfeld, so wie eine leichte tendenz zum cholerischen Verhalten aber dicke Interneteier, I feel you.
Du tippst sehr viel anscheinend und offenbar ständig daneben. Aber wenns dir hilft lass ich dir gerne diesen Glauben.

HanneloreHorst schrieb:
Also, es ist ja ganz einfach erklärbar, ich meine natürlich den Leistungsanstieg zur bisherigen Generation.
Nur weil z.B. 4k 20% schneller wird, wird nicht HD 40% schneller, sondern man kann auch Mittel und Wege in einer Architektur schaffen gewisse Auflösungen noch mehr Mittel zur Verfügung zu stellen um schneller berechnet zu werden.
Was nVidia dafür tun muss, die Frage muss ich nicht beantworten, außer ich arbeite bei nVidia,
Ok, also es ist ganz einfach ERKLÄRBAR aber weiter unten ERKLÄRST du dann, dass du das NICHT ERKLÄREN musst ? Und dich darauf hinzuweisen ist - lass mich raten - total unempathisch von mir.

Die "gewissen Mittel" gibts doch jetzt schon ? DLSS und FSR. Wenn du unbedingt in 4K nativ und maximalsten Details zocken willst, dann kostet das halt Leistung. Und die kommt eben nicht aus der Luft gegriffen und dank mystischer Tricks seitens der Hersteller.

Mir scheint dein Weltbild ist ziemlich einfach gestrickt. "Das muss doch irgendwie gehen". Nein. Manche Dinge gehen einfach so nicht. Frag mal die Raumfahrt-Industrie. Man kann eben nicht "mal eben so ganz easy die Erde verlassen".

HanneloreHorst schrieb:
aber ein nVidia Mitarbeiter muss auch nicht die Frage beantworten, wie sein Strom zur Haustür kommt oder das fließende Wasser.
Wenn er sich ein eigenes Haus bauen lassen will sollte er sich durchaus mit der Materie ein wenig befassen.

HanneloreHorst schrieb:
Wenn nVidia also die Grafikkarten größer macht, den Stromverbrauch im gleichen Atemzug exorbitant erhöht, dann kann ich also wertschätzen, was für eine Leistung sie über die Logicboard fließen lassen können aber ich kann durchaus kritisieren, das der Leistungszuwachs in meinen Augen schlecht erkauft ist.
Wie gesagt, sich um das "machbare" zu kümmern, das ist nVidias Aufgabe.
Also möchtest du gerne wieder Planwirtschaft ? Weil hey, ein Trabbi reicht ja, wer braucht schon mehr als das ? Es dürfte klar sein, dass nVidia als auch AMD das ganze Spektrum abbilden werden und nicht nur 500W+ Karten rausbringen. Auch ist es jedem ja möglich die Karten ganz easy mit einem Mausklick selbst zu regulieren.

Ich weiss nicht wie du das machst, aber meine Karte zieht nicht 24/7 ihre 450W. Auch sei darauf hingewiesen, dass selbst Ampere verdammt effizient laufen kann wenn man nicht die letzten 200 Mhz holen will. Die 3080 Ti braucht nichtmal die Hälfte der Power meiner 1080 Ti davor um MEHR Leistung zu holen als diese.

Was soll denn noch passieren ? 500% Mehrleistung bei nur noch 5W Verbrauch zum Preis von 2,99 bei Aldi ? Come on, wake up and get real.

HanneloreHorst schrieb:
Und wenn die Leistungssteigerung durch enorm viel mehr Platzbedarf und Leistungsaufnahme erkauft wird, dann leidet die Effizienz schon enorm, gefühlt wurde dann einfach die alte Architektur aufs doppelte aufgeblasen und dank besserer Fertigung aber nur auf das 1,5 fache der Fläche und "nur" 1,5 fache mehr der Leistungsaufnahme.
Platzbedarf ? Wusste gar nicht dass eine GPU die Grösse eines Schrankes einnimmt in deiner Bude ? Wenn du dich auf die reine Die-Grösse beziehst rechnen wir das doch mal durch:

100% Mehrleistung bei nur 50% mehr Verbrauch wäre doch eine super Steigerung. Es würde bedeuten 50% Mehrleistung bei gleichem Verbrauch. Wann war der letzte Tag an dem du 50% mehr geleistet hast bei gleichen Kosten für deinen Arbeitgeber ? Gabs sicher noch nie. Aber bei anderen wird das einfach mal vorausgesetzt oder ?

AD102 ist im (angenommen) Übrigen keine 1,5x grösser als die aktuelle Gen mit "bis zu 600 mm²" laut Artikel. GA102 liegt bei 628mm².

Hast du den Artikel überhaupt gelesen ? Verstehst du die Zahlen ? Nein ? Warum dann soviele Annahmen und Wünsche ?

HanneloreHorst schrieb:
Das wir aber vor allem im Notebook-Segment das Problem haben, das ohne Ladekabel und selbst mit kaum 4k auf Ultra und ohne DLSS mit Raytracing in den meisten Spielen möglich ist, das zeigt eben doch wie schlecht die Produkte eigentlich sind.
Wozu 4K auf einem schrottigen kleinen Laptop-Display ? Nutzloser gehts kaum noch. Auch die Tatsache, dass dir nicht bewusst ist was du forderst, was das kostet und bedeutet und findest "die bei nVidia sollen das hinkriegen" ohne selbst auch nur für 2cm nachzudenken ist absurd.

HanneloreHorst schrieb:
Dafür kriegt man immerhin eine kleine Heizung und einen Staubsauger der konstant läuft.
Wie gesagt, physikalisch gibt es Limitierungen aber es ist auch nVidias Aufgabe diese Dinge vielleicht mal zu lösen.

Und dann kann man sich das auch gut bezahlen lassen und wird noch gelobt dafür.
Wie gesagt. Sie lösen das ja, du verstehst nur weder die Zahlen, noch die Technik dahinter aber stehst ganz vorne mit deinen Forderungen.
 

Anhänge

  • 3060 FullHD.jpg
    3060 FullHD.jpg
    423,1 KB · Aufrufe: 214
mibbio schrieb:
Dann könnte man aber durchaus die Frage stellen, warum die nicht herstellerseitig schon mit weniger Verbrauch entworfen wurde, wenn die sich ohne Nebenwirkungen undervolten lassen sollte.

Weil wir in einer Zeit leben, wo man mit plakativen Leistungsangaben den meisten Erfolg erzielt. Und bei vielen wird die Länge des Benchmarkbalkens in der Kaufentscheidung höher gewichtet, als die maximale Effizienz.

Liegt die Leistung nahe am Limit, kann man mit Undervolting und leichten Taktabsenkungen viel rausholen. Betriebt man die GPU in einem sehr effizienten bereich, hat man massig an Übertaktungspotential.

Mittlerweile werden die GPUs einfach ab Werk recht hoch übertaktet. wer früher mehr Leistung wollte, musste das händisch machen. Nun ist es umgekehrt, wer weniger verbrauchen möchte kann ebenfalls optimieren. Ist eine reine Maßnahme zur Verkaufsförderung und ein Nebeneffekt der ähnlich starken Konkurrenz
 
  • Gefällt mir
Reaktionen: Gesualdo, Laphonso und ThirdLife
mibbio schrieb:
Dann könnte man aber durchaus die Frage stellen, warum die nicht herstellerseitig schon mit weniger Verbrauch entworfen wurde, wenn die sich ohne Nebenwirkungen undervolten lassen sollte.
Naja, Undervolten ist das Eine, das Andere wäre selbst ein Powerlimit zu setzen. Ich brauche die Power meiner Karte auch nicht ständig. Warum sollte ich also ständig Vollgas geben ? Macht doch im Auto auch keiner.

Grösser kaufen und selbst regulieren ist das worauf ich hinaus will/wollte als Option. Man muss ja nicht eine 4060 kaufen und darauf limitiert bleiben wenn man auch eine 4070 oder 80 haben kann und die einfach unter ihren Möglichkeiten, dafür sehr, sehr effizient betreibt.
 
  • Gefällt mir
Reaktionen: Gesualdo
Shoryuken94 schrieb:
Und bei vielen wird die Länge des Benchmarkbalkens in der Kaufentscheidung höher gewichtet, als die maximale Effizienz.
Deutschland ist eben auch nicht der Nabel der Welt. In den USA und anderen Ländern, wo viel abgesetzt wird, kostet Strom viel weniger. Da kann man mit Effizienz nicht so gut werben.

In Deutschland ist a) der Strom teurer und b) hat hier fast niemand eine Klimaanlage. Da ist es einfach unpraktisch, wenn man beim Spielen immer einen Heizlüfter mitlaufen lässt.
 
  • Gefällt mir
Reaktionen: Gesualdo
Homie2009 schrieb:
Die nötige Kühlung will ich gerne sehen. Selbst hybride Luft-/Wasserkühlungen oder reine Wasserkühlungen würden riesige Radiatoren benötigen. Ich kann es mir beim besten Willen nicht vorstellen, dass die Leistungsaufnahme so gigantisch ausfallen soll. Selbst als Nieschenprodukt ist das absurd viel
Ich finde es total aus der Zeit gefallen. Aber abgesehen davon frage ich mich auch, wie das gekühlt werden soll. Werden dann auf einmal drei oder vier Steckplätze blockiert, weil der Kühler so groß wird?
 
Painkiller72 schrieb:
Das Umdenken muss beim Verbraucher anfangen und nicht beim Hersteller.

[...]

Hätten wir zur Zeit keine Inflation, würden hier viel weniger Leute sich über hohe Stromaufnahme aufregen.

Jein. Der Hersteller und das Marketing geben Trends vor. Wenn es um die Verbraucher geht, hätten wir noch heute kein Auto sondern Pferde und Kutschen...

Yes, ohne die aktuelle Inflation / energiekostenexplosion würde das Thema nur am Rande relevant sein. So bekommt es hoffentlich die richtige Aufmerksamkeit.
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Boimler schrieb:
Werden dann auf einmal drei oder vier Steckplätze blockiert, weil der Kühler so groß wird?
Wäre Anno 2022 für die meisten User nicht mal mehr ein Problem. Außer vielleicht hin und wieder mal 'ne interne Soundkarte oder einer WLAN-Karte hat doch praktisch niemand mehr andere PCIe-Karten neben der GraKa im Rechner stecken.
 
Shoryuken94 schrieb:
Das ist aber eine ziemlich arrogante Einstellung

Nein ist es nicht. Und jetzt?
Arrogant ist so zu urteilen, nur weil man was nicht kapiert.

Man möchte eine GPU für 3000€?
Man hat kein Geld dafür?
Man hat keine Bonität um sie sich dennoch zu leisten?

Sorry, da ist gar nichts arrogant wenn ich ihm erkläre was sinnvoller wäre, ganz abgesehen davon, dass sein wie mein Post eher spaßig gemeint waren.

Shoryuken94 schrieb:
nicht jeder hat das Glück im Überfluss zu leben.

Du glaubst das macht glücklich?
Die Probleme sind nur größer, aber nicht wirklich anders.

Im Ernst: Kann man diese "zu teuer"+"zu viel Stromverbrauch" Hasstirade nicht mal irgendwann beenden?

Wenn man es sich nicht leisten kann, ist das eben so. Was muss man da dauernd rumjammern? Das geht doch jedem so, nur die Substanz ist vielleicht verschieden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: WeltalsWille und Tiimati
Absolute schwachsinnige Entwicklung, wenn das Teil ernsthaft so kommt. Ich weiß ja nicht was ihr macht oder wie viel ihr verdient, aber wir merken dass Thema Stromkosten schon. Wenn jemand mehrere Stunden an Tag irgendwas zockt und bis zu 900 Watt frisst, dann gute Nacht.

Ich finde es viel besser, mehr Leistung bei gleichen Verbrauch zu vorigen Generation sehr viel logischer und effizienter.
 
Wenn man so 'nen Riesenchip beim Power Limit mal schön einbremst, wird er sicher deutlich effizienter arbeiten, als die anderen, kleineren Modelle. Nur wollen die meisten ja auch keine 3000 € zahlen, um dann ggf. weniger Performance als das nächstkleinere Modell zu haben.
 
Zurück
Oben