News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?

kawanet schrieb:
Nichtsdestotrotz würde ich dir nahelegen, auch den Tesla mit in die Signatur aufzunehmen. So musst du nicht permanent und immer wieder auf's Neue "Mein Haus, mein Auto, mein Boot" predigen.:daumen:
Also, als völlig Unbeteiligter von Außen möcht ich nur sagen, das klingt schon eher neidisch, als neutral.

Auf alle Fälle aber ist es irrelevant fürs Thema :). Mich persönlich interessiert die Entwicklung in Richtung 'eigenes Kraftwerk' für die GraKa nicht die Bohne mehr. Wenn ich sehe, was eben Apple mit seinen m's so treibt, hab ich auch die Ahnung, dass diese Boliden nicht mehr die Zukunft sind. Wer gerade jetzt die absolut beste Leistung will oder braucht, muss wohl noch mitmachen. Aber zum 'ordentlich spielen' sehe ich schon in relativ naher Zukunft andere Möglichkeiten. Mal abwarten was jetzt noch im Sommer kommt, aber wenn das so weitergeht, spiele ich pn 2 Jahren auch unter Windows mit Parallels quasi jedes Spiel auf einem m-Prozessor. Und vielleicht mache ich das sogar auf einem Flugzeugsitz für Stunden mit dem eingebauten Akku ... und das hätte schon auch mal was :D
 
Mit 900W könnten die neuen Karten auch für Miner unerschwinglich werden.
 
  • Gefällt mir
Reaktionen: Hagen_67
NO! NO! NO!
Sorry, aber da steige ich absolut aus. Ich habe bisher wirklich NIE mit nem Verbrauchsmesser am PC gehangen. Aber bei den jetzt schon aktuellen Verbrauchswerten der Nvidia 3000 Gen hab ich keinen Bock mehr drauf (von den Preisen her mal ganz abgesehen).
Wollen Nvidia und Intel den PC- Zocker- Markt wirklich abschaffen? Immer mehr Leistungsaufnahme zu immer höheren Preisen?
Sorry, Nö, da bleib ich solange es irgend geht und die HW nicht verreckt beim alten Zeuchs. Gibt immer noch einen Haufen Games, den ich noch nicht gezockt habe. Reicht für die nächsten Jahre. Und das eine oder andere Game zocke ich auch gern ein zweites oder drittes Mal.
Und für Video- Schnitt und Bildbearbeitung im semiprof. Bereich reicht meine Sig- Hardware lang und schmutzig. Vllt. ziehen da noch 64 statt 32 GB RAM ein und am Ende vllt. noch ein AMD 5900 oder 5950 er ein. Dann ist der semi- prof. Bereich aber mal sowas von abgedeckt die nächsten Jahre. Und die 2080 ist unter Wasser eh schon undervoltet und auf lange Laufzeit ausgelegt.

UND: es ist nur ein Hobby. Ich brauch das am Ende des Tages nicht wirklich. Und dann schauen wir mal wer am Ende länger durchhält. Eine wahnsinnig gewordene Industrie, die so einen Mist als das Non-Plus- Ultra auf den Markt wirft, oder ich als Kunde, der mit der kalten Schulter zuckt und weiter geht.
Denn, wie gesagt, das ist nur ein Hobby. Das sichert mir nicht meinen Arbeitsplatz. Das macht mich nicht satt. Das wärmt mir nicht meine Wohung im Winter auf.
....Obwohl, bei den Werten, könnte man letzteres vllt. auch schon wieder streichen... :king:
Aber Nvidia und Intel sind sehr wohl auf uns als Kunden angewiesen....
Ergänzung ()

Voller OT:
:bussi:Sagt mal, Leutz,
kennt eigentlich irgenwer hier eine (il-)legale Möglichkeit an uranhaltiges Material zu kommen. Oder Plutonium müsste auch gehen. Ich würd mir gerne vorsorglich für die über-über-nächste GraKa- Gen ein kleines illegales Atomkraftwerk in meinem Gartenhäuschen einbauen.
...:jumpin:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tiimati
@ThirdLife
Mir geht es nicht darum den M1 zu glorifizieren, für Renderperformance bin ich der erste der das Ding kritisiert.
Aber, wir haben 320 Watt bei der 3090, die aber beim Rendering auf 450+ Watt peaked, die M1 Ultra 64GB CPUs sind derzeit auf 60 Watt-80 Watt limitiert Und werden auch nur 60 grad heiß.
Das sind dann also 4-9 mal weniger Leistungsaufnahme, wobei die 3090 beim Rendering eigentlich immer bei 450+ rumhängt.
Dabei ist sie nur 3-5 mal schneller.
Und ja nach Optimierung kommt man eben doch sehr gut selbst mit dieser limitierten GPU an die 3090 ran.

Das ist aber gar kein Bashing aber es zeigt trotzdem, das man bei GPUs schon noch deutlich effizienter werden kann.
Fakt ist, die GPU Hersteller müssen da in meinen Augen auch Lösungen und Antworten finden den Auflösungswahn aber auch dem ökologischen Sinne gerecht zu werden.
Ich als Kunde kann nur das Feedback spielen, ob das Produkt für mich gut genug wird oder nicht.
Wenn du sie toll findest, kaufe sie, nur wir haben es Jahrelang bei Intel gesehen, ohne Druck ändert sich eben auch nichts.

Natürlich war mein 4K, 120FPS Wunsch auch etwas übertrieben gesprochen.
Das war aber auch gewollt übertrieben gesagt.
Mich nervt es einfach extrem, das ich z.B. meinen Laptop mit 3060 nicht ohne Ladekabel für kleine Rendering Sachen oder Zocken nutzen kann, mich nervt es, das auch das Teil eben nicht die Leistung hat, obwohl es extrem laut ist(also die Lüfter dann) und viel Strom zieht.
Da darf nVidia gerne nachbessern und davon profitieren alle Karten, von unten bis oben.

Apple ist nicht perfekt aber eben ein gutes Beispiel, das man schon viel Leistung fast geräuschlos kühlen kann, die 3060 hängt bei Renderjobs auch jenseits der 90-100 Grad rum.
Nur man muss eben nach diesen kreativen Lösungen suchen, das erwarte ich von allen Wettbewerben, von AMD, nVidia und Intel und dann lasse ich da auch gerne mein Geld.

Ob nun die anderen Wunder vollbringen, ich glaube es nicht, aber ich will zumindest schon mal positive Änderungen mit mehr Realitätssinn bei neuen Generationen sehen.
 
  • Gefällt mir
Reaktionen: Luthredon
Viele Gerüchte, eigentlich alle die man ernst nehmen kann, sagen das bei 600-650W Schluss sein sollte. woher sie jetzt die 900 haben? Hopper HPC darf so viel nehmen, wie es scheint.

ausschließen kann man ein Halo Produkt natürlich nicht, aber erstmal abwarten, gekühlt bekommt man das jedenfalls
 
Hagen_67 schrieb:
Aber Nvidia und Intel sind sehr wohl auf uns als Kunden angewiesen....
Wenn ich mir so die verkaufszahlen der Letzen 2 Jahre Anschaue, (inkl der Engpässe wegen Corona usw.) wurde dort sehr sehr viel "Enthusiasten Hardware" abgesetzt und bei entsprechender Hardware Verfügbarkeit wäre da noch einiges mehr gegangen!

Um es am Ende ganz doof zu sagen, Unternehmen wie Intel / NV oder auch Apple scheißen auf so eine Denkweise, da die Nachfrage bei weitem höher ist als auf der anderen Seite die Kunden die so denken wie du!

Wäre das nicht der Fall, würde diese Aktuelle Entwicklung nicht Stattfinden, wenn die 4000er Serie nur annähernd das Leistest was man momentan vermutet wird sie auch mit 900W Titan schneller ausverkauft sein als so manchen Lieb ist.
 
Die verkaufen den Kram halt auf der ganzen Welt und andernorts, wo der Strom billig ist und die Leute oft auch 'ne Klimaanlage haben, interessiert die Effizienz und der Stromverbrauch die Menschen einfach nicht so sehr wie bei uns. Da zählt dann nur, dass es noch vernünftig kühlbar sein muss.

Letztendlich würden effizientere Grafikkarten auch kaum anders aussehen als das, was Nvidia derzeit vertreibt. Sie würden den exakt gleichen Chip schlichtweg nicht so weit treiben. Dann läuft der halt mit weniger Takt und weniger Spannung, ist entsprechend effizienter, aber am Ende wäre es so ziemlich die gleiche Hardware, die wir bekommen würden.
 
  • Gefällt mir
Reaktionen: Tiimati und XPS
Ich find das herrlich wie die Leute meinen, dass sich die Unternehmen die Beine absägen sollen damit die Kunden nicht zu ineffizient sein können auch wenn sie es sich leisten können.
Ja NVIDIA könnte die größte Ada auf 300W begrenzen und sie als Effizienzwunder verkaufen, interessiert aber dann die Kunden nicht. Dann kaufen die so lange weiter 3090Ti bis es was besseres gibt.
 
  • Gefällt mir
Reaktionen: XPS
@XPS : Na, aber dann ist doch alles sehr schön.
"Die" schei...en auf uns und "Wir" schei...en auf "Die".
Und dann werden wir am Ende sehen, wer länger durchhält. Denn wenn sich die Leute am Ende die Hardware einfach nicht mehr leisten können (wollen), steht der Hersteller ziemlich blöde da.
Und sollte es so laufen, wie ich Deinen Post #311 interpretiere, ist ja auch alles gut. Dann ist er Schmerzpunkt für das Gros der Leute (Kunden/Käufer) halt einfach noch nicht erreicht.
Dann ist auch alles gut.

Mir geht in diesem Bereich, der ja am Ende des Tage echt nur Hobby ist, das Gejammer der Leute ziemlich auf den Geist. Da wird über die hohen Preise der GraKas gejammert, ab er die Preise werden bezahlt. Und ja, jedem Käufer dieser überzogen teuren Haredware ist gerade die eigene alte GraKa abgeraucht, oder er/ sie muss/will nen komplett neuen PC auf die Beine stellen.
Leutz, gäbe es eine 3080 für um die 650,- €, ich wär als Grafik- Junkie sofort dabei.
Aber so...
 
  • Gefällt mir
Reaktionen: XPS
Hagen_67 schrieb:
Und dann werden wir am Ende sehen, wer länger durchhält. Denn wenn sich die Leute am Ende die Hardware einfach nicht mehr leisten können (wollen), steht der Hersteller ziemlich blöde da.
Das wird nie im leben passieren weil zu jedem Release alle RTX karten wie geschnitten Brot verkauft werden und ich auch der erste sein werde der eine 4090 kaufen wird

Wer High End will muss mit High End Preisen und Verbrauch leben ganz einfach das war immer so und wird immer so bleiben selbst meine 3090 hab ich erst ein 520watt bios geflashed damit sie nicht mehr zu zugeschnürt ist vom powerlimit und sie jetzt wunderbar ihren vollen Bosst halten kann :) Weil ich habe den anspruch alles in Ultra zu spielen inkl RT Ultra im hohen 3 stelligen fps bereich
 
Hagen_67 schrieb:
Da wird über die hohen Preise der GraKas gejammert, ab er die Preise werden bezahlt. Und ja, jedem Käufer dieser überzogen teuren Haredware ist gerade die eigene alte GraKa abgeraucht, oder er/ sie muss/will nen komplett neuen PC auf die Beine stellen.
Leutz, gäbe es eine 3080 für um die 650,- €, ich wär als Grafik- Junkie sofort dabei.
Aber so...
Ich glaube, die Zeiten, wo man alle zwei Jahre die Hardware wechselt, sind für viele mittlerweile vorbei.
Es gibt noch etliche Leute, mich eingeschlossen, die immer noch auf Pascal spielen. Und ich denke, selbst wenn sich der angespannte Markt irgendwann entspannt hat, werden die Preise höher sein und die Leute die Karten länger halten.
 
Benni1990 schrieb:
Das wird nie im leben passieren weil zu jedem Release alle RTX karten wie geschnitten Brot verkauft werden und ich auch der erste sein werde der eine 4090 kaufen wird

Wer High End will muss mit High End Preisen und Verbrauch leben ganz einfach das war immer so und wird immer so bleiben selbst meine 3090 hab ich erst ein 520watt bios geflashed damit sie nicht mehr zu zugeschnürt ist vom powerlimit und sie jetzt wunderbar ihren vollen Bosst halten kann :) Weil ich habe den anspruch alles in Ultra zu spielen inkl RT Ultra im hohen 3 stelligen fps bereich
Danke! - es gibt noch Leute die den Sinn solcher Hardware verstanden haben :schluck:

Ich selber habe auch schon seit März diesen Jahres einen Festen Abnehmer für die 3090 und werde Sofort (idealerweise auf 4090 Ti / Titan) umsteigen, da die Aktuelle Leistung der 3090 zu Release schon zu wenig war / ist für Natives 4K Max inkl Raytracing usw.

Ältere Spiele werden teils sogar schon in 8K genutzt:daumen: , aber da fehlt noch einiges an Leistung!
Wenn ich bei 8K / 165 FPS Cap angekommen bin, können sie gerne Anfangen an der Effizienz zu drehen!
 
  • Gefällt mir
Reaktionen: Benni1990
So wie die Wankel-Fahrer dann die Anzahl der getauschten Motoren mit den Fingern angezeigt haben, so werden die Nutzer dieser Karte die Anzahl der zerschossenen Netzteile anzeigen :D

Mal wirklich - die müssen demnächst Starkstromanschlüsse für Nvidia GPUs anbieten!
 
Norebo schrieb:
So wie die Wankel-Fahrer dann die Anzahl der getauschten Motoren mit den Fingern angezeigt haben, so werden die Nutzer dieser Karte die Anzahl der zerschossenen Netzteile anzeigen :D

Mal wirklich - die müssen demnächst Starkstromanschlüsse für Nvidia GPUs anbieten!
Das ist Unfug, wenn es gehen würde, tut es Leider nicht mehr bzw. macht es keinen Sinn, würde ich mir 3 Way oder Quad SLI 3090 in den Rechner Hauen und an der Steckdose wäre immer noch Luft und es fliegt auch keine Sicherung! da wären wir bei ca 2,5KW System Leistung.
Brauchst halt zwei 1500W NT aber das wäre das kleinste Problem!
 
sikarr schrieb:
Damit ist bestimmt die 4080 gemeint und nicht 3080?

selbst 450W TDP sind mMn zu viel, gerade bei den steigenden Energiepreisen wären Effizientere GPUs langsam mal an der Zeit und nicht solche Monster mit bis zu 900W.

ein Umdenken wäre an der Zeit
Du hast völlig Recht nur, den Konzern nvidia ist das alles Sc... egal. Die kümmern sich nur ums Geld, so wie alle Konzerne. Sch... auf den normalen Verbraucher, es gibt genug Leuten die "Sowas" kaufen....
 
  • Gefällt mir
Reaktionen: XPS
Das Controlling von NVIDIA muss also grünes Licht dazu gegeben haben.
Ja dann muss das so sein, sonst wäre das verlorene Investition, oder nicht?
Zum Kauf wird der Endkonsument ja nicht gezwungen.

Da werden weitere/andere Bereiche mit versorgt werden, und jene können sich das leisten und haben dementsprechend auch den Bedarf nach solch Produkt.
Kann doch auch sein, das dies ein Feldversuch ist, und einige Zeit danach die Einnahmen in geplante aber aktuell noch zu teure und bisher nicht umsetzbar, günstigere Modelle ist.

Man wird sehen, das ist nicht das Ende.
Wenn ich rückblickend betrachte, was es in den 80ern für "Monsterteure" Grafikkarten im Geschäftsbereich gab; da waren 5-10000$ aufwärts nicht gerade selten xD
 
Homie2009 schrieb:
Die nötige Kühlung will ich gerne sehen. Selbst hybride Luft-/Wasserkühlungen oder reine Wasserkühlungen würden riesige Radiatoren benötigen. Ich kann es mir beim besten Willen nicht vorstellen, dass die Leistungsaufnahme so gigantisch ausfallen soll. Selbst als Nieschenprodukt ist das absurd viel

Kompressor mit Anschluss an den Drehstrom.

Denn: Drehstrom geht bis 11.060 W, bei normalen Steckdosen dagegen nur 3.680 W (bei mehr fliegt die Sicherung).

So ein Teil ist auch auf CB beschrieben: https://www.computerbase.de/2017-03/alphacool-eiszeit-kompressor-kuehlung/

1.500 Watt für den Kompressor, 900 für die Graka, je nach restlicher Austattung des PCs kommt man da schon an die 3.680 Watt ran :D.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Homie2009
Damit ist bestimmt die 4080 gemeint und nicht 3080?
sikarr schrieb:
selbst 450W TDP sind mMn zu viel, gerade bei den steigenden Energiepreisen wären Effizientere GPUs langsam mal an der Zeit und nicht solche Monster mit bis zu 900W.

ein Umdenken wäre an der Zeit
Effizienz hat ja nichts mit dem absoluten Gesamtverbrauch der Karte zu tun 😅.
 
Zurück
Oben