News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?

Beitrag schrieb:
Macht bei so 'ner Speichermenge nicht HBM2 mehr Sinn? 48 GB in GDDR6. Wie viele Chips sind das, die man dann über der Platine verteilen müsste? Pflastert man sich damit nicht alles zu?

Es gibt inzwischen 2 GB GDDR6X Chips.

Sieht dann genau so aus wie bei der 3090, 12 Chips vorne, 12 Chips hinten.
vornehinten.JPG
 
  • Gefällt mir
Reaktionen: Zarlak, Col.Maybourne, Onkel Föhn und 2 andere
HanneloreHorst schrieb:
Die geilere News wäre doch mal „nVidia bringt neue Generation auf dem Markt , moderate 20% mehr Leistung für 4k und 8k Gaming mit RT bei der Hälfte des Verbrauchs.
Und für die vierfache Anzahl an Pixeln reichen dann 20% Mehrleistung in deiner Welt ? Spannend, erzähl uns doch mal wie du dir das zusammenrechnest und wie das funktionieren soll.

HanneloreHorst schrieb:
Weil mehr Rohleistung bei mehr Verbrauch fast gleich hoch skaliert, puh, das ist nun wirklich kein Meisterwerk.
4K, 60-120hz, auf Ultra, ohne DLSS mit Raytracing beim Akku Betrieb auf Notebooks wäre mal was.
Ja genau wie ein Aventador SVJ für 3,99€ im Angebot bei LIDL. Wär auch mal was. Oder wenn du gratis arbeiten gehst ? Dein Chef findet sicher auch, dass das mal was wäre.

Vorstellungen schwirren hier rum...man man man.

HanneloreHorst schrieb:
Bleibt aber wohl nur ein Traum das nVidia jemals kleiner und effizienter wird.
Die Karten werden alle jährlich effizienter, aber wenn man eben die Grundrechenarten nicht beherrscht kann man das auch nicht nachvollziehen. Geschweige denn Physik verstehen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Onkel Föhn, Cohen und eine weitere Person
Ist doch schön. Ich nehme dann eine günstige 4070 mit 12-16GB und max. 300 Watt Leistung. Mit Undervolting kommt die dann noch auf 220-240 Watt maximal und bietet mir dafür dann 3090 Leistung. Alles für 500-600€. Ich freue mich.
 
  • Gefällt mir
Reaktionen: av4l
AlMaiWin schrieb:
Vielleicht kann man das technisch mit 'nem Wasserkocher kombinieren. Dual use sozusagen...
Bau einfach keinen Radiator in dein Loop.

Ich glaub aber bevor das Wasser kocht stirbt deine Pumpe oder sonstwas den Hitzetod.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
GERmaximus schrieb:
Die meisten die über den Verbrauch von highend meckern, besitzen noch kaufen diese.
Es sind meist die up (3060) und polo (3070) fahrer, die sich über den Golf (3090) Verbrauch aufregen.
Um bei Deinem Autovergleich zu bleiben, auch wenn Er stark hinkt, garantiert würde sich Jeder freuen wenn er mit dem Golf 1-2 hundert Kilometer weiter fahren könnte weil der Verbrauch runter geht. Nur weil ich mir etwas leisten kann muss ich nicht verschwenderisch sein.
derMutant schrieb:
Die Strompreise sind aber nicht überall auf der Welt so teuer wie in Germany...
Richtig, aber auch da steigen die Preise für Strom und auch denen ist das nicht egal.
 
  • Gefällt mir
Reaktionen: Smartbomb und GERmaximus
Syrato schrieb:
Was eine Aussage, es geht darum, dass dieser Trend in die falsche Richtung geht! So lächerlich es klingt, es mag nur ein kleiner Tropfen sein, aber wir haben nur EINE Erde, wir sollten endlich alle an einem Strang ziehen und nicht nur für 1mm längere Balken alles über Bord werfen!

Sind wir mal ganz ehrlich die Technik entwickelt sich um ein vielfaches schneller und weiter als vor 10 jahren

Ich möchte in hohen 3 stelligen FPS bereich zocken mit Ultra und RT Ultra daher ist es doch kein wunder das Nvidia das bedient was viele wollen mich eingeschloßen

Warum gibt es einen Bugatti oder einen Königsegg die 400+ fahren wo doch bei vielen ländern 120Kmh Begrenzt auf der autobahn ist? Weil die kunden es wollen und es auch ganz einfach bezahlen so war es immer und wird es immer Bleiben und nix anderes macht Nvidia

Der Neue standart wird 4k 144hz/fps werden und da musst du eben nunmal ne high karte haben und brauchst nicht mit einer 3050 um die ecke kommen

Nvidia hat das monopol seit über 10 jahren und ihre karten werden am release wird Geschnitten brot verkauft auch das wird sich nicht ändern
 
  • Gefällt mir
Reaktionen: Tiimati
bigfudge13 schrieb:
Das wären 80% Leistungssteigerung ggü. der 3070, krasser Sprung. Zuletzt lag man bei den 70er Karten bei ca. 50% von einer Generation zur nächsten. Das hätte es mMn. wieder getan, bei einem dafür vernünftigeren Stromverbrauch.
Wenn es 50% Leistungssteigerung ggü. der 3070 tun, kann man dann ja zur 4060 greifen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
XPS schrieb:
Die Leute die danach Fragen müssen Definitiv nicht, es soll aber Menschen geben die Warten schon seit dem 3000er Release auf solche Hardware :schluck:
Damit es wenigstens dieses mal mit dem 8K Gaming kappt ... :cool_alt:

MfG Föhn.
 

Anhänge

  • 8K.jpg
    8K.jpg
    296,8 KB · Aufrufe: 246
  • Gefällt mir
Reaktionen: Benji21
Cohen schrieb:
Wenn es 50% Leistungssteigerung ggü. der 3070 tun, kann man dann ja zur 4060 greifen.
Oder die 4070 mit einem UV betreiben. Aber ich glaube da verlangt man von den ganzen angeblichen "Enthusiasten" einfach zuviel Denkarbeit. :D
 
Wer sich so ein Monster leisten kann und will, der legt halt noch mal 10-30k für eine richtige Solaranlage mit großem Akku drauf und zockt dann vor allem im Sommer, wenn Spitzenerträge eingefahren werden. Die 1-2 KW Klimaanlage kann man damit auch noch versorgen.
Im Hochsommer kann man ja eh nicht mehr tagsüber aus dem Haus, wenn die Temperaturen deutlich über 30 Grad steigen.

Hört sich erst mal schwindelerregend viel an, aber wenn man sich anschaut, was die Leute immer noch für ihre Autos ausgeben, da sind 10,20,30k € ganz schnell verbraten alleine durch den Wertverlust nach ein paar Jahren.

Wer wesentlich kleinere Brötchen backen will oder muss, ich bin mir sicher, dass es auch zukünftig Hardware gibt, mit der man mit weniger als 200Watt Leistungsaufnahme spielen kann.
 
Cohen schrieb:
Wenn es 50% Leistungssteigerung ggü. der 3070 tun, kann man dann ja zur 4060 greifen.
Die hat dann aber vielleicht nur 8 GB VRAM 😂
 
  • Gefällt mir
Reaktionen: Onkel Föhn
calippo schrieb:
Wer sich so ein Monster leisten kann und will, der legt halt noch mal 10-30k für eine richtige Solaranlage mit großem Akku drauf und zockt dann vor allem im Sommer, wenn Spitzenerträge eingefahren werden. Die 1-2 KW Klimaanlage kann man damit auch noch versorgen.
Im Hochsommer kann man ja eh nicht mehr tagsüber aus dem Haus, wenn die Temperaturen deutlich über 30 Grad steigen.
Endlich sinnvolle Vorschläge. :D

calippo schrieb:
Hört sich erst mal schwindelerregend viel an, aber wenn man sich anschaut, was die Leute immer noch für ihre Autos ausgeben, da sind 10,20,30k € ganz schnell verbraten alleine durch den Wertverlust nach ein paar Jahren.
Nach ein paar Jahren ? Die meisten teuren Autos verlieren das schon mit dem ersten mal Anlassen beim Händler.

calippo schrieb:
Wer wesentlich kleinere Brötchen backen will oder muss, ich bin mir sicher, dass es auch zukünftig Hardware gibt, mit der man mit weniger als 200Watt Leistungsaufnahme spielen kann.
Oder man ist einfach schlau und betreibt eine schnelle Karte nur mit der Leistung die man eben benötigt. Wenn ich Mass Effect 1 spiele brauche ich nicht die 450W meiner 3080 Ti, da tuns auch 120 in 4K60 mit VSync.

Besser die Leistung zu haben und dann je nach Game freizuschalten statt sie einfach nicht zu haben.
 
  • Gefällt mir
Reaktionen: Smartbomb, Gesualdo, Onkel Föhn und 2 andere
So selten, wie ich mich noch zum Zocken hinsetzen, würde der Verbrauch den Kohl auch nicht fett machen. Ob sich die Anschaffungskosten dann lohnen, ist eine andere Frage.
Prinzipiell sehe ich solche Wattzahlen nicht als zu problematisch bei Leuten, die eh kaum zocken, aber richtig loslegen wollen, wenn sie sich die Zeit nehmen.
 
@ThirdLife
Vielleicht lag das mangelnde Lese-Text-Verständnis deinerseits daran, dass ich das Ganze mit dem Smartphone auch nicht gerade ordentlich geschrieben habe, ich nehm das also mal auf meine Kappe.
Zumindest einen Teil, für deine Arroganz kann ich nichts, ich tippe mal auf eine unempathische Erziehung im familiären als auch sozialem Umfeld, so wie eine leichte tendenz zum cholerischen Verhalten aber dicke Interneteier, I feel you.

Also, es ist ja ganz einfach erklärbar, ich meine natürlich den Leistungsanstieg zur bisherigen Generation.
Nur weil z.B. 4k 20% schneller wird, wird nicht HD 40% schneller, sondern man kann auch Mittel und Wege in einer Architektur schaffen gewisse Auflösungen noch mehr Mittel zur Verfügung zu stellen um schneller berechnet zu werden.
Was nVidia dafür tun muss, die Frage muss ich nicht beantworten, außer ich arbeite bei nVidia, aber ein nVidia Mitarbeiter muss auch nicht die Frage beantworten, wie sein Strom zur Haustür kommt oder das fließende Wasser.

Wenn nVidia also die Grafikkarten größer macht, den Stromverbrauch im gleichen Atemzug exorbitant erhöht, dann kann ich also wertschätzen, was für eine Leistung sie über die Logicboard fließen lassen können aber ich kann durchaus kritisieren, das der Leistungszuwachs in meinen Augen schlecht erkauft ist.
Wie gesagt, sich um das "machbare" zu kümmern, das ist nVidias Aufgabe.

Und wenn die Leistungssteigerung durch enorm viel mehr Platzbedarf und Leistungsaufnahme erkauft wird, dann leidet die Effizienz schon enorm, gefühlt wurde dann einfach die alte Architektur aufs doppelte aufgeblasen und dank besserer Fertigung aber nur auf das 1,5 fache der Fläche und "nur" 1,5 fache mehr der Leistungsaufnahme.

Das wir aber vor allem im Notebook-Segment das Problem haben, das ohne Ladekabel und selbst mit kaum 4k auf Ultra und ohne DLSS mit Raytracing in den meisten Spielen möglich ist, das zeigt eben doch wie schlecht die Produkte eigentlich sind.
Dafür, positiv gesehen, kriegt man immerhin eine kleine Heizung und einen Staubsauger der konstant läuft.
Wie gesagt, physikalisch gibt es Limitierungen aber es ist auch nVidias Aufgabe diese Dinge vielleicht mal zu lösen.

Und dann kann man sich das auch gut bezahlen lassen und wird noch gelobt dafür.
 
  • Gefällt mir
Reaktionen: Aekoric und sikarr
Gedankenspiel zur Kühlung:
Kann man die GraKa in Trockeneis "einlegen"? :D

Ich hatte mir vor 3,5 Jahren eine 2070 (ohne S) für rund 500€ neu gekauft und bete jeden Tag, das sie nicht den Geist aufgibt. Aktuelle Verfügbarkeiten und Preisentwicklungen (auch wenn es weiter runtergeht) liegen außerhalb meiner Investitionsbereitschaft.

Sicherlich habe auch ich dieses gewisse "Haben-Wollen"-Gefühl und wenn Geld keine Rolle spielen würde...aber dann setzt doch wieder der rationale Verstand ein und es bleibt bei einem an Schleudertrauma grenzendes Kopfschüttelns bei Meldungen wie diesen.
 
  • Gefällt mir
Reaktionen: kawanet
Benni1990 schrieb:
Der Neue standart wird 4k 144hz/fps werden und da musst du eben nunmal ne high karte haben und brauchst nicht mit einer 3050 um die ecke kommen

Vom Standard dürfte das noch weit entfernt sein, sofern man/n der Steam Umfrage zum Thema Hardware Glauben schenken darf.

mit frdl. Gruß
 
  • Gefällt mir
Reaktionen: ThirdLife und Syrato
Ayo34 schrieb:
Ist doch schön. Ich nehme dann eine günstige 4070 mit 12-16GB und max. 300 Watt Leistung. Mit Undervolting kommt die dann noch auf 220-240 Watt maximal und bietet mir dafür dann 3090 Leistung. Alles für 500-600€. Ich freue mich.
Werde ich auch so handhaben. Eine Karte aus dem neuen Lineup aussuchen, die bei ca. 200-250W eine gute Performance liefert und dann ist gut.
Ich hoffe das wird auch ein bisschen in den Reviews abgetestet, wie sich die Chips bei Undervolting verhalten und wo der Sweetspot liegt.
 
  • Gefällt mir
Reaktionen: Ayo34
@Benni1990 ja da hast du Recht, nur macht es das nicht Besser! Wenn alle Menschen so denken, dann gute Nacht!
Nur weil ein paar Wenige etwas wollen, ist es nicht ok!

@kawanet sehe ich auch so! Ich nutze noch 24" FullHD und 27" WQHD, für 4K sollten es dann 30" sein,..... nur was will ICH mit so einem Monitor, die Ecken sieht man jetzt schon nicht mehr ^^.
 
Dorne schrieb:
Ich werde schon mal eine Kreditfinanzierung anfragen.

Wenn du für 3000€ fragen musst läuft was verkehrt bei dir :D

Frag lieber nach 25000, kauf von 20 ein neues Dach mit Solarkollektoren nebst Zusatz zur Versorgung und von den restlichen 5 einen Urlaub+die GPU.
 
Onkel Föhn schrieb:
Damit es wenigstens dieses mal mit dem 8K Gaming kappt ...
Aber diesmal wirklich, ganz sicher!

Ist auch längst überfällig. Bei 4K erkennt man ja noch die Pixel, wenn man mit 'ner Lupe rangeht. Richtiger Pixelbrei, da müssen wir schleunigst weg von!
 
  • Gefällt mir
Reaktionen: loser, Gesualdo, ThirdLife und eine weitere Person
Zurück
Oben