News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen

Also ich weiß nicht. So ein krasser Mehrverbrauch und dadurch erkaufter Leistungsgewinn passt einfach nicht in die heutige Zeit. Das alleine ist schlimm. Schlimmer ist jedoch das damit dann auch noch in Dauerschleife sinnlose Cryptos geschürft werden würden.
 
  • Gefällt mir
Reaktionen: cypeak
Vitec schrieb:
Beim VRAM legt Nvidia hier hoffentlich gleich mit 24GB bei der 4080 und 20Gb bei der 4070 los.
Wozu? Damit die Zahlen größer werden? Damit die Karten noch teurer werden? Spiele die mit 8GB VRAM in den höchsten Settings nicht auskommen, kannst du ein einer Hand abzählen, aber natürlich, bauen wir doch gleich die GPUs mit 128GB VRAM und verkaufen sie dann für 10k.

Wenn Nvidia die Karten mit 16GB (4080) oder 12GB (4070) ausstattet, dann ist es noch und für viele Jahre in die Zukunft mehr als genug, aktuell ist die 1060 mit ihren 6GB VRAM noch immer die meistgenutzte Karte bei Steam, auch wenn 8GB VRAM just letzten Monat die Führung knapp übernommen hatte. Irgendwelche aufgeblasenen VRAM Zahlen und Preise, kann sich Nvidia gerne für eine 4090 aufheben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hahaqp, Lemiiker, GERmaximus und eine weitere Person
Erschreckend welche Verbrauchswerte da auf uns zukommen sofern sich die derzeitigen Anzeichen wahr werden. Ich glaube das es irgendwo einen Engpass gibt den man nicht sehr hohem Verbrauch versucht zu mindern anstatt diesen zu beheben.
 
Martinipi schrieb:
Aber nur weil es bei mir nicht passt muss ich doch nicht meine Stimme erheben "das gehört verboten!", wo kommt denn diese Mentalität her?
ich habe in keinem wort was von verbieten gesagt. wo kommt eigentlich diese mentalität her anderen etwas so anzudichten?

aber ja, es wäre tatsächlich mal angebracht nachzudenken ob so manche entwicklung (gerade bei computern) so begrüßenswert ist.
außerdem ist die maxime "ich lass mir doch nichts verbieten!" auch keine lösung; wo kommen wir den hin wenn jeder alles tun darf nur weil er es "kann"?
wie wäre es mit einer entwicklung die performancezuwächse nicht zum großteil aus mehrverbrauch an strom herauszieht?
allein schon etwas mehr drall richtung effizienz und etwas weniger zug richtung was-der-chip-an-strom-fressen-kann würde schon massiv helfen - ok, die balken in benchmarks mit der vorgeneration würden vielleicht einen tacken kürzer ausfallen, aber dass ich etwas womit der großteil der menscheit bestens leben könnte.
wahrscheiblich wäre der performance/watt vergleich dann weitaus besser als die zuwächse die man allein aus moderneren fertigunsprozessen zieht.
 
Vitec schrieb:
Der AD 102 legt halt bei den Shadern ordentlich drauf, da könnte ich mir evtl. auch ein 512bit SI vorstellen, was dann mit kaum vorstellbaren 32GB und der reinen Rohleistung, die Energieaufnahme erklären könnte.
Wenn man hier allerdings eine kleinere 4090 ableitet und mit 448bit 28GB VRAM rausbringt, dürfte das dann vielleicht noch im 500W Berreich landen für Consumer.
Wenn meine Vermutung stimmt, würde das zumindest die 800W beim Vollausbau erklären und dort dann aber auch angemessen der Leistung ausfallen.

Interessanter werden hier die 4070/4080, die mit denselben Specs wie aktuell die 3080/3080Ti/3090 rauskommen könnten und damit diese ablösen. Beim VRAM legt Nvidia hier hoffentlich gleich mit 24GB bei der 4080 und 20Gb bei der 4070 los.
Und wenn NV hier wirklich mal überdimensioniert Vram oben anbieten wird dürfte das auch ein paar Watt benötigen, wie man an 3090 vs. 3080Ti sieht.
Am interessantesten dürfte hier wie immer die Mittelklasse werden- 4060/4060TI mit 16Gb vram.
Unten rum dann noch ne 3050TI mit 12GB und ne 3050 mit 8Gb und fertig NV, mehr braucht es nicht.

Dazu gibt es ja noch potential bei den RT Kernen mit Gen 3.0? und Tensor Gen 4.0?

Sehe da auch ein interessantes technisches Duell zwischen der RTX 2060S(TU106) und einer AD106, was den Leistungsgewinn und Effizienz über 2 Generationen angeht.
Ich denke für die professionellen Karten wird man ähnlich wie jetzt mit der A100 bei HBM2 bleiben und somit nicht vergleichbar zu den Desktop-Karten, eine 4090 würde ich nach wie vor bei 24GB einordnen (wozu auch mehr für Consumer/Prosumer) mit 384 Bit Interface. Eine 4080 Ti wäre wohl wie jetzt bei 12GB mit 384 Bit, eine 4080 bei ebenfalls 12 GB, eventuell aber mit weniger schnellem Speicher plus natürlich kleinerem Ausbau der GPU. Eine 4070 sehe ich bei 10 GB und eine 4060 so um die 8GB.

Alternativ eine 4090 mit 32GB und 512er IF sowie eine 4080 Ti bei 16GB mit 512er IF - wäre aber recht viel für nVidia und ihre bisherige Speicherpolitik.
 
cypeak schrieb:
wie wäre es mit einer entwicklung die performancezuwächse nicht zum großteil aus mehrverbrauch an strom herauszieht?
Wie haben schon längst die physikalischen Grenzen dessen überschritten, was eine solche Entwicklung möglich machen würde und letzten Endes definiert sich unsere Gesellschaft nur durch endlosen Wachstum.
 
  • Gefällt mir
Reaktionen: GERmaximus
Was sollen eigentlich diese albernen Beschwerden über den Stromverbrauch? Die Ingenieure können auch nicht die Gesetze der Physik aushebeln und wir kommen langsam an die Grenzen von Halbleitern.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Hovac schrieb:
Staubsauger haben auch früher keine 1700 W Dauerlast verbraucht, das war nur die Spitze die gezogen werden konnte.

Das stimmt leider nicht so.
Zunächst einmal werden Spitzen nicht in Watt, sondern VA angegeben.
Des Weiteren sind Staubsauger in mehrerlei Hinsicht ineffizient gewesen und bieten designmäßig Optimierungsmöglichkeiten an.

-Universalmotoren sind ineffizient
-Beutellösungen haben nach Beutelfüllung immer weniger Saugleistung
-Der ganze Luft-/Leckstrom.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Wasserhuhn schrieb:
Des Weiteren sind Staubsauger in mehrerlei Hinsicht ineffizient gewesen
Im Grunde genommen trotzdem irrelevant, weil schon die Ausgangssituation an den Haaren herbeigezogen war.
Das Hauptziel der EU-Staubsauger-Verordnung ist es, den Stromverbrauch dauerhaft zu drosseln. Zur Verbildlichung: Saugmodelle mit einer 1600-Watt-Leistung kosten jährlich etwa 90 Euro, wenn sie täglich für 30 Minuten genutzt werden. Geräte mit 900 Watt verbrauchen unter den gleichen Bedingungen weniger als 50 Euro. Dadurch können auch die CO2-Emissionen nahezu halbiert werden.

Mag sein, dass es tatsächlich Haushalte gibt die täglich eine halbe Stunde saugen, ich kenne jedenfalls niemanden. Von den ganzen EU Richtlinien die bisher verbschiedet wurden, ist das definitiv die unsinnigste und hat nur dazu geführt, dass die eigentlichen Staubsauger teurer, komplexer und störanfälliger wurden. Die fehlende Saugleistung gleichen viele Geräte heutzutage mit rotierenden Bürsten, das ist nicht nur blöd sondern bedeutet auch einen höheren Materialaufwand, mehr Ersatzteile und zusätzliche Störquellen.

Es hat außerdem auch noch mit dazu geführt, dass Akkusauger praktikabel wurden, weil man solche niedrige Leistungen auch mit solchen Geräten erreichen kann. Wurden CO2 Emissionen dadurch gesenkt? Genau das Gegenteil dürfte passiert sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hovac, Newbie_9000, Lemiiker und 3 andere
xexex schrieb:
Wenn Nvidia die Karten mit 16GB (4080) oder 12GB (4070) ausstattet, dann ist es noch und für viele Jahre in die Zukunft mehr als genug.
Natürlich ist meine Vram Ausstattung absolut überdimensioniert, jedoch sind wir bei einem normalen 384 bit si wieder nur bei 12gb für die 4080 und 10gb für die 4070 und NV will ja hoffentlich auch RT weiter pushen und das braucht halt auch ein wenig vram. Könnte aber sein, dass es für Nv reicht, dass sie die Kompression wieder verbessern, da sind sie eigentlich ganz gut darin.
Der beste Kompromiss wären wohl 18GB vram beim 384 Si und 15Gb vram für das 320er si, dann wären bei den 256er karten auch 16GB möglich.

Und die Enthusiasten schreien nunmal nach VRAM, aber da die Ram Ausstattung immer an das Si gebunden ist, hat Nvidia hier ein kleines Problem im Gegensatz zu AMD die mit 256 bit einfach 16Gb verbauen können und damit ordentlich Puffer bieten. Könnte mir aber vorstellen, dass NV auch an einer IF Lösung arbeitet um auf 256bit Si zurückzugehen mit 16Gb Vram, nachdem AMD vorgezeigt hat, dass dieser Weg nicht so schlecht ist, allerdings frühestens bei der 5k Gen von NV.

Für mich persönlich sehe ich mich sowiso eher im low Mid Range Berreich und RT ist noch nicht relevant, sowie eine mögliche 4060 mit 12Gb vram mehr als genug. Alles darüber wäre nur ein Bonus.

ThirdLife schrieb:
Ist hier teilweise fast wie in Autoforen wo alle kreischen wenn ein neuer Veyron/Chiron etc. rauskommt und man dessen Spritverbrauch auf sich selbst bezieht und darüber abheult. Tut ja jeder so als ob man das haben müsse und keine anderen Möglichkeiten hätte.
Wobei die heutigen Hypercars beim Verbrauch auch schon sehr moderat sind im Vergleich zur Leistung. Wenn man sich ansieht, dass die 8L Viper mit 400PS früher ihre 30 Liter gezogen hat, wenn man bischen aufs Gas steigt :evillol: .
 
Zuletzt bearbeitet:
Silencium schrieb:
2020 erst von 520W auf 750W für 200 Taler gewechselt, da die 2080Ti in Leistungsspitzen das erste mal ein Seasonic von mir überlastet hat. Das obwohl ich nie mehr als 440W am Messgerät gesehen habe!
Das ist der Unterschied zwischen Theorie und Praxis und Anzeigen von Messgeräten und Realität :heilig:
:schluck:
 
"der Radeon-RX-6000-Serie" > das muss heißen "Radeon-RX-7000-Serie"
 
PegasusHunter schrieb:
He!! verdeckte Linien/Kanten werden gestrichelt dargestellt. !!!:heilig:
Nene, wenn ich dir den kleinen Finger gebe, willst du am Ende auch noch einen Aufriss und Grundriss haben:D
 
  • Gefällt mir
Reaktionen: PegasusHunter
Könnte meinen das die Technik aktuell an einem Punkt angelangt ist, wo mehr Leistung nur noch durch mehr Watt erreichbar ist. Intel bekommt es ja auch nur noch mit der Brechstange hin, einzig AMD scheint da noch etwas Spielraum zu haben
 
Sollte man da jetzt noch ein paar Wochen warten? Wann ist denn da ein Release denkbar? MIr geht es eher darum, dass die aktuellen im Preis fallen könnten.

Hat da jemand eine Idee?
 
Die Preise können fallen, aber auch wieder steigen, das weiß niemand. Ob Intel da großen Einfluss auf die Preisgestaltung hat würd ich bezweifeln, Mining steigt grad eher wieder.
Persönlich glaub ich nicht das sich hier großartig was bewegt und mit RTX 4000 wird bestimmt die UVP kräftig angehoben, die Leute kaufen ja sowieso, egal welches Preisschild dranhängt.
 
  • Gefällt mir
Reaktionen: DrTimeWaste und Lemiiker
Cheechako schrieb:
Hat da jemand eine Idee?
Darüber kann man wie immer nur spekulieren!

Momentan fallen die Preise und vielleicht bleibt es auch so.... Vielleicht werden durch den Nvidia Hack, die LHR Karten für die Miner wieder interessanter. Vielleicht wird wegen dem Krieg und den Sanktionen mehr Mining betrieben. Vielleicht gibt es bald eine andere Corona Variante und alles bleibt wieder stehen.....

Wenn man nicht wirklich bereit ist die noch immer überhöhten Preise zu bezahlen, hilft da eigentlich nur die Preisentwicklung und die Verfügbarkeit genau zu beobachten. Aktuell scheinen viele Modelle in den Lagern zu liegen, weshalb auch die Preise fallen und Scalper das weite suchen, aber das kann sich schnell wieder ändern.
 
  • Gefällt mir
Reaktionen: Vitec
Zurück
Oben