Gerüchte zur Leistung und Verbrauch Nvidia Ampere

Smartin

Rear Admiral
Registriert
Feb. 2005
Beiträge
5.551
Ich weiß nicht, ob es hier richtig ist (ansonsten verschieben), aber da CB dazu noch nichts als News gebracht hat, dachte ich, ich mach mal einen Thread auf.

Es gibt erste Gerüchte zur Nvidia Ampere. Was haltet ihr davon?
Diese soll etwa die Hälfte der Energie von Turing benötigen und etwa 50% Leistungszuwachs bringen.
https://www.pcgameshardware.de/Nvid...ich-deutlich-schneller-und-sparsamer-1340408/

Meine Überlegungen:
Mir erscheinen die Zahlen schlüssig. In der Vergangenheit gab es immer etwa einen solchen Schub. Damit dürfte die 3080 wieder etwa 10-20% schneller als die 2080Ti sein. (vielleicht sogar noch etwas schneller). Eine 3080Ti dürfte wahrscheinlich wieder einen ähnlichen Vorsprung zur 3080 haben, wie jetzt die 2080Ti zur 2080.
Interessant ist der Stromverbrauch. Hatte nvidia zu letzt eher Leistungssteigerungen zu Lasten des Verbrauchs erzielt (zB mit der Superserie), was dafür spricht, dass die physikalischen Limits erreicht waren, scheint der Shrink wieder eine deutliche Leistungsreduktion zu ermöglichen. Eine Verbrauchsreduzierung von 50% hätte ich allerdings nicht erwartet.
Man darf gespannt sein, was in den nächsten Tagen und Wochen bekannt wird. Scheint aber wohl mal wieder größerer Wurf zu werden. Bin gespannt, was AMD dagegensetzt, wobei hier vermutlich die Achillesverse der Verbrauch wieder mehr hervortreten dürfte. Denn es ist wohl eher davon auszugehen, dass eine "5800XT, 5900XT" mehr Leistung verbrauchen wird als die 5700XT (bei einem vermuteten doppelt so grossen Chip wohl auch deutlich mehr). Mal sehen, was da letztlich kommt aus den Lagern. Scheint ein heißer Sommer zu werden, buchstäblich und sprichwörtlich.

Interessant wird natürlich auch der Preis werden. Ich hoffe, dass zu teurer Speicher nicht einen Strich durch meinen Plan eines Updates macht (hoffentlich GDDR6 und kein HBM RAm und hoffentlich geht der GDDR6 RAM-Preis nicht so durch die Decke, wie vermutet wird).
 
Vorstellbar wäre etwa, dass lediglich die Raytracing-Performance um 50 Prozent zulegt
Das ist aus meiner Sicht der realistischere Fall ;-) Die generelle Energieeffizienz zu verdreifachen hört sich für mich etwas zu gut an, um wahr zu sein.
Also eher:
1. bis zu 50% mehr RT-Leistung, gleiche Shaderleistung und 50% weniger Verbrauch wie Turing ODER
2. bis zu 50% mehr Shaderleistung bei gleichem Verbrauch zu Turing

Beide Fälle wären an sich schon beeindruckend genug!
 
So war auch meine Vorstellung davon, 50% die RAYs und die üblichen ~25% allgemein.
 
Jede Spekulation darüber ist Schwachsinn, Nvidia wird sein Produkt passend zum Start so platzieren das niemand im Vorfeld sagen kann wie die Leistung ausfallen wird, ich persönlich glaube nicht das AMD irgendetwas auf den Markt bringen könnte das Nvdia von Platz 1 verdrängen könnte deshalb wird es bei maximal 20-30% plus rauskommen selbst wenn sie 50% schaffen könnten/müssen.

Ich denke sie werden massiv die Raytracing Leistung aufbohren. Da sie zur Zeit sowieso nicht zu gebrauchen ist und die leistung ohne Raytracing wird im Bereich von 10-15 % steigen.
 
Nun, 50% Mehrleistung bei 50% weniger Stromverbrauch halte ich für deutlich unrealistisch.
Natürlich wird die kommende Generation schneller und vielleicht auch sparsamer sein. Aber so massiv wird es von einer Generation auf die unmittelbar nächste wohl nicht ausfallen.

Ich schätzte aber das sie aufgrund der Verkleinerung der Strukturbreite mehr Raytracing-Einheiten verbauen werden.
Vor allem bei dieser einzigen, neuen Technik, wird man sicher eine spürbare Entwicklung sehen können.

Der insgesamte Leistungszuwachs wird sich aber in Grenzen halten und sicher in einer ähnlichen Größenordnung zu finden sein wie auch schon bei den letzten Generationen.
nVidia ist auch nicht in Zugzwang.
 
Dass die Leistung nur bei Raytracing so hochgeht, kann ich mir irgendwie nicht so ganz vorstellen.
Wenn man schaut, dass die Leistungssteigerungen in den letzten Jahren immer etwa gleich waren:
780Ti => 970
980ti => 1070
1080Ti => 2070
2080Ti => 3070?
dann käme das eigentlich hin. Ich glaube auch nicht, dass nvidia mit einem Shink auf 7nm nur eine Leistungssteigerung von 30% oder sowas rausbringt. Das wäre nicht interessant. Oder sie machen die Karten dafür wieder deutlich günstiger. Aber die Erwartungen sind bei Ampere m.E. allein durch den Shrink schon deutlich höher. Im Grunde ist ja auch lange nichts neues gekommen.
Ist natürlich auch die Fragen wovon 50%, von der "normalen" oder der "Super" Edition? Bei der normalen wäre alles weniger als 50% eigentlich schon eine Enttäuschung, da die Super ja schon an die 20% draufgepackt hat.
 
@Smartin warum machst du nicht einfach im vorhandenen Gerüchte-Thread von gestern weiter? Passt doch thematisch genau rein?
https://www.computerbase.de/forum/threads/nvidia-ampere-neue-titan.1915873/page-2#post-23553446

Sammelt doch einfach sowas in einem einzelnen Thread, am Ende kann man dann bei Release nochmal zurückschauen und sehen wie gut ihr spekuliert habt und welche Gerüchte wie "gut" waren. DAS wäre doch mal witzig, dann sieht man wer hier wirklich Ahnung hat und wer nbur gewürfelt hat. So wie es auch einige der Leak-Seiten gerne machen. "Produkt X mit Y% mehr Leistung bei Z% weniger Verbrauch" - da hat man auch oft gesehen, dass einige Seiten einfach nur ein Stück vom Click-Kuchen abhaben wollen.

Ich bin für einen "Nvidia 2020(1?) GPU Spekulatius-Thread" - analog auch für andere Themen.
 
  • Gefällt mir
Reaktionen: Tranceport, Khalinor und |SoulReaver|
Hat wohl eher mit der Steigerung von Raytracing zu tun, und auf das kann ich gut und gerne verzichten. Sollte sie aber mehr Schmalz unter der Haube haben und das mit weniger Watt. Ja dann her damit. Abseits davon der grund warum ich erst von der 1080TI auf diese neue Generation umsteige.

Andere News dazu.

Post 7. In der Tat wahre Worte.
 
Zuletzt bearbeitet:
@abcddcba
Naja die Frage, ob es eine Titan geben wird, ist thematisch schon was anders gelagert, als wenn man konkrete Gerüchte/Informationen diskutiert. Aber klar kann man das auch zusammenschieben.
Mich wundert eh, dass CB zu den Gerüchten keine Info gegeben hat. Ich denke, dass das interessante Infos sind. Ich warte jedenfalls schon lange auf Infos zur neuen Leistungsklasse (Nvidia Ampere bzw. 5800XT/5900XT), da ich mir nur in dieser Leistungsklasse meine nächste Karte vorstellen kann.
 
Ich bin auch schon ganz hibbelig, was die neuen Generationen zu bieten haben. Der Sprung soll ja (laut Gerüchten) ähnlich ausfallen, wie damals von der 900er auf die 10er Serie. Wird also dann Zeit, meine 1080ti in Rente zu schicken.
 
Ich denke Nvidia wird sich vor allem auf eine gesteigerte Raytracing Performance konzentrieren. Rein bei der Shaderleistung würde ich nicht zu viel erwarten.

Eine 1080ti ist auch näher an der Leistung einer 2080 als 2070 dran. 1080ti -> 2070 stimmt also nicht.

50% höhere Leistung bei gleichzeitig 50% weniger Energiebedarf würde bedeuten Ampere würde bei gleicher Leistungsaufnahme wie Turing 100% mehr Leistung liefern. Das liegt weit über dem Sprung von Maxwell zu Pascal und würde ich mal stark anzweifeln.

Daher, viel wahrscheinlicher ist es, dass Nvidia vor allem die RT Performance weiter vorantreiben wird. Die erste Generation konnte die Kunden nicht wirklich überzeugen und auch die Leistung fiel bei den „günstigen“ Karten zu niedrig aus. Nvidia ist hier im Prinzip All-In gegangen und muss seine Investoren auch bedienen. Da muss also mehr RT Leistung her.
 
Zuletzt bearbeitet:
50% mehr Leistung bei 50% weniger Verbrauch ist natürlich Unsinn.
Die 50% weniger Verbrauch werden wohl für den Fall gelten, dass die Leistung gleich ist.
50% Mehr Leistung sind zwar technisch möglich. Aber mit Ausnahme von Pascal gab es eigentlich pro Generation immer um die 33% Mehrleistung.
Davon gehe ich auch erstmal aus.

D. H. Bei gleicher Leistung verbraucht Ampere 50% weniger. Oder der Chip ist 33% schneller.
 
An ein "entweder oder" glaube ich nicht. Warum soll sich die Effizienz nicht trotz Leistungssteigerung verbessern? An die 50% zu 50% glaube ich zwar auch nicht. Aber durchaus daran, daß sie die Leistung steigern und den Verbrauch verringern können. Wieviel das dann letztlich wird, sehen wir hoffentlich bald.
 
Um die Gerüchteküche nicht versiegen zu lassen..

langsam wirds ineressant :-)
 
Zurück
Oben