News Nvidia GeForce RTX 4090: AIDA64 erhält Support für die Ada-Speerspitze

anappleaday schrieb:
Wird wie immer Custom Modelle geben die genau das bieten oder eben zum selber drauf basteln. Same old same old. Gähn 🥱
Ja allerdings kosten Custom Modelle immer erheblich mehr. Auch ein Kühler den ich selber draufmache kostet um die 150 Taler extra und ich habe mehr Arbeit.
Wäre für mich und einige andere einfacher wenn man das gleich anständig kaufen könnte ohne das man den Standardkühler mit bezahlen muss und der dann im Schrank versauert.
 
  • Gefällt mir
Reaktionen: Keymaster86
NighteeeeeY schrieb:
Hatten wir solche Sprünge schon mal von einer Generation zur nächsten?
Radeon HD 4870 (2008) auf 5870 (2009), von 1,2 auf 2,72. Machte damals ganze 126,6% plus.
In Spielen hat das aber "nur" etwa 60-70% mehr Leistung gebracht. Ja nach Auflösung auch weniger.
Und das obwohl die Leistungsaufnahme "nur" um 19% gestiegen ist.
Nvidia konnte erst über ein halbes Jahr später, mit noch einmal 50% höheren Leistungsaufnahme, 15% draufpacken.
Das waren noch Zeiten wo auch mal Nvidia hinterhergehangen hat.
 
  • Gefällt mir
Reaktionen: Wintermute, Smartbomb, Coeckchen und eine weitere Person
LokiDKS schrieb:
Ja allerdings kosten Custom Modelle immer erheblich mehr. Auch ein Kühler den ich selber draufmache kostet um die 150 Taler extra und ich habe mehr Arbeit.
Willst dir also die absolute High End klasse gönnen (4090) und dazu sogar auf Wasserkühlung gehen und dann bereiten dir 150€ Zusatzkosten sorgen? Joa…

Als ob man sich einen Lambo holen will aber die Soundanlage dann zu teuer ist 😏
 
Gebe keine 2000€ für eine Graka aus. Irgendwann ist mal die Grenze erreicht.
 
  • Gefällt mir
Reaktionen: _Flattermann_ und Onkel Föhn
NighteeeeeY schrieb:
82 TFLOPS? Kann das stimmen? Das wäre mehr als doppelt so viel, wie eine 3090 Ti? Hatten wir solche Sprünge schon mal von einer Generation zur nächsten? Das klingt ja absurd viel.
RTX 2080 Ti hat in FP32 13.4 TFLOPS gemacht. Die RTX 3080 aber 29.8 TFLOPS. Also auch deutlich über einer Verdoppelung. Wobei das beim Sprung von Turing zu Ampere den neuen INT Einheiten zu verdanken ist.

Turing hatte FP32 + INT und Ampere hat FP32 + INT/FP32, also der INT Block kann nun auch wahlweise FP32. Das führte genau deshalb auch zu der Diskrepanz, das Nvidia plötzlich die doppelte Anzahl an FP32 ALUs angegeben hat. Deshalb hat die 2080Ti 4352 ALUs, die 3080 aber 8704 was (oh Wunder) exakt das Doppelte ist.

https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-3080-test.73540/
 
  • Gefällt mir
Reaktionen: nighteeeeey und fox40phil
Hab kein gutes Gefühl bei der RTX 4000er Serie.

Zu sehr probiert NV in aller Munde zu bleiben.
 
  • Gefällt mir
Reaktionen: dualcore_nooby, Fighter1993 und Onkel Föhn
Keymaster86 schrieb:
Bin da von meiner 3090 etwas enttäuscht gewesen nach der "8k Gaming" Ansage.
Da wirst nicht der Einzige gewesen sein, jener dem NV Marketing auf dem Leim gegangen ist.
Aber dafür kannst ja jetzt die 4090 kaufen. Die packt es diesmal wirklich, versprochen ... ;)

p.s.

"Die Nvidia GeForce RTX 4090, das kommende Spitzenmodell mit AD102-300-GPU und 16.384 Shadereinheiten"

Heißt im Umkehrschluss, dass es keine Ti von der 90´er geben wird ?!?

MfG Föhn.
 

Anhänge

  • 3090 8K Gaming.jpg
    3090 8K Gaming.jpg
    450,6 KB · Aufrufe: 239
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Smartbomb und ReVan1199
Der AD102 Vollausbau (angeblich) liegt aber Gerüchteweise bei 144 SM und nicht bei 128 - da ist also noch Luft nach oben.

Der AD103 bei 84 SM und der AD104 bei 60 SM - also auch hier Platz für Ti karten.
 
Zuletzt bearbeitet:
Ich freu mich auf die 4090. Sobald es Customs gibt, wandern meine beiden 3090 nach 2 Jahren Dauereinsatz bei eBay. Ich würde ja zu gern mal was von AMD nutzen, geht aber leider nicht…..
 
Mal eine Frage....

https://www.pc-erfahrung.de/hardwar...che-leistungsfaehigkeit-von-grafikkarten.html

Speicherschnittstelle (Memory Interface)​


Die Speicherschnittstelle einer Grafikkarte ist die Verbindung zwischen Grafikchip und Grafikspeicher. Je breiter die Speicherschnittstelle ist, sprich je mehr Datenleitungen vorhanden sind, desto mehr Daten können zum und von dem Grafikspeicher gleichzeitig transferiert werden. Bildlich kann man sich dies als Daten-Autobahn mit mehreren Fahrbahnen vorstellen.


Die Angabe der Speicherschnittstelle erfolgt in Bit. Die theoretische Leistungsfähigkeit wird als Speicherbandbreite (Memory Bandwidth) angegeben, welche abhängig von der Breite des Speicherinterfaces, der Grafikspeicher-Technik (SDR, DDR, usw) und dem Grafikspeicher-Takt abhängig ist. Wichtig: es ist ein Irrglaube, dass die Größe des Grafikspeichers entscheidenden Einfluss auf die Leistungsfähigkeit einer Grafikkarte hat! Ähnlich wie bei einer herkömmlichen Festplatte ist nicht die Größe, sondern die Schnelligkeit der Festplatte für eine gute Performance verantwortlich. Was nutzt ein großer Grafikspeicher, wenn die Grafik-Daten nicht schnell genug in den Grafikspeicher geschrieben bzw. gelesen werden können?


Aus diesem Grund ist die Speicherbandbreite ein wichtiger Leistungsindikator einer Grafikkarte und nicht die Größe des Grafikspeichers.

Mal ganz blöd gefragt.... wieso haben wir seit gefühlt 15 Jahren immer noch dieses 256bit Speicherinterface?
Diesen Link hatte mir mal einer hier aus der Community zukommen lassen.

Wenn die Grafikkarten immer besser werden, also von Grund auf an Mehr Leistung fahren könn(t)en, wie erklärt sich dann das gleichbleibend kleine Speicherinterface?
Ich verstehe einfach nicht, wieso das so klein bleibt. Lediglich die Topmodelle haben meist eine andere Größe, wenn auch diese immer gleichbleibend größer ist als der Rest.

Ich habe zum Beispiel noch eine 1080ti im PC, welche ein 352bit Speicherinterface besitzt. Wieso sind bei der heutigen potentiellen Leistung nicht grundsätzlich alle Speicherinterfaces größer? Weil unnötig?
Scheinbar gibt es ja doch mehr Faktoren als nur die Rohleistung oder wie?

Kann da vlt. kurz mal jemand eine verständliche Erklärung zu abgeben?^^
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Naja, die reine Breite des Interface ist ja nur ein Teil der sich ergebenden Bandbreite.

Du hast ja grundsätzlich immer zwei Möglichkeiten mehr Bandbreite zu bekommen:

1- Breiteres Interface an gleichem Speicher

2- Schnellerer Speicher an gleicher Interfacebreite

Man nimmt für gewöhnlich wenn möglich zweiteres (schnellerer GDDR6, z.B. mit 24gbit/s statt 20gbit/s) da ein breiteres Speicherinterface mehr komplexität und Flächenverbrauch bei IO-Part des Chips, sowie der komplexität der Platine mit sich bringt. Diese Kosten dürften deutlich höher liegen, als der typische Aufpreis für eine neue oder höher taktende GDDR Version.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und flo.in.da.base
cookie_dent schrieb:
Na gut, wenn die 4080 dann schneller als die 3090Ti ist und dabei effizienter arbeitet würde das für mich fast schon passen.
Vorausgesetzt sie hat mehr als 10GB Speicher...
Und damit hast du die "neuen" Preise gefressen.
Eine 4080 sollte max 500€ kosten.
Die 4090 dann max 750€ dann wäre das schon in Ordnung.
Ergänzung ()

Grundgütiger schrieb:
Hab kein gutes Gefühl bei der RTX 4000er Serie.

Zu sehr probiert NV in aller Munde zu bleiben.
Bis jetzt ist der Tenor auch der, das Nvidia gegen AMD diesmal hinterher hinkt.

AMD könnte es sogar schaffen mit geringerer Leistungsaufnahme schneller zu sein.
Ergänzung ()

Plasma81 schrieb:
Ich freu mich auf die 4090. Sobald es Customs gibt, wandern meine beiden 3090 nach 2 Jahren Dauereinsatz bei eBay. Ich würde ja zu gern mal was von AMD nutzen, geht aber leider nicht…..
Warum nicht?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere, Onkel Föhn und Kenshin_01
NighteeeeeY schrieb:
Das wäre mehr als doppelt so viel, wie eine 3090 Ti?

Der Sprung von Samsungs 10nm class node zu TSMCs EUV 5nm class node ist auch schlicht riesig.
Da ist beim Logikanteil das ~3 Fache an Transistordichte drin.

@flo.in.da.base
Busse skallieren kaum mit dem Fertigungsprozess. Das ist das wesentliche Problem on die. HBM vereinfacht den Aufbau des Busses massiv, wodurch dort deutlich größere Busse häufig sogar weniger Platz einnehmen als klassische GDDRX Busse. Dazu kommt, dass sich an anderen Stellschrauben der effektiven Bandbreite etwas getan hat. Pascal komprimiert die übertragenen Daten beispielsweise schon so massiv, dass sich die effektive Datenrate mehr als verdoppelt. Auch erhöhte Taktraten der Übertragung und die Erhöhung auf Pam4 4 bit Übertragung haben da die Datenrate bei gleicher Busgröße in die Höhe getrieben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: flo.in.da.base
NighteeeeeY schrieb:
82 TFLOPS? Kann das stimmen? Das wäre mehr als doppelt so viel, wie eine 3090 Ti? Hatten wir solche Sprünge schon mal von einer Generation zur nächsten? Das klingt ja absurd viel.
Überlegt mal was Vega für Rohdaten hatte und hinkte GTX 1000 hinterher.
 
  • Gefällt mir
Reaktionen: Grundgütiger und nighteeeeey
Würde es Sinn machen mit dieser Karte nach Bitcoins zu schürfen oder wäre ein anderes Modell besser geeignet?
 
Plasma81 schrieb:
Weil es keine brauchbaren denoiser wie bspw. Optix auf AMD Basis gibt.
Sowohl Davinci Resolves integrierter temporaler denoiser, als auch der Branchenprimus "Neat Video" funktionieren hervorragend mit OpenCL.

Das CUDA aber grundsätzlich besser unterstützt wird, stimmt absolut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Karl.1960 schrieb:
Gebe keine 2000€ für eine Graka aus. Irgendwann ist mal die Grenze erreicht.

Ich kaufe sonst ständig neue Hardware, doch diesen Mist mache ich auch nicht mit. Meine 3080 wird noch bis mindestens RTX 5k im Rechner bleiben. Und dann erwarte ich faire Preise. Die Karte sollte auch noch in 4 oder 5 Jahre relativ schnell sein 🙂
 
  • Gefällt mir
Reaktionen: Onkel Föhn
menace_one schrieb:
Sowohl Davinci Resolves integrierter temporaler denoiser, als auch der Branchenprimus "Neat Video" funktionieren hervorragend mit OpenCL.
Ich vermute er bezieht sich wegen der Erwähnung von Optix eher auf Denoiser für Blender 3D Szenen die voll Raytraced sind.
 
  • Gefällt mir
Reaktionen: menace_one
Onkel Föhn schrieb:
Heißt im Umkehrschluss, dass es keine Ti von der 90´er geben wird ?!?
Natürlich wird es Ti geben, wie sollte man sonst doppelt abkassieren..?
 
  • Gefällt mir
Reaktionen: Smartbomb und Onkel Föhn
Zurück
Oben