News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

Mr. Smith schrieb:
Die Diskussion hatten wir schon.
Wieviel Netto-FPS haben dir die Tensor Cores so in deinem favourisierten Game genau gebracht? Genau 0.

100% mehr als bei einer 1080Ti, die das nicht mal nutzen kann?
In Battlefield V z.B. gab es nach den Optimierungen immerhin ~110 fps (von anfänglich 70 fps, und das war fail, ja) auf DX12 Ultra + Raytracing settings @ 2560x1440.

RTX off hatte ich 140 bis 150 fps.

Ich kenne genug, die von einer 1080Ti auf die 2080Ti umgestiegen sind, weil die 1080Ti gute Verkaufspreise hatte und eben dann doch unter DX12 gegen die 2080Ti deutlich einbricht. Und sie hat weder DLSS noch Raytracing, also ja, je nach "usecase" war es das voll wert und hat das gebracht, was man wollte.
 
Midium schrieb:
Igor bezog die 60W aber immer auf die 24GB RAM Variante. Somit blieben 25W bei 10GB. Ohne RAM hat die 3090 somit 290W TDP, die 3080 jedoch 295W. Jetzt klar worauf ich hinaus möchte?

Evtl resultieren die 5watt aus höheren Leckströmen aufgrund des schlechteren Chips.
die 3080er Chips werden ja wie üblich teildefekte bigchips der 3090 sein, die dann ggf. Noch beschnitten werden
 
Pinsel schrieb:
Moin... Jetzt nur meine Meinung, aber welchen Sinn macht 5k/8k beim PC?
Beim TV ganz klar-> Bildschirmgröße, Sitzabstand etc. Aber beim PC?
Genau, nur bei z.B. 8k 88" hdmi 2.1 TV
Aber ja, so nah wie man an nem PC Monitor ist bringt das wenig.. außer die Leute die 5k und 8k Content herstellen. Abgesehen von in nativer Auflösung spielen also nix.
 
Loopman schrieb:
Es sind 320bit. Und er meint natürlich die 3080 ;)
Hab ich verstanden. Wenn 10gb mit 320bit angebunden sind und der Chip maximal 384bit bei 12 oder 24gb hergibt... Wie soll man dann 14 oder 16gb mit vernünftiger Bandbreite anbinden?

24gb sind 12 Chips mit je 32bit breitem Interface pro Chip oder 24x16bit = 384 Bit
10gb sind 10 Chips mit 32bit oder 20x16bit = 320 Bit
8gb wären 8 Chips mit 32bit oder 16x16bit = 256 Bit
16gb wären auch 16 Chips mit je 16 Bit Interface = 256 Bit Interface

Geht man also auf 16gb, dann muss man auf 256 Bit runter, was dann in 624gb/s Bandbreite enden würde wenn man die 19,5gbit/s Chips verwendet. Denn der GA102 wird wohl kaum ein 512 Bit Interface haben... Und wer kauft denn eine 3080 "Ti" mit 16gb aber weniger Bandbreite als die 3080 hat?

Die einzige Variante die bleibt ist entweder auf 11 oder 12gb (alternativ 22 bzw. 24gb) für eine Karte zwischen der 3080 und 3090 zu gehen. Oder von 10 auf 20gb zu verdoppeln während das Interface bei 320bit bleibt.
 
Mr. Smith schrieb:
Der Test ist von Mitte Mai und es steht auch drin, dass die Partner-Karten im Juni erscheinen werden und auch günstiger sein werden. Das waren sie auch... und zwar ein ganzes Stück.
Das ist doch albern für einen vernünftigen Vergleich sich irgendwelche Partnerkarten rauszusuchen, die 2 Monate später Released sind und dann mit deren Straßenpreis zu vergleichen.
Es macht nur Sinn den offiziellen UVP der jeweiligen "Founders Edition" zu betrachten.
Es gibt übrigens auch Partnerkarten, die deutlich teurer sind als die Founder Edition...
 
Midium schrieb:
Igor bezog die 60W aber immer auf die 24GB RAM Variante. Somit blieben 25W bei 10GB. Ohne RAM hat die 3090 somit 290W TDP, die 3080 jedoch 295W. Jetzt klar worauf ich hinaus möchte?

Anhand der Datenblätter taktet die 3080 höher. Mehr Takt, mehr VCore, mehr Verlustleistung.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Hallo,

Hat es jemals eine Titan von Boardbartnern gegeben?
Soweit ich mich erinner nicht, also schließe ich daraus, dass die 3090 der Nachfolger der 2080ti ist und nicht der Titan oder eine neue Stufe, was meint ihr dazu?

Deshalb könnte ich mir vorstellen, dass sich der Preis eher an der 2080ti orientiert - +/- 100€

Eine neue Stufe wäre vermutlich auch eine nicht ganz unrealistische Möglichkeit, immerhin könnte man dann noch ti’s und super nachschieben.

Ich glaube bis 1300€ würde ich bei einer 3090 (wenn die Leistung passt) mitgehen.

An und für sich, gebe ich offen zu, bin ich schon ein kleiner „Fanboy“ (in diesem Bereich Intel/nVidia) allerdings hatte ich auch in der Vergangenheit Ausflüge zur Konkurrenz und ich streit mich mit niemanden und trage das auch nicht großartig in die Welt hinaus - sind halt meine bevorzugten Marken.
Diese Jahr hat es allerdings auch Intel bei mir erwischt und es werkelt ein AMD in meinem Rechner. Das gleiche kann auch passieren wenn es nVidia übertreibt.

Lg. Dave
 
  • Gefällt mir
Reaktionen: Pulsar77, miro98, GERmaximus und 2 andere
Mehr 3070er, bitte!
 
Gibt es schon Preistipps? ;)

RTX 3070 ... ab 600€
RTX 3080 ... ab 900€
RTX 3090 ... ab 1.500€

:smokin:
 
  • Gefällt mir
Reaktionen: dohderbert
Extra eine 2. Version die Ganze 30 MHz höher taktet.
Das ist so was von unnötig AUA :utrocket: :stock:
 
  • Gefällt mir
Reaktionen: andy484848 und McFritte
romeeee schrieb:
Anhand der Datenblätter taktet die 3080 höher. Mehr Takt, mehr VCore, mehr Verlustleistung.

weniger cores..
weniger effizienz bei der karte unter spitzenmodell wäre strange, abwarten und gin trinken.
 
Zuletzt bearbeitet:
Mich interessiert mittlerweile nur noch eins (denn alles andere ist ja mittlerweile weitgehend bekannt): Wie sieht der Einführungspreis aus?

Einige Preisspekulationen hier (2000 Euro+ für die 3090, 1200 Euro+ für die "normale" 3080 mit 10 GB) halte ich für absolut überzogen und hoffe auf deutlich niedrigere Preise. Die Preise, die jetzt irgendwo in Asien aufgetaucht sind, halte ich für unrealistisch, erinnert mich an die Preisprognose damals zum PS1-Release (jop, ich bin alt) - ich wollte eine direkt zum Release haben, da wurden hier in Deutschland Listenpreise von 2000 DM+, selbst bei großen Versandhäusern, prognostiziert/proklamiert, als dann der offizielle EU-Release kam, hat Sie glaube ich 600 DM gekostet.
 
  • Gefällt mir
Reaktionen: GERmaximus
ManPon schrieb:
Gibt es schon Preistipps? ;)

:smokin:

RTX 3070 ... ab 699€
RTX 3080 ... ab 999€
RTX 3090 ... ab 1599€

Meine Tipps

...Gerade die Gerüchte über 2k€ für die 3090 machen mir wirklich etwas Angst bzgl. der Marktentwicklung.
 
ManPon schrieb:
Gibt es schon Preistipps? ;)
Klar:

RTX 3070 ... ab 700€
RTX 3080 ... ab 800€
RTX 3090 ... ab 900€

Spaß beiseite ist ja nimmer lange bis es Preise gibt hätte aber schon gern die 3090. :schaf:
 
Zuletzt bearbeitet:
Sa.Lt schrieb:
weniger cores..
weniger effizient wäre strange, abwarten und gin trinken.

richtig - die ganzen Spekulationen sind ja gin-los.


Hoffe das die ganzen niedrig angesetzen Preistipps keine Wunschpreise sind xD
 
AUTScarab schrieb:
Hat es jemals eine Titan von Boardbartnern gegeben?
Soweit ich mich erinner nicht, also schließe ich daraus, dass die 3090 der Nachfolger der 2080ti ist und nicht der Titan oder eine neue Stufe, was meint ihr dazu?
Soweit man das weiß wird die 3090 der vollausbau werden, inkl doppeltem vram, also genau das was sonst die titan war. mMn kann da eigentlich keine titan mehr kommen (es sei denn man verdoppelt nochmal den vram auf 48gb) und es deutet für mich eher darauf hin, das nvidia respekt davor hat was AMD bringen könnte und deswegen mit custom modellen all-in geht. Mir als consumer soll es recht sein, gibt dann in dieser Gen eine pseudo-titan zum ti preis
 
  • Gefällt mir
Reaktionen: Pulsar77
Hatsune_Miku schrieb:
Damit hat sich für mich das Uprade schon erledigt. ...

Gebe dir absolut recht. Meine RTX 2070 hat bereits 8 GB Vram. Die nächste muss auf jeden Fall mehr haben, mindestens 12 GB. Solange Nvidia hier nichts preislich attraktives auf den Markt wirft sehen die kein Geld von mir.

AMD kommt aufgrund des vorhandenen G-Sync Monitors leider nicht wirklich in Frage.
 
  • Gefällt mir
Reaktionen: Pulsar77 und andy484848
Laphonso schrieb:
100% mehr als bei einer 1080Ti, die das nicht mal nutzen kann?
In Battlefield V z.B. gab es nach den Optimierungen immerhin ~110 fps (von anfänglich 70 fps, und das war fail, ja) auf DX12 Ultra + Raytracing settings @ 2560x1440.

RTX off hatte ich 140 bis 150 fps.

Ich kenne genug, die von einer 1080Ti auf die 2080Ti umgestiegen sind, weil die 1080Ti gute Verkaufspreise hatte und eben dann doch unter DX12 gegen die 2080Ti deutlich einbricht. Und sie hat weder DLSS noch Raytracing, also ja, je nach "usecase" war es das voll wert und hat das gebracht, was man wollte.

Eine 2080Ti hat die 150 FPS in BF5 bei Release nur in FHD gepackt... in 2K waren es 130 FPS.
Und mit DXR und DLSS hat die 2080Ti in FHD nur 60 FPS Average gemacht.. mit Einbrüchen runter bis 40 FPS.
Und das war nur der Singleplayer... im Multiplayer sind die Anforderungen noch höher. Unspielbar.
(Siehe auch hier)

Dass das ewig später mal gepatched wurde, bringt halt auch nur wenig, wenn man das Spiel bis dahin garnicht mehr zockt. BF5 hatte nur eine kurze Hype-Phase und bis DXR und DLSS mal spielbare Frames erreicht hatten; war das Game bereits wieder tot. Übliche EarlyAdopter-Probleme halt.

Metro Exodus mit DXR hat es in 2K auch auf geschmeidige 53 FPS Average gebracht.
FPS-Drops bis 24 FPS... also auch unspielbar.

Ohne DXR, DLSS war beides super spielbar.... sind schließlich schnelle Shooter und da will man auf
seinem 144hz-Panel vielleicht zumindest dreistellige Frameraten sehen. Zumindest wäre das wünschenswert.

Die RTX2080 ohne DXR und DLSS war auch super. Nur war die bei Release 850€ teuer.
Genauso teuer wie die 1080Ti 2Jahre zuvor auch... welche in beiden Spielen gleich schnell war.

Wow... was für eine tolle neue Technologie das doch war.
1080Ti-Käufer haben damals einfach alles richtig gemacht. Die Karte ist und bleibt ein Dauerläufer.

SavageSkull schrieb:
Das ist doch albern für einen vernünftigen Vergleich sich irgendwelche Partnerkarten rauszusuchen, die 2 Monate später Released sind und dann mit deren Straßenpreis zu vergleichen.
Es macht nur Sinn den offiziellen UVP der jeweiligen "Founders Edition" zu betrachten.
Es gibt übrigens auch Partnerkarten, die deutlich teurer sind als die Founder Edition...

2 Wochen später... nicht 2 Monate. Da waren die FE überhaupt erst in breiter Masse verfügbar...
Zeitlich gesehen lagen beide Varianten nur Stunden voneinander entfernt; wenn man rein nach Verfügbarkeit gehen möchte. Und natürlich führt man in einem Preisvergleich den niedrigst-möglichen Preis an und nicht den höchstmöglichen.

Ich für meinen Teil stelle in Geizhals zumindest nicht immer auf "teuer nach günstg"
und kaufe dann sofort das Teuerste was ich so finden kann.

Und eine Käuferschicht, die eine 2080Ti für >1200€ kauft, setzt diese wahrscheinlich oft auch unter Wasser.
Da sorgt die schnelle Verfügbarkeit der WaKü-Blocks für das Ref.Design dann meistens dafür, dass einfach die billigste Ref.Karte + Wakü-Block gekauft wird und eben nicht die teurere Custom-PCB-Karte für die es erst Monate später mal einen Block geben wird (falls überhaupt).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77
Laphonso schrieb:
Aus diesem Grunde sind die leaks kein business damage, sondern Werbung.
Offiziell ist es dennoch untersagt.
Mit inoffizieller Genehmigung - nichts anderes habe ich geschrieben.

Zum heutigen Datum ist das aber tatsächlich vollkommen wurst. ;)
 
Zurück
Oben