News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

Heute würde ich mal gerne Live Bilder aus der CB Redaktion anschauen :)

Naja kann natürlich auch sein das CB wieder kein Sample bekommen hat und es ein reiner Paperlaunch wird.
 
  • Gefällt mir
Reaktionen: iron-man
Cpt.Willard schrieb:
Ich tippe darauf, dass die 3080 einen höheren Boost fahren kann, als die 3090 - deshalb die höhere TDP... aber wird sich ja erst morgen zeigen.

Das ist die Leistungsaufnahme der ganzen Karte.
Da alles wohl identisch verbaut sein dürfte, sind die Unterschiede halt gering.
 
Mr. Smith schrieb:
Wenn der prozentuale Preisanstieg den prozentualen Leistungszuwachs überschreitet; dann läuft gewaltig was falsch. Die 2080Ti war 50% teurer als die 1080Ti; aber keine 50% schneller.

Die 1080 TI hatte 0 % Tensorcores ;) Und wie Pascal in DX12 fps blutet, hat jeder mitbekommen. Man bezahlt also auch die neue Architektur.
 
  • Gefällt mir
Reaktionen: simosh, adAstra, .Sentinel. und eine weitere Person
Laphonso schrieb:
Ich weiß, dass die Nvidia hater in ihrer Welt das Bild haben
Das hat mit der Firma selbst wenig zu tun. Die Hype Maschine funktioniert bei den meisten Herstellern auf die gleiche Art und Weise. Wenn AMD mit RDNA2 soweit ist dann werden wir auch Plötzlich überall nichtssagende "versehentliche" Veröffentlichung von Bildern und Specs sehen. Der Hypetrain muss schließlich in Fahrt gebracht werden.
Meine Glaskugel hat mir eben mitgeteilt das bis zu dem NV Event noch weitere Hersteller "versehentlich" ihre Karten zeigen werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77 und Sennemaa
@CB
Habt ihr die Karten eigentlich schon zum testen da?
Kommt dann ein Test morgen mit Benchmarks etc., oder wie läuft es dieses Mal ab? Ein Papierlaunch ist es ja wohl nicht.
 
  • Gefällt mir
Reaktionen: Laphonso
Das Ding besteht nur aus riesigem Kühlkörper mit 3 riesigen Lüftern o.o
Interessant wird dann, werd die schwerste Kühllösung hat 😃

10GB sollte noch ne Weile reichen, 20GB find ich overkill aktuell. Irgendwie unschön gelöst von nVidia.
12GB wäre gute Mitte gewesen für 3080
und 16GB für 3090
und 10 oder auch 12GB für 3070
und 8GB für 3060

SLI mit 4k/5k/8k falls es denn läuft, werden sicher welche Testen^^ (in alten Spielen)
Aber es ist auch klar, dass die Schnittstelle eher nicht für Gaming gedacht ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andy484848, JPsy, Stuntmp02 und eine weitere Person
  • Gefällt mir
Reaktionen: cypeak, Acedia23, Schraube24 und 2 andere
Ist die 3090 dann der TI Nachfolger/Ersatz oder ne neue Abteilung? 🤔
 
  • Gefällt mir
Reaktionen: Pulsar77
Mr. Smith schrieb:
Aber die prozentualen Preissteigerungen sind auch mit den Scheinen am Konto eine Frechheit.

Wenn der prozentuale Preisanstieg den prozentualen Leistungszuwachs überschreitet; dann läuft gewaltig was falsch. Die 2080Ti war 50% teurer als die 1080Ti; aber keine 50% schneller.

Die RTX3090 wird nochmals locker 50% teurer; aber ich denke mal nicht, dass die FPS um über 50% zulegen werden. Wenn überhaupt, dann nur in ausgewählten 4K-Titeln; aber selbst das wage ich aktuell noch zu bezweifeln.

...da muss ich mich ja selbst zitieren:

"Jedem sollte klar sein, dass ein Großteil der Leistungszuwächse nicht entwickelt sondern erkauft werden.
Stromaufnahme und Takt ergeben den155$ Kühler und das teures Backdrill Verfahren.

Die Effizient (Performance/Watt und Performance/DIE Size) steigt nicht mehr so wie früher.
Intel und AMD vorwerfen, dass ich bei Prozessoren sich seit Jahren quasi nichts tut außer mehr Kerne und gleichzeitg Nvidia vorwerfen, dass man sich die Performance erkauft ist irgendwie scheinheilig.
Müssten die Grafikkarten am selben Preisniveau bleiben würd sich seit Jahren kaum etwas tun. Wenn wer glaubt, dass die High End AMD Karten bei Preis/Leistung 50% billiger wird als die von Nvidia verweigert wohl die Realität."
 
  • Gefällt mir
Reaktionen: Pulsar77, adAstra und .Sentinel.
Che-Tah schrieb:
Ich lass mich gern überraschen, aber dass AMD +100% Leistung auf die Radeon 5700 XT findet glaub ich einfach nicht.
Bei +100% Shadern, neuer Architektur und einem Taktsprung à la Vega 8 in Renoir wäre ein Leistungszuwachs von +100% gegenüber Navi10 eine reine Erfüllung der Erwartungen. Wenn AMD mich überraschen möchte, und Nvidia schlagen will, muss es mehr sein. Wenn es weniger als +100% sind, wäre es für mich schon enttäuschend.

Dazu kommen noch Aspekte wie, ob AMD mal eine gegenüber der Konkurrenz bessere Effizienz bei einigen Modellen zeigen kann etc. Das wäre ein schönes Extra.
Zock schrieb:
Naja kann natürlich auch sein das CB wieder kein Sample bekommen hat und es ein reiner Paperlaunch wird.
CB hat mittlerweile definitiv einen Foliensatz und Werbetexte. Aber Produkte kommen wahrscheinlich erst 14 Tage nach der Ankündigung, und dann wird CB wieder kurz vorher Samples bekommen.

Wer denkt, dass es morgen um 18:00 einen Test hier auf CB gibt, hat noch nie einen Grafikkartenlaunch mitgemacht...
 
  • Gefällt mir
Reaktionen: Chismon, Langsuan und Maxxx800
Kev2one schrieb:
Bin ich der einzige, der die Dinger potthässlich findet?

Wen kratzt das? Ich sehe die Karte nur max. 5 Minuten zwischen Auspacken und Einbauen. Dann erst Jahre später wieder beim Ausbauen.


Tzk schrieb:
Wie soll das gehen? wenn die den Speicher mit vollen 384bit anbinden wollen, dann gibts nur 12gb oder 24gb

Es sind 320bit. Und er meint natürlich die 3080 ;)

Genoo schrieb:
Was bringen diese "OC" Karten? 1,77% Taktsteigerung? Wow.. na das lohnt sich ja eine eigene SKU produzieren zu lassen... nicht

Den Mehrpreis den man damit erziehlen kann, macht es wieder lohnenswert - zumindest für den Händler.


Hatsune_Miku schrieb:
aber wenn man solch ein batzen Geld auf den Tisch legt kann man doch ein bisschen zukunfts sicherheit erwarten.

Es gibt in der Gaming-Branche keine Zukunftssicherheit - hat es auch noch nie gegeben. Was du heute kaufst, ist in 6 Monaten veraltet.
Und wenn du heute High-End kaufst, dann willst du auch in 2-3 Jahren wieder High-End haben. D.h. die wenigsten nutzen so eine Karte bis gar nix mehr geht. Sie tauschen diese spätestens nach 1-2 Generationen wieder gegen ein neues Top-Modell aus.
 
  • Gefällt mir
Reaktionen: cypeak und Laphonso
Laphonso schrieb:
Die 1080 TI hatte 0 % Tensorcores ;) Und wie Pascal in DX12 fps blutet, hat jeder mitbekommen. Man bezahlt also auch die neue Architektur.
Die Diskussion hatten wir schon.
Wieviel Netto-FPS haben dir die Tensor Cores so in deinem favourisierten Game genau gebracht? Genau 0.

DLSS ja, ist ganz toll.
Aber 820€ Startpreis für die 1080Ti vs. 1260€ Startpreis der 2080Ti für 15-30% mehr Rechenleistung?
Absoluter Quatsch. Und aus welchem Grund man solche Steigerungen jetzt auch noch Schönreden sollte; entzieht sich mir aus Kosumentensicht vollkommen.

53% Preisanstieg für kaum Mehrleistung und kaum nutzbare neue Features...
Raytracing gab es anfänglich nur in BF5... sah nicht besonders dolle aus und war auch kaum spielbar, wenn man sich mal den Einbruch der Framerate ansieht. Also schaltet man RT wieder aus. Da haben mir die teuren RT- und TensorCores ja wahnsinnig viel gebracht.

Und wieviele Spiele gibt es aktuell (über 2 Jahre später) die RT sinnvoll nutzen und spielbare Framerates liefern?
Wieviel Nutzen hat man denn in den letzten 2 Jahren effektiv aus den ganzen tollen RT und TensorCores ziehen können? War das 440€ Aufpreis wert?

Oder kauft man sich für 440€ doch lieber Netzteil, Mainboard, RAM, Case... ?!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Acedia23, Pulsar77, xXLorienXx und 4 andere
Sa.Lt schrieb:
SLI mit 4k/5k/8k falls es denn läuft, werden sich welche Testen^^
Aber es ist auch klar, dass die Schnittstelle eher nicht für Gaming gedacht ist.
Moin... Jetzt nur meine Meinung, aber welchen Sinn macht 5k/8k beim PC?
Beim TV ganz klar-> Bildschirmgröße, Sitzabstand etc. Aber beim PC?
 
  • Gefällt mir
Reaktionen: Pulsar77, Cpt.Willard und Maxxx800
BOBderBAGGER schrieb:
Wenn AMD mit RDNA2 soweit ist dann werden wir auch Plötzlich überall nichtssagende "versehentliche" Veröffentlichung von Bildern und Specs sehen.
Sei dir da nicht so sicher. Bei AMD gab es doch das Gerücht das keine Custom zu Beginn kommen. Wenn AMD also nur das eigene Ref Design launcht - könnte es passieren das wir wenig Infos zu vor bekommen...
Bezüglich TDP der 3080 - die ist an sich doch etwas hoch... Die 3090 hat 24 Vram Bausteine mit um die vermuteten 3 Watt Wärmeverlust... Die 3080 hat nur 10... Sollte also etwas mehr als nur 30 Watt Unterschied machen...
 
JSXShadow schrieb:
Zukunftssicherheit ist aber eh Unsinn. Spätestens in 2-3 Jahren wird eh eine neue Karte angeschafft.

Richtig. Von heute bis in die zukünftigen zwei Jahre (passend zur neuen Generation) soll der vorhandene vram reichen. Das sehe ich bei 10gb in der Leistungsklasse nicht.

Zukunft sind für mich neben 3-5 Jahren auch 2jahre innerhalb einer Generation.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku und Leon_FR
scootiewolff22 schrieb:
3080 = 800 Euro
3070 = 700 Euro
Ist doch schon längst bestätigt

Du hast die 3090 vergessen:
3090 = 900 Euro
 
  • Gefällt mir
Reaktionen: Acedia23, Tommy Hewitt, .Sentinel. und eine weitere Person
So 7nm also wenn dann muss das samsung sein
oder nvida hat deutlich höhere Taktraten im Sinn
Da muss was anders sein das der chip in kleinerer Fertigung so dermaßen ineffizient ist.
Die arch der fp32 leistung wissen wir von a100 das die ipc quasi stillstand also ist takt und die marginalen 5% drin. Somit muss nvidia pro sku mehr shader bringen.
Spannend wird was als rtx3060 kommt.
Die topmnodelle sind mehr schau. wie immer.
 
Zurück
Oben