Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details
- Ersteller Volker
- Erstellt am
- Zur News: GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details
Cpt.Willard schrieb:Ich tippe darauf, dass die 3080 einen höheren Boost fahren kann, als die 3090 - deshalb die höhere TDP... aber wird sich ja erst morgen zeigen.
Das ist die Leistungsaufnahme der ganzen Karte.
Da alles wohl identisch verbaut sein dürfte, sind die Unterschiede halt gering.
Mr. Smith schrieb:Wenn der prozentuale Preisanstieg den prozentualen Leistungszuwachs überschreitet; dann läuft gewaltig was falsch. Die 2080Ti war 50% teurer als die 1080Ti; aber keine 50% schneller.
Die 1080 TI hatte 0 % Tensorcores Und wie Pascal in DX12 fps blutet, hat jeder mitbekommen. Man bezahlt also auch die neue Architektur.
BOBderBAGGER
Fleet Admiral
- Registriert
- Feb. 2008
- Beiträge
- 15.451
Das hat mit der Firma selbst wenig zu tun. Die Hype Maschine funktioniert bei den meisten Herstellern auf die gleiche Art und Weise. Wenn AMD mit RDNA2 soweit ist dann werden wir auch Plötzlich überall nichtssagende "versehentliche" Veröffentlichung von Bildern und Specs sehen. Der Hypetrain muss schließlich in Fahrt gebracht werden.Laphonso schrieb:Ich weiß, dass die Nvidia hater in ihrer Welt das Bild haben
Meine Glaskugel hat mir eben mitgeteilt das bis zu dem NV Event noch weitere Hersteller "versehentlich" ihre Karten zeigen werden.
Zuletzt bearbeitet:
scootiewolff22
Lt. Commander
- Registriert
- Mai 2016
- Beiträge
- 1.037
3080 = 800 Euro
3070 = 700 Euro
Ist doch schon längst bestätigt
3070 = 700 Euro
Ist doch schon längst bestätigt
Das Ding besteht nur aus riesigem Kühlkörper mit 3 riesigen Lüftern o.o
Interessant wird dann, werd die schwerste Kühllösung hat 😃
10GB sollte noch ne Weile reichen, 20GB find ich overkill aktuell. Irgendwie unschön gelöst von nVidia.
12GB wäre gute Mitte gewesen für 3080
und 16GB für 3090
und 10 oder auch 12GB für 3070
und 8GB für 3060
SLI mit 4k/5k/8k falls es denn läuft, werden sicher welche Testen^^ (in alten Spielen)
Aber es ist auch klar, dass die Schnittstelle eher nicht für Gaming gedacht ist.
Interessant wird dann, werd die schwerste Kühllösung hat 😃
10GB sollte noch ne Weile reichen, 20GB find ich overkill aktuell. Irgendwie unschön gelöst von nVidia.
12GB wäre gute Mitte gewesen für 3080
und 16GB für 3090
und 10 oder auch 12GB für 3070
und 8GB für 3060
SLI mit 4k/5k/8k falls es denn läuft, werden sicher welche Testen^^ (in alten Spielen)
Aber es ist auch klar, dass die Schnittstelle eher nicht für Gaming gedacht ist.
Zuletzt bearbeitet:
Schmiddlon
Cadet 3rd Year
- Registriert
- Dez. 2018
- Beiträge
- 51
Quelle?scootiewolff22 schrieb:3080 = 800 Euro
3070 = 700 Euro
Ist doch schon längst bestätigt
engineer123
Banned
- Registriert
- Jan. 2009
- Beiträge
- 3.783
^^jo, welche Quelle für die Preise???
Che-Tah
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.991
Mr. Smith schrieb:Aber die prozentualen Preissteigerungen sind auch mit den Scheinen am Konto eine Frechheit.
Wenn der prozentuale Preisanstieg den prozentualen Leistungszuwachs überschreitet; dann läuft gewaltig was falsch. Die 2080Ti war 50% teurer als die 1080Ti; aber keine 50% schneller.
Die RTX3090 wird nochmals locker 50% teurer; aber ich denke mal nicht, dass die FPS um über 50% zulegen werden. Wenn überhaupt, dann nur in ausgewählten 4K-Titeln; aber selbst das wage ich aktuell noch zu bezweifeln.
...da muss ich mich ja selbst zitieren:
"Jedem sollte klar sein, dass ein Großteil der Leistungszuwächse nicht entwickelt sondern erkauft werden.
Stromaufnahme und Takt ergeben den155$ Kühler und das teures Backdrill Verfahren.
Die Effizient (Performance/Watt und Performance/DIE Size) steigt nicht mehr so wie früher.
Intel und AMD vorwerfen, dass ich bei Prozessoren sich seit Jahren quasi nichts tut außer mehr Kerne und gleichzeitg Nvidia vorwerfen, dass man sich die Performance erkauft ist irgendwie scheinheilig.
Müssten die Grafikkarten am selben Preisniveau bleiben würd sich seit Jahren kaum etwas tun. Wenn wer glaubt, dass die High End AMD Karten bei Preis/Leistung 50% billiger wird als die von Nvidia verweigert wohl die Realität."
Bei +100% Shadern, neuer Architektur und einem Taktsprung à la Vega 8 in Renoir wäre ein Leistungszuwachs von +100% gegenüber Navi10 eine reine Erfüllung der Erwartungen. Wenn AMD mich überraschen möchte, und Nvidia schlagen will, muss es mehr sein. Wenn es weniger als +100% sind, wäre es für mich schon enttäuschend.Che-Tah schrieb:Ich lass mich gern überraschen, aber dass AMD +100% Leistung auf die Radeon 5700 XT findet glaub ich einfach nicht.
Dazu kommen noch Aspekte wie, ob AMD mal eine gegenüber der Konkurrenz bessere Effizienz bei einigen Modellen zeigen kann etc. Das wäre ein schönes Extra.
CB hat mittlerweile definitiv einen Foliensatz und Werbetexte. Aber Produkte kommen wahrscheinlich erst 14 Tage nach der Ankündigung, und dann wird CB wieder kurz vorher Samples bekommen.Zock schrieb:Naja kann natürlich auch sein das CB wieder kein Sample bekommen hat und es ein reiner Paperlaunch wird.
Wer denkt, dass es morgen um 18:00 einen Test hier auf CB gibt, hat noch nie einen Grafikkartenlaunch mitgemacht...
Kev2one schrieb:Bin ich der einzige, der die Dinger potthässlich findet?
Wen kratzt das? Ich sehe die Karte nur max. 5 Minuten zwischen Auspacken und Einbauen. Dann erst Jahre später wieder beim Ausbauen.
Tzk schrieb:Wie soll das gehen? wenn die den Speicher mit vollen 384bit anbinden wollen, dann gibts nur 12gb oder 24gb
Es sind 320bit. Und er meint natürlich die 3080
Genoo schrieb:Was bringen diese "OC" Karten? 1,77% Taktsteigerung? Wow.. na das lohnt sich ja eine eigene SKU produzieren zu lassen... nicht
Den Mehrpreis den man damit erziehlen kann, macht es wieder lohnenswert - zumindest für den Händler.
Hatsune_Miku schrieb:aber wenn man solch ein batzen Geld auf den Tisch legt kann man doch ein bisschen zukunfts sicherheit erwarten.
Es gibt in der Gaming-Branche keine Zukunftssicherheit - hat es auch noch nie gegeben. Was du heute kaufst, ist in 6 Monaten veraltet.
Und wenn du heute High-End kaufst, dann willst du auch in 2-3 Jahren wieder High-End haben. D.h. die wenigsten nutzen so eine Karte bis gar nix mehr geht. Sie tauschen diese spätestens nach 1-2 Generationen wieder gegen ein neues Top-Modell aus.
Mr. Smith
Commander
- Registriert
- Mai 2010
- Beiträge
- 2.257
Die Diskussion hatten wir schon.Laphonso schrieb:Die 1080 TI hatte 0 % Tensorcores Und wie Pascal in DX12 fps blutet, hat jeder mitbekommen. Man bezahlt also auch die neue Architektur.
Wieviel Netto-FPS haben dir die Tensor Cores so in deinem favourisierten Game genau gebracht? Genau 0.
DLSS ja, ist ganz toll.
Aber 820€ Startpreis für die 1080Ti vs. 1260€ Startpreis der 2080Ti für 15-30% mehr Rechenleistung?
Absoluter Quatsch. Und aus welchem Grund man solche Steigerungen jetzt auch noch Schönreden sollte; entzieht sich mir aus Kosumentensicht vollkommen.
53% Preisanstieg für kaum Mehrleistung und kaum nutzbare neue Features...
Raytracing gab es anfänglich nur in BF5... sah nicht besonders dolle aus und war auch kaum spielbar, wenn man sich mal den Einbruch der Framerate ansieht. Also schaltet man RT wieder aus. Da haben mir die teuren RT- und TensorCores ja wahnsinnig viel gebracht.
Und wieviele Spiele gibt es aktuell (über 2 Jahre später) die RT sinnvoll nutzen und spielbare Framerates liefern?
Wieviel Nutzen hat man denn in den letzten 2 Jahren effektiv aus den ganzen tollen RT und TensorCores ziehen können? War das 440€ Aufpreis wert?
Oder kauft man sich für 440€ doch lieber Netzteil, Mainboard, RAM, Case... ?!
Zuletzt bearbeitet:
Moin... Jetzt nur meine Meinung, aber welchen Sinn macht 5k/8k beim PC?Sa.Lt schrieb:SLI mit 4k/5k/8k falls es denn läuft, werden sich welche Testen^^
Aber es ist auch klar, dass die Schnittstelle eher nicht für Gaming gedacht ist.
Beim TV ganz klar-> Bildschirmgröße, Sitzabstand etc. Aber beim PC?
Sei dir da nicht so sicher. Bei AMD gab es doch das Gerücht das keine Custom zu Beginn kommen. Wenn AMD also nur das eigene Ref Design launcht - könnte es passieren das wir wenig Infos zu vor bekommen...BOBderBAGGER schrieb:Wenn AMD mit RDNA2 soweit ist dann werden wir auch Plötzlich überall nichtssagende "versehentliche" Veröffentlichung von Bildern und Specs sehen.
Bezüglich TDP der 3080 - die ist an sich doch etwas hoch... Die 3090 hat 24 Vram Bausteine mit um die vermuteten 3 Watt Wärmeverlust... Die 3080 hat nur 10... Sollte also etwas mehr als nur 30 Watt Unterschied machen...
Youngtimer
Lieutenant
- Registriert
- Juni 2017
- Beiträge
- 784
Mich wundern die TDP Angaben von 3080 (320W) und 3090(350W). Die 3090 hat +140% RAM, +20% Cuda-Kerne und soll nur ~10% mehr TDP bekommen. Für mich passt das irgendwie nicht zusammen.
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
JSXShadow schrieb:Zukunftssicherheit ist aber eh Unsinn. Spätestens in 2-3 Jahren wird eh eine neue Karte angeschafft.
Richtig. Von heute bis in die zukünftigen zwei Jahre (passend zur neuen Generation) soll der vorhandene vram reichen. Das sehe ich bei 10gb in der Leistungsklasse nicht.
Zukunft sind für mich neben 3-5 Jahren auch 2jahre innerhalb einer Generation.
S
strempe
Gast
scootiewolff22 schrieb:3080 = 800 Euro
3070 = 700 Euro
Ist doch schon längst bestätigt
Du hast die 3090 vergessen:
3090 = 900 Euro
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.259
So 7nm also wenn dann muss das samsung sein
oder nvida hat deutlich höhere Taktraten im Sinn
Da muss was anders sein das der chip in kleinerer Fertigung so dermaßen ineffizient ist.
Die arch der fp32 leistung wissen wir von a100 das die ipc quasi stillstand also ist takt und die marginalen 5% drin. Somit muss nvidia pro sku mehr shader bringen.
Spannend wird was als rtx3060 kommt.
Die topmnodelle sind mehr schau. wie immer.
oder nvida hat deutlich höhere Taktraten im Sinn
Da muss was anders sein das der chip in kleinerer Fertigung so dermaßen ineffizient ist.
Die arch der fp32 leistung wissen wir von a100 das die ipc quasi stillstand also ist takt und die marginalen 5% drin. Somit muss nvidia pro sku mehr shader bringen.
Spannend wird was als rtx3060 kommt.
Die topmnodelle sind mehr schau. wie immer.
Ähnliche Themen
- Antworten
- 52
- Aufrufe
- 7.091
- Antworten
- 157
- Aufrufe
- 28.426
- Antworten
- 234
- Aufrufe
- 50.165
- Antworten
- 31
- Aufrufe
- 6.897
- Antworten
- 585
- Aufrufe
- 67.114