News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

Ich bin nicht so angetan von diesen "Monstern" was Größe, Abwärme und vermutlich auch den Preis betrifft.

Ich hoffe auf eine vernünftige 3070 die locker für Full HD (meine Auflösung) reichen sollte. Nur bitte nicht so dick, warm und teuer.
Ansonsten muss ich mich bei AMD umschauen (wenn es soweit ist). :)
 
Syrato schrieb:
@Krautmaster Igor hat mal was von November gesagt, für die RDNA 2 Karten, ist jetzt aber schon eine Weile her.

Wir werden ja sehen wie AMD ab dem 2. Spetember reagiert. Wenn da so Slogans kommen wie: "Noch nie hat sich warten so sehr gelohnt" oder ähnliches dann geh ich einfach davon aus die haben was zum kontern in der Hinterhand. Wenn nichts kommt... ja dann kommt auch nichts hinterher ;)
 
  • Gefällt mir
Reaktionen: GERmaximus, Element93 und Laphonso
KlaraElfer schrieb:
Ich komme mit 6GB der RTX 2060 momentan wunderbar aus, da werden mir die 10GB der 3080 reichen, ich denke nicht, dass wenn ich alle 2 bis 3 Jahre aufrüste, sich die 20GB Version der 3080 lohnen wird.
Also meine 8GB sind bei den meisten Titeln die ich aktuell Spiel schon sehr grenz wertig.
Und da in zwei Monaten die neuen Konsolen raus kommen und diese über 10GB-13,5GB Speicher für Spiele zur Verfügung stellen wird man gar nicht so schnell schauen können wie bei Titeln die für alle Plattformen gelauncht werden die 10GB der 3080 ans Limit kommen.
Deswegen bin ich auch der Meinung das es Kundenverarsche ist, zumal vor vier Jahren eine Karte schon mit 11GB auf den Markt kam und dann will ich vier Jahre später mehr statt weniger VRam haben.

10GB bei der 3070 und 12GB bei der 3080 hätte ich mir noch Zähneknirschend gefallen lassen, aber bei den Preisen die Nvidia verlangt "müssen" da meiner Meinung 16GB drauf sein, ohne wenn und aber.
 
  • Gefällt mir
Reaktionen: Pulsar77, xXLorienXx, GERmaximus und 7 andere
Crifty schrieb:
Das Problem hier ist aber, dass genau das Nvidia nicht machen würde, würde die Marge verringern

Wenn du dir mal die Entwicklung der Kartenpreise der letzten 20 Jahre anschaust, wirst du schnell die Korrelation zwischen $ und € Kursverhältnis erkennen. Als der Euro zwischen 1,4$ und 1,6$ wert war, waren die Grafikkarten (auch andere Komponenten) relativ zum US Markt günstig. Bei Touring und dem schwachen Eurokurs dementsprechend teuer.

https://www.3dcenter.org/news/die-entwicklung-der-grafikkarten-preise-1999-2016
(muss man sich noch die Europreise dau raussuchen)
 
  • Gefällt mir
Reaktionen: Pulsar77
Kev2one schrieb:
Welche Vorteile bringt denn das Referenz-PCB gegenüber dem der Boardpartner? Es wird sicherlich auch 3x8-Pin geben für die 3090.

Wasserkühler und ein Kabel statt drei.
 
  • Gefällt mir
Reaktionen: Pulsar77, Laphonso, shoKuu und eine weitere Person
tidus1979 schrieb:
Mal schauen. Ich hoffe, dass die 3070 richtig die Brügel rausschmeißen tut. Eigentlich möchte ich 100% Mehrleistung zu meiner 1080 bevor ich aufrüste und 600€ sind meine Schmerzgrenze.

100% mehr FPS als die 1080 wirst du bekommen.

Aber ganz sicher nicht mit einer 3070 und ganz sicher nicht für 600 Taler.

btt:

Die Anzeichen für 1.7 Ghz verdichten sich ja nun....enttäuschend.

mfg
 
[wege]mini schrieb:
Die Anzeichen für 1.7 Ghz verdichten sich ja nun....enttäuschend.
Die reine Taktfrequenz sagt doch ohne die Betrachtung der IPC überhaupt nichts aus...

Und selbst dann hat das Design der Karten selbst (I/O- Front-/Backendorganisation) noch einen erheblichen Einfluss auf eine mögliche Performance.

So lange die Leistung stimmt, würde ich die technischen Rahmendaten einfach ignorieren...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77, [wege]mini, adAstra und 5 andere
Daggy820 schrieb:
Also meine 8GB sind bei den meisten Titeln die ich aktuell Spiel schon sehr grenz wertig.

Könntest du mir die Titel nennen? Würde mich sehr interessieren.
Ich habe mit der 2060 6GB in WQHD bisher keine Probleme.

Daggy820 schrieb:
Und da in zwei Monaten die neuen Konsolen raus kommen und diese über 10GB-13,5GB Speicher für Spiele zur Verfügung stellen wird man gar nicht so schnell schauen können wie bei Titeln die für alle Plattformen gelauncht werden die 10GB der 3080 ans Limit kommen.

Die Konsolen haben für OS, GPU und CPU 16GB Speicher insgesamt.
Ich glaube nicht dass für die GPU selbst mehr als 8GB eingeplant sind.

Daggy820 schrieb:
Deswegen bin ich auch der Meinung das es Kundenverarsche ist, zumal vor vier Jahren eine Karte schon mit 11GB auf den Markt kam und dann will ich vier Jahre später mehr statt weniger VRam haben.

Ich glaube nicht, dass die Kunden bereit sind die Preise einer 20GB RTX 3080 zu bezahlen.
Daggy820 schrieb:
10GB bei der 3070 und 12GB bei der 3080 hätte ich mir noch Zähneknirschend gefallen lassen, aber bei den Preisen die Nvidia verlangt "müssen" da meiner Meinung 16GB drauf sein, ohne wenn und aber.

Dann liegt bei vielen Kunden aber schlicht kein Wissen über den Zusammenhang zwischen Speicherinterface und Speichermenge vor. Vor dem Hintergrund verstehe ich dann zumindest teilweise das Gemecker über den V-ram, aber das kommt ja bei jedem Launch vor.
Ich würde grundsätzlich erst einmal schauen, wie das V-ram Management ausfällt und mich danach beschweren.
 
  • Gefällt mir
Reaktionen: Andybmf, CaptainPiett, GERmaximus und 4 andere
Mein Gott sind die breit! Ich wollte mir eigentlich ein NZXT H1 aufbauen aber die haben Clearance bis 2.5 Slots.
Die hier brauchen beide 2.7 Slots. Bringt weiss einer ob die trotzdem passen könnten?
Ich hoffe, die 3070 wird schlanker. Die wird mit 220 Watt wohl auch nicht so heiss...
 
KlaraElfer schrieb:
Die 3070 mit angenommener 2080Ti Leistung dürfte für 600 Euro weggehen wie warme Semmeln.
Wo hast du das denn her? 2080 Super ok, aber TI? Glaub ich eher nicht.
 
habla2k schrieb:
Wo hast du das denn her? 2080 Super ok, aber TI? Glaub ich eher nicht.

Ich nehme es an, da muss ich das nirgendwo her haben, dafür ist es ja eine Annahme.
Aber das erscheint mir logisch, ansonsten wäre die Generation ein Reinfall und ein reines RTRT Upgrade, was sehr enttäuschend wäre. Dann wäre die Tür für AMD offen.
 
Ich bin auf die Verfügbarkeit der Partnerkarten gespannt. Bis Dezember 20 rechne ich nur mit geringen Beständen.

Ein Kauf ist bei mir ohnehin erst im Februar 21 geplant.
 
  • Gefällt mir
Reaktionen: bugmum
Bin ich eigentlich der Einzige der sich Gedanken macht wie in Zukunft die Abwärme von 600W noch mit Luft aus der gedämmten Rig rauszubekommen wäre? Bis zu 350W GPU + bis zu 250W CPU + alles was sonst noch so Wärme abgibt - wohlgemerkt @stock - das wird witzig. Der nächste Sommer kommt bestimmt!
 
Vielleicht ist Tensor Memory Compression auch wirklich ein neues Feature und eure VRAM-Polemik der letzten Wochen löst sich in Rauch auf. Lustig fänd ichs schon.
 
  • Gefällt mir
Reaktionen: andy484848 und .Sentinel.
Tom_1 schrieb:
was bringt dir 2.0 ? Richtig, nichts.
1.4 reicht doch vollkommen!
Nein reicht überhaupt nicht.
4k 144hz und 10 bit sind ohne Kompression mit 1.4 nicht möglich. Wir sind also jetzt schon am Limit und es geht immer mehr in Richtung höhere Auflösung und mehr Hz.
 
der Unzensierte schrieb:
Bin ich eigentlich der Einzige der sich Gedanken macht wie in Zukunft die Abwärme von 600W noch mit Luft aus der gedämmten Rig rauszubekommen wäre? Bis zu 350W GPU + bis zu 250W CPU + alles was sonst noch so Wärme abgibt - wohlgemerkt @stock - das wird witzig. Der nächste Sommer kommt bestimmt!

Welcher workload belastet denn Prozessor und GPU maximal? Das ist schon sehr speziell.
 
  • Gefällt mir
Reaktionen: GERmaximus
@freezer255
Glaubst du denn, dass für die jetzt kommende Generation mehr nötig wäre als 4K 144hz? Für alles unter 120FPS ist das doch völlig ok und 120FPS bei 4K und mindestens High Settings, sehe ich nicht mal bei der 3090.
KlaraElfer schrieb:
Welcher workload belastet denn Prozessor und GPU maximal? Das ist schon sehr speziell.
Der FS 2020 mit DX11 in 4K. :D
 
habla2k schrieb:
Wo hast du das denn her? 2080 Super ok, aber TI? Glaub ich eher nicht.

Die Vermutung ist nicht abwegig.
Bei 780Ti auf 970 und 980Ti auf 1070 hat es gepasst.
Bei 1080Ti auf 2070 (Super) nicht wirklich; aber es war nicht meilenweit daneben.

Dass die 3070 also nur knapp unter der 2080Ti liegen wird; ist nicht sooo unrealistisch.
 
  • Gefällt mir
Reaktionen: GERmaximus und JohnnyTexas
KlaraElfer schrieb:
Welcher workload belastet denn Prozessor und GPU maximal? Das ist schon sehr speziell.

Ich kann mir im Internet surfen nicht mehr ohne Prime und Furmark vorstellen... ;)
 
  • Gefällt mir
Reaktionen: Pulsar77, GERmaximus, bad_sign und 7 andere
Zurück
Oben