News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

@Nureinnickname! Das geht ganz einfach indem die 192 Bit nicht über den ganzen Speicher anliegen. In etwa so wie wenn du ein Dual-Channel Mainboard mit 3 gleich großen Speichermodulen bestückst. Erwarte von so etwas aber nicht die volle Performance...
 
  • Gefällt mir
Reaktionen: Nureinnickname! und evilhunter
Ich bin tatsächlich von der VRAM-Ausstattung enttäuscht. ~ 1500€ (vermeindlich) für eine 3090 werde ich nicht investieren. Mehr als 1000€ sehe ich nicht ein. Hach, ich kann mich noch beim GTX980 Launch erinnern... Direkt nach dem Launch gekauft für ~ 450€ 520€ ...

Jedenfalls habe ich schon Turing ausgelassen, weil die 2080Ti genau so viel Speicher hat, wie meine 1080Ti und mir vllt. gerade mal 15-20% mehr Leistung bietet für 600€, die ich nach dem Verkauf der 1080Ti drauf legen dürfte... nein Danke.
 
Zuletzt bearbeitet:
Benji18 schrieb:
erzähl das mal den Leuten die hier immer die Watt Keule Auspacken um AMD zu bashen

Und nochmal, es geht um Relation! Habe ich eine 200€ Karte mit 400W Stromverbrauch, ist es was anderes wie bei einer 1500€ Karte!

AMD hat das Bashing bei der Vega abgekriegt, weil Karten wie die Vega 56, in Konkurrenz zu einer 1660Ti standen und als vermeintliches "Schnäppchen" angepriesen wurden weil sie 50€ günstiger als eine solche waren. Blöd nur dass der Mehrverbrauch dieser Karten diesen Preisvorteil relativiert hat.
1598947313391.png

1598947350458.png

https://www.computerbase.de/2019-02/geforce-gtx-1660-ti-test/4/

Wenn ich zwei Kleinwagen vergleiche, beide mit 100kW und der eine verbraucht 5l/100km und der andere 10l/100km kann man da durchaus bashen. Ein Sportwagen verbraucht vermutlich auch so viel, der leistet dann aber auch 300kW und kostet das fünffache.

Wenn AMD eine Karte in der Leistungsklasse einer 3080 bringt und dabei nur 200W verbraucht, bin ich der erste der Nvidia für die Leistungsaufnahme kritisiert. Bis dato ist eine 3080 aber schlichtweg ein "Sportwagen" und der verbraucht nun mal das was er auch leistet und trotz der 320W Stromaufnahme wird die Karte vermutlich effizienter als eine 2080Ti.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade, HorstSan und Sin_VII
@Prophetic

Erinnern wir uns an unterschiedliche Launches ? Wo gab es die GTX980 bitte unter 500€ (eher Richtung 600€ für die Customs) ?
 
  • Gefällt mir
Reaktionen: Laphonso und DaHans
poly123 schrieb:
@Monstranz letzter Satz: absolut d‘accord. Mir könnte es vom Verdienst auch schxxxegal sein, aber mir geht es mittlerweile ums Prinzip. Angefangen hat es eigentlich mit der Privatisierung der Stromnetze, Resultat sieht man ja nun 😠

Hat der aktuelle Strompreis etwas mit der Privatisierung oder vielleicht doch eher etwas damit zu tun?
STROMPREISZUSAMMENSETZUNG 2019:
52,5 % staatlich veranlasste Steuern, Abgaben und Umlagen
24,3 % Nutzung der Stromnetze, die der Netzbetreiber bekommt
23,2 % Stromerzeugung und Vertrieb, die der Stromanbieter erhält
 
@Dark1989


Hast recht! Grad mal nachgesehen. Waren 519,99€ für die eine EVGA (War glaube ich eine FE, aber kam eh ein Wasserkühler drauf) bei Caseking. Da hat die Nostalgiebrille den ohnehin sehr niedrigen Preis noch etwas nach unten korrigiert. :D

Trotzdem waren das ganz andere Preise. und die 980 war bei ihrem Launch das Topmodell.
 
Zuletzt bearbeitet:
@McFritte die Antwort hast du dir doch selbst gegeben: ~ 25%, dass Steuern usw. der überwiegende Anteil im Weiteren darstellt, bestreite ich doch auch nicht, EEG ist halt die Farce: aus Atom überhastet aussteigen, aber bei reg. Energien noch nicht breit genug aufgestellt und dann den Bürger über immer weiter steigende Abgaben gängeln :grr:
 
Es gab keine Privatisierung der Stromnetze. Die Stromnetzbetreiber sind die gleichen wie früher und selbstständige Unternehmen wie EnBW, EON oder von mir aus Stadtwerke XY.
Es gab eine Liberalisierung der Strom- und Gas-Märkte, mit neuen Rollen für Lieferanten, Netzbetreiber, Messdienstleister und Messstellenbetreiber.

Aber auch das hat nichts mit den aktuellen Strompreisen zu tun. Hierfür verantwortlich ist unsere Energiewende. Der Löwenanteil des heutigen Strompreises sind die Zulagen für EEG- und KWK-Anlagen, also erneuerbare Energien.

Und die bezahlt jeder von uns mit jeder Kilowattstunde kWh Stromverbrauch.
 
  • Gefällt mir
Reaktionen: Laphonso
xexex schrieb:
Ich will hier nichts relativieren, aber es ist ein Hobby und gerade bei Strom sollte man sich die "Umweltkeule" sparen. Nicht nur weil 300W geradezu lächerlich sind

Ja ne, ist klar oder ? Auf diese Momente habe ich nur gewartet. Noch vor Jahren wegen 300 Watt Vega64 geweint wie man nur kann ? Alle lächerlichsten Argumente vorgebracht (Stromsparen, Klimwandel, nicht Zeitgemäß etc) und nun sagt man 300 Watt sind Lächerlich.

Lächerlich ist eher wie hier mit 2 Maß gemessen wird. Intel und Nvidia können heizen wie die wollen, das ist Super - Ist ja Intel und Nvidia. Die stehen ja ganz oben - die dürfen das.

300 Watt bleiben 300 Watt, egal ob heute oder damals. Mehr FPS wirst du heute wie damals auch nicht zwingend in den Spielen haben, diese werden auch immer Leistungshungriger.
 
poly123 schrieb:
@McFritte die Antwort hast du dir doch selbst gegeben: ~ 25%, dass Steuern usw. der überwiegende Anteil im Weiteren darstellt, bestreite ich doch auch nicht, EEG ist halt die Farce: aus Atom überhastet aussteigen, aber bei reg. Energien noch nicht breit genug aufgestellt und dann den Bürger über immer weiter steigende Abgaben gängeln :grr:

Es kam halt nur so rüber, als wären die Stromerzeuger ganz böse Privatunternehmen, die dem Kunden auch den letzten Cent aus der Tasche ziehen wollten. Falls ich das falsch verstanden haben sollte, Sorry.
Das die auch Gewinne machen möchten sollte klar sein, aber insgesamt erhalten die nur 23.2% vom Kuchen. Auf den Rest haben die keinen/wenig Einfluß.
 
  • Gefällt mir
Reaktionen: poly123
Prophetic schrieb:
Ich bin tatsächlich von der VRAM-Ausstattung enttäuscht. ~ 1500€ (vermeindlich) für eine 3090 werde ich nicht investieren. Mehr als 1000€ sehe ich nicht ein. Hach, ich kann mich noch beim GTX980 Launch erinnern... Direkt nach dem Launch gekauft für ~ 450€ 520€ ...

Jedenfalls habe ich schon Turing ausgelassen, weil die 2080Ti genau so viel Speicher hat, wie meine 1080Ti und mir vllt. gerade mal 15-20% mehr Leistung bietet für 600€, die ich nach dem Verkauf der 1080Ti drauf legen dürfte... nein Danke.

Mir geht es mit meiner wassergekühlten 1080ti (2ghz, 1.0 Volt) auch ganz ähnlich. Turing hätte für den Preis einfach einen viel zu geringen Leistungszuwachs. Jetzt die Auswahl zwischen quasi-Titan 3090 Overkill mit mit entsprechendem Preisschild oder der wohl auch nicht günstigen 3080 die aber im Grafikspeicher ein Rückschritt zu den 11gb meiner 1080ti wäre. Keine gute Ausgangslage.
 
schkai schrieb:
Ja ne, ist klar oder ? Auf diese Momente habe ich nur gewartet. Noch vor Jahren wegen 300 Watt Vega64 geweint wie man nur kann ? Alle lächerlichsten Argumente vorgebracht (Stromsparen, Klimwandel, nicht Zeitgemäß etc) und nun sagt man 300 Watt sind Lächerlich.
Also weil irgendwelche Leute vor Jahren wegen der 300 Watt Vega geweint haben darf heute deiner Meinung nach niemand sagen, dass ihn der Stromverbrauch der 3090 nicht interessiert?
Mir ist der Verbrauch der 3090 relativ egal, genauso wie mir vor Jahren auch der Stromverbrauch der Vega egal war...
 
Was habt ihr jetzt wieder mit den Stromerzeuger?
Wir (Deutschland) leben in einer Welt der dezentralen Stromerzeugung. Auch ich bin Stromerzeuger mit meiner PV-Anlage. Mache ich den Strompreis? Bin ich böse?

Leute informiert euch, bevor ihr hier so einen Stuss schreibt...
 
Sin_VII schrieb:
Also weil irgendwelche Leute vor Jahren wegen der 300 Watt Vega geweint haben darf heute deiner Meinung nach niemand sagen, dass ihn der Stromverbrauch der 3090 nicht interessiert?
Mir ist der Verbrauch der 3090 relativ egal, genauso wie mir vor Jahren auch der Stromverbrauch der Vega egal war...

Es soll ja auch Leute geben die selber Ihren Strom erzeugen. In meiner Region gibt es sehr viele Windkraftanlagen. Von meinem PC aus kann ich ein Enercon E-115 sehen. https://de.wikipedia.org/wiki/Liste_der_Windkraftanlagentypen_von_Enercon#E-115 Mein ökologisches Gewissen ist rein, bzw. grün. Immer her mit den neuen Grafikkarten!
 
@Sin_VII

Naja man muss Stromverbrauch schon immer in Realtion zur Leistung setzen..

Wenn ich die selbe Leistung mit weniger Stromverbrauch bekomme werde ich vermutlich dieses Produkt wählen unabhängig vom Hersteller. Wenn AMD die Leistung der 3090 mit 100 Watt weniger liefert bin ich der erste der auf die 3090 schimpft, aber so gibt es da relativ wenig Grundlage dazu.
 
  • Gefällt mir
Reaktionen: xexex und poly123
schkai schrieb:
Ja ne, ist klar oder ? Auf diese Momente habe ich nur gewartet. Noch vor Jahren wegen 300 Watt Vega64 geweint wie man nur kann ?

Lächerlich ist eher wie hier mit 2 Maß gemessen wird. Intel und Nvidia können heizen wie die wollen, das ist Super - Ist ja Intel und Nvidia. Die stehen ja ganz oben - die dürfen das.

Du bist auch so ein Kunde, der es nicht schnallt, oder? Wäre die Vega, bei dem Verbrauch, entsprechend schneller gewesen, als die Karten der Konkurrenz, hätte keine Sau was gesagt.
Aber mit nem Produkt um die Ecke zu kommen, was mehr verbraucht und dazu langsamer ist, ist leider dezent behindert.
 
cypeak schrieb:
ist es sooo schwierig zu verstehen dass man vram mengen nicht beliebig an einen chip hängen kann?
für 12gb vram bräuchtest du das 384bit interface der 3090, was dann bei 19gbps eine speicherbandbreite von 912gb/s bedeuten würde - das wäre wohl zu nahe an der 3090 dran.

was jedoch möglich ist, ist eine 20gb variante - das lässt das 320bit speicherinterface zu.
Ergänzung ()


das ist aber auch sooo eine gebräuchliche auflösung.. :evillol: .selbst schuld wenn die erwartungshaltung nicht zum produkt passt...als zielgruppe mit dieser auflösung möchte dir nvidia die 3090 ans herz leben...

Leb du mir mal was ans Herz. ;)
Wenn du hier schon so besserwisserisch bist: 4k/UHD hat mehr Pixel als meine Auflösung.

Aber sag mir mal bitte, woher du meine Erwartungshaltung kennst bzw. was ich mit meinem Monitor mache/vorhabe?
 
Exar_Kun schrieb:
320W, gigantische Kühleinheit, GS-Version mit popeligen +30MHz Boosttakt...
Ich tippe mal dass die Karten schon ab Werk an der Kotzgrenze laufen. Das ist die Chance für AMD mit Big Navi!
Ich vermute, dass sie anhand der geleakten BigNavi Daten die Leistung hochgerechnet haben und deswegen mit der "Brechstange" vorne bleiben wollen. Ansonsten begrüße ich natürlich, dass es endlich wieder mehr Performance geben soll. Leider steigt ja abermals der Preis.
 
Youngtimer schrieb:
...3080 die aber im Grafikspeicher ein Rückschritt zu den 11gb meiner 1080ti wäre. Keine gute Ausgangslage.

Genau das. Ein teures Downgrade beim Grafikspeicher sehe ich auch absolut nicht ein.
 
  • Gefällt mir
Reaktionen: Youngtimer
Zurück
Oben