News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

eLw00d schrieb:
Ich find's jedenfalls uncool 7nm-Karten rauszubringen, die so viel mehr verbrauchen als ihre 12nm-Vorgänger.
Die Alternative wäre eben weniger Mehrleistung, und das kannst du ja auch so haben, indem du einfach ne 3080 nimmst, die immer noch ein gutes Stück schneller als ne 2080Ti sein dürfte und dabei weniger verbraucht.
 
Die Raytracing Performance soll doch auch stark verbessert worden sein. Ich schätze mal in normalen Spielen wird man nicht so schnell an das TDP Limit kommen, sondern nur wenn man auch entsprechend RTX nutzt.

Letztendlich kann die Karte von mir aus 1000 Watt TDP (übertrieben) haben wenn sie entsprechend Leistung liefert und nicht unverhältnismäßig teurer wird. In Spielen, in denen ne RTX 2080 TI bereits UHD@120fps schafft, wird die neue Karte wohl auch UHD@120fps bei niedrigerem Verbrauch schaffen. Wenn sie im neusten AAA titel nun auch UHD@120fps schafft, dann nehme ich das gerne bei ner gesteigerten Leistungsaufnahme hin.
Effizienz ist eben entscheidend.

Das einzige was seltsam ist, ist die RTX 3090 Namensgebung, macht halbwegs Sinn als Titan Ersatz, da Titans sowieso oftmals nur als Gamingkarten genutzt werden, aber andererseits kann Nvidia keine 3000€ für nur eine RTX 3090 verlangen. Also wenn ich schon das doppelte für 10% mehr Leistung auf den Tisch lege würde ich zumindest nen besonderen Namen für meine Karte wollen und nicht nur 10 höher in der Namensgebung.
 
  • Gefällt mir
Reaktionen: Mcr-King und RNG_AGESA
Also absolut finde ich 320W bei dem kleineren Modell auch für zuviel, einfach weil A mein 550W Netzteil unter Last schon arg in Bedrängnis kommt, B mein Gehäuse kein 200l Aquarium mit 20 Lüftern ist und daraus wieder resultiert, dass die Karte einen großen Kühler benötigt um leise zu sein, der nicht ins Gehäuse passt und verdammt viel Frischluft braucht.
Meine 1080 mit Dualslot Kühler bekomme ich noch schön leise gekühlt.
Ob 320W nachher der realistische Verbrauchswert bei Spielen sind, wird man in Tests sehen. Hier ist ja auch abhängig, was bei welchem Takt vom Chip genutzt wird (Tensor Kerne, Frame Limiter etc)
Ich störe mich allerdings am meisten an den 10GB VRAM, den finde ich arg klein gewählt
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Zensur
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Onkel Föhn und t3chn0
Die RTX-3090 hat genau einen Zweck: sie wird es nVIDIA erlauben, später eine -Ti nachschieben zu können, die nochmals teurer sein wird als aktuelle -Ti Karten und die Mehrheit der Blinden wird wieder jubeln. Vielleicht macht nVIDIA die RTX-3090 sogar noch 50-100€ günstiger als die aktuelle Ti und schon wird man lesen können: "RTX-3090, eine Karte mit der Leistung einer Ti zu einem tieferen Preis" und alle denken sich, gut ist nVIDIA zu Vernunft gekommen. Dabei wurden sie soeben zum x-ten Mal von nVIDIA für dumm verkauft und merken es immer noch nicht (wie damals, als man eigentliche x70 Chips einfach in x80 Karten verkauft hat und trotzdem alle jubelten).

Fakt ist, wir Konsumenten und auch die Hardware-Magazine sind zu dumm dafür, mit unserem Kaufverhalten und Reviewverhalten etwas gegen die Preistreiberei von nVIDIA zu tun, da wir dauernd in alte Gewohnheiten zurückfallen und jede Leistungssteigerung wie die grössten Nerds hochleben lassen.
 
  • Gefällt mir
Reaktionen: Ernie75, FLCL, Onkel Föhn und 5 andere
Wenn trotz 7nm die Stromaufnahme so stark ansteigt, rechne ich mit einem seit vielen Jahren nicht dagewesenen Leistungsplus...
 
  • Gefällt mir
Reaktionen: Obvision und domian
AnkH schrieb:
Fakt ist, wir Konsumenten und auch die Hardware-Magazine sind zu dumm dafür, mit unserem Kaufverhalten und Reviewverhalten etwas gegen die Preistreiberei von nVIDIA zu tun, da wir dauernd in alte Gewohnheiten zurückfallen und jede Leistungssteigerung wie die grössten Nerds hochleben lassen.

In welchem Bereich ist das denn ohne Weiteres möglich. Schau dir doch die vielen AN an, die entsprechend Ihrer Qualifikation für ein geringes Gehalt arbeiten. Die könnten auch etwas dagegen tun, indem sie organisiert diese Jobs nicht machen. Es findet sich jedoch immer jemand der es macht und so auch bei Elektronik, der sie kauft. Egal zu welchem Preis
Ergänzung ()

Tobi86 schrieb:
Wenn trotz 7nm die Stromaufnahme so stark ansteigt, rechne ich mit einem seit vielen Jahren nicht dagewesenen Leistungsplus...

Nicht zu vergessen, es ist a) die TDP und b) die Höhe nur ein Gerücht
 
Artikel-Update: IgorsLab legt noch einmal nach: So soll der GA102 eine Chipgröße von rund 627 mm² aufweisen, was zwar ein gutes Stück kleiner als der TU102 mit 754 mm², aber immer noch sehr groß wäre. Ob die GPU bei TSMC oder bei Samsung gefertigt wird, ist dagegen immer noch unklar, dazu gibt es auch keinerlei neue Spekulationen.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, Ernie75, Smartbomb und 4 andere
Man diese ständige Pressediskussion von einigen wenigen lautstarken in den verschiedenen Foren ist echt ermüdend.
Es ist ganz einfach, wenn ihr den Wert einer Karte X für Preis Y als nicht gerechtfertigt anseht, kauft eine andere Karte und verschont uns mit euren :heul:
Wenn das genügend Leute ähnlich sehen, werden die Preise auch automatisch sinken. An eurer Stelle würde ich aber nicht darauf wetten, da die meisten Leute die High-End haben wollen, auch bereit sind High-End Preise zu zahlen und das im vollen Bewusstsein darüber, dass das Preis-Leistungsverhältnis schlechter ist als im Mid-Range Bereich.
Das einzige was ihr bewirkt, ist das sich Enthusiasten aus solchen Foren gelangweilt und genervt zurückziehen und den Raum für Echokammern freimachen.

Btw. ich hätte meine RTX2080Ti auch gerne für 900 EUR gekauft und 380 EUR gespart, wer will schon freiwillig mehr zahlen? Mir persönlich war die Karte aber auch 1280 EUR wert.
 
  • Gefällt mir
Reaktionen: iceshield, Winnie0601, Smartbomb und 9 andere
Igor hat ja nochmal ein kleines Video gebracht wo er die TDP erklärt. Bei der 3090 sollen nur für den VRAM 60 Watt flöten gehen. Am Ende bleiben dann 230W nur für den Chip. Die Modelle mit weniger Speicher nutzen die TDP dann eventuell nicht aus, oder takten ne Ecke höher.
 
5 Threadseiten hab ich mir durch gelesen - von 29.... Also nvidia muss bei der Effizienz weiter gut bleiben, sonst fehlt das Hauptargument für die Fans zumindest ggü. AMD. 350 Watt klingen zwar erstmal abseits von effizient - aber natürlich muss man das im Verhältnis zur Spieleleistung sehen.
 
  • Gefällt mir
Reaktionen: VYPA
Affe007 schrieb:
Btw. ich hätte meine RTX2080Ti auch gerne für 900 EUR gekauft und 380 EUR gespart, wer will schon freiwillig mehr zahlen? Mir persönlich war die Karte aber auch 1280 EUR wert.

Der performance gain der 2080Ti ggü der 1080Ti in 4k war um die 25%, bei 1440p etwas weniger. Dafür kostete die Karte dann 400€ mehr als die 1080Ti. Das kann man sehen wie man will ob man den Unterschied im Preis vs Leistungssteigerung hinnehmen will. Klar, man hatte dann aber auch die komplett neue Tech mit Raytracing, wenn man darauf scharf war. Das muss dann jeder für sich abwägen.
Aber rein von der non-RT performance her wird die 3080Ti um Längen besser dastehen vs. die 2080Ti. Chancen stehen hoch dass die 3080Ti den gleichen Preis oder wenn dann nur tick mehr haben wird als die 2080Ti bei ihrem launch und aber der performance increase um die 40% in der reinen rasterisation Leistung sein wird (so zumindest die rumors). Das ist schon auf jeden Fall eher zu rechtfertigen, die 1250€ oder wieviel auch immer.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
@Affe007

Ich für meinen Teil bin bei der TDP Angabe vom vorgestellten Kühlsystem eher enttäuscht und hätte eher eine ähnliche Lösung wie bei der Fury-X erwartet damit die Abwärme nicht im Gehäuse verbleibt. Erst recht bei der zu erwartenden Preislage.
 
  • Gefällt mir
Reaktionen: FLCL, Onkel Föhn und Mcr-King
Wadenbeisser schrieb:
@Affe007

Ich für meinen Teil bin bei der TDP Angabe vom vorgestellten Kühlsystem eher enttäuscht und hätte eher eine ähnliche Lösung wie bei der Fury-X erwartet damit die Abwärme nicht im Gehäuse verbleibt. Erst recht bei der zu erwartenden Preislage.

Was wahrscheinlich am Board-Layout liegt was sagen wir mal sehr interessant ist.

Natürlich auch schwieriger zu kühlen und man wird sehen in Tests ob NV diesmal vielleicht zu weit über das Ziel hinausgegangen ist.
Ergänzung ()

Also Infos zur RTX Mittelklasse wenn es jemand interessiert.

RTX3070ti GA104-400 48 CUs 3072 Shader 256Bit 8GB 18GPS
RTX3070 GA104-300 40 CUs 2560 Shader 256Bit 8GB 16GPS
RTX3060 GA106-300 30 CUs 1920 Shader 192Bit 6GB 16GPS
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, Smartbomb, t3chn0 und eine weitere Person
@Mcr-King

Das sehe ich eher weniger kritisch. Der Bereich mit der GPU und dem Grafikspeicher wird einen recht großen Bereich auf der Karte in Anspruch nehmen, das dürfte mehr als genug Platz für die Pumpe sein. Des weiteren läßt sich der Spannungswandler recht einfach in den Kreislauf einbinden und mitkühlen. Das konnte man sowohl bei AMDs Pro Duo, als auch bei der Fury-X sehen.

Am meisten bin ich bei dem vorgestellten Kühlsystem mit den frei liegenden Finnen aber darauf gespannt wieviele die Dinger beim Handeln der Karte verbiegen und/oder sich daran schneiden werden....
 
  • Gefällt mir
Reaktionen: Mcr-King
Also ich finde dieses Design bescheuert, wie soll man die Karte vernünftig reinigen ohne sie komplett zu zerlegen
 
  • Gefällt mir
Reaktionen: Mcr-King
08/15 Base schrieb:
Also ich finde dieses Design bescheuert, wie soll man die Karte vernünftig reinigen ohne sie komplett zu zerlegen

Druckluft... wie üblich
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, GERmaximus, Onkel Föhn und 2 andere
Affe007 schrieb:
Wenn das genügend Leute ähnlich sehen, werden die Preise auch automatisch sinken.

Wer noch an vollumfänglich funktionierende freie Marktwirtschaft glaubt, glaubt wohl auch noch an den Storch. Dank Werbung, Reviews in Magazinen, Meinungsbildung in Foren und geschickter Kommunikation der Firmen, welche ein Produkt an den Mann bringen wollen, klappt "wenn genügend Leute das ähnlich sehen" eben nicht mehr automatisch, sondern nur mit Information ebendieser Leute. Genau das bezweckt das von Dir als "Gejammer" abgestempelte Geschreibsel von mir und anderen Leuten hier. Wissen ist Macht.
 
  • Gefällt mir
Reaktionen: Qualla, russianinvasion, gartenriese und 3 andere
Mcr-King schrieb:
RTX3060 GA106-300 30 CUs 1920 Shader 192Bit 6GB 16GPS
Sollte sich dieses Gerücht bewahrheiten, wäre das für mich eine noch größere Enttäuschung, als es die letzten beiden Gen. bereits waren/sind. Die Leistung einer 3060 sollte im Bereich einer 2070s liegen, was mir reichen würde, aber der Vram muss definitiv 8 GB groß sein. Bitte nicht wieder einen Vram-Krüppel anbieten, nV.
Aber ist es nicht ohnehin verfrüht, sich jetzt schon Sorgen zu machen?
 
  • Gefällt mir
Reaktionen: FLCL, shoKuu und ahuev0
Zurück
Oben