News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

Naja, wenigstens machen sie nicht den gleichen fehler wie mit der FX5800 :D
 
  • Gefällt mir
Reaktionen: konkretor und Mcr-King
feris schrieb:
Bei den kolportierten Preisen fällt die Neuanschaffung eines größeren Gehäuses auch nicht weiter auf. :p
NTs nicht vergessen erste NTs mit 2x 12Pin zeigen sich langsam.
 
Im Prinzip hätte ich aus Stromkosten und Netzteilsicht nichts gegen eine 400 Watt Karte. Wenn da nur die Thermik nicht wäre und damit bedingt die Lautstärke beim Kühlen.

Davon abgesehen scheiden sowieso alle Karten über 500 für mich aus.

Eigentlich brauche ich Mal eine Wachablösung für meine Vega56. Ich bin bisher von der GeForce GTX 3000 Serie nur mäßig entzückt und bei Nvidias Preispolitik habe ich Zweifel, ob ich da fündig werde. Wenn der Preis und die Leistung passen, kaufe ich auch gerne wieder nvdidia.

Was ich nie verstehen werde, sind Aussagen wie ;
Meine nächste Karte kommt von nvdidia, obwohl nichts bekannt ist. Da kann ich nur am Kopf kratzen
 
  • Gefällt mir
Reaktionen: Zwenki, Fyrex, MiniM3 und 2 andere
Bin kein Fachmann für Fotografien, aber vergleicht mal die Länge des Slotbleches
Ich denke, hier wurde einfach nur mit der Perspektive bei der Aufnahme gespielt, um die andere Karte größer wirken zu lassen
 
  • Gefällt mir
Reaktionen: Lübke82, xexex und Trinoo
Grade mal geschaut bis 40cm past sie in mein case , dann knalt sie an den Radi :smokin:
Aber nur wenn ich sie wieder horizontal verbau :freak:
 
Vielleicht mach ichs dann wie mit dem Auto.

Eine Winterkarte (RTX 3090) die meine Bude heizt
und ein Sommerkarte(GTX 1080Ti) damit ich hier nicht verbrutzel :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: or2k, pietcux, MiniM3 und 2 andere
SKu schrieb:
Eine kolportierte 3060 wäre der Nachfolger für die 2060S und nicht die 2060, da die Speicheraustattung gleich ausfallen dürfte. Ansonsten müsstest du, um fair zu bleiben, eine kontruktive Abwertung der 3060 vollziehen, um sie mit der 2060 ins Verhältnis setzen zu können. Eine 2060S kostet 430€ als FE mit 8GB. Eine 3060 mit 8GB für 400$ sehe ich daher nicht als Preisanstieg. Außerdem handelt es sich hierbei um reine Schätzwerte, die finalen Preise wird Nvidia erst kurz vor Release .
Egal wessen Nachfolger es ist, es ist schlicht zu teuer. Und das gilt auch für die 2060 sowie 2060S.
 
  • Gefällt mir
Reaktionen: Hercule Poirot
  • Gefällt mir
Reaktionen: Lübke82
@Laphonso
Oke selbst wenn ich für 3500€ 3jahre alles auf Ultra spielen kann, ist es das wert?Ich meine selbst wenn die Konsolen 700€ kosten und nur 5Jahre halten könnte ich mit 3500€ 25jahre Konsole zocken. Ich glaube das ist da größte problem denn ob man so einen krassen unterschied sieht zwischen ultra mittel oder hoch? Meistens nicht deshalb denke ich im VERHÄLTNIS zu den Konsolen viel zu teuer, ich meine wir haben 2020 ich kann wohl erwarten das eine Graka nur die Graka für 400€ wenigstens mit der Konsole mithalten kann (die komplett 500-700€ kostet im schlimmsten fall) aber nicht mal das ist sicher und da wirds schon traurig hobby hin oder her für die 3500€ hätte ich 25 jahre ruhe und immer die neueste Konsole lass es nur 20jahre sein im vergleich zum PC absolut nicht gerechtfertigt und sowas nene ich abzocke.
 
  • Gefällt mir
Reaktionen: Scie, Fyrex und Mcr-King
feris schrieb:
Je öfter ich den Text lese, desto mehr sprechen die Fakten deiner bisherigen Anschaffung und der schnelle Austausch dafür, dass du auch die nächste Preiserhöhung beim NV Modell 2021 mitgehen wirst.

wieso das? ich zahle jetzt nicht mehr als davor auch, mehr oder weniger ;)

hab 780 Euro für meine 1080 bezahlt. diese hatte ich 3 Jahre.
dann kam ne leichte Preiserhöhung.
hab 850 für die 2080 Super bezahlt (gabs ja auch günstige Varianten, aber musste ja die Aorus sein)
und zahle nun wieder ~850 für ne 3080 (Preise natürlich noch nicht fest)
die 2080s soll auch ca 3 Jahre genutzt werden.. wird dann halt nun ne 3080 die dann sicher 3 Jahre ausreicht.

klar, die ~200 die ich nun selbst nochmal drauflegen muss, kann man als Verlust rechnen aber mehr auch nicht (wobei halt die Mehrleistung zur 2080s vorhanden ist und man somit ja was von den 200 Euro hat) , sehe da keine Preiserhöhung.
 
Affe007 schrieb:
So ein Unsinn. Warum sollte NVIDIA neue Stecker/Kabel spezifizieren, die schon wieder obsolet sind?
Der 12 pin Stecker + das Kabel können bis zu 600W liefern (https://www.techpowerup.com/269957/...r-its-real-and-coming-with-nvidia-ampere-gpus)

Die RTX 2190 wird nur einen 12pin haben!

ja mein Fehler 600Watt pro 12er pin.

DPP10 12pin Pcie.jpg
 
Wadenbeisser schrieb:
Nicht vergessen das es dabei nicht um die reale Framerate geht sondern nur um einen Teilschritt der Rechenkette. ;)
Schon richtig, allerdings ist die reine Rasterperformance ja schon gut, nur bricht die Leistung bei Nutzung von RT eben noch ziemlich stark ein.
Sagen wir mal die 2080Ti hat ohne RT 100FPS und mit RT sinkt sie auf 70FPS, ein Einbruch von 30%.

Würde man der 2080Ti jetzt alleine die 3-4fache RT Leistung geben, würde sich dieser Einbruch theoretisch auf max. 10% reduzieren und man hätte selbst mit RT noch 90FPS.
Dann kommt bei der 3090 noch die 50% höhere Rasterleistung dazu und man erreicht ohne RT 150 und mit RT 135FPS.

Damit liegt man bei 2080Ti/3090:
OFF/ON +35%
OFF/OFF+50%
ON/ON +90%
ON/OFF +115%
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SaschaHa
In Anbetracht der Leistungsdaten und des verwendeten 8 nm-Verfahren von Samsung, das eigentlich auf dem eigenen 10 nm-Verfahren basiert und lediglich etwas verbessert wurde (Intel würde dafür maximal ein "+" dranhängen), dürfte sich der hohe Verbrauch ebenfalls tatsächlich bewahrheiten - leider.

Fakt ist doch Folgendes: Der normale Gamer interessiert sich bei der Wahl seiner Grafikkarte nicht für den Stromverbrauch, sondern für die maximale Leistung bei einem möglichst geringen Preis. Somit war Nvidia aufgrund der bisher fehlenden Konkurrenz nicht gezwungen, den teuren 7 nm-Prozess von TSMC zu verwenden, sondern kann sich dieses "Ass im Ärmel" für den Refresh oder den Nachfolger von Ampere aufbewahren.

Aus meiner Sicht sehr schade, da wir nun also mit aller größter Wahrscheinlichkeit tatsächlich sehr durstige große Karten bekommen, die ihr ansonsten mögliches Potential leider nicht ganz ausschöpfen.

Was den Kühler für die Hitzköpfe betrifft: Ich weiß noch nicht so recht, was ich von diesem Kühlerkonzept halten soll. Es sieht ja ganz futuristisch aus, aber mir stellt sich sofort die Frage, wie dort der Airflow verläuft und ob diese gewinkelten Lamellen überhaupt einen Sinn erfüllen oder nur aus optischen Zwecken so gewählt wurden. Aus meiner Sicht ein absoluter Schuss ins eigene Knie! Aber wir werden sehen, ich bin gespannt!

Ich hoffe aber, dass AMD diesmal wieder gute Karten zu bieten hat und sie dank des 7 nm-Verfahrens auch einen gewissen Vorteil gegenüber Ampere haben :)
 
  • Gefällt mir
Reaktionen: Mcr-King
@SKu

Wen juckt das der Größenunterschied der Chips bei einer Begründung eines Preises aufgrund des eingesetzten Speichers?
Der Chip der VII ist zwar kleiner aber im wohl deutlich teureren 7nm Prozess gefertigt, womit sie für den Preis des Chips ohnehin nur eine untergeordnete Rolle spielt dürfte.

Du findest echt zig Begründungen warum die Karten immer teurer werden sollten und aus heiterem Himmel soll es plötzlich außer Frage stehen das es ausgerechnet bei der nächsten Titan anders ein soll?
Du widersprichst dir selbst und das gewaltig.
Natürlich ist es fraglich ob man für eine neue RTX Titan den A100 nehmen würde.
Es wird höchst warscheinlich einfach wie bisher ein unbeschnittener Desktop Chip genommen und dennoch wird das am Aufpreis nicht viel ändern.
 
  • Gefällt mir
Reaktionen: Mcr-King
Snoopy69 schrieb:
Bin kein Fachmann für Fotografien, aber vergleicht mal die Länge des Slotbleches
Ich denke, hier wurde einfach nur mit der Perspektive bei der Aufnahme gespielt, um die andere Karte größer wirken zu lassen

siehe Post #220
 
  • Gefällt mir
Reaktionen: Snoopy69
Wadenbeisser schrieb:
@SKu
Du findest echt zig Begründungen warum die Karten immer teurer werden sollten und aus heiterem Himmel soll es plötzlich außer Frage stehen das es ausgerechnet bei der nächsten Titan anders ein soll?
Du widersprichst dir selbst und das gewaltig.

Du verstehst nicht einmal meine geschriebenen Texte, das ist das Problem. Ich setze die kolportierte 3090 mit den technischen Eckdaten ins Verhältnis zur TITAN RTX, weil die vergleichbar ist. Du setzt Karten ins Verhätnis als wären es Äpfel und Birnen - wie bei der 3060. Und bei kolportierten 1.400$ zu den aufgerufenen 2.750€ für die derzeitige TITAN RTX, wäre die 3090 ja wohl wesentlich günstiger. Von der nächsten TITAN ist hier überhaupt nicht die Rede.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Lübke82
@Taxxor

Das Problem ist doch das man nicht wirklich sagen kann wieviel die Strahlenverfolgung (um die es bei der Leistungssteigerung wohl geht) beim jeweiligen Spiel am Ende in Anspruch nimmt denn der Effekt selbst wird ja weiterhin von den Shadern berechnet und bleibt damit als Leistungsfresser.
Sagen wir einfach mal beispielhaft das es 20% der Zeit zur Bildberechnung in Anspruch nimmt. Das würde dann bei der 4 fachen Leistung bedeuten das sich dieser Anteil an der Berechnungszeit vierteln würde, womit wir dann ca. 15% schneller fertig wären.

Genau das ist aber der Knackpunkt bei der Sache, nimmt die Strahlenverfolgung mehr Zeit in Anspruch nimmt die Beschleunigung am Ende entsprechend zu, ist deren Anteil kleiner bleibt nicht mehr viel übrig.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
Das Problem ist doch das man nicht wirklich sagen kann wieviel die Strahlenverfolgung (um die es bei der Leistungssteigerung wohl geht) beim jeweiligen Spiel am Ende in Anspruch nimmt denn der Effekt selbst wird ja weiterhin von den Shadern berechnet und bleibt damit als Leistungsfresser.
Wie wir im letzten Thread doch erörtert hatten, ist die Stahlenverfolgung doch das Aufwendigste am ganzen Prozess, da sollte demnach auch am meisten Potenzial zu holen sein.
Das sieht man doch gut in den Vergleichsbildern von Nvidia z.b. zu Metro Exodus, wieviel mehr an Zeit in einen Frame gesteckt werden muss, wenn man die RT Cores nicht hat.

Ich meine den Shadern dürfte es doch relativ egal sein, ob sie nun einen RT Effekt oder einen Textureffekt verarbeiten, beim RT Effekt müssen sie nur eben sehr viel länger auf das Ergebnis der Strahlenverfolgung warten. Und wenn die Zeit gedrittelt bis geviertelt wird, dürfte man ziemlich nahe an die normale Rasterleistung rankommen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Windell schrieb:
Egal wessen Nachfolger es ist, es ist schlicht zu teuer. Und das gilt auch für die 2060 sowie 2060S.
Zu teuer gibt es bei Nvidia nicht, entweder man braucht es oder man lässt es sein. Mit jeder neuen Generation an Grafikkarten von Nvidia werden die User / Kunden weiter geschröpft und was soll man sagen, es wird gekauft!

Nvidia hat es die letzten Jahre nie interessiert, was der Kunde von den Preisen hält, selbst jetzt kurz vor dem Release der RTX 3000 Ampere Grafikkarten verlangt man für die 2000er Turing Grafikkarten immer noch Mondpreise. Und selbst dieser "Schrott" wird gekauft, nach dem Release der Ampere Grafikkarten bekommt man für eine Turing nicht mal mehr ein Butterbrot, aber die Käufer interessiert das nicht!

Nvidia hat nichts zu verschenken und ist ein Börsenorientiertes Unternehmen, das setzt zwei elementare Dinge voraus, Wachstum und Umsatzsteigerung, denn nur, wenn weiter genug Dividende generiert wird, investieren die Anleger in deren Aktien. Da ist für Kunden und deren Belange, wie auch Humanität oder emotionale Intelligenz kein Platz. Ändern wird sich das nur, wenn es adäquate Konkurrenz gibt, die gleichwertige Produkte günstiger anbieten, dann müsste Nvidia reagieren, bisher ist das aber nicht der Fall.

Da kann AMD noch so oft von BIG NAVI reden, so lange der Kunde die Hardware nicht kaufen kann und es keine wirklichen Fakten der Leistung gibt, das heißt die neuen Grafikkarten von AMD in unabhängigen Rechnern von Kunden und unabhängigen Experten in dem Bereich getestet wurden, kann Nvidia für Ihre Grafikkarten doch verlangen was sie wollen. Und es werden sich genügend Käufer finden lassen, das war schon in der Vergangenheit so und wird auch diesmal so sein.
 
  • Gefällt mir
Reaktionen: chilchiubito
@SKu

Nichts für ungut aber du verstehst selbst nicht was du schreibst und erst recht nicht was ich schreibe.
Wenn der Absatz der Titan keine ernsthafte Rolle Spielt weil sie in der Produktpalette nur als Referenzpunkt für die Preisgestaltung dient dann ist es vollkommen sinnlos ausgerechnet diese im Preis zu senken um den Anschein der im Vergleich ach so günstigeren kleineren Modell (welche auch noch im Preis seigen) kaputt zu machen.
Die sind nicht dafür da um selbst Gewinne zu erzeugen sundern beim Rest der Produktpalette, sowas nennt man Marketing Strategie.
 
Zurück
Oben