News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

Chismon schrieb:
Und was ist mit denen, die sich nach zweitem Preisrutsch (erst RTX Ampere,, dann RDNA2 Navi2X) noch eine RDNA1 RX 5700(XT) günstig holen wollen?

Sie spekulieren darauf, daß sich im Spielemarkt nichts tut oder nehmen halt im Kauf nicht mit hohen Grafiksettings spielen zu können. Kann jeder machen wie er will, bei mir verrichtet derzeit auch eine 1060 ihre Arbeit. Nur würde ich definitiv kein Geld mehr für eine Karte ohne anständige RT Leistung und mindestens 8GB VRAM ausgeben.

Die paar RT Spiele hole ich jetzt in Ruhe nach und in der Zukunft gehe ich von einer breiteren RT und DLSS Unterstützung aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon, Lübke82 und Luxmanl525
Wenn ich mir so das sperrige Monster angucke, möchte ich meine MSI Ventus 2080Ti (2,5 Slot und 29cm) noch länger behalten.

Wenn man keine Wakü dran baut, dann viel spaß die Hitze aus dem Tower zu bekommen.

Bei so nen dicken Kühler ist Hitzestau nach 30min zocken vorprogrammiert.
 
  • Gefällt mir
Reaktionen: Chismon
Laphonso schrieb:
Damals (Ende 2010) lieferte Nvidia High End kein GSync, kein DLSS, kein Raytracing und konnte maximal Full HD stemmen, aber nicht 1440p und schon gar nicht 4K mit rund 25 GPixel und 49 GTexturen pro Sekunde - Rate (2080Ti = 135 GPixel/s und 420 GTexel/sec) .

Damals hatte Nvidia High End auch nur 1,5 bis 3 GB DDR5 VRAM und 512 Shading Units (4252 hat die 2080Ti) .

(Übrigens war die 580 auch nur 25% schneller als die 480.)

Die damalige 580 ist gegen die Power und die Feauturesets einer 2080Ti ein technisch armseliger Furz.
Weil sich alles weiterentwickelt.
Was ist denn das für eine Argumentation? Woho Nvidia hat ihre Produkte weiter entwickelt? Welch Erkenntnis. Es muss aber auch ein Kaufanreiz geschaffen werden.

t3chn0 schrieb:
Absolut schade, dass AMD wieder mal so still ist.

Da kann schon fast keine Granate mehr kommen, da Nvidia binnen der kommenden 8 Wochen den Markt komplett sättigen wird und AMD dann nur noch (wieder mal) ein Produkt für die übrig gebliebenen, oder AMD Bros hat.
Warum sollte der Markt gesättigt sein? Nur weil eine neue GPU auf den Markt kommt, bedeutet es nicht das alle Konsumenten sofort losrennen und diese auch kaufen.

Ich denke das Ampere die Messlatte extrem hochsetzen wird. Der Verbrauch wird brutal, die Leistung hingegen auch.
So wie es aussieht ist Ampere total auf thermische Kante genäht. Wenn die Boardpartner und die Dritthersteller von Kühllösungen schon Bauchschmerzen bekommen, obwohl denen noch immer keinen finalen Spezifikationen vorliegen, und Igor sagt das allein der Kühlkörper 155$ kosten soll.... Aua

Mit viel Pech dürfen die Ampere Besitzer in 2 Jahren wieder ihre PCBs backen wie noch zu 8800er Zeiten. Überraschen würde es nicht nicht.
 
  • Gefällt mir
Reaktionen: Fighter1993, Dai6oro, gesperrter_User und eine weitere Person
Laphonso schrieb:
Niemand wird gezwungen, die neuen und TEUERESTEN AMD und Nvidia GPUs zu kaufen.

Stimmt, High End Gaming sollte den gut betuchten vorbehalten bleiben.
Sarkasm off.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Hercule Poirot
t3chn0 schrieb:
Deshalb ist AMD so still. Mit 16GB wird man weit hinter Nvidia bleiben.

Man kann es auch anders sehen.
Bei Bulli war man nicht still und bei Vega auch nicht, bei Zen spielte man hingegen recht lange mit verdeckten Karten aber faszinierend wie die Größe des VRAMs auf einmal massiv an Bedeutung gewinnt wo man bei AMD von 16 GB ausgeht. :D
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Volkimann
Diese ganzen Hitze und Stromverbrauch Diskussionen erinnern mich an Vega.
AMD war NV damals schon voraus ;)
 
  • Gefällt mir
Reaktionen: ComputerJunge
Hm, scheinbar eine bevorstehende Herausforderung für den ITX-Bereich 🧐
 
  • Gefällt mir
Reaktionen: Mcr-King
Volkimann schrieb:
Es muss aber auch ein Kaufanreiz geschaffen werden.
Gibt es doch. Der Kaufanreiz ist gegeben, weil Du für das gleiche Geld heute viel mehr GPU Leistung und Features von AMD oder Nvidia erhältst als für die olle 480er.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Lübke82
Laphonso schrieb:
Ich gehöre zu der Gruppe der Enthusiasten, die sich alle 2 Jahre über die neuen Leistungssprünge der GPUs freut

ÄHM ja und nein dass Problem ist die zwei Klassen Gesellschaft, sowohl PC als auch Konsole.

Auch natürlich das Einsteiger GPUs total überzogen im Preis sind siehe RTX2060s die RTX3060 wird nicht besser
 
  • Gefällt mir
Reaktionen: Hercule Poirot
cookie_dent schrieb:
Stimmt, High End Gaming sollte den gut betuchten vorbehalten bleiben.
Sarkasm off.
Genau, Tesla fahren für nur 100 Euro im Monat ist nicht möglich, das ist nur gut Betuchten vorenthalten! Echt gemeine Welt!
 
  • Gefällt mir
Reaktionen: lordtofu, tomasvittek, Lübke82 und eine weitere Person
StefVR schrieb:
Das waere wirklich wuenschemswert. Schon haeufig das der afterburner fuer Probleme bei mir verantwortlich war.

Stimmt deswegen RBE für meine RX570 benutzt. ;)
 
Wenn ich mir den Kühler ansehe gehe ich davon aus das meine 1080 auch noch weiterhin in mein PC bleibt. Wahrscheinlich wird selbst die 3060, 3070 So Extrem Teuer sein das sie Uninteressant wird. Seit der 10xx Serie habe ich das Gefühl das sich kaum etwas verändert außer RTX was ich nicht benutzen möchte.
 
  • Gefällt mir
Reaktionen: Floppes und Hercule Poirot
Laphonso schrieb:
Gibt es doch. Der Kaufanreiz ist gegeben, weil Du für das gleiche Geld heute viel mehr GPU Leistung und Features von AMD oder Nvidia erhältst als für die olle 480er.
Und jetzt vergleichen wir:
GTX 580 = HighEnd (zu der Zeit)
500€

GTX 3090 = HighEnd
1399€
 
  • Gefällt mir
Reaktionen: Hardwarious, dohderbert, Hercule Poirot und eine weitere Person
Hallo zusammen,

@ Volkimann
Volkimann schrieb:
Mit viel Pech dürfen die Ampere Besitzer in 2 Jahren wieder ihre PCBs backen wie noch zu 8800er Zeiten.
Also meine seinerzeitige Zotac Nvidia Geforce 8800 GTX 640 lief von Mai 2006 bis November 2011. Danach im Rechner eines Freundes, die hielt auch noch das ein oder andere Jahr danach bei dem.

In Punkto Preis- / Leistung kann beim G80 zumindest noch von einem vernünftigen Verhältnis gesprochen werden. Meine o. a. Zotac konnte ich z. b. Neu zu 288 € erstehen.
Volkimann schrieb:
GTX 3090 = HighEnd1399€
Das dürfte noch Positiv gerechnet sein. Nicht unterschlagen darfst du, daß für viele Leute noch ein Neues Netzteil sowie zusätzliche Gehäuselüfter dazu kommen. Die Wärem muß ja irgendwie aus dem Gehäuse, der Kühler der GPU dürfte da nicht ausfreichend sein.

@ Laphonso
Laphonso schrieb:
Eine 2060 ist keine „Einsteiger“ GPU. Nichtmal laut Computerbase GPU Rangliste. Hier kauft man wissentlich die Tensor Cores mit.
Selbstverständlich ist die RTX 2060 eine Einsteiger-GPU! Nämlich in Punkto Raytracing und DLSS. Und so wird sie von Nvidia auch beworben.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cookie_dent und Cpt.Willard
Volkimann schrieb:
Und jetzt vergleichen wir:
GTX 580 = HighEnd (zu der Zeit)
...
siehe meinen vorherigen Post
1598127494000.png

Die Chips werden immer Komplexer und damit steigt automatisch der Preis...
 
  • Gefällt mir
Reaktionen: Lübke82 und Laphonso
Botcruscher schrieb:
Zweifelhaft. NV wird massiv RT pushen und beim Rest enttäuschen. Der Marketingzug nach GPU PhysX, Tesellation und so einigem anderen Gedöns.
Was ihr alles so vor Release wisst...wofür soll man überhaupt Test abwarten, ihr Insider wisst ja voll Bescheid. 😂
 
  • Gefällt mir
Reaktionen: .Sentinel., Andybmf, tomasvittek und 2 andere
Mcr-King schrieb:
ÄHM ja und nein dass Problem ist die zwei Klassen Gesellschaft, sowohl PC als auch Konsole.

Auch natürlich das Einsteiger GPUs total überzogen im Preis sind siehe RTX2060s die RTX3060 wird nicht besser
Eine 2060 ist keine „Einsteiger“ GPU. Nichtmal laut Computerbase GPU Rangliste. Hier kauft man wissentlich die Tensor Cores mit.
 
Tawheed schrieb:
siehe meinen vorherigen Post
Anhang anzeigen 957844
Die Chips werden immer Komplexer und damit steigt automatisch der Preis...
Dann müsste das Balkendiagramm aber links die ganz kleinen Balken haben und nach rechts hin kontinuierlich steigen.

Und auch eine GeForce 2 Ultra sollte mal für 1499 DM verkauft werden, ging aber quasi sofort in den Sinkflug weil die Leute zurecht mit dem Finger an die Stirn klopften.
 
  • Gefällt mir
Reaktionen: Hercule Poirot
Wadenbeisser schrieb:
aber faszinierend wie die Größe des VRAMs auf einmal massiv an Bedeutung gewinnt wo man bei AMD von 16 GB ausgeht. :D

und vor nicht allzulanger Zeit gab es hier Diskussionen, dass 6GB doch nachwievor vollkommen ausreichend sind. ;)
 
Zurück
Oben