News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

CptBabossa schrieb:
Bei den stetig steigenden Strompreisen mache ich das nicht mehr mit.

Die paar Watt dürften den meisten von den Kosten ziemlich egal sein, wenn sie sich High End Hardware kaufen. Den Ferrarifahrer juckt es auch nicht, wenn das Benzin mal 20 cent mehr kostet. Wenn die paar Euro pro Jahr eine Hürde sind, sollte man sich über seine Finanzen Gedanken machen und andere Prioritäten als eine möglichst schnelle Grafikkarte haben.

Dai6oro schrieb:
Aber im Sommer habe ich dann eine 500 Watt Heizlüfter in der Wohung stehen. Auch nicht geil.

Das stimmt schon. Habe mittlerweile in eine Klima investiert. Ist jeden Cent wert. Habe mit meinem Partner ein gemeinsames Büro / Zockzimmer. Wird mit zwei Rechnern dann schon mollig ansonsten im Sommer in einer Dachgeschosswohnung. Hat aber auch Vorteile im Winter :)

domian schrieb:
Auf keinen Fall, dass war noch nie so

Noch nie? Also die 980Ti wurde auch teils im Abverkauf für knapp über 300€ verschleudert. Der Gebrauchtpreis pendelt sich da ein, wo die Leistung am markt steht. Kommt also drauf an, was Navi2x und Ampere abliefern, aber wenn es tatsächlich seit langem mal wieder einen Sprung gibt, dann wird sich die 2080Ti nicht sehr gut im Preis halten. Aktuell rechtfertigt sie ihren Preis auch nur durch den Status der schnellsten gamingkarten. Wenn Ende des Jahres aber wirklich mehrere Karten schneller sein sollten, dann wird sie am markt preislich dort landen, wo sie von der Leistung steht. Wenn eine Navi 2 Mittelklasse Grafikkarte für um die 500€ wirklich die 2080Ti leistung erreicht, wird die 2080Ti ziemlich abstürzen. Laut einigen Gerüchten soll ja selbst die kleinste der 3 zum Start kommenden Ampere Karten schneller als die 2080Ti sein und da würde ich mal schätzen, geht es wahrscheinlich für um die 600-700€ los.

Also je nach Markt könnte die 2080Ti durchaus auf um die 500€ fallen, sollten die neuen Karten von AMD und Nvidia hingegen nicht überzeugen, wird sie ihren wert eher halten. Aktuell sieht es aber durchaus mal wieder nach einem großen Sprung aus und diese großen Sprünge haben die Preise der Vorgeneration immer ziemlich fallen lassen. Warum sollte man auch für eine alte gebrauchte 2080Ti noch viel bezahlen, wenn sie sich nicht vom aktuellen markt abheben kann?

Mr. Heisenberg schrieb:
350 Watt bin gespannt welche Temperaturen wir dann haben 85-100

wäre dem Silizium ja ziemlich egal, das Forum wird halt dann nur voll mit panischen Usern sein :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, t3chn0, iceshield und eine weitere Person
Krautmaster schrieb:
ich denke nicht dass es nur Schafe gibt die treu ihre Marke kaufen. AMD hatte im Top End Bereich jetzt Jahre lang nichts gescheites...
Je nach dem wo Big Navi einsteigt wird Nvidia da schon reagieren.
Gibt doch auch genug davon die Intel die Treue halten. Irgendeine Ausrede wird sich immer finden lassen und sei es nur das sie in einem bestimmten Teillast Szenario und/oder bei einseitig optimierter Software schneller sind bzw. bei BIOS Einstellung XY sparsamer sein könnten, wobei die Performance Referenz natürlich von der unlimitierten Einstellung kommt.
Der Unsinn wird schon seit zig Jahren abgezogen, vor allem im Grafikkarten Bereich und ich sehe nicht das sich da groß was geändert hat.
 
Selber schrieb:
Igor hat ja nochmal ein kleines Video gebracht wo er die TDP erklärt. Bei der 3090 sollen nur für den VRAM 60 Watt flöten gehen. Am Ende bleiben dann 230W nur für den Chip. Die Modelle mit weniger Speicher nutzen die TDP dann eventuell nicht aus, oder takten ne Ecke höher.
Ja ich glaube auch, dass der VRAM für einen gewissen Verbrauch und für eine gewisse Abwärme sorgen wird und mit 230+60 landet man wohl am Ende bei knapp 285-310 Watt.
Mcr-King schrieb:
Also Infos zur RTX Mittelklasse wenn es jemand interessiert.

RTX3070ti GA104-400 48 CUs 3072 Shader 256Bit 8GB 18GPS
RTX3070 GA104-300 40 CUs 2560 Shader 256Bit 8GB 16GPS
RTX3060 GA106-300 30 CUs 1920 Shader 192Bit 6GB 16GPS
Der GA106 mit weniger Shadern als der TU106, keine Steigerung beim VRAM. Halte ich für nicht sonderlich realistisch, außer Nvidia zaubert mit Tensor Compression. Das erklärt aber immer noch nicht warum es weder beim 106er Chip noch bei der 60er Karte eine Steigerung geben sollte oder rechnet Nvidia nur mit Konkurrenz >600€?
domian schrieb:
Auf keinen Fall, dass war noch nie so
Abverkauf 980ti für 399€ und weniger? Selbst mit Preissteigerungen erscheinen je nach Stärke von Ampere 500-700€ nicht ganz unrealistisch.
 
  • Gefällt mir
Reaktionen: Shoryuken94 und Mcr-King
eLw00d schrieb:
Bei der wird doch ne TDP von 320 Watt vermutet, oder habe ich was verpasst?

Nicht vermutet bestätigt 😉 320Watt für RTX3080/ti und 350Watt für diie RTX3090.

60Watt braucht allerdings schon der RAM.
Ergänzung ()

Der Voll Ausbau des GA106-400 besitzt 36 CUs und 256Bit. 😉
 
Wadenbeisser schrieb:
Gibt doch auch genug davon die Intel die Treue halten.
Naja, dann schau dir die Mindfactory Sale Zahlen an. Denke die meisten kaufen absolut rational und gerade Mindfactory Werte dürften zum Selbstschrauber Forum gut passen.

Aber ja, so Aussagen zur Markentreue hört man hier immer ohne jeden Beleg.
 
Mcr-King schrieb:
Naja eine RTX3050 wird es nicht geben sondern eine GTX1750. 😉
Das klingt plausibel und zeigt zudem, dass die Zeit eigentlich noch nicht gekommen ist, um in den Panik-Modus zu schalten. Einfach zu vage Gerüchte momentan.
 
@MrNejo

Bereits bei der Turing Serie gab es bei gleicher Leistung keine Steigerung beim Speicherausbau, das gegentei war der Fall. Man erzielt dann eben die Mehrleistung über den Takt und anderen Optimierungen und nutzt die Ersparnis zur Gewinnsteigerung.
 
Wahnsinn ich denke an den Gerüchten wird wohl was dran sein, das wird wiedermal nicht billig. Ich schiele j schon auf die RTX3080. Aber die 320Watt TDP schokieren mich jetzt doch wirklich, ich kann nicht glauben das es stimmten soll. Mal schauen was AMD so bringt, abgeneigt bin ich RDNA2 zumindest nicht.
 
350W TDP / 12V = 30A? Mit den ganzen Schwankungen müsste man da 40A auf der 12V Schiene einplanen, na dann...
 
Mcr-King schrieb:
Nicht vermutet bestätigt 😉


Echt? Wo wurde das offiziell bestätigt? Solange Nvidia keine Daten veröffentlicht, ist in meinen Augen nichts bestätigt. Gerade Taktraten und damit die Abwärme kann man bis sehr spät vor dem eigentlichen Produktstart noch anpassen.
 
  • Gefällt mir
Reaktionen: GERmaximus, gartenriese und MrNejo
@Jolly91

Ich würde eher behaupten das die absoluten Spitzenlasten sogar eher richtung 600 Watt gehen würden wenn die Karte ernsthaft 300 Watt im Schnitt nuckeln sollte.

Bin nicht sicher ob da nen gutes 650 Watt NT reichen würden.
 
@Wadenbeisser Du sagst es, mit Turing hatten wir bereits Stillstand, zusätzlich wird man nun wieder Konkurrenz haben. Ich kann mir einfach nicht vorstellen, dass eine 3060 mit weniger VRAM kommt als eine 2060S. Die einzige Erklärung wäre wie gesagt die ominöse Tensor Compression.
 
@Krautmaster

Wen interessieren hier Sales? Das ist das gleiche Prinzip wie im Supermarkt. Lockangebote damit die Leute noch ein paar Sachen dazu kaufen, dann rentiert sich selbst ein Verkauf unter Einkaufspreis und ein Abverkaufspreis ist deshalb so günstig weil man die Platz im Lager bekommen und sich die Lagerkosten von potentiellen Ladenhütern sparen will.
Das Ding wird im Abverkauf nochmal billiger werden und das war es dann. Wie gesagt, siehe 1080Ti.
 
@MrNejo

Das ist aber das Problem bei der Argumentation. ;)
Die 2060 Super mag 8 GB haben aber die normale 2060 hat nur 6 GB und da passt es beim Stagnationsprinzip dann wieder. ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
Knacken wir endlich die 2000 Euro Marke für die "Mainstream", also nicht Titan, Modelle? Wird ja Mal Zeit.

Lachhaft
 
  • Gefällt mir
Reaktionen: russianinvasion und Mcr-King
Wadenbeisser schrieb:
Gibt doch auch genug davon die Intel die Treue halten.
Hier gibt es Gerüchte über die neue Generation an High End Grafikkarten, von der noch niemand weiß, wieviel die Karten unter 0815 Spielebelastung an Strom ziehen, welche Leistung sie bringen und wie laut der Kühler nachher effektiv ist.
Da wird schon Nvidia als Teufel verdonnert und die AMD Konkurrenz, von der wir noch nichtmal solche Gerüchte gehört haben ist jetzt schon die bessere Lösung.
Meint ihr nicht, das hier ein bißchen zuviel "wenn" und "vielleicht" drin steckt.
Wenn die neue Nvidia 30-40% schneller ist, müßte eine AMD Big Navi mal mindestens 100% auf der 5700XT draufschlagen UND noch Raytracing mit ordentlich Leistung dazu bringen um erstmal von Leistung auf dem Level zu sein, ob die das schaffen dann noch unter 300W bleiben steht ja noch völlig unter den Sternen.
Es wird definitiv interessant was da kommt, mich ärgert an der Stelle nur, dass ich einen G-Sync Monitor habe und damit meine Wahl schon einen Einschlag hat.
 
  • Gefällt mir
Reaktionen: Faranor, Palmdale und Mcr-King
Ist doch dein Problem wenn du dich in der Vergangenheit nen G-Sync Monitor gekauft hast. Du wusstest worauf du dich da einlässt.
 
th3o schrieb:
Ich denke nicht dass Turing massiv runtergehen wird. Eine gute Custom 2080Ti wirst du auch gebraucht nicht für unter 800 bekommen. Außerdem denke ich nicht dass eine 3080Ti oder was auch immer das Äquivalent zur 2080Ti sein wird genausoviel beim launch kosten wird wie die 2080Ti damals. Ich denke dass wir mit nem 100-200€ preisanstieg rechnen müssen...leider :/
Außer AMD zaubert nen Hasen ausm Hut mit Big Navi. Aber ich habe Null Grund das anzunehmen, weil das schon seit Jahren so ist dass AMD niemals mit den Top Modellen von NVIDIA mithalten konnte. Warum sollte das jetzt anders sein? Deren Marktstrategie ist einfach eine andere, war sie schon immer. Würde mich sogar gar nicht wundern wenns da Absprachen zwischen NVIDIA und AMD gibt. Kann mir keiner erzählen dass deren Köpfe, die verwandt sind, nicht mal ein kleines Privatgespräch über ihre Strategien haben und es so hinbiegen dass beide Unternehmen ihre Gewinne einfahren und Investoren zufriedenstellen.
Poor Volta hehe. Naja AMD wird auf jeden Fall ein Äquivalent zur 3080 bringen. An viel mehr glaube ich momentan auch nicht. Würde mir aber schon reichen wenns für 700 Steinchen über die Ladentheke geht.
 
  • Gefällt mir
Reaktionen: GERmaximus, Mcr-King und th3o
@SavageSkull

Das nennt man Erfahrung denn es ist genau das Vorgehen das nvidia seit Jahren verfolgt und ich sehe keinen Grund warum sich das jetzt ändern sollte.

Ich gehe von einer Situation wie seinerzeit bei der Vorstellung der 290x aus.
Etwas schneller als die xx80, etwas langsamer als die xx80Ti/xx90/Titan und am Ende wird natürlich die geforce gekauft weil man sich bei jener die Rusinen und bei der Radeon die Maden zur Produktentscheidung rauspult.

Warum sollte nvidia also die Startpreise geringer ansetzen anstatt sie wie bisher weiter steigen zu lassen?
Im schlimmsten Fall läuft es wie seinerzeit bei der GTX280 wo man nach dem Start von AMDs etwas langsameren aber deutlich billigeren 4850 / 4870 Modelle die Preise deutlich reduzieren mußte weil ihre Verkaufszahlen einbrachen aber dafür sehe ich angesichts der letzten Jahre mal so gar keine Anzeichen.
 
  • Gefällt mir
Reaktionen: HighPerf. Gamer und Mcr-King
Zurück
Oben