News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Nahrungsmittel schrieb:
Wo sind wir dann in 5 Jahren ? Dann geht's rauf auf 2500€?

Solange die Leute das zahlen, ja.

Kann man einem Unternehmen verübeln, dass Menschen ihr Produkt wollen?
 
  • Gefällt mir
Reaktionen: KlaraElfer, Tidus2007 und GERmaximus
Taxxor schrieb:
Das was da bei Nvidia in den Specs steht, ist doch sowieso nie das, was die Karte dann letztendlich fährt.
Bei der 2080Ti stehen auch 1545MHz Boost auf dem Papier, im Test taktet sie dann mit ~1800MHz
auch wenn die karte eine TDP von 350W hat? bin ich gespannt. die ist sicher... wie PCGH immer so schön bei den AMD Karten sagt "AUF KANTE GENÄHT" ;)
 
RaptorTP schrieb:
Mich bewegt genau der Preis fast dazu auf Konsole zu gehen.

Mich bewegt der vermutete Preis in Verbindung mit 25% Speicherfortschritt in 4 Jahren dazu meinen Gsync Monitor zu verkaufen und auf einen mit freesync zu setzen der zur Not noch G-Sync kompatibel ist. Gut das 144hz zu 100hz Panel hat da auch seinen Anteil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Dimos, Dai6oro und 2 andere
@nagus Die 2080Ti war ja hier im Test mit den Taktraten dann auch schon bei 275W und es ging ja auch schon rum, dass Ampere bis 400W ziehen wird.

AMD war mit Navi ja sogar mal vorbildlich, die 225W 5700XT verbraucht real eigentlich eher 210W, die 185W 5700 nur 175
 
  • Gefällt mir
Reaktionen: fox40phil, s0UL1, McTheRipper und 3 andere
Taxxor schrieb:
Dann rechne das doch mal mit der TDP um, die 2080Ti macht ihre 100% bei 250W TDP und die 3090 macht ihre 150% bei 350W, das wären 40% mehr Verbrauch für 50% mehr Performance und damit sehr schlecht für den 7nm Prozess.
Das ist nicht gesagt, die Effizienzkurven sehen immer exponentiell aus. Ich betreibe meine Karte mit einem 25% verringerten Powerlimit, verliere aber nur ca. 5% Leistung.
Mit anderen Worten: NVidia hätte möglicherweise auch 0% Mehrverbrauch und (völlig aus der Luft gegriffen) 35% Mehrleistung realisieren können. Dann wären aber die Balken nicht weit genug rechts, um die ihnen vorschwebenden Preise aufrufen zu können.
 
Ist das ein Witz???

Headline:

GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Inhalt:

will die Spezifikationen der RTX-3000-Generation in Erfahrung gebracht haben (...) kann nicht garantiert werden, dass es sich um Tatsachen handelt (...) Angeblich (...)

Ich schwöre, ihr bekommt keinen Cent mehr von mir!
 
  • Gefällt mir
Reaktionen: Sgt.4dr14n, Hardwarious, Sturmflut92 und 12 andere
Trimipramin schrieb:
Also ne 3070 wird bei meinem Monitor evtl. zu knapp. Daher hätte ich schon gerne mindestens eine 3080. So oder so möchte ich schon gerne 16GB V-RAM haben.

Aber nicht bei 10GB Speicher, den können sie behalten. Und ein Heizwerk schaffe ich mir sicher auch nicht an. Also entweder kommt da was sinnvolles, oder die 1070 wird weiter Ihren Dienst verrichten müssen.

Hab aktuell ne 2070 verbaut und nen UWQHD Monitor (34GK950G) + OLED (120Hz/4K), den OLED kann ich momentan nur mit WQHD/120Hz ansteuern, was auch gut aussieht, aber das 4K Upgrade mit HDMI 2.1 wäre schon nett und für den Monitor ist die 2070 auch unterdimensioniert.

Aber bei 10 GB Vram (RTX 3080) kann ich ein Upgrade irgendwie nicht rechtfertigen, vor allem wenn man die neuen Konsolen anschaut....
Ergänzung ()

KlaasKersting schrieb:
Geringe Mehrleistung? Nvidia vergibt die Speicherbandbreite normalerweise recht sinnvoll im Verhältnis zur Leistung. Dazu ist das eine neue Generation, d.h. vermutlich bessere Kompression.

Der Leak deutet für mich in erster Linie an, dass die 3090 ein absolutes Monster wird und durchaus das Potenzial hat, die 2080 Ti um 50% aufwärts zu schlagen.

Wieviel bringt die Kompression denn wohl?
 
Nahrungsmittel schrieb:
Bei Nvidia gibt es immer noch einen exklusiven Aufschlag dazu weil die es ja auch machen können weil die Leute es ja auch kaufen scheiß egal wie teuer es ist. Steht ja schließlich Nvidia drauf.

Ja Enthusiasten Hardware darf teuer sein aber man muss auch irgendwo dann Mal die Grenzen ziehen.

Sagen wir Mal eine rtx 3090 kostet 1700€

Das ist mehr als ein ganzer Monatsgehalt von tausenden von Menschen in Deutschland und das ist einfach nur KRANK.

Wo sind wir dann in 5 Jahren ? Dann geht's rauf auf 2500€?
Solange ihre Produkte wie blöd gekauft werden, macht ja nv alles richtig.
Das können schlussendlich nur wir Kunden ändern.
Denke nicht dass AMD an zwei Fronten, ohne grosse Unterstützung der Kunden, gegen 2 grössere Mitspieler ankämpfen kann.
Wäre ja auch irgendwie verrückt...
Aber ich bin sicher noch lange mit meiner 5700er zufrieden und kann mal in Ruhe abwarten.
Meine TDP Schmerzgrenze liegt eh bei max. 200 W, eigentlich eher weniger, die 5700er braucht mir eigentlich schon zuviel, aber konnte damals die 5600er nicht abwarten.
Hoffe daher dass AMD da einen anderen Weg als nv einschlägt.
 
  • Gefällt mir
Reaktionen: Unnu und Mumusud
Ich hätte gerne einen Filter in dem ich die Diskussionen der neuen Karten um das Thema VRAM-Größe bereinigen kann. Meine Güte geht ihr mir auf den Keks, vor allem sinds bestimmt die gleichen Leute, die das unter jeden Artikel, wo eine VRAM Größe bezeichnet wird, wieder drunter schreiben.
 
  • Gefällt mir
Reaktionen: Orcon
Ich tippe weiterhin auf 2399$ bzw. 2499€ für das 24 GB Modell.

Und leider kann es sich nVidia auch weiterhin erlauben astronomische Preise zu verlangen. Einfach weil weiterhin die Konkurrenz fehlen wird. AMD ist zwar schön und gut, kann auch massiv VRAM einbauen, aber am Ende kommt einfach wieder kein Top Modell dabei raus worum sich alle kloppen würden. Und solange das nicht der Fall ist, wird nVidia weiterhin jährlich die Preise anziehen.

Und warum man vllt. doch wieder ein 8GB Modell anbietet? Neue Kunden denen das evtl. reichen wird und die dennoch ein sehr aktuelles Modell wollen? Ganz einfach. Offenbar gibt es weiterhin eine größere Nachfrage für so ein Modell.
 
  • Gefällt mir
Reaktionen: Recharging
Also wenn die 3070 wirklich nur mit 8GB VRAM kommt, dann können Sie die behalten. 2 Generationen lang in dieser Leistungsklasse kein Upgrade zu bringen ist mehr als frech.
 
  • Gefällt mir
Reaktionen: JPsy, Piep00, fox40phil und 2 andere
GERmaximus schrieb:
Mich bewegt der vermutete Preis in Verbindung mit 25% Speicherfortschritt in 4 Jahren dazu meinen Gsync Monitor zu verkaufen und auf einen mit freesync zu setzen der zur Not noch G-Sync kompatibel ist. Gut das 144hz zu 100hz Panel hat da auch seinen Anteil.

Naja, Panel muss auch schnell genug für 144 Hz sein und Adaptive Overdrive hat Freesync afaik auch nicht.
Der Monitormarkt ist eh ein düsteres Kapitel ^^
 
Technologie kostet eben Geld, genauso wie die Entwicklungsforschung und die dazugehörenden Maschinen die alles möglich machen.
Wenn man sieht was wirklich alles dahinter steckt weis man warum die Dinger immer teurer werden.

Man kann es nicht mit "frühe" vergleichen.
Meine 1080ti hat damals 750€ gekostet, die 2080ti fast das doppelte, und für die etwas mehr Leistung war es mir Persönlich nicht wert umzusteigen.

Ich glaube das viele treue NVidia supporter diesmal auf Big Navi warten.
Gegenüber zur 2080 hat die 3080 2gb mehr ram also nicht 8 sondern 10, und hier motzen wieder einige die meinen es sei zu wenig.
dann kommt die 3090 mit 24 GB, das ist wieder zu viel.

Also man kann es nicht jedem recht machen, klar 16GB und ein preis von 850€ wären optimal, das wird es aber sicherlich nicht spielen!

Technologie und Entwicklung kosten Geld und das lässt sich NVidia auch bezhalen.
 
Taxxor schrieb:
@nagus Die 2080Ti war ja hier im Test mit den Taktraten dann auch schon bei 275W und es ging ja auch schon rum, dass Ampere bis 400W ziehen wird.

es wird jedenfalls ein monster was kühlung und verbrauch angeht. sonst würde nvidia nicht a woche vor dem launch die massen darauf einstimmen wie TOLL und SUPER sie nicht grafikkarten designen können und das das voll die "Kunst" ist. Da denkt sich jeder Fanboy... "Oh sind die toll, so super, haben sie super gelöst". in der realität is es so, dass die leute vor dem Event schon darauf vorbereitet werden, damit das Raunen beim eigentlichen Launch nicht so stark ist. Sowas in die Richtung... geschicktes Marketing. Aber auch sehr durchschaubar.
 
  • Gefällt mir
Reaktionen: Payne19
Nahrungsmittel schrieb:
Sagen wir Mal eine rtx 3090 kostet 1700€

Das ist mehr als ein ganzer Monatsgehalt von tausenden von Menschen in Deutschland und das ist einfach nur KRANK.

Wo sind wir dann in 5 Jahren ? Dann geht's rauf auf 2500€?
Zwingt eigentlich jemand die Leute zum Kauf? Ist ein Hobby, und nun? Ein 65" OLED TV kostet auch 2000€ - und nun? Auch krank? Sowohl Nvidia als auch AMD haben in den letzten Jahren schrittweise die Preise in allen Leistungsklassen erhöht, und trotzdem haben die Menschen gekauft - und nun? Das sind Börsennotierte Unternehmen, am Ende des Jahres sollen die Aktionäre glücklich gemacht werden.

Was mich mal interessiert würde, was wird hier im Forum eigentlich dann vom AMD Flaggschiff als Preis erwartet? 500€ oder doch eher 1000€? Ist AMD die Wohlfahrt? Haben sie in den letzten Jahren ihre GPU Produkte auch preislich nach oben hin orientiert?
 
  • Gefällt mir
Reaktionen: Biervampyr, tomasvittek, .Sentinel. und eine weitere Person
RTX 3070 mit nur 8GB Ram? Das wird ein Speicherkrüppel wie die GTX 970...
Sehen wir bei der RTX 3060 dann wieder nur 6GB wie bei der 2060? :freak:
Hatte gehofft Nvidia holt beim Speicher irgendwann zu AMD auf..
 
Tom_1 schrieb:
Technologie kostet eben Geld, genauso wie die Entwicklungsforschung...

Das können die Dunkelroten Fanboys aber nicht wissen, da ihre Hardware absolut kein besseres oder zusätzliches Featureset bietet. Geschweigenden mit mehr (realer) Leistung auftrumpft.

Auch verstehen das die Ewiggestrigen nicht, welche immer noch Preise von 2002 verlangen, ohne mal nachzudenken wie bei jedem von uns und auf der Welt der Lebensstandard und das Lohnniveau gestiegen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Biervampyr und .Sentinel.
Beg1 schrieb:
Naja, Panel muss auch schnell genug für 144 Hz sein und Adaptive Overdrive hat Freesync afaik auch nicht.
Der Monitormarkt ist eh ein düsteres Kapitel ^^
Du hast Recht, bisher.
Doch der LG 850 ist für mich das Porno Panel schlechthin. 1ms gtg, Nano ips, 144hz und bei Prad als sehr gut bewertet. Dazu beide Sync Methoden.
 
  • Gefällt mir
Reaktionen: Unnu und denbaschu
abcddcba schrieb:
Zwingt eigentlich jemand die Leute zum Kauf? Ist ein Hobby, und nun? Ein 65" OLED TV kostet auch 2000€ - und nun? Auch krank?
Der Grund warum die Preise so massiv immer weiter steigen ist weil Nvidia genau weiß das es gekauft wird. Ich weiß nicht ob man das toll finden soll?

Wenn du das mit dir machen lässt und solche Preise gerne zahlen möchtest dann bitte.

Und ja für mich als normal verdiener der nicht in Geld schwimmt aber dennoch PC und Hardware als Hobby hat sind solche Preise (zum Beispiel 1700€) krank

keiner wird dazu gezwungen die Karte zu kaufen aber wer die Leistung braucht für 4K ist indirekt dazu gezwungen die Preise zu zahlen oder die settings massiv runter zu schrauben.
 
  • Gefällt mir
Reaktionen: --Nils-- und Dimos
Bin wirklich gespannt, was die Tests zeigen werden....aber unabhängig von den Ergebnissen wird 2020 ausgelassen, hardware-technisch.

Mein wassergekühlter Customloop mit 3900X und 1080TI bringen sogar auf 4k noch ausreichend Leistung.
Traurig ist einfach nur, dass ausschließlich die Top-Notch Modelle mehr Speicher bringen werden!?

Hab sowieso gemerkt, dass gute Spiele halten und ich mich nicht auf jeden AAA Titel stürze.

Gespannt bin ich aber dennoch :evillol:
 
  • Gefällt mir
Reaktionen: fox40phil, s0UL1, poly123 und eine weitere Person
Zurück
Oben