News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

desnatavo schrieb:
Doch, den gibts auch heute noch. Aufgrund der fehlenden Konkurrenz im oberen Preissegment können sich die Preise aber stabil halten. In unteren Gefilden siehst du einen schnelleren Verfall.
Naja, so eine 2080Ti ist ein halbes Jahr nach Release auch um 100-150€ gefallen, also ca 10%

Wo steht denn in den unteren Gefilden, z.B. bei einer RX5500XT der Preis? ziemlich genau exakt da wo er Ende 2019 auch war.
Oder eine 5700XT, für 420-470€ gestartet, liegt sie ein ganzes Jahr später immer noch bei 400-440€

Da hatte die 2080Ti in einem halben Jahr mehr Preisverfall.
 
  • Gefällt mir
Reaktionen: matty2580 und PPPP
Das unnützeste in meinem PC sind die 11GB Vram der 1080Ti. Ich weis nicht warum dass immer auf dem Vram, der angeblich zu wenig sein wird, rumgeritten wird.
Im Tombraider Bench oder in den Sequenzen, da sinds mal 8GB, aber ansonsten reichen mir so 5Gb. Mit 8Gb hätt ich immernoch einen Puffer.
Naja, die 1080Ti wird ewig bei mir drin sein. Sie ist einfach zu stark um sie zu ersetzen.
 
  • Gefällt mir
Reaktionen: PPPP, OZZHI und minyita
was genau wird hier eigentlich von AMD jetzt erwartet/erhofft?
es ist jedes mal das gleiche wenn AMD was neues bringt, die Fanboys haben völlig überhöhte Erwartungen, teilweise auch durch das AMD Marketing, und diese werden dann gewaltig enttäuscht.

Ich erwarte von AMD maximal eine Leistung unterhalb der 3080, aber mit mehr VRAM. AMD hängt zu lange, zu weit zurück um auf einmal den ganzen Rückstand aufholen zu können - insbesondere jetzt, wo nVidia auch noch den Designvorteil ausgleicht und jetzt auch auf den kleineren Herstellungsprozess wechselt.
AMD hat selbst mit dem Vorteil nichts reißen können!
nVidia wird die neue Karte unterhalb der besten AMD Leistung preislich interessant gestalten. Und dann können die, die AMD um jeden Preis nehmen wollen das VRAM vorschieben und nVidia Fans haben halt mehr fps.
Der normale Kunde schaut halt, was er für sein Geld bekommt - obwohl, die Situation mit den Features, vor allem Raytracing könnte für AMD noch schmerzhafte Einbussen geben, wenn hier nicht massiv gegengesteuert wird.
Hier wird man schauen, ob nVidia wieder mit völlig abgehobenen Preisen kommt wie zuletzt oder ob sie eher Kunden gewinnen wollen!?! Ich vermute eher hohe Preise, vor allem bei den Karten oberhalb der neuen AMD RDNA2, also G102.
Auf jeden Fall wird es spannend......
 
  • Gefällt mir
Reaktionen: angband1
Ich denke, meine RTX 2080 Ti wird bis 23 drin bleiben, wenn nicht 24. Wollte die 2000er überspringen, Corona hat mich eines besseren belehrt. Dann überspring ich wohl die 3000er. Mal sehen was man dann wirklich braucht und v.a. will. :-D
 
m3rch3r schrieb:
Es benötigt keine Magie, bereits RDNA hätte NVidia schlagen können, wenn man gewollt hätte. Nicht ohne Grund spricht man bei den kommenden Karten von Navi X2. Mehr Shader auf eine GPU zu packen ist kein Hexenwerk, die Frage ist meist eine wirtschaftliche.
AMD hatte einfach nicht die Marktposition für solch ein teures "Halo Produkt".
Ich vertrau AMD bezüglich Treiber genau so weit wie ich sie werfen kann. ^^

Egal wie gut die Karte abschneidet und kosten wird - ich kauf mir definitiv wieder eine NV. Mit einer Nvidia läuft wenigstens alles ohne Probleme. AMD hatte seine Chance bei mir in Form einer 5500XT. AMD hats wie immer versaut...
 
  • Gefällt mir
Reaktionen: PPPP und Munkman
Ich verstehe das VRAM-Geheule nicht. Die allermeisten Spiele kommen an die 11GB einer 2080Ti nicht ansatzweise heran. Die Spiele in 4K, die auf meiner RTX 2080Ti nicht gewünscht flüssig laufen, scheitern an der Rohleistung, nicht am VRAM (z.B. RDR 2).

Die neuen Konsolen werden dieselbe Menge an Speicher haben wie die alten. Die Spieleentwickler im AAA Blockbuster Bereich werden weiterhin mit 1080p/2160p arbeiten, da 8K so schnell keine Rolle spielen wird.

Es gibt keinen Grund anzunehmen, warum der VRAM-Bedarf mit den neuen Konsolen nun explodieren sollte.
Meiner Ansicht nach wird man mit möglichen 10GB auf einer 3080 und 12GB beim Ti-Modell (oder 3090) nach wie vor bestens bedient sein. Sollte sich im Laufe der Konsolengeneration die Anzahl der (miserabel optimierten) Titel häufen, die VRAM ohne Ende fressen, dann wird nVidia bei der 4000er Generation schon nachlegen.

Ich halte es aber für unwahrscheinlich, dass es in den nächsten ca. zwei/drei Jahren Spiele geben wird, die nur aufgrund einer VRAM-Limitierung einbrechen. Es wird eher die (mangelnde) Rohleistung eine Hürde darstellen. Letztlich muss das alles schön Hand in Hand gehen. Ich wüsste nicht, was aktuelle Karten mit 16GB sollen (außer man klatscht sich sehr mies gemachte Amateur-Mods in ein Spiel, die den VRAM-Bedarf komplett sinnlos in die Höhe treiben). Aktuelle Karten haben weder die Rohleistung noch die Bandbreite, um 16GB "auszufahren".
 
  • Gefällt mir
Reaktionen: angband1, dampflokfreund, PPPP und 3 andere
Reset90 schrieb:
Wenn es keine 3070 gibt und die 3080 mehr als 1000€ kostet, stürzte ich mich aus dem Fenster

Wieso dann nicht die RX 6900?
Bis jetzt hat mir keiner geantwortet, dass die schlechter wird als die GTX 3080 , also ist unsicherheit vorhanden.
AMD wird sicherlich diese unter 1000€ haben und wer weiß eventuell ist die besser als die GTX 3080.
 
  • Gefällt mir
Reaktionen: bugmum
Allgough schrieb:
Wieso dann nicht die RX 6900?
Bis jetzt hat mir keiner geantwortet, dass die schlechter wird als die GTX 3080 , also ist unsicherheit vorhanden.
AMD wird sicherlich diese unter 1000€ haben und wer weiß eventuell ist die besser als die GTX 3080.


Ich hadere schon mit den aktuellen Preisen einer 2070 super. Mich ärgert das mit den Preisen ein wenig. Scheinbar ist es inzwischen normal, dass ne Karte weit über 500€ kosten muss
 
  • Gefällt mir
Reaktionen: psychotoxic, Alphanerd, Xes und 2 andere
Reset90 schrieb:
Ich hadere schon mit den aktuellen Preisen einer 2070 super. Mich ärgert das mit den Preisen ein wenig. Scheinbar ist es inzwischen normal, dass ne Karte weit über 500€ kosten muss
Was haste für die 970 damals bezahlt eig?
 
m3rch3r schrieb:
Es benötigt keine Magie, bereits RDNA hätte NVidia schlagen können, wenn man gewollt hätte. Nicht ohne Grund spricht man bei den kommenden Karten von Navi X2.
Nur dass man nicht von X2 sondern von Navi 2x spricht, weil die Chips Navi 21, Navi 23 ect. heißen, RDNA1 war NAvi 1x, RDNA3 wird dann Navi 3x sein
 
Die 970 lag ca. bei so 300 ~ 350 €, die 1070 bei 400 ~ 450 €, die 2070 bei so 500 ~ 600 € (vor Release der Super) und die Super ist jetzt auch bei so ca. 500 ~ 600 €.

Der Trend ist unverkennbar.
 
  • Gefällt mir
Reaktionen: matty2580, p4z1f1st, iceshield und 5 andere
RogueSix schrieb:
Die Spiele in 4K, die auf meiner RTX 2080Ti nicht gewünscht flüssig laufen, scheitern an der Rohleistung, nicht am VRAM (z.B. RDR 2).
RDR 2 ist aber auch ein gutes Negativbeispiel, weil hier für den PC keine besseren Texturen verwendet wurden, auch in 4K sind das einfach nur hochskalierte Texturen von der Konsole.

RogueSix schrieb:
Die neuen Konsolen werden dieselbe Menge an Speicher haben wie die alten.
Äh, nein? Die neuen Konsolen bekommen beide 16GB GDDR6, bei der Series X wohl sogar strikt getrennt in 10GB für die GPU, 3,5GB RAM für Spiele und 2,5GB RAM für das Betriebssystem.

Die One X hat 8GB DDR3 (die One X 12GB GDDR5) und die PS4 hat 8GB GDDR5 + 256MB DDR3 (die PS4Pro 1GB DDR3)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col.Maybourne und Colindo
@Beitrag
Schlimm finde ich, dass die Preiserhöhungen "gleichwertiger" Karten (zumindest im Namen) immer mit mehr Leistung verkauft werden. Wäre das bei jeder Generation von CPU's oder Grafikkarten so gewesen müßten wir heute unmengen an Geld ausgeben.

Nvidia hat die Preise angezogen, weil sie es konnten. Aus dem selben Grund hat Intel Jahre lang kaum Innovation gezeigt.
Ich würde mir ja wünschen das AMD soetwas wie den "Ryzen" der Grafikkarten aus dem Hut zaubert. Aber ich kann einfach nicht wirklich dran glauben. Meine Erwartung ist das sich die Top AMD GPU irgendwo bei der 3080 einordnet, dann aber in Szenarion wie Raytracing deutlich abgehängt wird.

Abwarten und Tee trinken. Ich hoffe aber, dass es nocheinmal zu einem waschechten Duell zwischen Rot und Grün kommt, so wie beide Hersteller im Moment ein Bohai um Informationen machen.
 
  • Gefällt mir
Reaktionen: Bright0001
Richtig. Mehr Leistung für mehr Geld ist kein großer Fortschritt. Na ja, eigentlich ja schon, weil das Mehr an Leistung natürlich nicht 1:1 in ein Mehr an Herstellungskosten für Nvidia resultiert. Insofern gibt es schon Fortschritt, aber eher bei Nvidias Gewinnmarge als beim Konsumenten...
Trotzdem noch besser als Intel-Style.

In naher Zukunft dürfte der Consumer-GraKa-Markt ja Rot-Grün-Blau aussehen. Vielleicht sieht es dann nicht nur bunter, sondern auch besser auf dem Markt aus.
 
  • Gefällt mir
Reaktionen: Dimos
Eine RTX 3800 mit nur 11 oder 10 GB VRAM wäre eine herbe Enttäuschung. Wer wie ich auf 4K zockt kennt das Problem von unzureichendem VRAM. Da die neue Konsolengeneration 16GB GDDR6 als VRAM und System-RAM nutzt, sehe ich weniger als 16GB VRAM in absehbarer Zeit als Flaschenhals am PC
Ergänzung ()

abcddcba schrieb:
Nachdem sich nun viele über unbekannte Preise und VRAM Bestückung auf Nvidia Seite aufgeregt haben ...
mal eine Frage: was genau wird hier eigentlich von AMD jetzt erwartet/erhofft? Einen 3090 Killer für 600 Euro mit 16GB? Woher kommt eigentlich dieses Denken? Ist jetzt nicht so als wenn AMD die Preise von Nvidia nicht mitgegangen wäre zuletzt, wenn man sich die 5700XT mal ansieht. Gute Karte auf 2070S Niveau für etwas weniger Geld.
Aber warum genau sollte man wenn man jetzt gleichwertig oder besser sein sollte - auch und vor allem im High End - dann einen deutlich niedrigeren Preis wählen? Die letzten Jahre haben doch gezeigt dass genug Leute bereit sind mehr als 1K für eine GPU auszugeben. Am Ende des Tages ist AMD ein börsennotiertes Unternehmen. Wenn die Leistung stimmt wird der Preis nicht plötzlich sinken oder auf 5700 Niveau landen

Und nicht falsch verstehen, ich gönne jedem hier eine top GPU mit viel VRAM, und mir ist es auch
Vollkommen egal welcher Hersteller, im Gegensatz zu anderen ist dieses Fanboy Verhalten nix für mich, aber jeder wie er mag.

Viel Spaß auf jeden Fall mit der neuen Hardware Generation

Erstens: AMD/ATI hatte genau das damals mit der Einführung der Radeon 4xxxx gemacht, deutlich besseres P/L als Nvidia um mehr Marktanteil zu gewinnen.

Zweitens: Auch wenn der Markt sich auf zwei Teilnehmer aufteilt, entsteht ein Preiskampf. Sofern keine kartellartigen Absprachen bestehen, haben beide das kurzfristige Interesse die Marktposition zu verbessern AMD muss für mehr Marktanteil aggressiver vorgehen als der Platzhirsch Nvidia.
 
Zuletzt bearbeitet von einem Moderator:
meckswell schrieb:
Das unnützeste in meinem PC sind die 11GB Vram der 1080Ti. Ich weis nicht warum dass immer auf dem Vram, der angeblich zu wenig sein wird, rumgeritten wird.
Weil nur eine sehr überschaubare Anzahl an Karten mehr als 8GB Ram hat, bringt natürlich auch niemand Spiele raus, die 12GB/16GB oder gar 24GB brauchen.
Hier geht es auch nicht primär um die Bildschirm-Auflösung als mehr um die Texturen.
Natürlich könnte man durchaus die Texturen detailierter machen was zu höherem Ram-Verbrauch führen würde.
Aber solange NV und AMD nicht den Sprung von 8GB auf 16GB (und equivalant 4GB->8GB und 6GB->12GB) machen, wirds auch keine besseren Texturen geben.
 
  • Gefällt mir
Reaktionen: meckswell
zuwenig ram? hmm..vielleicht ist einfach die erwartungshaltung und der anspruch zu hoch??
mit den 8gb meiner 2080 (und der 1070 zuvor) hatte ich noch nie probleme...aber mein anspruch war es auch nie mit diesen karten in uhd zu zocken - dafür ist das schlicht die falsche hardware.

viele user leben offenbar mehr den wunschtraum als die realität und wundern sich dann.

am ende entscheidet man sich für das, was einem die beste preisleistung bietet in der jeweils angepeilten preisklasse...
 
  • Gefällt mir
Reaktionen: TorgardGraufell und pietcux
meckswell schrieb:
Naja, die 1080Ti wird ewig bei mir drin sein. Sie ist einfach zu stark um sie zu ersetzen.

Da hat halt jeder eigene Ansprüche und Auflösungen. Ich bin froh wenn meine 1080Ti Ende des Jahres endlich in Rente kann, die pfeift bei mir in 3440x1440 @100Hz extrem aus allen Löchern :)
 
Zurück
Oben