News GeForce, Radeon und Arc: Was sind eure Prognosen für neue Grafikkarten im Jahr 2024?

0ssi schrieb:
Es kommt ja immer auf die Ansprüche an wie bei allen Dingen im Leben. Smartphone 300€, Fernseher 300€,
Monitor 300€, Waschmaschine 300€, Auto 3000€ reichen natürlich auch völlig aus um einen Nutzen zu liefern
aber bringen die beim doppelten oder dreifachen Preis mehr Spaß als eine teurere Grafikkarte ? Hmm :heilig:
Also wer mit Autos Spaß haben will, der hat ganz andere Probleme als nur 2 Riesen für ne GPU ausgeben zu "müssen". :D

Die Waschmaschine würde ich jetzt aber als ein reines Ding der Nützlichkeit rausnehmen, und ja, ganz eindeutig, für 1000€ bekomme ich schon eine echt solide Gitarre oder einen Verstärker, da habe ich wirklich mehr davon als jetzt mein GPU Budget zu erhöhen. Und Wertstabiler sind diese Dinge dann auch noch.

Aber hey, vielleicht schafft es die nächste oder übernächste Generation wieder mehr zu begeistern. Ist ja nicht das die UVP Preise von RDNA2 oder Ampere jetzt vollkommen überzogen gewesen wären, im Gegenteil. Mining Bubble, Corona, Inflation, AI Bubble. Ich verstehe ja das die Hersteller gerade keinen Druck haben billig sein zu müssen. Ich hab aber halt auch keinen Druck mir ne Grafikkarte kaufen zu müssen. Noch hab ich genug Grafikkarten, auch wenn ich meine alte RX580 doch sehr vermisse. ;-)

Also wenn du mich fragst: 4090 oder Cockpit, dann ist die Antwort immer Cockpit, da habe ich, und die ganze Family einfach viel mehr von als von ein paar wirklich netten Spielen mit Path Tracing und ein wenig hübscherer Grafik.
Gleiches beim Monitor, etc
Es wird durchaus noch viel fürs Gaming ausgeben, aber halt dann insgesamt weniger für GPUs.

Kinder kommen auch langsam ins Alter fürs Gaming, da muss es dann glaube ich ne Switch/ Switch 2 tun, statt noch einen Gaming PC.
Freu mich trotzdem auf die nächsten Generation an GPUs wird spannend zu sehen wie schnell sich PT durchsetzt und wie sich Preis/Leistung dafür entwickeln wird, vielleicht ist ja schön nächste Generation was dabei, wo ich nicht widerstehen kann. CPUs werden jetzt erst mal Stück für Stück wieder Gaming tauglich gemacht, da ist der Hunger aktueller Spiele ja auch stark gestiegen. Finde ich super, ganz ohne Ironie.

Die Refreshes jetzt? Die werden es wahrscheinlich für mich auch nicht attraktiver machen, falls doch freue ich mich und nehme was mit. Und wenn nicht? Dann halt nächstes Jahr oder übernächstes.
 
Scr1p schrieb:
Die Super-Karten kommen auf den Markt, sind jedoch kaum verfügbar. Die Preise steigen rapide, alle möchten daher noch schnell eine normale 4080 oder 4070 kaufen, bevor diese auch teurer werden. Die Preise erhöhen sich folglich dort ebenfalls
Gut möglich, auch wenn man für die Preise der "Super" Karten sich den Gerüchten nach an aktuellen Preisen orientieren wird.

Mit einer Verknappung der GeForce Karten generell in Quartal 1 2024 wird ja von taiwanesischer Quelle gerechnet, auch wenn man einen Grund dafür bisher schuldig blieb und es nur hiess das würde wegen der Umstellung auf einen größeren K.I. Grafikkartenbedarf so kommen.

Letzteren könnte nVidia aber natürlich auch nutzen um die Preise indirekt durch Verknappung anzuheben und so zu tun, als habe man mit der Preisbildung am Markt nichts zu tun, da man ja vorbildlich die MSRP/UVP zum "Super" Marktstart angegeben hat.

Mich würde es schon wundern, wenn man die begrenzte Lieferbarkeit am K.I. Markt nicht auch noch dazu nutzen würde, um sich bei Gamern dafür mit indirekt/künstlich erhöhten Preisen da entgangenes Geld wieder zu holen, zumal man "begründet" dann auch wieder auf einem noch höheren Preislevel bei den RTX 5000 Karten beginnen kann.
Der einzige Weg, dass das nicht gelingt, ist, in dem man bei anziehenden Preisen keine nVidia Grafikkarten mehr kauft bis zur RTX 5000 Serie und die auf Ihrer Ware sitzen bleiben.

Nur gut, wenn man (wie ich) erst einmal für einige Jahre keine Bedarf an neuen PC Desktop Grafikkarten sieht und solange nVidia immer noch so speichermagere Karten im Laptopbereich anbietet, wird bei mir wohl auch mittelfristig keine nVidia Karte mehr in Frage kommen.

Unter Druck setzen würde ich mich aber durch solche Entwicklungen nicht fühlen (eine RTX 4070 oder 4080 zu kaufen) und mit einer RX 7800 XT wärst Du sowieso deutlich besser bedient als mit einer Vanilla RTX 4070 (die langsamer als eine RTX 3080 ausgefallen ist) und wenn Du den fast doppelten Preis in der 80er Klasse (bei einer RTX 4080 im Vergleich zum Vorgänger) bezahlst, belohnst Du nVidia damit auch und segnest deren absurde Preispolitik ab ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Raptor85
Sron schrieb:
Als ob NVidia Super Karten rausbringt, die preislich mit den Karten die sie ersetzen werden, gleichauf liegt oder darunter.
Naja UVP ist ja nicht alles wie wir wissen vermute das es aufm Papier super tolle Karten sind dann erst mal Monate lang nur Sporadisch und dann kannst bei den Skulptern 300-500 Euro Aufpreis die haben. Auch einfach um die Leute frustriert doch dazu zu bewegen die alten ab zu kaufen.
 
Die Mehrfachauswahlfrage 1 ist komisch.
Da werden nicht alle möglichen Antwortmöglichkeiten abgebildet, die man erwarten würde. Und so musste ich mich enthalten. Schade.

AMD wird meiner vollkommen professionellen und gut informierten Vermutung nach (hust) noch 2024 die neue Gen vorstellen, die Karten aber erst 2025 rausbringen, ggf. aber eher als NV Blackwell 2025 rausbringt, um hier schon mal potentielle Käufer abzugreifen.

RT wird bei RDNA 4 schon einen größeren Sprung machen, als von RDNA 2 zu 3. Am Ende wird dann vermutlich bei einer 5800 XT Schluss sein, die ungefahr dieselbe Rasterizing-Leistung wie eine 7900 XTX haben wird, aber etwas besser RT beherrschen wird. Ob die dann "nur" 20 GB VRAM oder 24 GB haben wird, da bin ich mir unsicher (wobei Zweiteres konsequenter wäre bei ca. 7900 XTX Leistung).
32 GB halte ich aber für unwahrscheinlich für die gehobene Mittelklasse, selbst für AMD und in der nächsten Gen.

Diese 32 GB wird man dann eher bei der 5090 sehen, die mal wieder über jeden Zweifel erhaben sein wird, vor allem beim Preis.

Zähneknirschend wird NV dann bloß nicht zu offensiv die Karten mit mehr VRAM ausstatten. Die Vorstellung der Karten erfolgt kurz nach der von AMD, ggf. auch noch 2024, Release dann Anfang 2025, höchtens minimal später als RDNA 4.
  • 5070 16 GB
  • 5070 Ti 18 GB (kriegen die irgendwie hin, man darf dem Kunden nicht zu viel gönnen)
  • 5080 20 GB
  • 5080 Ti 24 GB (kommt eventuell erst zeitverzögert raus, damit die anfangs nicht zu viele Leute kaufen, die mehr VRAM haben wollen, die sollen gerne die 5090 nehmen)
  • 5090 32 GB
Ich habe fertig prognostiziert. :D

Ergänzung:
Unter der 5070 wird es wieder das übliche Geraffel geben mit zu wenig oder auch zu viel VRAM im Vergleich zur leistungsmäßig vergleichbaren Vorgängerkarte.
Ggf. gibt es auch wieder so ein Augenwischerprodukt, das kaum oder gar nicht besser ist als dieselbe Klasse der 4000er-Serie. z. B. eine 5060 mit 10 GB mit Krüppelspeicherinterface oder sonstwelchen fehlenden Features.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
Fand einige der Antwortmöglichkeiten schwierig... z.B. bei der 7600 hätte ich gerne angeklickt es soll auch das Speicherinterface steigen, nicht die Kerne... für die Preisregion können die Kerne nicht merklich steigen auch würde man sich ja dann die darüber liegenden Karten kaputt machen, aber ich bin noch skeptisch das das viel bringt mit wenig Bandbreite. Klar sie werden den Speicher 100mhz übertakten oder so, aber eben nicht 128bit erhöhen und das ist fast nichts.

Und ja Nvidia wird vorne bleiben, das ist keine Frage von Meinung gut außer man vermutet ins Blinde, gibt aber ja schon aussagen oder leaks zu.

Ich finde es strange das "schnellste" so relevant ist wie viel Leute haben >2000 Euro fuer ne rx5090 oder selbst 1000-1500 für andere Karten.

Die Frage ist wer wird Preis/Leistung gewinnen und für 400-800 die beste Karte liefern können, teils sogar darunter.

Ich sag nicht das man die 2 Fragen zu (längster Penis) nicht drin haben kann aber dann fehlt einer zu AMDs Erfolg bei relevanten Karten. Z.b. "Wird AMD Marktanteile zulegen können", was mittlerweile offenbar nur noch zu 99% eine Laptopfrage ist und Desktop fast irrelevant...
 
  • Gefällt mir
Reaktionen: Raptor85
@Chismon Klingt sehr "schön" und sehr glaubwürdig nach einer möglichen NV-Preispolitik.

Fehlt nur noch, dass dann als offizielles Zahlungsmittel für Blackwell auch Golbarren anerkannt werden.
Denn bei den dann anfgerufnen Preisen sind die dann wesentlich einfacher zu zählen als der Preis in Euro. :D :heul:
 
  • Gefällt mir
Reaktionen: Chismon
GPU-Refreshs sind doch irgendwie immer wie aufgewärmtes Essen von Gestern. Schmeckt ganz ok aber irgendwie auch nichts Neues.
In 10 bis 12 Monaten steht schon die nächste Gen mit deutlich mehr Leistung, besserer Effizienz und neuem Featureset vor der Tür. Wer nicht umbedingt was Neues braucht sollte mMn warten.

Für mich gibts dieses Jahr definitiv nen neuen Monitor. Da tut sich nach vielen Jahren Stillstand endlich mal wieder einiges!
 
Zuletzt bearbeitet:
Raptor85 schrieb:
Am Ende wird dann vermutlich bei einer 5800 XT Schluss sein
Ich würde eher auf eine RX 5700XT als das leistungsfähigste Kartenmodell, in Anlehnung an RDNA1, für die RDNA4 Halbgeneration (im Stile von Polaris) tippen, denn es braucht ja noch Platz für beschnittene Versionen von der RDNA5 Halbgeneration (im Stile von Vega).

Raptor85 schrieb:
5070 Ti 18 GB (kriegen die irgendwie hin, man darf dem Kunden nicht zu viel gönnen)

Da, denke ich, wird es tatsächlich auch 20GB - wie bei einer RTX 5080 - geben, aber evt. mit geringerer Bandbreite (langsameren GDDR7 Speicher, keinen GDDR7+), um leistungstechnisch noch mehr abzustufen, oder es bleibt bei 16GB, da 18GB zu aufwendig sind, und nicht ins 4 GB Stufenmodell passen (bei 18GB als Zwischenspeichergröße verliert man als Kunde nur und es würde sich als Kauf verbieten, weil Entwickler darauf nicht optimieren werden (für ein einziges Kartenmodell)).

Ansonsten finde ich Deine Vorhersagen aber schon durchaus passend :).


Was Arc Battlemage Grafikkarten von Intel angeht, diese müssen eigentlich in 2024 noch auf den Markt kommen, sonst ist der Zug zeitlich abgefahren (man konkurriert mit Blackwell und RDNA 4 und 5).
Deshalb wundert mich die Frage und dass so viele einen späteren Zeitpunkt für den Marktstart wirklich für realistisch halten.

Ich würde mir RDNA4 schon im Herbst zum Gamescom wünschen, aber so wie ich AMD/RTG leider kenne, wird das wohl eher erst später etwas (evt. Frühjahr 2025 nach einer PS5 Pro Veröffentlichung kurz vor Weihnachten 2024) und ob man RDNA5 zu Weihnachten 2025 schaffen wird oder erst zum Sommer 2026?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Raptor85
Also egal was, ich warte zur 5xxx serie in der hoffnung auf mehr VRAM, was die Preise angeht erwarte ich schlimmes denn AI wird immer mehr und mehr zum Thema (wie bei mir) und das wird sich NV bezahlen lassen.

Schade das Radeon da derzeit einfach nicht wirklich gut mithalten kann.
Ich glaube auch nicht das eine 4080 Super für weniger angeboten wird als die derzeitige 4080, wenn die gerüchte stimmen und die nahe an eine 4090 von der performance drankommen soll wäre da eine zu große lücke und wir alle wissen das NV nix verschenkt oder den Samariter macht ! Daher entweder die normalen Versionen gehen EOL und die Preise bleiben oder werden erhöht.
 
@Chismon Das kann natürlich auch so sein, wie du sagst.

Müssen Entwickler denn gezielt auf bestimmte Karten bzw. deren Speicherarchitektur optimieren? Geht es dann nicht nur um den VRAM-Verbrauch an sich?

Aber klar, 20 GB mit geringerer Bandbreite ist natürlich die bessere Variante, um den uninformierteren Kunden auch besser zu täuschen.
 
shaboo schrieb:
Laut CB-Test lag die 1080Ti zum Zeitpunkt des 2070-Launchs - je nach Auflösung - AVG FPS 16 bis 22 Prozent vor Letzterer. Das ist wohl kaum "gleiche Leistung".
ja eben bei Turing war es ebenso nicht der Fall, aber bei Maxwell, Pascal und dann auch bei Ampere wieder, die 970 hatte die Leistung einer 780Ti, die 1070 einer 980Ti und zuletzt die 3070 die Leistung einer 2080Ti
 
Raptor85 schrieb:
Müssen Entwickler denn gezielt auf bestimmte Karten bzw. deren Speicherarchitektur optimieren? Geht es dann nicht nur um den VRAM-Verbrauch an sich?
Für gewöhnlich wird Speicherbedarf schon von Entwicklern je nach Aufllösung und Grafikfeatures angepasst und läuft dann auch im Zusammenspiel mit der Treiberoptimierung (man erinnere sich nur an die speicherverkrüppelte GTX 970 mit effektiven 3.5GB) durch Entwickler.

Aktuell geht es ja eigentlich auch direkt von 8 zu 12 GB Speicher bei Grafikkarten, wobei es natürlich Ausnahmemodelle (wie die RX 6700 (non-XT) gibt, die 10 GB hat als Zwischenlösung oder davor noch die GTX 1080Ti und RTX 2080Ti mit je 11GB), aber da läuft es i.d.R. auf Glück hinaus, ob das gerade noch so reicht (wenn 8GB schon zu knapp sind) oder nicht mehr, weil 12 GB die nächste Stufe sind.
Zur Fairness muss man aber sagen, dass sich dGPU-Modelle mit Zwischenspeichergrößen (wofür die GTX 1060 ziemlich berüchtigt war) aber oft in OEM Systemen befinden, wobei das dann eher unwissende Einzelkäufer oder Großabnehmer (bspw. für Internet-/Gamingcafes) trifft.
 
  • Gefällt mir
Reaktionen: Raptor85
Chismon schrieb:
Für gewöhnlich wird Speicherbedarf schon von Entwicklern je nach Aufllösung und Grafikfeatures angepasst und läuft dann auch im Zusammenspiel mit der Treiberoptimierung (man erinnere sich nur an die speicherverkrüppelte GTX 970 mit effektiven 3.5GB) durech Entwickler.
Ah, so war das gemeint. :)
Ja, stimmt. Wenn man gewisse Orientierungspunkte für bestimmte Auflösungen hat und eine 5080 mit 18 GB da nirgends richtig reinpasst, tut sich keiner damit einen Gefallen.
 
  • Gefällt mir
Reaktionen: Chismon
Col. Jessep schrieb:
Auf jeden Fall werde ich meine Aktienpositionen bei NVIDIA und AMD aufstocken.
Aber sicher nicht wegen ihrer kommenden Super-Karten.
Der Aktienkurs wird momentan eigentlich nur durch die Einschätzung von Nvidias AI-Sparte getrieben. Gamingkarten sind mittlerweile ein Nischenprodukt. So traurig das auch ist.
 
  • Gefällt mir
Reaktionen: Col. Jessep
Was mit Intel Battleimage wird weiss nicht mal Intel genau. Und Orakel.. Am Ende zählt Preis / Leistung /Ausstattung.
Und da ist noch viel Luft nach Oben.

Vielleicht kommen ja 2024 mal Monitore ≥ 30 Zoll heraus, die stromsparender sind. Das Stromverbrauchsgejammer bei Grafikkarten ist mittlerweile unnötig. Eure Monitore brauchen zu viel Strom und laufen viel häufiger und länger als die Grafikkarten unter Volllast. :schluck: :heilig:
 
Die neuen Super Modelle bringen kaum eine Veränderung. Nvidea bleibt effizienter und hat bessere RT Leistung. AMD hat mehr VRAM und kostet in der Anschaffung weniger. Da werden auch eventuelle weitere Refreshes nichts mehr dran rütteln.

Eine richtige Knaller Karte könnte mMn nur im unteren Preissegment kommen. Die 7700xt ist immer noch etwas zu teuer und die 6700xt ist eben ein EoL Produkt. Dazwischen ist leistungdmäßig mMn genug Platz für eine aktuelle Karte. Da wird Intel wahrscheinlich angreifen wollen. Und wenn die Effizienz stimmt (bei ca. 200W) kann Intel da Marktanteile gewinnen.
 
Michael Alburg schrieb:
Lohnt nicht mehr auf die 40er reihe zu setzen. Wer jetzt schon eine 40er hat bzw noch eine 30er kann getrost auf die 50er serie warten.
Immer dasselbe … am besten nie eine GPU kaufen und behaupten man hätte viel Geld gespart.
Michael Alburg schrieb:
Denke das die 50er Serie wieder attraktiver wird was preos leistung angeht.
so lang ist es ja nicht mehr bis ende 2024.
Nur dass Ende 2024 nichts kommt. 2022 ist ja auch nicht lange her, richtig? :p
Ergänzung ()

=dantE= schrieb:
Auch wenn es etwas seltsam erscheint, aber momentan interessieren mich GPU Releases gar nicht. Ich rechne, abgesehen von etwas mehr Leistung, mit keinen, fuer mich, interessanten Neuigkeiten in 2024.
Ich lasse mich aber gern ueberraschen ^^
Was soll es denn sonst an einem dämlichen Chip Interessantes geben außer mehr Leistung? Mehr als die gegenwärtigen 24GB Videospeicher sind für Consumer uninteressant.
Nett dass du uns mitteilst, dass du kein Interesse an mehr Leistung hast - aber das ist alles was eine neue GPU überhaupt interessant macht.
Viele kommen natürlich auch mit der Leistung einer Nintendo Switch zurecht, aber wenn die uns das hier alle mitteilen würden wären das einige Beiträge …

Falls es um die Effizienz geht - den Schaden an der Umwelt mit der Produktion einer neuen GPU kann man mit den 5 gesparten kWh im Jahr nie wieder reinholen und auch auf der Stromrechnung muss man die mit der Lupe suchen …

Ansonsten bleibt nur noch ein schönes neues Plastikgehäuse, aber auch das wird es wohl kaum sein :p
 
Zuletzt bearbeitet:
Taxxor schrieb:
Die Preise der Super Karten sind jetzt mittlerweile schon von mehreren unabhängigen Leaks durchgesickert, ich erwarte da keine großen Überraschungen mehr. ... 4070S $599 (gleich zur 4070 UVP)
Ich hätte höchstens gedacht, dass die 4070S auf 649 steigt und die 4070 im gleichen Zug auf 549$ fällt.
hatte ich auch so gelesen, aber eigentlich von der erwarteten Performance her(x), müsste die 4070 deutlich preiswerter werden, z.Bsp. 499...519, um mit den Tagesangeboten 6800xt@459€ überhaupt konkurrieren zu können bzw. mit der 7800xt@519€ (die 6800xt+7800xt waren am WE mal wieder im MS)

(x) Wenn man mal zu Grunde legt, das die 4070 evtl. bis zu 20% langsamer als die Super sein wird!
Und zusätzlich braucht NV mal wieder ein attraktives Gamebundle mit nem inhaltsstarkem AAA-Game und net nur kurzen Techdemos ala AW2.
 

Anhänge

  • 6800xt@459€.JPG
    6800xt@459€.JPG
    19,7 KB · Aufrufe: 84
  • 7800xt@519€.JPG
    7800xt@519€.JPG
    31,6 KB · Aufrufe: 88
Zuletzt bearbeitet:
GerryB schrieb:
und net nur kurzen Techdemos ala AW2.
Ich empfinde 18-25 Stunden je nach Schwierigkeitsgrad nicht als kurze Techdemo. Bei Avatar war bei mir nach der Hälfte der Zeit die Luft raus
 
  • Gefällt mir
Reaktionen: Cohen, MoinWoll und Apocalypse
Zurück
Oben