News GPU-Gerüchte: Radeon RX 8800 XT soll der RTX 4080 die Stirn bieten

Limit schrieb:
Früher hat man beim einem Generationenwechsel teilweise 50%+ Leistung zum gleichen Preis bekommen.
Warum erzählst du mir wie der Markt nach deiner Vorstellung funktioniert und schreibst dann im Widerspruch irgendetwas von früher war es anders?
Wir leben aber nicht im Früher.
Zum 4070 Test:
+23% zur 3070 und obendrauf auch noch 110€ teurer.

Deswegen nun die Frage. Von welchem Markt sprichst du nun? Vom deinem gedachten, oder von deinem widersprochenen Markt?

Die Preise orientieren sich nicht nur an den Ausgaben für die Chips, sondern an der Stellung im Markt zur Konkurrenz. Und wenn eine 8800 XT, die ja angeblich in Raster eine 4080 erreichen soll, deswegen sehe ich mir die Preise einer 4070 Ti Super an, dann wird diese 8800 XT auch diesen Preispunkt kosten.
 
  • Gefällt mir
Reaktionen: Simonte
Alesis schrieb:
Warum erzählst du mir wie der Markt nach deiner Vorstellung funktioniert und schreibst dann im Widerspruch irgendetwas von früher war es anders?
Da hat einer aber gute Laune. Wären die Preise so statisch wie du es beschreibst, wären wir schon längst bei 5- oder 6-stelligen Grafikkartenpreisen, Einen Widerspruch sehe ich auch nicht. Früher waren einfach nur die Sprünge von einem Node zum nächsten deutlich größer als sie es heute sind und die Unterschiede bei den Fertigungskosten geringer. Deswegen war das Potential für ein besseres Preis-/Leistungsverhältnis bei einem Generationenwechsel viel höher als es heute ist, aber das bedeutet nicht, dass es das nicht mehr gibt.

Alesis schrieb:
Die Preise orientieren sich nicht nur an den Ausgaben für die Chips, sondern an der Stellung im Markt zur Konkurrenz. Und wenn eine 8800 XT, die ja angeblich in Raster eine 4080 erreichen soll, deswegen sehe ich mir die Preise einer 4070 Ti Super an, dann wird diese 8800 XT auch diesen Preispunkt kosten.
Die Preise orientieren sich daran was die Zielgruppe bereit ist zu zahlen. Wer bereit ist 800€+ für eine Grafikkarte auszugeben, der hat höchst wahrscheinlich bereits eine Grafikkarte aus genau diesem Preissegment. Je nach Kaufzeitpunkt war das vielleicht eine RTX3080, RX6900XT, RX7900XT oder eben eine RTX4070Ti Super. Die Gemeinsamkeit ist, dass für keine dieser Karte eine 8800XT ein besonders attraktives Upgrade wäre, sicherlich keines für das man vernünftigerweise 800€+ ausgeben würde. Will AMD also Marktanteile gewinnen, müssen sie die Karte min. so weit günstiger anbieten, dass sich ein Upgrade lohnt. Wenn man sich einfach an AMDs Namensgebung orientiert wäre die 8800XT der Nachfolger der 7800XT welche mit einem Preis von knapp $500 gestartet ist. Wenn man dann noch berücksichtigt, dass die 8800XT deutlich günstiger zu fertigen ist, würde AMD selbst bei dem niedrigeren Preis mehr daran verdienen als an einer 7800er oder 7900er Karte zu aktuellen Preisen.
 
Limit schrieb:
Je nach Kaufzeitpunkt war das vielleicht eine RTX3080, RX6900XT, RX7900XT oder eben eine RTX4070Ti Super. Die Gemeinsamkeit ist, dass für keine dieser Karte eine 8800XT ein besonders attraktives Upgrade wäre, sicherlich keines für das man vernünftigerweise 800€+ ausgeben würde. Will AMD also Marktanteile gewinnen, müssen sie die Karte min. so weit günstiger anbieten, dass sich ein Upgrade lohnt
Völlig falsche Sichtweise. Würden Hersteller so denken, würden sich die Preisschraube niemals immer höher drehen. Das ist sowas von falsch, dass man nicht mal Lust hat, das aufzudröseln und zu erklären wie eine strategische Preisgestaltung zustande kommt. Etwas das z.B. mein Beruf ist. Deine Denke ist hier vollkommen aus der Sicht eines Endkunden gestaltet und argumentiert. Das hat aber rein gar nichts mit der Preisgestaltung aus Sicht eines Herstellers/Brandes zu tun.
 
Ja, er hat halt noch die veraltete romantische Denkweise, dass die Nachfrage das Angebot bestimmt, wie es in den ganzen Lehrbüchern steht.
 
  • Gefällt mir
Reaktionen: DiePalme
Nun ja, da haben wir dann wohl unvereinbare Ansichten. In einem Monat werden wir sehen wer richtig lag.
 
Es ist schon rein unlogisch zu glauben, dass AMD mit einer 8800XT Nutzer von 7900XT/4070TI abwerben will. Das wäre ja kein Upgrade. Im besten Fall ein Sidegrade. Die Zielgruppe sind Nutzer mit klar langsameren Karten die bisher noch keinen Aufrüstschritt gemacht haben.
 
  • Gefällt mir
Reaktionen: Darkwater
Ich würde zur Zielgruppe dazugehören. Keine 800€ ausgeben, aber für mich gute Performance abgreifen, RT ist für mich nicht wichtig.
 
DiePalme schrieb:
Die Zielgruppe sind Nutzer mit klar langsameren Karten die bisher noch keinen Aufrüstschritt gemacht haben.

Zum einen, zum anderen müssen sie halt mit den kommenden und nicht mit den aktuellen Karten konkurrieren - also halt mit 5070 und 5070TI, wobei insbesondere letztere die stärke Konkurrenz sein dürfte weil sie eben keine VRAM-Schwäche aber wahrscheinlich (insbesondere im RT wo NVIDIA ja vermutlich auch weitere fortschritte gemacht haben könnte) signifikant mehr Leistung bietet (und DLSS4) - da ist dann nicht ganz unwichtig, dass die karte in einer klar niedrigeren Leistungsklasse ist, weil zwar die Leistung einer 4070TIS für WQHD sehr solide ist aber auch nicht so stark, dass eine noch etwas schnellere Karte keine attraktive Option wäre wenn sie beim Preis/Leistungsverhältnis nicht viel schlechter wäre.

Ohne dieses Problem könnten sie ja noch darauf setzen dass diejenigen von uns die mit Aufrüsten gewartet haben nicht nochmal 2 Jahre warten können, wenn es nichts starkes in der angepeilten Preisklasse gibt - aber wenn wir in den Sauren Apfel beißen würden dann doch in der höheren zu kaufen, könnten sie sich halt dank der 5700TI nicht so sicher sein, dass wir noch ihr Produkt wählen, weshalb es durchaus sinnvoll sein könnte von Anfang an so viel Niedriger einzusteigen, dass sie gar nicht direkt mit der konkurrieren müssen...
 
nun die abwerbende Nutzer sind eher die mit ner rtx3070 r6700xt
2021 war ein besonderes Jahr dank mining boom und explodierenden preisen
Seitdem haben viele abgewartet und erst 2022 ne gpu gekauft viele erst 2023
Die werden nur wechseln wenn wirklich die perf. der rx8800xt auf rtx4080 level wäre da muss ich aber klar sagen das wird nix
Maximal sind etwa rx7900xt perf. zu erwarten das ist sicher
Die frage die sich nur stellt ist wie teuer das wird.
Ich würde als rx7800xt rtx4070 nicht wechseln bis amd udna vorstellt und mit 120cu grob die rtx4090 angreift bei knapp 240w
Der große chip mit n2 wird ganze 160cu haben und amd wird keinen kleineren sku als mit 112cu bringen da es sich nicht lohnt zwei chips zu fertigen
Die apu gehen bis 80cu
Also was lohnt sich dann 2027 an für ne dgpu ab amd 112cu 3,0ghz und nvidia gr203 ab dem 60sm 2,8ghz chip
Es kann gut sein das amd sowie nvidia dies erst ab der 80 class wirbt und ab 800€
Das größere Problem ist aber das cpu limit das wird erst mit am6 und zen 7 gefixt passend zu den apu die bis 80cu gehen
Daher wird bis dahin 2027 an in mid class nix schneller werden als die rtx4080 super +- 39tf

Damit sieht der Zeitplan für die dgpu aus
2025 rdna4 64cu rtx50 216sm bis 192sm verwendbar 170am als sku bestätigt der halbe chip gr203 wird maximal 84sm haben.
2026 rdna4 bleibt rtx50 refresh maßgeblich vram Aufstockung
2027 rtx60 (rubin) in a18 node udna mit nur einen chip mit physisch 192cu 160cu verwendbar.

cpu
amd
2025 zen6 in n3 node purer Takt plus +15% 6,0ghz
2027 zen7 neues design mit 3d chip Takt geht auf 6,6ghz in a18 node

Intel
2025 panther lake Takt plus durch n2 +15% 6,0ghz
2027 unklar

Die rtx50 Serie ist wie folgt da sich herausgestellt hat das man konservativ vorgeht
rtx5070 50sm gleiche arch nur neueren node 3,0ghz +-8% (26tf 220w)
rtx5070ti 70sm die sind auch bestätigt grob +9% (36tf 300w)
amd liegt da weit dahinter -25% man wird mit der rtx5070 konkurrieren mit der rx8800xt +- 570€
 
Darkwater schrieb:
weil sie eben keine VRAM-Schwäche
Die "Masse" der Kunden, hat keine Ahnung was eine VRam Schwäche ist. Ich persönlich sehe 16GB als Untergrenze die man kaufen sollte. Aber auf dem Massenmarkt, haben die Meisten keine Ahnung das 8-12GB Karten mittlerweile hier und da Probleme haben. Aber solange die Masse auch eher Spiele wie Fortnite ect. spielt, wird es kaum auffallen. Spiele die tatsächlich aufgrund von VRam Mangel Probleme bereiten können, sind in der Anzahl noch sehr überschaubar. Zumal immer noch sehr viele in FullHD spielen und meistens gar nicht verstehen, was für Regler es bei den Einstellungen gibt. Die Spiele stellen sich auch vermehrt selbst auf die Hardware ein. Dadurch fällt es noch weniger Nutzern auf, dass es hier ein Problem geben könnte. Da muss man mal ganz klar außerhalb der immer kleiner werdenden Forenbubble schauen.
 
DiePalme schrieb:
Die "Masse" der Kunden, hat keine Ahnung was eine VRam Schwäche ist. Ich persönlich sehe 16GB als Untergrenze die man kaufen sollte.

Das Verschärft aber den Konkurrenzdruck auf AMD noch (was für uns Kunden natürlich gut sein könnte), da sie eben dadurch auch nochmal verstärkt mit der 5070 in konflickt geraden.
Die mag jetzt für viele hier wegen den 12GB keine präferierte Option- aber in den Leistungsrankings etwas weiter vorne sein.
Wenn die Masse" Kunden so vorgehen wie ich es noch beim Kauf meiner derzeitigen GPU getan habe, werden sie sich im Netz beim GPU-Kauf X/Y-Charts zum Preisleistungsverhältnis heraus suchen und dann schauen was dort in der angepeilten Leistungsklasse besonders gut dasteht. Wenn also die 5070 etwas schneller ist, wäre es für AMD in Hinblick auf eben diese Kunden wichtig, dass bessere Preis/Leistungsverhältnis in Bezug auf FPS/€ zu bieten - was für uns wiederum gut sein dürfte...
 
ich finde die diagramme eh albern um Wie viel % besser die nächst bessere/teurere Karte wieder ist
 
Wenn sie korrekt sind, finde ich sie an sich ganz gut - es müssen nur eben ein paar weitere Sachen beachtet werden als dort aufgeführt sind, wie eben VRAM, mittlerweile auch Raytracing ab eine bestimmten Leistungsklasse, ggf. Stromverbrauch usw.
 
Darkwater schrieb:
ggf. Stromverbrauch usw.
Unter dem aspekt Kühlung, ja.
Aber wegen Strompreis juckt sich kein Schw*nz dran (außer Ökos und deutsche mit wenig Geld) Aber wer bei dem Kauf einer potenten Graka auf den Verbrauch achtet, hat ein anderes Problem als fehlende Grafikleistung.
Ich bin gespannt auf die 8000er Generation.
Werde aber wohl eh keine neue Karte kaufen..
A: weil keins meiner games (Auge auf neue Battlefield, das zock ich sonst auf Xbox) meine GPU ins Schwitzen bringt.
Und B: keine der Karten 800€ schneller sein wird :)
->sollten sie die Leistung einer 4080 anpeilen
1733899049206.png

1000€ für <30%
meh
(Beim Raytracing sind es 70%, ja. Ich nutze aber kein Raytracing + meine Maingames haben garkein RT)
 
jonderson schrieb:
Der eigentliche Witz an dieser Geschichte ist ja, dass HDMI am sterben ist, also es derzeit sehr danach aussieht als würde DP und/oder USB sich durchsetzen^^ (Gott sei Dank... )
Es hat den Vorteil, das die Marktdurchdringung gerade im Bereich Fernseher riesig ist, aber selbst trotz diesem massiven Vorteil steht es momentan nicht gut um HDMI.
https://www.golem.de/news/usb-c-mit-displayport-der-langsame-tod-von-hdmi-2402-182134.html
HDMI stirbt nicht, wenn man die PC-Brille mal absetzt. Dass der Autor sich darüber wundert, dass Konsolenspieler Fernseher benutzen, spricht Bände. Die meisten HDMI-Anwender interessieren "Monitore" für den Schreibtisch nicht die Bohne. >90% der installierten Basis steht an Bildschirmarbeitsplätzen und dort spielte HDMI nie eine Rolle.

Die Schnittstellenfrage taucht höchstens auf, wenn das Notebook an vorhandenen Projektor vor Ort angeschlossen werden soll. Die die dafür gängigen Formate sind auch aus Sicherheitsgründen nach wie vor RGBHV ("VGA" hieß 1989 die PC-Grafikkarte dafür) und HDMI. USB will man an der Stelle gar nicht haben.
 
Zurück
Oben