Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRX 6950 XT, 6750 XT & 6650 XT: Details und Benchmarks zu AMDs RDNA-2-Refresh
Es gibt aber ein Problem: Die heutigen Auflösungen von Monitoren sind so hoch, dass du sogar mit einer 1000€+ Grafikkarte in vielen Spielen nicht mal die 100 FPS knackst
Dieses Problem wird - ebenso wie die oftmals fehlende Lüfter-Lager-Innenbeleuchtung der Grafikkarte (oder selbige in weniger als 4096 Farben - was ja wohl aufs gleiche hinaus läuft) - der Menschheit irgendwann mal schwer auf die Füße fallen. Hoffen wir mal dass menschlicher Erfindergeist auch die sich abzeichnende epochale Krise bewältigen wird.
Ergänzung ()
Gast12345 schrieb:
Wie groß war denn der Shitstorm, als AMD vor garnicht so langer Zeit eine 400W Grafikkarte brachte
Ich stand beim Laptop budgettechnisch vor der Wahl 3060 und 6600m. Und es sprach nicht ein einzelner Punkt für ne lahme, heiße, stromverballernde 3060 mit niedlichen 6gb vram.
Ist ja nicht so, dass bis zu nächsten Gen keine Karten mehr verkauft werden.
Grundsätzlich stimme ich dir zu. Es gibt aber ein Problem: Die heutigen Auflösungen von Monitoren sind so hoch, dass du sogar mit einer 1000€+ Grafikkarte in vielen Spielen nicht mal die 100 FPS knackst, wenn du auf hohen Einstellungen spielst.
Ich betrachte dies nicht als Problem sondern als immer den richtigen Weg. Can it run Crysis kommt nur auf, weil die Ausgabegeräte immer mehr können, die Spiele immer mehr ermöglichen und die berechnenden Komponenten - wie eben die Grafikkarte - eben immer hinter her "rennen".
Aus meiner Sicht treibt das massiv den Wettbewerb im Grafikkarten Markt und hilft uns als Verbraucher. Wir können ja jederzeit auf zB FullHD stehen bleiben
Sehe ich auch so und das war ja schon bei RDNA1 ein Problem, dass man zeitlich immer Monate hinter nVidia hinterherhinkt und das kann sich dann bei besserer Verfügbarkeit (wenn nVidia und deren Boardpartner nicht wieder massenhaft direkt an Miner die Karten verkaufen) bei RDNA3 rächen, denn irgendwie kann man wohl wieder erwarten, dass nVidia mit Lovelace schneller auf dem Markt sein wird (inbesondere in der (unteren) Oberklasse wie der RTX 4070, denn Navi 32 kommt womöglich erst in ca. einem Jahr/im Quartal 2 2023).
Übrigens gibt es ein passendes Vergleichsvideo von RX 6600XT vs. RTX 3060 (wobei hier erstere immer als deutlich schneller gefeiert wird als letztere), der aktuell für die breite Masse wohl (preis-lesitungstechnisch) interessantesten Grafikkartenklasse:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Auch wenn jetzt 8GB meistens noch vollkommen ausreichend sind in Full-HD, so ist die RTX 3060 natürlich da deutlich besser für die Zukunft aufgestellt mit 12 GB (nicht nur wegen kommender Texturpakete, aber irgendwann werden vermutlich auch unter Full-HD die allgemeinen Speicheranforderungen hochgehen, denn bislang war das immer so, wenn man sich etwa zu Zeiten der GTX 970 daran erinnert als einige meinten, dass die effektiv 3.5 GB immer für Full-HD reichen werden).
Dazu kommen natürlich noch das ausgereiftere DLSS2.0 (3.0 ist angeblich in der Mache bei nVidia) sowie die bessere RT-Raytracing-Schnupperleistung (mehr als schnuppern ist bei der Leistung allerdings nicht drin, denn dafür ist diese GPU-Klasse leider zu schwach ausgestattet auch bei Preisen immer noch (deutlich) über 400 Euro in Europa).
Tut mir Leid, aber da lebst du in einer Blase.
Was meinst du denn wie viele Durchschnittsnutzer eine Grafikkarte „undervolten“? 1, vielleicht 2%? Das ist kaum der Rede wert.
Ergänzung ()
Das beide Hersteller hier wohl nahezu identisch effizient sind ist es kaum relevant wer „vorne“ liegt. Mir ging es eher darum aufzuzeigen wie viel effizienter Grafikkarten allgemein heute sind.
Ergänzung ()
Es handelte sich um eine rhetorische Frage, falls du das wirklich nicht verstanden hast
Den Shitstorm hat denke ich jeder der nur einmal im Jahr in ein entsprechendes Forum schaut mitbekommen.
Dennoch - für eine Vega 64 bekommt man heute noch mehr als für eine GTX 1080 Ti - Mining sei dank
Ergänzung ()
Witzig finde ich den Vergleich
AMD und Nvidia liegen aktuell laut CB keine 2% auseinander was FPS/Watt angeht.
War das damals bei der Vega 64 im Vergleich zur GTX 1080 mit halben Verbrauch auch so?
Achtung rhetorische Frage
Und bevor du hier wieder alle in „Lager“ einteilen möchtest - selbst habe ich eine RX 6900 XT und freue mich jeden Tag rießig über das eine Prozent mehr Effizienz, noch 5 Jahre dann reicht es durch das jährliche Ersparnis auf der Stromrechnung den nächsten Kaugummi
Ergänzung ()
Witzig finde ich den Vergleich
AMD und Nvidia liegen laut CB keine 2% auseinander was FPS/Watt angeht.
War das damals bei der Vega 64 im Vergleich zur GTX 1080 mit halben Verbrauch auch so?
Achtung rhetorische Frage
Und bevor du hier wieder alle in „Lager“ einteilen möchtest - selbst habe ich eine RX 6900 XT und freue mich jeden Tag rießig über das eine Prozent mehr Effizienz, noch 5 Jahre dann reicht es durch das jährliche Ersparnis auf der Stromrechnung den nächsten Kaugummi
Wenn man es entsprechend gekühlt bekommt (Wasser) wo ist das Problem?
Tut mir Leid, aber da lebst du in einer Blase.
Was meinst du denn wie viele Durchschnittsnutzer eine Grafikkarte „undervolten“? 1, vielleicht 2%? Das ist kaum der Rede wert.
Das ist mir schon klar. Die meisten bauen die Karten ein und das wars.
Unter anderem deshalb haben sich die Karten auch nicht so gut verkauft nehme ich an.
Aber das hat AMD ja spätestens mit den RX 6000 eh geändert. Laufen auch ohne UV oder sonstige Einstellungen super. Deshalb wundert es mich dass Nvidia immer noch so deutlich weiter vorne liegt bei den Verkäufen. Liegt wohl auch einfach an der Nvidia Werbetrommel.
Mir hat damals schon Freesync gereicht auf AMD umzusteigen und dabei bin ich geblieben.
Meine RX 6800 hat mich 570€ gekostet. War für mich damals total konkurenzlos.
Also ich hab von Anfang an nur die UVP Preise verglichen und mehr hätte ich auch nicht bezahlt.
Eine gleich schnelle 3070ti FE kostet zumindest aktuell 649€ und hat nur 8gb VRAM und braucht noch dazu mehr Strom.
Da verzichte ich gerne auf die bessere Raytracing Leistung und DLSS etc. Sind für mich (bisher) nur Spielereien.
Die meisten Leute werden sich aber vermutlich eh abzocken lassen und haben die doppelten Preise gezahlt.
Da hätte ich lieber gar keine gekauft Die breite Masse an Käufern ist mir daher total das Rätsel.
Die neuen refreshs wären für den selben Preis okay. Aber einen Aufpreis sind die doch eher nicht wert.
Arg mehr als 5-10% mehr Leistung wird da eh nicht raus kommen.
Ich muss ehrlich sagen, ich kann mir schlecht vorstellen, dass AMD in einem halben Jahr eine 7700er um die 500$ UVP veröffentlicht, mit der Leistung einer 6900XT wenn sie jetzt noch eine Karte veröffentlichen die nur 3% schneller ist und dann dafür nochmal 1099$ UVP ansetzen.
Ich sag das auch immer wieder. Die Preise zu den UVPs werden nicht mehr runtergehen (früher lag der Preis nach kürzester Zeit drunter). Ich hoffe es ebenfalls sehr, aber das ist wiederum meine Naivität und Leichtgläubigkeit.
Das Line-up beider Hersteller wird nur noch nach oben erweitert. Marge und Gewinn müssen steigen, da die Weltwirtschaft "teurer" geworden ist, ist die Prämisse und neue Begründung.
Falls eine 7700 so schnell sein sollte wie eine 6800, dann wird sie auch ähnlich viel, mit. 800 aufwärts kosten. Das war mal früher, dass neue, schnellere Karten von der Namensgebung her die ältere Generation "ersetzt" haben, aber preislich auf ca. selbem Niveau blieben (bei 6500XT und 5500XT sogar auch noch langsammer). Technik, Fortschritt und Effizienz haben das in der Gesellschaft gerechtfertigt und war normal. Das hat sich grundlegend geändert, weil der Kunde für Mehrleistung bereit ist, deutlich mehr zu zahlen, auch für ein vermeintlich schnelleres Modell aus niedrigeren Modellreihen. Sie ist ja mindestens genauso schnell wie die High End Modelle der letzten Generation, also dürfen sie auch so viel kosten wie die letzte High End Modelle und nicht wie die Modelle, die sie eigentlich ersetzen. Die noch schnelleren Modelle erschließen dann einfach neue Preisklassen bzw. steigen einfach eine Stufe auf. Siehe dazu z.B. die 3050 im Vergleich zu den 750, 1050, 1650. Klar ist die 3050 so schnell wie eine ältere Midrange Karte, aber trotzdem eine Einsteigerkarte, aber eben für den Preis einer älteren Midrange, die sie eigentlich gar nicht ersetzen sollte.
Ich für meinen Teil habe sowieso ein komisches Gefühl im Magen, dass die kommenden Karten eher extreme Mining Karten werden, die einfach als Gaming Karten "getarnt" werden, damit der Otto normal Bürger etwas besänftigt ist und brav auf Lieferungen wartet, sie kommen ja "irgendwann" weil ja vorgestellt. Entsprechend hoher Preis, weil "angebliche Nachfrage" gigantisch. Jedoch werden die vermutlich noch spärlicher verfügbar sein als die nVidia 30er und AMD 60er. Krypto braucht eben Rechenpower und da ist unproblematisch (keine Garantie / RMA) sehr viel Geld zu verdienen! AMD und nVidia müssen zwar Zahlen veröffentlichen, aber eben nicht die Partner oder vor allem die Händler. So macht man eben die Chips signifikant teurer, damit nicht nur die Partner und wie in der Vergangenheit die Händler das größere Stück vom Kuchen haben. Bestes Bsp. eben die 6950. 100€ mehr UVP für paar MHz. das ist künstlich den Preis erhöhen. Kurz vor Vorstellung einer neuen Gen? Die Leute werden schleichend an höhere Preise gewöhnt. Weil man dann auch sehr lange wartet, erscheint das mit der Zeit "psychologich" irgendwann mal sogar als guter Deal.
Wer in Zukunft halbwegs faire / bezahlbare Einsteiger oder Midrange Karten kaufen möchte, kommt um den 2nd Hand Markt nicht drumherum. Wohlgemerkt für mindestens die eins Vorgängermodelle, gar zwei Generationen ältere Karten. Falls es eine 4050 geben sollte, wird die sicher nicht unter 400 bis 450 kosten. Der Name würde auch super zum Preis passen ;-)
Ich sag das auch immer wieder. Die UVPs werden nicht mehr runtergehen. Ich hoffe es ebenfalls sehr, aber das ist wiederum meine Naivität und Leichtgläubigkeit.
Die UVPs sind noch nie runter gegangen und werden das auch in Zukunft nicht, genau wie bei den allermeisten anderen Dingen im Leben auch. Das ist aber ganz normal und weder ein Drama noch eine Überraschung; es ist mir ein totales Rätsel, wie man überhaupt eine derartige Erwartungshaltung haben kann, wenn man nicht gerade unter einem Stein lebt.
Was aber in der Hinsicht Blödsinn ist, sind die völlig albernen und spinnert apokalyptischen Vorhersagen, Karten würden plötzlich von einer Generation auf die nächste um etliche Hundert Euro teurer werden. Dasselbe Gefasel musste man schon in der Vergangenheit immer wieder hören und es war immer falsch. Vergleicht man zum Beispiel Turing mit Pascal, gab's teils unveränderte, teils leicht erhöhte Preise, aber das war alles in allem völlig undramatisch. Ja, auch bei Lovelace wird man wieder Preiserhöhungen sehen, gar keine Frage, aber deren Höhe wird Lichtjahre von den Albtraumvorhersagen der ewigen Schwarzmaler entfernt sein.
ro///M3o schrieb:
Falls eine 7700 so schnell sein sollte wie eine 6900, dann wird sie auch ähnlich viel, min. 800 aufwärts kosten.
Und wieder: Das war in der Vergangenheit nicht so und wird in der Zukunft auch nicht so sein. Wie kommt man auf so was? Der MSRP der 6700 beträgt 480 Dollar. 800 Dollar bei der 7700 wären fast 70% Preissteigerung. Will. Not. Happen.
Klar, kann es durch Verwerfungen auf dem Markt (Miner, Scalper, Corona, Krieg und was weiß ich nicht alles) immer Situationen geben, in denen man zeitweise im Laden(!) tatsächlich das gleiche Geld für die gleiche Leistung zahlen muss, wie vor ein paar Jahren, das hat dann aber erstens wenig mit der MSRP des Herstellers zu tun und muss zweitens auch kein dauerhaftes Phänomen sein. Sieht man ja auch an den derzeit recht stark fallenden Preisen.
Am Ende verkaufen sich Grafikkarten immer auch über die Stückzahl. Schon alleine deswegen können sie nicht ständig überproportional teurer werden, weil dann ab einem gewissen Punkt schlicht die Käufer fehlen.
Das gilt umso mehr, wenn mit Intel ein dritter Wettbewerber den Markt betritt, und wenn man die Konkurrenz mit den - gefühlt preislich seit Jahren völlig unveränderten - Konsolen bedenkt.
Einfach mal locker bleiben und nicht mit jeden Modellwechsel den nächsten Weltuntergang herbeiprophezeien ...
Wenn ich unterm Stein leben soll, hast du den wohl ordentlich an den Kopf bekommen...
Die Preise durch Mining und Co. sind in der Zukunft die "normalen" Preise. Das wird nicht mehr günstiger und genau solche wie du werden das mit Handkuss auch so akzeptieren. Die Preise mögen "stark" fallen, sind aber nach 2 Jahren für die aktuelle Generation immer noch !deutlich! ÜBER der UVP. Sonst waren sie nach kurzer Zeit immer UNTER der UVP die an sich bereits für die Produkte nicht so extrem hoch angesetzt war. Der Trend zeigt in eine einzige Richtung, sei es mit dem Energiehunger oder auch dem Preis ganz abgesehen von der Leistungsfähigkeit. Das ist Fakt und mit dem Preis der 7700 wirst du wohl dann auch endlich verstehen. Der Hype hat weder nachgegeben noch wird sich die Marktlage in Zukunft "normalisieren". Das sagen genau so auch die Fertiger wie TSMC und ich denke die wissen wovon sie sprechen im Gegensatz zu dir. Es werden noch ganz andere Engpässe zusätzlich kommen. Das ist gemeint mit "die Preise werden nicht mehr fallen". Die "unnormale" Situation ist das neue Normal.
Ob der unnormale Markt der letzten zwei Jahre in Zukunft selbstverständliche Normalität werden wird, weiß absolut niemand, weder du noch ich. Niemand kann genau sagen, wie sich Rohstoffknappheiten entwickeln werden. Oder Kriege. Oder Pandemien. Oder das Thema Mining. Nur muss man daraus kein Drama machen und unnötige Panik schieben. Welche Gründe auch immer im einzelnen dafür verantwortlich sein mögen, dass derzeit die Preise sinken; wenn sie anhalten, wird sich das logischerweise auch positiv auf den Start einer neuen Generation auswirken. Und noch mal: Was eine 7700 am Ende im Laden kosten wird, kann aufgrund der oben erwähnten Faktoren niemand seriös vorhersagen, aber AMD wird die MSRP ganz sicher nicht um 60 oder 70 Prozent erhöhen. Wer das ernsthaft glaubt, hat in seinem Leben wahrscheinlich schon mehr als einen Stein an den Kopf bekommen ...
Und spar' dir bitte in Zukunft dümmliche Zuschreibungen wie "solche wie du werden das mit Handkuss auch so akzeptieren". Ich sitze hier mit einer zehn Jahre alten GTX670 und dürfte damit von den allesakzeptierenden Dauerkäufern wohl maximal weit entfernt sein. Ganz abgesehen davon, dass ich anderen Leuten nicht vorschreibe, was sie zu kaufen und was sie zu boykottieren haben.
@ro///M3o@shaboo Das kann man schlichten:
Ihr habt beide doch recht, weil wir in der Umbruchsphase sind.
Die Chipknappheit und "Preissituation" wurde quasi für 2023 und 2024 schon von der Industrie selbst angekündigt.
Ihr seid beide in einem strategischen Patt mit Euren Positionen, weil sich die Aussagen nicht widersprechen:
Eine 7700 wird keine 800 UVP erhalten. Richtig! Wohl eher 600 Euro , die Ecke.
Aber "der Marktpteis" ist der reale Preis und wird wohl im ungünsitgen Falle 800 Euro (aufwärts...?) forcieren. Also auch das passt.
Die UVPs sind noch nie runter gegangen und werden das auch in Zukunft nicht, genau wie bei den allermeisten anderen Dingen im Leben auch. Das ist aber ganz normal und weder ein Drama noch eine Überraschung; es ist mir ein totales Rätsel, wie man überhaupt eine derartige Erwartungshaltung haben kann, wenn man nicht gerade unter einem Stein lebt.
Was aber in der Hinsicht Blödsinn ist, sind die völlig albernen und spinnert apokalyptischen Vorhersagen, Karten würden plötzlich von einer Generation auf die nächste um etliche Hundert Euro teurer werden. Dasselbe Gefasel musste man schon in der Vergangenheit immer wieder hören und es war immer falsch. Vergleicht man zum Beispiel Turing mit Pascal, gab's teils unveränderte, teils leicht erhöhte Preise, aber das war alles in allem völlig undramatisch. Ja, auch bei Lovelace wird man wieder Preiserhöhungen sehen, gar keine Frage, aber deren Höhe wird Lichtjahre von den Albtraumvorhersagen der ewigen Schwarzmaler entfernt sein.
Und wieder: Das war in der Vergangenheit nicht so und wird in der Zukunft auch nicht so sein. Wie kommt man auf so was? Der MSRP der 6700 beträgt 480 Dollar. 800 Dollar bei der 7700 wären fast 70% Preissteigerung. Will. Not. Happen.
Klar, kann es durch Verwerfungen auf dem Markt (Miner, Scalper, Corona, Krieg und was weiß ich nicht alles) immer Situationen geben, in denen man zeitweise im Laden(!) tatsächlich das gleiche Geld für die gleiche Leistung zahlen muss, wie vor ein paar Jahren, das hat dann aber erstens wenig mit der MSRP des Herstellers zu tun und muss zweitens auch kein dauerhaftes Phänomen sein. Sieht man ja auch an den derzeit recht stark fallenden Preisen.
Am Ende verkaufen sich Grafikkarten immer auch über die Stückzahl. Schon alleine deswegen können sie nicht ständig überproportional teurer werden, weil dann ab einem gewissen Punkt schlicht die Käufer fehlen.
Das gilt umso mehr, wenn mit Intel ein dritter Wettbewerber den Markt betritt, und wenn man die Konkurrenz mit den - gefühlt preislich seit Jahren völlig unveränderten - Konsolen bedenkt.
Einfach mal locker bleiben und nicht mit jeden Modellwechsel den nächsten Weltuntergang herbeiprophezeien ...
Ich stimme dir nur in einem nicht zu, es gab die letzten 2 Generationen auf jeden Fall ungewöhnlich hohe Preissprünge, und ich rede von UVP, nicht Marktpreise.
Ob das normal ist oder nicht, langfristig betrachtet, darüber ist eine Diskussion aber recht müßig, da man unterschiedlicher Ansicht sein kann.
Der Markt (Consumer Electronic) ist weder alt genug noch stabil genug für eine valide, objektive Aussage dazu.
Ansonsten aber meinen Beifall für so einen fundierten Post.
Ich stimme dir nur in einem nicht zu, es gab die letzten 2 Generationen auf jeden Fall ungewöhnlich hohe Preissprünge, und ich rede von UVP, nicht Marktpreise.
Das stimmt aber nur für den Wechsel von Pascal nach Turing, nicht für den letzten Wechsel (von Turing nach Ampere). Die MSRPs von 2070 und 2080 waren mit $499 bzw. $699 komplett identisch mit denen von 3070 und 3080. Da gab es überhaupt keine Preiserhöhungen, schon gar nicht "ungewöhnlich hohe". Man sollte seinen diesbezüglichen Blick nicht von den völlig verrückt spielenden Ladenpreisen trüben lassen.
Genau darum geht es ja !!
Früher ein "no go", jetzt egal.
Genau wie der Aufschrei bei Vega anno Dazumal.
Alles zu recht, nur just hörst von genau jenen nüschte mehr ...