Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon-Gerüchte: AMD bereitet eine Radeon RX 7600 XT mit 16 GB vor
Für eine 6800xt mit im Vergleich Steinzeittechnik noch knapp 500 zu verlangen und als Aktion feil zu bieten ist einfach nur weltfremd in diesem Umfeld.
Aber wem sage ich das, deine AMD Affinität ist ja hinlänglich bekannt.
das liegt daran, dass amd in 2022 die preise für RDNA 2 zu spät und nicht weit genug gesenkt hat. man wollte halt auf der cryptowelle noch eine weile weiterschwimmen und richtung weihnachten 2022 hat man die RDNA2 preise wieder angezogen, weil da die 900€ und 1000€ 7900XT(X) gekommen sind. überlegt mal wie dämlich eine 900€ 7900XT gegen eine 650€ 6950XT ausgesehen hätte.
Die Endpreise für Konsumenten legen aber zum Großteil die Händler fest. Bei der aktuellen Preisgestaltung hat AMD jedenfalls nicht im Vorfeld die UVP-Preise gesenkt. Warum auch? Die Händler kaufen die Grafikkarten von einem Hersteller zu einem "Bruchteil" des späteren Endpreises ein. Was glaubst du denn, wieviel AMD zum Mining-Boom für eine im Handel 2000€ teure RX-6000-Karte bekommen hat? Genau so viel wie wenn die selbe Karte für 700€ verkauft worden wäre... Allein die Händler haben mit dem Mining-Boom eine Menge Geld gemacht, AMD bekommt für jede produzierte Karte immer nur die selbe vertraglich vereinbarte Vergütung.
völlige fehleinschätzung. die margen für retailer (endkundenhändler) liegen bei pc hardware (cpus, gpus, ssds, mainboards) bei ganz grob 10%, manchmal auch darunter. die mit den dicksten margen sind nvidia und amd selber.
bei einem crypto-boom verdienen kurzfristig die händler, aber du brauchst nicht glauben, dass amd und nvidia hier nicht himmel und hölle in bewegung gesetzt haben, um ihre eigenen margen zu erhöhen. die händler haben zum ende des crypto booms die 2000€ karten nicht mehr für 700€ eingekauft, sondern für 1900€.
Dass RTX-3000-Karten im Vergleich zu RX-6000-Karten immer noch zu relativ hohen Preisen weggehen, ist, sind wir doch mal ehrlich, reine Dummheit. Niemals steht dieser Preisunterschied in einem gesunden Verhältnis zum wahren Gesamtpaket. Es wäre nur ein weiteres Beispiel für den Wahnsinn der Leute, wenn es um Geforce-Grafikkarten geht.
Das ist ja nichts was die 3000er RTX Serie exklusiv hat, dass sie zu relativ hohen Preisen weg geht.
Eine rx6600 gibts gebraucht für 120-140€
Eine Gtx 1070 und 1080 haben da von der Performance, effizient usw. keine Chance. Trotzdem gehen sie sehr gut weg. Gerade letztere stößt aber auch mal in die Regionen von 140€ vor.
Genauso RTX Karten bis hin zur 2070.
Die 2070S ist die erste Karte die in fhd wirklich schneller ist. für eine 2070 muss man schon mal 180€ bei Ebay hinlegen. das ist nen viertel mehr € für gleiche bzw sehr ähnliche Leistung.
Na klaaa und am besten mit nem 1000/1500w netzteil gell ? >_< dann lieber ne Karte mit zwei chips auf einer Platine. Wobei das auch Fraglich ist was Stromverbrauch angeht.
Kann ich nur bestätigen. Wir kaufen zwar nicht direkt bei den Herstellern bzw. den OEMs, doch immerhin am Computerladen an der Ecke vorbei. Und auch die, die direkt vom OEM kaufen, haben von massiven Preissteigerungen berichtet in der Zeit.
Was es natürlich gab waren die wöchentlichen Feigenblätter in Form von FEs und Made by AMD-Karten auf deren Website zum "UVP" (die dann aber irgenwie immer weiter gestiegen ist ;-)). Wir am Ende der Einkaufsfutterkette haben in der GPU-Notlage auf jeden Fall kaum mehr verdient als sonst - unsere normalen Kunden haben dann einfach nicht gekauft.
Einziger Vorteil: Man musste keine Ladenhüter abschreiben, weil es zwei Jahre lang keinen Wertverlust gab. Aber auch dann verkauft man als Händler ja die Hardware und behält sie nicht als Spekulationsobjekt.
Man kann gpu nach ihrer Leistung nach Auflösungen sortieren das macht aber nur Sinn solange die Anforderungen nicht Steigen.
2023 hat die schraube stark angezogen was das angeht, dxr hat gezeigt das die Aktuellen preise ganz klar danach die gpu's sortiert
Waren gpu von 2006 bis 2016 noch klar von der raster perf und Ausbaustufe sortiert ist das heute nicht mehr so.
Nvidia absolutes low end nen 07er chip was früher der chip für office pc's war kostete heute 300€ und ist entry class
Das liegt allein an amd dxr schwäche
mal sortieren wo die perf Differenzen herkommen alles 1080p mit dxr nativ
erste gpu die das stemmt mit min 30fps bsp alan wake 2 pt
rx6600 4fps
rtx3060 9fps
rx7600 9fps
rtx4060 11fps
rx7700xt 13fps
rx7800xt 14fps
rtx4060ti 14fps
rtx4070 20fps
rx7900gre 20fps
rx7900xt 21fps
rx7900xtx 22fps
rtx4070ti 25fps
rtx4080 30fps
rtx4090 40fps
man sieht erst ab der rtx4080 kann man von 30fps träumen
Und mal ein spiel ohne showcase wäre das metro exodus (2019) dxr extreme 1080p
Die Preiseinstufung bleibt gleich auch wenn die raster perf klar für amd Spricht
Den ab der rtx4070 ist in raster klares cpu limit auf 1080p in dxr hängt vom spiel ab mal rtx4080 oder rtx4070
So wird dasn schuh draus die rx7600xt macht Sinn mit ihren 15,7tf und den 380€ spot
Dies wäre genau +17% schneller als die rtx4060 und hätte mehr vram
Wenn die tbp auf nur 180w mit maximal 2,2ghz wäre die sku ideal für 1080p
nvidia wird darauf reagieren müssen.
Die ohne XT hat einen 128-bit BUS, die werden einfach die VRAM Chips doppeln also auf die Rückseite mit drauf Flanschen dann brauchen sie keinen anderen BUS. Ob das viel bringt wage ich allerdings zu Bezweifeln, es wird halt genug Grafikspeicher da sein nur bringt diese Karte genug Leistung für 1440p?
Dummheit ist eher anderen ständig Dummheit vorzuwerfen, weil sie etwas nicht so sehen wie die selbsternannte moralische und neutrale Instanz alias Tigerherz.
TigerherzLXXXVI schrieb:
Deine etwaige Vorstellung, der Preisunterschied zwischen einer RTX 4070 und einer RX 7800 XT müsste 150...200€ betragen, ist lächerlich und spiegelt in keinster Weise das wahre Kräfteverhältnis wieder.
Gegenfrage: Wieso plaziert AMD urplötzlich eine RX 7600XT, obwohl vor nicht allzulanger Zeit seitens der Geschäftsleitung gesagt wurde, das es keine weiteren Modelle mehr geben wird ? Soll das eine Wiedergutmachung gegenüber den Verbrauchern sein wegen dem total vermurksten Speicherbandkrüppel RX 7600 ?
Sorry, Aber höre dir das Video Interview noch mal an. Das ist übrigens eines der Kernprobleme beim Journalismus. Selektiven lesen oder zuhören.
Er sagt sehr sehr deutlich:
"Well, the RDNA3 portfolio is now complete. Of all products that we have planned to launch, that is, this is the last few products that we will launch. We may have some different versions, but they are not a new ASIC…It's been a journey, it's been about a year since we launched the very first RDNA 3 and now we are a year later finishing up the series. We should be done, we are done and we are excited. And now I think we have a broad spectrum covered for people who want RDNA 3 up and down the price tag."
Im Grunde schon. Wenn eine neue Grafikkarten-Generation erscheint, wird die untere Mittelklasse bzw. Einstiegsklasse stets ganz zum Schluss auf den Markt gebracht. Etwa 1 Jahr später... Außerdem ist dieser Preisbereich vermutlich der größte Absatzmarkt bei PC-Grafikkarten. Es lohnt sich also.
Ergänzung ()
duskstalker schrieb:
völlige fehleinschätzung. die margen für retailer (endkundenhändler) liegen bei pc hardware (cpus, gpus, ssds, mainboards) bei ganz grob 10%, manchmal auch darunter. die mit den dicksten margen sind nvidia und amd selber.
Ich habe "Bruchteil" mit Absicht in Anführungsstriche gesetzt, weil es eine Übertreibung ist.
Zunächst muss man unterscheiden, dass AMD seine bei TSMC produzierten Chips an Grafikkartenhersteller verkauft (Sapphire, XFX, ASUS...). Diese produzieren dann das fertige Endprodukt (Grafikkarte) und verkaufen es wiederum ihrerseits an die Händler.
Beim ersten Schritt (AMD verkauft die fertigen Chips an die Grafikkartenhersteller) werden vertraglich vereinbarte Preise gezahlt. Und diese sind völlig unabhängig vom aktuellen Marktwert des fertigen Endproduktes. Wenn ein Mining-Boom zwischenzeitlich die Preise in die Höhe treibt, bekommt AMD nicht plötzlich mehr für seine Chips. Erst wenn neue Verträge abgeschlossen werden, die z.B. den Mining-Boom berücksichtigt, verdient AMD mehr mit seinen Chips.
Beim zweiten Schritt (Grafikkartenhersteller verkauft das fertige Endprodukt an einen Händler) sollte klar sein, dass der Handel stets einen deutlichen Anteil am endgültigen Verkaufspreis hat. Rechne hier im Normalfall mit 100% und mehr Aufschlag auf den Einkaufspreis bei einem Hersteller oder Zwischenhändler. Deine 10% sind daher sehr unrealistisch angesetzt.
Denke hier doch einfach mal an die UVP. Während des Mining-Booms ist sie bei keiner Grafikkarte signifikant gestiegen, trotzdem wurden die Produkte zum doppelten bis zum Teil dreifachen Preis angeboten (und verkauft)...
Soweit ich weiß testet PCGH Raytracing stets mit Ultra Setting. Das ist in der Realität aber praxisfern. Raytracing oder besser noch Pathtracing ist noch längst kein Standard in der Spielebranche. Das wird vermutlich noch viele Jahre dauern. Zumindest kann aktuell noch nicht die Rede davon sein. Der Grund ist, dass der Leistungseinbruch bei RT Ultra von den Großteil der Gamerschaft nicht hingenommen wird. Sie verzichten zur Not lieber komplett auf Raytracing. Daher ist dein Argument der besseren RT-Leistung von Nvidia-Karten kein starkes. Eher ein "nice to have".
Ich verstehe die damit verbundene Frustration. Nichts desto trotz ist auch nicht von der Hand zu weisen, dass die Bedeutung eines derartigen Features halt einfach nach und nach steigt --- und entsprechend werden die beiden Ereignisse AMD wird mal in RT führend sein und RT wird deutlich bedeutender sein ziemlich sicher in die gleiche Zeit fallen.
Beim zweiten Schritt (Grafikkartenhersteller verkauft das fertige Endprodukt an einen Händler) sollte klar sein, dass der Handel stets einen deutlichen Anteil am endgültigen Verkaufspreis hat.
Der Grafikkartenhersteller verkauft nicht an den Händler. Da ist eigentlich immer noch ein Distributor dazwischen. In Deutschland dürften dies vor allem Schwergewichte wie Ingram Micro und Tech Data sein.
Wer glaubt, dass ein Händler, der an Endkunden verkauft, sich an Grafikkarten eine goldene Nase verdient, liegt völlig falsch. Hier sind eher Margen von 3% +/- die Regel. Wenn Kunden mit idealo-/geizhals-Preisen kommen, bleibt dem normalen Händler kaum eine andere Wahl.
In Zeiten der Knappheit (Mining-Boom) mag das anders gewesen sein, aber jetzt sind wir wieder in der Realität angekommen.
Wer in der Kette also die "dicke Kohle" abstaubt, kann ich nicht sagen. Der Händler ist es auf jeden Fall mal nicht.
Es ist schön, dass die harte Kundenverarsche AFR-mGPU untergegangen ist. Was viele vergessen: Die beiden Karten waren gemeinsam nie doppelt so schnell, der nutzbare Speicher wurde nicht verdoppelt, die Leistungsaufnahme hat sich hingegen verdoppelt, der Preis hingegen mehr als verdoppelt: Kühlung, Netzteil und so weiter...
therealcola schrieb:
AMD soll mal lieber wieder Cross fire Karten bauen. Zwei 6700 XT mit DX12 und Crossfire wären gebraucht günstig und performancemäßig Triumph.
Du solltest deine Hoffnungen lieber darauf setzen, dass AMD es hinbekommt, mehrere GCDs miteinander zu verschalten. Praktisch gesprochen, mit Bezug zu dieser Gen:
Statt dass sie Navi 32 und Navi 31-GCDs (= Navi 32 mal 1,5) gefertigt hätten, hätten sie nur Navi 32 gefertigt und dafür in rauer Masse. Daraus wäre dann eine 7700 XT geworden, mit den Specs der heutigen 7800 XT, nur untertaktet. (1 GCD, 4x MCD) Eine 7800 XT, mit den Specs der heutigen 7900 XTX, nur realisiert über zwei teildeaktivierte GCDs und wieder untertaktet. Also 2xGCD, 6x MCD. Und eben einen Vollausbau, 2xGCD, 8xMCD, wieder untertaktet. Durch die Untertaktung hätten sie dann auch von der Energieeffizienz her gut abgeschnitten.
Du erzählst mir nichts neues in Bezug auf der Funktionalität und Performance von Cross Fire, trotzdem gab es zu der Zeit wo Crossfire funktionierte meist nur DX11 in den Games und aus Entwickler Sicht wäre es mit DX12 möglich gewesen noch mehr aus einem Cross Fire gespann raus zu kitzeln.
Soweit ich mich erinnere gab es ja auch auch Titel wie Eternal Doom ( Vulkan ) oder etc die sehr sehr gut mit zwei Karten im Cross Fire Verbund skalierten. Vielleicht keine 100% aber 80-90% ist auch schon sehr gut.
Aber deine genannten Aspekte sind natürlich valide, gerade im Bezug auf den Stromverbrauch.
Ich kann mich noch an einigen news zu DX 12 erinnern das so hoch gelobt wurde weil cross fire dann noch besser läuft etc. aber genau dann als DX12 sich immer mehr durchgesetzt hat habe ndie es wieder abgeschafft.
Und ja die Zukunft sind Single Gpus mit multi Kerne aber das wird mit Sicherheit auch nicht billiger. Oder? Amd will wohl auch noch hmb stacks drauf machen etc ^^
Wenn man bereits eine 6700 xt verbaut hat und 80% mehr Leistung erhält durch Zuschaltung einer weiteren, und den zusätzlichen Kostenfaktor von sagen wir <300€ für eine weitere gebrauchte Karte berechnet dann würde ich Leistungsmäßig auf xxxx Niveau sein und das wäre sehr gut. Denn was ich ja will ist ja eine billige Karte mit ~ doppelter 6700 xt Leistung oder eben zwei...
hab jetzt nicht die Grafikkarten Benchmark liste im Gedächnis aber mit 600€ kommt man da nicht annährend ran.