Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon RX 6500 XT: Navi 24 mit über 2,8 GHz Boost und GDDR6 mit 18 Gbps
- Ersteller SVΞN
- Erstellt am
- Zur News: AMD Radeon RX 6500 XT: Navi 24 mit über 2,8 GHz Boost und GDDR6 mit 18 Gbps
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 918
Die T400 hat nur 1.1 TFLOPS (384 Cuda Kerne) bei ca. 30WBrollyLSSJ schrieb:Da bin ich mal gespannt, was die 6400 so leisten kann und ob eine P400 bzw. T400 besser ist oder nicht.
Die RX6400 hat 768 Shader (Ich schätze das sie mindestens 2GHz (bei Games) takten wird dies entspricht 3.1 TFLOPS bei ca. 53W.
Mit etwas undervolting kannst du sicherlich einen ähnlichen Verbrauch bei mehr als der doppelten Leistung erzielen.
Zuletzt bearbeitet:
Das ist der Preis dafür, dass Nvidia mit Ampere zu Samsung gegangen ist.BxBender schrieb:NVidi aht gerade erst Milliarden auf den Tisch gelegt, um sich kapazitäten vorab auf den Maschinen zu sichern.
Qualcomm steht ähnliches bevor.
Offensichtlich hat Samsung mit den neuen Prozessen massive Probleme.
Und so mussten Nvidia und Qualcomm zusätzliche Kapazitäten bei TSMC buchen.
Apple zahlt sehr viel (25 % aller Einnahmen von TSMC), aber nicht im Voraus.BxBender schrieb:Apple macht das auch schon lange.
Für Apple hat TSMC schon Mal (auf eigene Kosten) im Voraus produziert. TSMC wusste, dass Apple die vorproduzierten SoC abnehmen würde. Damit konnte TSMC die eigenen Kapazitäten besser auslasten und zum Zeitpunkt als Apple die SoCs benötigt hat, für andere Kunden fertigen.
Wieso?BxBender schrieb:Es ist also davon auszugehen, dass AMD zusehen muss, dass die überhaupt was davon abbekommen.
AMD ist für TSMC ein verlässlicher Kunde und Partner. Beide sprechen die Kapazitätsplanung lange im Voraus ab. Es ist das Geschäft von TSMC ihren Kunden die Kapazität bereitzustellen, die sie benötigen. AMD hat nur ein Problem, wenn sie kurzfristig mehr Kapazität haben wollen und TSMC bereits ausgebucht ist.
Die Vorauszahlungen in der Bilanz von AMD sind nicht wie ich ursprpünglich angenommen habe für TSMC. Mit diesen Vorauszahlungen hat sich AMD die Versorgung mit Substraten gesichert. Beim Thema Substrat-Knappheit überschlagen sich ja in den letzten zwei Wochen die Tweets.
Es ist eben Blödsinn alles auf die Kapazitäten bei TSMC zu fokusieren. Man benötigt noch jede Menge andere Sachen um fertige CPUs, GPUs und vor allem Grafikkarten zu bekommen.
Zur Marktlage
Offensichtlich werden die meisten der im letzten Jahr verkauften Gaming-Grafikkarten nicht fürs Gaming verwendet. Auch wenn Nvidia und vor allem AMD etwas anderes behaupten.
Bei allen Aussagen über das Mining bin ich mittlerweile sehr skeptisch, habe aber auch keine Lust mich tiefer einzulesen. Alleine mit Ethereum "Mining" lässt sich der offensichtliche Bedarf an Grafikkarten (Nvidia-Quartalszahlen) nicht erklären.
Zu den Karten
Viel hängt davon ab, ob sie fürs Mining eingesetzt werden. Davon wird abhängen, ob die Marktpreise in der nähe der UVP bleiben.
Ich habe eine RX5500. Wenn ich eine Grafikkarte benötigen würde, wäre eine RX6500XT oder eine RX6400 eine Überlegung wert. Nicht jeder braucht hohe 3D-Leistung. Auch viele Spiele funktionieren ohne massive 3D-Leistung.
Rembrandt ist von den Specs der RX6400 schon verdammt nahe. als mobile Grafikkarte würde die 6400 zusammen zusammen mit Rembrandt nur dann Sinn ergeben, wenn beide als Dual-GPU arbeiten könnten.
Interessant wird sein, ob diese Karte auch eine Vollausstattung an Monitoranschlüssen hat.
Erst dachte ich:
Und dann dachte ich:
😭😭😭
So eine 6400 LP 70-80€ghecko schrieb:Die Karten werden rotzebillig
Und dann dachte ich:
ghecko schrieb:Aber nicht für uns.
😭😭😭
downforze
Banned
- Registriert
- Sep. 2008
- Beiträge
- 1.657
Die Performance der 2060 wird sie nicht erreichen, denn die liegt 5-10% hinter der 2060 Super. Schaut man sich dann die heftige Kastration gegenüber der minimal schnelleren RX 6600 an, kann das gar nicht passen.kachiri schrieb:Ich vermute mal die 6500 XT wird in Richtung 2060 vielleicht sogar 2060S gehen
Das wäre auch mein Wunsch.Nero2019 schrieb:Endlich mal interessante GPUs für mich. Habe gefühlt Jahre gewartet auf den Nachfolger des gtx1650.
6500XT und 6400 werden erwähnt, vielleicht kommt irgendwann noch der der 6500 oder 6400XT, die hoffentlich ohne externen Stromstrecker ausgestattet ist.
Ich bin mal gespannt wie leistungsstark die beiden sind. Hoffentlich ist die 6400 als die gtx1650.
Schon klar. Aber es gibt ja bereits jetzt schon genug Karten, die um diesen Faktor schneller als die genannten sind und trotzdem weit über ihren Wert kosten.ArrakisSand schrieb:Die RX 6500 XT dürfte in etwa 15 - 20 Mal so schnell wie die GT 730 werden.
Mir ging es lediglich darum, dass auch die neuen Karten garantiert nicht zu Schnäppchenpreisen über die Ladentheke gehen werden. Aber hier wurde ja teilweise gemunkelt, dass aufgrund des geringen Speichers die Preise UVP mäßig sein könnten und das ist eben absolut unrealistisch.
Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 918
Ich glaube auch nicht das diese Karten für die UVP (279 -289€?) weggehen werden.ShiftC schrieb:Schon klar. Aber es gibt ja bereits jetzt schon genug Karten, die um diesen Faktor schneller als die genannten sind und trotzdem weit über ihren Wert kosten.
Mir ging es lediglich darum, dass auch die neuen Karten garantiert nicht zu Schnäppchenpreisen über die Ladentheke gehen werden. Aber hier wurde ja teilweise gemunkelt, dass aufgrund des geringen Speichers die Preise UVP mäßig sein könnten und das ist eben absolut unrealistisch.
Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
Zum gegenwärtigen Zeitpunkt würde ich eher auf einen Preis zwischen 350 und 400€ tippen mit etwas Glück
gibt es vielleicht ein kurzfristiges Angebot für z.B.: 329€.
Im Vergleich zu meiner Sapphire RX 6600 pulse (237mm2, 8GB GDDR6) die noch für 500€ bekommen konnte ist die RX 6500 XT doch deutlich günstiger in der Herstellung. (141mm2, 4GB GDDR6) und möglicherweise kommt sie doch nicht ganz so gut bei den Minern an wie die 6600. (Mit 107W bei ca. 60 -70% der Leistung einer 6600 und 4GB kann sie in punkto Crypto Mining nicht mit der 6600 mithalten)
Zuletzt bearbeitet:
Das glaube ich nicht. Die Scalper und die Händler träumen immer noch von Traummargen, aber es wird langsam Zeit das ihr alle aufwacht. Niemand der halbwegs bei Verstand ist, würde soviel Geld für den Rotz zahlen und nicht vergessen, Gier frisst den Verstand !ShiftC schrieb:Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
jemandanders
Commander
- Registriert
- Mai 2019
- Beiträge
- 2.978
Ist ja nicht so, das sie bei AMD nichts hätten. Die Hungerleiderjahre sind vorbei.BxBender schrieb:NVidi a hat gerade erst Milliarden auf den Tisch gelegt, um sich kapazitäten vorab auf den Maschinen zu sichern. Apple macht das auch schon lange. Es ist also davon auszugehen, dass AMD zusehen muss, dass die überhaupt was davon abbekommen.
Die anderen zahlen vorab jeden erdenklichen Preis, weil man es kann, und am Ende durch den Verkauf mit Gewinn wieder rein holt, AMD ist aber nicht so liquide, die können nicht so viel vorstrecken.
Roundabout dürften ~4, mit Xillinx ~5 Mrd Gewinn per Anno anfallen.
Nebenbei war AMD letztes Jahr die Nr. 3 bei TSMC. Würdest Du so einen Kunden, der auch noch ordentlich Potenzial für die Zukunft hat; fallen lassen wie eine zu heiße Kartoffel?
1. Apple, 2, Mediatek, 4.+5. Qualcomm / Broadcom
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.463
Das Problem bei den alten Einsteiger GPUs ist, dass sie mittlerweile auch schon ausverkauft sind, und deshalb die Preise steigen. Die von dir erwähnte GPU ist übrigens genau jene, die dann nicht mehr hauptsächlich den Weg in Retail findet, sondern in OEM PCs und Notebooks wandern.ShiftC schrieb:Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
Zuletzt bearbeitet:
Pfiffig vom AMD mit minimalem Einsatz maximalen Gewinn generieren und zudem genügend Abstand zu den leistungsstärkeren Chips wahren. Sollte sich die Karten im späteren Verlauf nicht wie gewünscht losschlagen lassen, wird halt der VRAM verdoppelt.
Auf der anderen Seite kann ich auch AMD verstehe, haben die doch dazumal vieles für lau rausgehauen. Ma/n erinnere sich nur mal an den X4 Phenom für um die 70,- Euro, der X6 schlug dazumal mit nem guten Huni zu Buche. Die kleineren Kandidaten in Form des Athlon X3 wechselten schon für um die 35,- Euro den Besitzer. Von den Grafikkarten mal ganz zu schweigen. Das war mit Sicherheit alles andere als gewinnträchtig.
Nichtsdestotrotz halte ich Unterhaltungselektronik immer noch für sehr erschwinglich. Wer hingegen ständig Bäumchen wechsel dich spielen möchte, wird in Zukunft stärker zur Kasse gebeten. Die Zeiten wo der Kram quasi für lau veräußert wurde, dürfte def. der Vergangenheit angehören.
Jeder Einzelne hier möchte doch auch, dass seine Arbeitsleistung dementsprechend gewürdigt wird, oder nicht?
mit frdl. Gruß
Auf der anderen Seite kann ich auch AMD verstehe, haben die doch dazumal vieles für lau rausgehauen. Ma/n erinnere sich nur mal an den X4 Phenom für um die 70,- Euro, der X6 schlug dazumal mit nem guten Huni zu Buche. Die kleineren Kandidaten in Form des Athlon X3 wechselten schon für um die 35,- Euro den Besitzer. Von den Grafikkarten mal ganz zu schweigen. Das war mit Sicherheit alles andere als gewinnträchtig.
Nichtsdestotrotz halte ich Unterhaltungselektronik immer noch für sehr erschwinglich. Wer hingegen ständig Bäumchen wechsel dich spielen möchte, wird in Zukunft stärker zur Kasse gebeten. Die Zeiten wo der Kram quasi für lau veräußert wurde, dürfte def. der Vergangenheit angehören.
Jeder Einzelne hier möchte doch auch, dass seine Arbeitsleistung dementsprechend gewürdigt wird, oder nicht?
mit frdl. Gruß
Zuletzt bearbeitet:
Es gibt genug Leute, die das tun. Und für den Händler ist der Preis dann okay, wenn der Kunde es nimmt. Wenn der Händler ne neue gpu gen für fast 100% (und teilweise mehr) über UVP wegbekommt, tut er das auch mit den alten Krüppeln. Guck doch einfach mal bei eBay Kleinanzeigen was da abgeht. So weit muss man eigentlich gar nicht schauen, der Marktplatz hier gibt auch einen Eindruck.D3xo schrieb:Das glaube ich nicht. Die Scalper und die Händler träumen immer noch von Traummargen, aber es wird langsam Zeit das ihr alle aufwacht. Niemand der halbwegs bei Verstand ist, würde soviel Geld für den Rotz zahlen und nicht vergessen, Gier frisst den Verstand !
Deine Aussage impliziert, dass relativ junge "Einsteigerkarten" nicht von steigenden Preisen betroffen wären.pipip schrieb:Das Problem bei den alten Einsteiger GPUs ist, dass sie mittlerweile auch schon ausverkauft sind, und deshalb die Preise steigen. Die von dir erwähnte GPU ist übrigens genau jene, die dann nicht mehr hauptsächlich den Weg in Retail findet, sondern in OEM PCs und Notebooks wandern.
Bei denen sind die Kosten verhältnismäßig sogar noch schlimmer.
Wie berechnen sich denn die effektiven Bandbreiten? Ich bin jetzt mit folgender Formel rangegangen:
EBW=MBW*(1-HR) + CBW*HR
EBW -> effective bandwith
MBW -> memory bandwith
HR -> cache hitrate
CBW -> cache bandwith
Mit den Schätzungen/Annahmen für die HR und CBW komme ich auf die Ergebnisse in der Tabelle. Unstimmig ist der Vergleichswert von der AMD-Website für die RX6800 (sie berechnen hier 1664 GB/s).
EBW=MBW*(1-HR) + CBW*HR
EBW -> effective bandwith
MBW -> memory bandwith
HR -> cache hitrate
CBW -> cache bandwith
Mit den Schätzungen/Annahmen für die HR und CBW komme ich auf die Ergebnisse in der Tabelle. Unstimmig ist der Vergleichswert von der AMD-Website für die RX6800 (sie berechnen hier 1664 GB/s).
GPU | Memory Bandwith (GB/s) | Resolution | Cache Hitrate | Cache Bandwith (GB/s) | Effective Bandwith | Kommentare | |
RX6600XT | 256 | FHD | 0,55 | 922 | 622,3 | | |
RX6600XT | 256 | QHD | 0,35 | 922 | 489,1 | | |
| | | | | 0 | | |
RX6500XT | 144 | FHD | 0,35 | 922 | 416,3 | | |
RX6500XT | 144 | QHD | 0,2 | 922 | 299,6 | | |
| | | | | 0 | | |
RX6800 | 512 | 4K | 0,58 | 1987 | 1367,5 | 256-bit 16 Gbps GDDR6 + 128MB Infinity Cache 1664 GB/s effektiv |
konkretor
Artikeldetektiv
- Registriert
- März 2011
- Beiträge
- 7.224
Kannst du bitte die Quelle verlinkenSummerbreeze schrieb:Ist ja nicht so, das sie bei AMD nichts hätten. Die Hungerleiderjahre sind vorbei.
Roundabout dürften ~4, mit Xillinx ~5 Mrd Gewinn per Anno anfallen.
Nebenbei war AMD letztes Jahr die Nr. 3 bei TSMC. Würdest Du so einen Kunden, der auch noch ordentlich Potenzial für die Zukunft hat; fallen lassen wie eine zu heiße Kartoffel?
Anhang anzeigen 1167127
1. Apple, 2, Mediatek, 4.+5. Qualcomm / Broadcom
Intel hat viel zu wenig
Naesh
Commodore
- Registriert
- Jan. 2011
- Beiträge
- 4.805
Bitte mal aufwachen .... Diese Preise werden aufgerufen und auch locker bezahlt. Was ich mit meinen alten "Regal Karten" für ein Geld gemacht habe ist nichtmehr Feierlich. Alle einfach ohne Preis mit "VB" in ebay Kleinanzeigen gesetzt und 3 Tage später wurden alle Karten für mehr als den Neupreis jeder Karte abgeholt. Von 970 über 1070 bis hin zu 1060 und 780Ti, da wurden mir Preise genannt, wo ich dachte "Ich glaub ich Träume". Der Jahresurlaub dieses Jahr war locker drin .D3xo schrieb:Das glaube ich nicht. Die Scalper und die Händler träumen immer noch von Traummargen, aber es wird langsam Zeit das ihr alle aufwacht. Niemand der halbwegs bei Verstand ist, würde soviel Geld für den Rotz zahlen und nicht vergessen, Gier frisst den Verstand !
Endless Storm
Commander
- Registriert
- Dez. 2008
- Beiträge
- 2.158
Hmm, ich denke meine HD 7850 2GB wird es noch eine Weile tun
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.311
Die cache rechnung ist falsch
Nur geht es um inf cache nicht um bandbreite die eher theoretischer natur ist sondern um latenzen
daher sehe ich es eher so das man 48% im schnitt ist und die latenz um 34% sinken lässt
Also muss man es so rechnen
cl22 für gddr6 18gbits=1,2ns*052=0,62
22/0,624=35gbits =bei 64bit 280gb/s
Die zahlen stammen von amd pressefolien für den inf cache
verringere ich die Größe des cache sinkt die latenzvorteil
Der n24 hat 16mb was ein achtel ist vs 128mb des n21 aus 48% wird 6% folglich sinkt die bandbriet in höheren Auflösungen sogar bei 18gbits und angenommenen cl22 wird dann nur noch 1,152ns was dann mit 64bit 154,9gb/s gibt auf 4k
rechne ich das um werden bis neunfache an latenzverzögerung je auflösung größer
2160p=5,3% 1080p=21% 720p=48%
Die zahlen sind im quadrat zu rechnen
Das ergibt dann 22/18= 1,2ns 1,2*0,79= 0,984ns =22/0,984=22,36 22,36*64/8=178,9Gb/s auf 1080p
Das wird knapp da die meisten spiele auf 200gb/s auf 1080p hin designet wurden.
Also müsste es nur zu rx5500 reichen trotz 5,7tf
Der Bezugspunkt ist das Problem nehme ich 4k an sind die zahlen anders als wenn ich 720p annehme
genau ein achtel auflösung gibt es nicht und man muss sich festlegen den achtel auflösung von 2160p ist 763p
Darum die Diskrepanz bei den zahlen das dürfte zwischen 178,9gb/s vs 192gb/s sein.
Nehme ich das als min und max an komme ich auf gtx1650s bis gtx1660 an
Vorausgesetzt der vram hat cl22 was bei gddr6 der auf ddr4 basiert sehr wahrscheinlich ist
Nur geht es um inf cache nicht um bandbreite die eher theoretischer natur ist sondern um latenzen
daher sehe ich es eher so das man 48% im schnitt ist und die latenz um 34% sinken lässt
Also muss man es so rechnen
cl22 für gddr6 18gbits=1,2ns*052=0,62
22/0,624=35gbits =bei 64bit 280gb/s
Die zahlen stammen von amd pressefolien für den inf cache
verringere ich die Größe des cache sinkt die latenzvorteil
Der n24 hat 16mb was ein achtel ist vs 128mb des n21 aus 48% wird 6% folglich sinkt die bandbriet in höheren Auflösungen sogar bei 18gbits und angenommenen cl22 wird dann nur noch 1,152ns was dann mit 64bit 154,9gb/s gibt auf 4k
rechne ich das um werden bis neunfache an latenzverzögerung je auflösung größer
2160p=5,3% 1080p=21% 720p=48%
Die zahlen sind im quadrat zu rechnen
Das ergibt dann 22/18= 1,2ns 1,2*0,79= 0,984ns =22/0,984=22,36 22,36*64/8=178,9Gb/s auf 1080p
Das wird knapp da die meisten spiele auf 200gb/s auf 1080p hin designet wurden.
Also müsste es nur zu rx5500 reichen trotz 5,7tf
Der Bezugspunkt ist das Problem nehme ich 4k an sind die zahlen anders als wenn ich 720p annehme
genau ein achtel auflösung gibt es nicht und man muss sich festlegen den achtel auflösung von 2160p ist 763p
Darum die Diskrepanz bei den zahlen das dürfte zwischen 178,9gb/s vs 192gb/s sein.
Nehme ich das als min und max an komme ich auf gtx1650s bis gtx1660 an
Vorausgesetzt der vram hat cl22 was bei gddr6 der auf ddr4 basiert sehr wahrscheinlich ist
Ähnliche Themen
- Antworten
- 97
- Aufrufe
- 16.093
- Antworten
- 160
- Aufrufe
- 38.713
- Antworten
- 179
- Aufrufe
- 33.166
- Antworten
- 93
- Aufrufe
- 28.527
- Antworten
- 84
- Aufrufe
- 14.173