News AMD Radeon RX 6500 XT: Navi 24 mit über 2,8 GHz Boost und GDDR6 mit 18 Gbps

Wenn es die tatsächlich als Low Profile Single Slot Karte gibt und der Preis noch passt, könnte diese meine zweit Klitsche mit nem kleinen Core i3 befeuern.
aber wohl alles nur Wunsch…
 
BrollyLSSJ schrieb:
Da bin ich mal gespannt, was die 6400 so leisten kann und ob eine P400 bzw. T400 besser ist oder nicht.
Die T400 hat nur 1.1 TFLOPS (384 Cuda Kerne) bei ca. 30W

Die RX6400 hat 768 Shader (Ich schätze das sie mindestens 2GHz (bei Games) takten wird dies entspricht 3.1 TFLOPS bei ca. 53W.
Mit etwas undervolting kannst du sicherlich einen ähnlichen Verbrauch bei mehr als der doppelten Leistung erzielen.

T400.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BrollyLSSJ
BxBender schrieb:
NVidi aht gerade erst Milliarden auf den Tisch gelegt, um sich kapazitäten vorab auf den Maschinen zu sichern.
Das ist der Preis dafür, dass Nvidia mit Ampere zu Samsung gegangen ist.
Qualcomm steht ähnliches bevor.

Offensichtlich hat Samsung mit den neuen Prozessen massive Probleme.
Und so mussten Nvidia und Qualcomm zusätzliche Kapazitäten bei TSMC buchen.

BxBender schrieb:
Apple macht das auch schon lange.
Apple zahlt sehr viel (25 % aller Einnahmen von TSMC), aber nicht im Voraus.

Für Apple hat TSMC schon Mal (auf eigene Kosten) im Voraus produziert. TSMC wusste, dass Apple die vorproduzierten SoC abnehmen würde. Damit konnte TSMC die eigenen Kapazitäten besser auslasten und zum Zeitpunkt als Apple die SoCs benötigt hat, für andere Kunden fertigen.

BxBender schrieb:
Es ist also davon auszugehen, dass AMD zusehen muss, dass die überhaupt was davon abbekommen.
Wieso?

AMD ist für TSMC ein verlässlicher Kunde und Partner. Beide sprechen die Kapazitätsplanung lange im Voraus ab. Es ist das Geschäft von TSMC ihren Kunden die Kapazität bereitzustellen, die sie benötigen. AMD hat nur ein Problem, wenn sie kurzfristig mehr Kapazität haben wollen und TSMC bereits ausgebucht ist.

Die Vorauszahlungen in der Bilanz von AMD sind nicht wie ich ursprpünglich angenommen habe für TSMC. Mit diesen Vorauszahlungen hat sich AMD die Versorgung mit Substraten gesichert. Beim Thema Substrat-Knappheit überschlagen sich ja in den letzten zwei Wochen die Tweets.

Es ist eben Blödsinn alles auf die Kapazitäten bei TSMC zu fokusieren. Man benötigt noch jede Menge andere Sachen um fertige CPUs, GPUs und vor allem Grafikkarten zu bekommen.

Zur Marktlage
Offensichtlich werden die meisten der im letzten Jahr verkauften Gaming-Grafikkarten nicht fürs Gaming verwendet. Auch wenn Nvidia und vor allem AMD etwas anderes behaupten.

Bei allen Aussagen über das Mining bin ich mittlerweile sehr skeptisch, habe aber auch keine Lust mich tiefer einzulesen. Alleine mit Ethereum "Mining" lässt sich der offensichtliche Bedarf an Grafikkarten (Nvidia-Quartalszahlen) nicht erklären.

Zu den Karten
Viel hängt davon ab, ob sie fürs Mining eingesetzt werden. Davon wird abhängen, ob die Marktpreise in der nähe der UVP bleiben.

Ich habe eine RX5500. Wenn ich eine Grafikkarte benötigen würde, wäre eine RX6500XT oder eine RX6400 eine Überlegung wert. Nicht jeder braucht hohe 3D-Leistung. Auch viele Spiele funktionieren ohne massive 3D-Leistung.

Rembrandt ist von den Specs der RX6400 schon verdammt nahe. als mobile Grafikkarte würde die 6400 zusammen zusammen mit Rembrandt nur dann Sinn ergeben, wenn beide als Dual-GPU arbeiten könnten.

Interessant wird sein, ob diese Karte auch eine Vollausstattung an Monitoranschlüssen hat.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Die Media Markt Kunden müssen ja auch etwas kaufen können. Ironie aus
Reicht es nicht aus nur eine langsame Reihe zu haben. Warum versucht man noch langsamer zu toppen...
Nimm gleich ne APU
 
kachiri schrieb:
Ich vermute mal die 6500 XT wird in Richtung 2060 vielleicht sogar 2060S gehen
Die Performance der 2060 wird sie nicht erreichen, denn die liegt 5-10% hinter der 2060 Super. Schaut man sich dann die heftige Kastration gegenüber der minimal schnelleren RX 6600 an, kann das gar nicht passen.
 
  • Gefällt mir
Reaktionen: Slainer
Nero2019 schrieb:
Endlich mal interessante GPUs für mich. Habe gefühlt Jahre gewartet auf den Nachfolger des gtx1650.
6500XT und 6400 werden erwähnt, vielleicht kommt irgendwann noch der der 6500 oder 6400XT, die hoffentlich ohne externen Stromstrecker ausgestattet ist.

Ich bin mal gespannt wie leistungsstark die beiden sind. Hoffentlich ist die 6400 als die gtx1650.
Das wäre auch mein Wunsch.
 
ArrakisSand schrieb:
Die RX 6500 XT dürfte in etwa 15 - 20 Mal so schnell wie die GT 730 werden.
Schon klar. Aber es gibt ja bereits jetzt schon genug Karten, die um diesen Faktor schneller als die genannten sind und trotzdem weit über ihren Wert kosten.

Mir ging es lediglich darum, dass auch die neuen Karten garantiert nicht zu Schnäppchenpreisen über die Ladentheke gehen werden. Aber hier wurde ja teilweise gemunkelt, dass aufgrund des geringen Speichers die Preise UVP mäßig sein könnten und das ist eben absolut unrealistisch.

Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
 
ShiftC schrieb:
Schon klar. Aber es gibt ja bereits jetzt schon genug Karten, die um diesen Faktor schneller als die genannten sind und trotzdem weit über ihren Wert kosten.

Mir ging es lediglich darum, dass auch die neuen Karten garantiert nicht zu Schnäppchenpreisen über die Ladentheke gehen werden. Aber hier wurde ja teilweise gemunkelt, dass aufgrund des geringen Speichers die Preise UVP mäßig sein könnten und das ist eben absolut unrealistisch.

Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
Ich glaube auch nicht das diese Karten für die UVP (279 -289€?) weggehen werden.

Zum gegenwärtigen Zeitpunkt würde ich eher auf einen Preis zwischen 350 und 400€ tippen mit etwas Glück
gibt es vielleicht ein kurzfristiges Angebot für z.B.: 329€.

Im Vergleich zu meiner Sapphire RX 6600 pulse (237mm2, 8GB GDDR6) die noch für 500€ bekommen konnte ist die RX 6500 XT doch deutlich günstiger in der Herstellung. (141mm2, 4GB GDDR6) und möglicherweise kommt sie doch nicht ganz so gut bei den Minern an wie die 6600. (Mit 107W bei ca. 60 -70% der Leistung einer 6600 und 4GB kann sie in punkto Crypto Mining nicht mit der 6600 mithalten)
 
Zuletzt bearbeitet:
ShiftC schrieb:
Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
Das glaube ich nicht. Die Scalper und die Händler träumen immer noch von Traummargen, aber es wird langsam Zeit das ihr alle aufwacht. Niemand der halbwegs bei Verstand ist, würde soviel Geld für den Rotz zahlen und nicht vergessen, Gier frisst den Verstand !
 
  • Gefällt mir
Reaktionen: elmex201 und Strahltriebwerk
BxBender schrieb:
NVidi a hat gerade erst Milliarden auf den Tisch gelegt, um sich kapazitäten vorab auf den Maschinen zu sichern. Apple macht das auch schon lange. Es ist also davon auszugehen, dass AMD zusehen muss, dass die überhaupt was davon abbekommen.
Die anderen zahlen vorab jeden erdenklichen Preis, weil man es kann, und am Ende durch den Verkauf mit Gewinn wieder rein holt, AMD ist aber nicht so liquide, die können nicht so viel vorstrecken.
Ist ja nicht so, das sie bei AMD nichts hätten. Die Hungerleiderjahre sind vorbei.
Roundabout dürften ~4, mit Xillinx ~5 Mrd Gewinn per Anno anfallen.
Nebenbei war AMD letztes Jahr die Nr. 3 bei TSMC. Würdest Du so einen Kunden, der auch noch ordentlich Potenzial für die Zukunft hat; fallen lassen wie eine zu heiße Kartoffel?

TSMC.jpg

1. Apple, 2, Mediatek, 4.+5. Qualcomm / Broadcom
 
  • Gefällt mir
Reaktionen: konkretor und ArrakisSand
ShiftC schrieb:
Selbst ne neue 1050Ti wechselt für ~ 250- 300€ den Besitzer.
Das Problem bei den alten Einsteiger GPUs ist, dass sie mittlerweile auch schon ausverkauft sind, und deshalb die Preise steigen. Die von dir erwähnte GPU ist übrigens genau jene, die dann nicht mehr hauptsächlich den Weg in Retail findet, sondern in OEM PCs und Notebooks wandern.
 
Zuletzt bearbeitet:
Pfiffig vom AMD mit minimalem Einsatz maximalen Gewinn generieren und zudem genügend Abstand zu den leistungsstärkeren Chips wahren. Sollte sich die Karten im späteren Verlauf nicht wie gewünscht losschlagen lassen, wird halt der VRAM verdoppelt.

Auf der anderen Seite kann ich auch AMD verstehe, haben die doch dazumal vieles für lau rausgehauen. Ma/n erinnere sich nur mal an den X4 Phenom für um die 70,- Euro, der X6 schlug dazumal mit nem guten Huni zu Buche. Die kleineren Kandidaten in Form des Athlon X3 wechselten schon für um die 35,- Euro den Besitzer. Von den Grafikkarten mal ganz zu schweigen. Das war mit Sicherheit alles andere als gewinnträchtig.

Nichtsdestotrotz halte ich Unterhaltungselektronik immer noch für sehr erschwinglich. Wer hingegen ständig Bäumchen wechsel dich spielen möchte, wird in Zukunft stärker zur Kasse gebeten. Die Zeiten wo der Kram quasi für lau veräußert wurde, dürfte def. der Vergangenheit angehören.

Jeder Einzelne hier möchte doch auch, dass seine Arbeitsleistung dementsprechend gewürdigt wird, oder nicht?

mit frdl. Gruß
 
Zuletzt bearbeitet:
D3xo schrieb:
Das glaube ich nicht. Die Scalper und die Händler träumen immer noch von Traummargen, aber es wird langsam Zeit das ihr alle aufwacht. Niemand der halbwegs bei Verstand ist, würde soviel Geld für den Rotz zahlen und nicht vergessen, Gier frisst den Verstand !
Es gibt genug Leute, die das tun. Und für den Händler ist der Preis dann okay, wenn der Kunde es nimmt. Wenn der Händler ne neue gpu gen für fast 100% (und teilweise mehr) über UVP wegbekommt, tut er das auch mit den alten Krüppeln. Guck doch einfach mal bei eBay Kleinanzeigen was da abgeht. So weit muss man eigentlich gar nicht schauen, der Marktplatz hier gibt auch einen Eindruck.

pipip schrieb:
Das Problem bei den alten Einsteiger GPUs ist, dass sie mittlerweile auch schon ausverkauft sind, und deshalb die Preise steigen. Die von dir erwähnte GPU ist übrigens genau jene, die dann nicht mehr hauptsächlich den Weg in Retail findet, sondern in OEM PCs und Notebooks wandern.
Deine Aussage impliziert, dass relativ junge "Einsteigerkarten" nicht von steigenden Preisen betroffen wären.
Bei denen sind die Kosten verhältnismäßig sogar noch schlimmer.
 
Wie berechnen sich denn die effektiven Bandbreiten? Ich bin jetzt mit folgender Formel rangegangen:
EBW=MBW*(1-HR) + CBW*HR
EBW -> effective bandwith
MBW -> memory bandwith
HR -> cache hitrate
CBW -> cache bandwith
Mit den Schätzungen/Annahmen für die HR und CBW komme ich auf die Ergebnisse in der Tabelle. Unstimmig ist der Vergleichswert von der AMD-Website für die RX6800 (sie berechnen hier 1664 GB/s).
GPU
Memory Bandwith (GB/s)
Resolution
Cache Hitrate
Cache Bandwith (GB/s)
Effective Bandwith
Kommentare​
RX6600XT​
256​
FHD​
0,55​
922​
622,3​
RX6600XT​
256​
QHD​
0,35​
922​
489,1​
0​
RX6500XT​
144​
FHD​
0,35​
922​
416,3​
RX6500XT​
144​
QHD​
0,2​
922​
299,6​
0​
RX6800​
512​
4K​
0,58​
1987​
1367,5​
256-bit 16 Gbps GDDR6 + 128MB Infinity Cache 1664 GB/s effektiv​
 
Summerbreeze schrieb:
Ist ja nicht so, das sie bei AMD nichts hätten. Die Hungerleiderjahre sind vorbei.
Roundabout dürften ~4, mit Xillinx ~5 Mrd Gewinn per Anno anfallen.
Nebenbei war AMD letztes Jahr die Nr. 3 bei TSMC. Würdest Du so einen Kunden, der auch noch ordentlich Potenzial für die Zukunft hat; fallen lassen wie eine zu heiße Kartoffel?

Anhang anzeigen 1167127
1. Apple, 2, Mediatek, 4.+5. Qualcomm / Broadcom
Kannst du bitte die Quelle verlinken

Intel hat viel zu wenig
 
D3xo schrieb:
Das glaube ich nicht. Die Scalper und die Händler träumen immer noch von Traummargen, aber es wird langsam Zeit das ihr alle aufwacht. Niemand der halbwegs bei Verstand ist, würde soviel Geld für den Rotz zahlen und nicht vergessen, Gier frisst den Verstand !
Bitte mal aufwachen .... Diese Preise werden aufgerufen und auch locker bezahlt. Was ich mit meinen alten "Regal Karten" für ein Geld gemacht habe ist nichtmehr Feierlich. Alle einfach ohne Preis mit "VB" in ebay Kleinanzeigen gesetzt und 3 Tage später wurden alle Karten für mehr als den Neupreis jeder Karte abgeholt. Von 970 über 1070 bis hin zu 1060 und 780Ti, da wurden mir Preise genannt, wo ich dachte "Ich glaub ich Träume". Der Jahresurlaub dieses Jahr war locker drin :D.
 
Hmm, ich denke meine HD 7850 2GB wird es noch eine Weile tun :rolleyes:
 
  • Gefällt mir
Reaktionen: Traderpete und LinuxTux
Interface64-Bit
🤮

das ganze dann wahrscheinlich für schlanke 400 bis 600€ und nur 4GB, Kotz ...

mfg
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Die cache rechnung ist falsch

Nur geht es um inf cache nicht um bandbreite die eher theoretischer natur ist sondern um latenzen
daher sehe ich es eher so das man 48% im schnitt ist und die latenz um 34% sinken lässt
Also muss man es so rechnen
cl22 für gddr6 18gbits=1,2ns*052=0,62
22/0,624=35gbits =bei 64bit 280gb/s
Die zahlen stammen von amd pressefolien für den inf cache

verringere ich die Größe des cache sinkt die latenzvorteil
Der n24 hat 16mb was ein achtel ist vs 128mb des n21 aus 48% wird 6% folglich sinkt die bandbriet in höheren Auflösungen sogar bei 18gbits und angenommenen cl22 wird dann nur noch 1,152ns was dann mit 64bit 154,9gb/s gibt auf 4k
rechne ich das um werden bis neunfache an latenzverzögerung je auflösung größer
2160p=5,3% 1080p=21% 720p=48%
Die zahlen sind im quadrat zu rechnen
Das ergibt dann 22/18= 1,2ns 1,2*0,79= 0,984ns =22/0,984=22,36 22,36*64/8=178,9Gb/s auf 1080p
Das wird knapp da die meisten spiele auf 200gb/s auf 1080p hin designet wurden.
Also müsste es nur zu rx5500 reichen trotz 5,7tf
Der Bezugspunkt ist das Problem nehme ich 4k an sind die zahlen anders als wenn ich 720p annehme
genau ein achtel auflösung gibt es nicht und man muss sich festlegen den achtel auflösung von 2160p ist 763p
Darum die Diskrepanz bei den zahlen das dürfte zwischen 178,9gb/s vs 192gb/s sein.
Nehme ich das als min und max an komme ich auf gtx1650s bis gtx1660 an
Vorausgesetzt der vram hat cl22 was bei gddr6 der auf ddr4 basiert sehr wahrscheinlich ist
 
Zurück
Oben