News AMD Radeon RX 6500 XT: PowerColor schrumpft Navi 24 ins ITX-Format

SVΞN

Redakteur a.D.
Registriert
Juni 2007
Beiträge
22.987
  • Gefällt mir
Reaktionen: flo.murr, BlinkBlink, aid0nex und 4 andere
Ich gebe mal einen Tipp zu Preis und Verfügbarkeit ab:
Hoch / schlecht

Aber warum denn nur zwei Displayausgänge?
 
  • Gefällt mir
Reaktionen: aid0nex, Dimitri Kostrov, Wintermute und 4 andere
Leider nicht ganz...
Zumindest für das Gehäuse von meinem kleinen...
Ersatz für die evga 1060 wäre gern gesehen. Da allerdings exakt passende Breite von 11,1cm.
Die 12,5cm einfach zu viel!

Mfg
 
  • Gefällt mir
Reaktionen: yahlov und Homie2009
Ein Nachfolger sollte besser sein als der Vorgänger.
 
  • Gefällt mir
Reaktionen: Brian.Griffin, aid0nex, racer3 und 13 andere
Die Marktsituation mal vollkommen ignoriert:
Wirklich nette, kleine Karte für Systeme mit besonderen Bedürfnissen.
Die 4 GB würden mich doch etwas stören. Schade, dass es hier keine 6 GB geben kann und wird.

Raytracing hätte man sich aber bei der kleinen Fußhupe wirklich sparen können (jetzt mal allgemein auf die 6500 XT bezogen). Performt bei AMD ja eh (noch) nicht so gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bert, fox40phil, Mcr-King und 3 andere
Ich finde es ja witzig dass Powercolor einen 8 Pin PCIe Stromanschluss angibt aber auf den Bildern ein 6 Pin zu sehen ist (welcher auch reichen würde). :D

Für Leute die es kompakt brauchen/wollen sicher nicht verkehrt, falls die Karte überhaupt verfügbar sein wird.
Der eine Lüfter jedenfalls sollte mit den 107 Watt TDP keine Probleme haben denke ich.
MFG Piet
 
  • Gefällt mir
Reaktionen: Ernie75, Onkel Föhn, Mcr-King und eine weitere Person
Eine Grafikkarte in der Leistungsklasse solle mit der PCIe Stromversorgung auskommen. Alleine deshalb finde ich den Chip unattraktiv.

Der Formfaktor ist jedoch spannend und mehr als zwei Anschlüsse sollten bei der Zielgruppe eigentlich nicht benötigt werden.
 
  • Gefällt mir
Reaktionen: aid0nex, muh0rsen, dipity und 10 andere
Besuz schrieb:
Aber warum denn nur zwei Displayausgänge?
Laut aktuellem Datenstand kann die GPU nicht mehr. Warum das so ist, steht in den Kommentaren der CES News zu dieser Karte.
https://www.computerbase.de/forum/t...2-mit-tsmc-n6-fuer-199-in-den-handel.2062767/
Down the Rabbithole auf 24 Seiten. Das wichtigste ist aber in diesem Beitrag zusammengefasst:
https://www.computerbase.de/forum/t...99-in-den-handel.2062767/page-7#post-26444555

Bildschirmfoto_2022-01-13_13-43-49.png

poff.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ernie75, BlinkBlink, emerald und 41 andere
Das Design dieser Karte wirkt sehr minimalistisch.

Ich hoffe es kommen auch einmal wieder passiv gekühlte Karten. Ich glaube die gtx1650 kalm x von Palit war die letzte.
 
  • Gefällt mir
Reaktionen: vti, BlinkBlink, Onkel Föhn und 2 andere
Konnte das nich die R9 Nano vor etlichen Jahren auch schon ? :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Mcr-King, Lahire690 und 4 andere
Ich find die echt putzig. Für jemanden der nur ältere Titel zockt und mit dem neuen Bums nichts anfangen kann, was ganz nettes. Und ich glaube kaum das Miner bock auf die Karte haben... uuuuund weg ist sie.
 
Die Frage wäre ja, ob die 5600xt nicht die bessere itx Karte ist.
 
  • Gefällt mir
Reaktionen: Mcr-King, Lahire690 und k0n
Schade, ich warte schon eine ganze Weile auf einen würdigen Nachfolger für meine 1070 im eGPU Case. Aber die 4GB sind ein No-Go.
 
  • Gefällt mir
Reaktionen: Kommando und Mcr-King
Rein optisch ist das eine echt schöne Karte.
Aber leider ist die 6500XT grundsätzlich Murks.
 
  • Gefällt mir
Reaktionen: elmex201, Mcr-King, qappVI und eine weitere Person
SaxnPaule schrieb:
einen würdigen Nachfolger für meine 1070 im eGPU Case.
Ich kann mir kaum vorstellen das die RX 6500 deutlich schneller als die 1070 ist. Das ist wohl ein schlechter Tausch.
 
  • Gefällt mir
Reaktionen: vti, YY247, elmex201 und 5 andere
Besuz schrieb:
Aber warum denn nur zwei Displayausgänge?
der Chip ist eigentlich als Notebookchip erdacht worden, da dort eh die Video-/Codec-/Encoder-Einheiten in den APUs sitzen. Deswegen hat die 6500er ja z.B auch keinen AV1 Hardwaredecoder. Glaube nicht, dass sich AMD einen Gefallen mit der Karte macht, auch wenn vermutlich die Nachfrage trotzdemd a sein wird.
Nähere Infos siehe @ghecko weiter oben.
 
  • Gefällt mir
Reaktionen: vti, Conqi, Volvo480 und 9 andere
Optisch ansprechend.
Aber eigentlich warte ich auf Grafikkarten bei denen man die Display-Ausgänge selbst auflöten muss.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, elmex201 und Lahire690
Mich würde mal die Performance interessieren. Würde ja so gerne mal meine RX590 upgraden, aber bei den Karten wo es sich lohnen würde, ist der Preis ja utopisch hoch
 
Zurück
Oben