News Radeon RX 6600: Neues Einsteigermodell von AMD steht in den Startlöchern

Cool knapp 3060 Leistung bei marginal über 100W,
da muss sich die 170W 3060 aber warm anziehen, um da noch einen Stich dagegen landen zu können.
 
  • Gefällt mir
Reaktionen: begin_prog und Floppes
Damien White schrieb:
Alle, die weniger als eine 6600XT benötigen sind mit einem 5600G besser beraten, da der trotz seiner geringen Grafikleistung für alles außer Gaming ausreicht und auch Spiele bis 1080p, wenn auch mit reduzierten Details, schafft.

Da behalte ich meine HD7850 lieber. Sie hat nämlich ein paar Prozent mehr Leistung als die 5600G.
Müsste ich neu kaufen und hätte nicht schon eine CPU, könnte man über eine 5700G nachdenken, aber solange die HD7850 noch hält, gebe ich keine >400€ für so verhältnismäßig wenig Mehrleistung aus...

PS: eine 5600XT wäre um den Faktor 2,9 stärker als meine HD7850 (220€ damals), eine 5600XT hätte ich für rund ~250€ Ende letzten Jahren kaufen können...
War aber so dumm und wollte auf die neue Gen warten :stock:


BxBender schrieb:
Möchtest du aber nur ältere Games aus dem 1000er Karten Zeitalter zocken, oder irgendwelche Indie Titel, so sollte auch eine 6600 völlig ausreichen, wenn das Geldsäckchen leer ist, und eine ordentliche Grafikkarte, die zu so einer Auflösung gehört, einfach nicht drin ist.

Das Geldsäckchen ist nicht das Problem, eher das große Desinteresse an solch hohen Preisen, den hohen Stromverbrauch und ja, ich spiele keine modernen AAA-Titel. Leistung kann ich trotzdem gebrauchen, da die Karte gerne wieder viele Jahre halten darf/muss/sollte.

Und wie oben erwähnt, bin ich der Ansicht, dass ich ich eine 9 Jahre alte Grafikkarte für weniger als 50% Aufpreis zur vorherigen Karte ersetzt bekommen sollte, sodass ich einen echten Mehrwert habe (mich interessieren bei dem Altersunterschied keine 50% Mehrleistung, da sollten schon Faktor 3 und mehr bei rum kommen, damit sich der Wechsel lohnt)


Zudem habe ich den UWQHD-Monitor seit bald einem Jahr, auch für HomeOffice. Und da er "nur" 100Hz hat, muss auch die Grafikkarte keine 400W verbrauchen^^
 
  • Gefällt mir
Reaktionen: Wartop und Strahltriebwerk
@Launebub
das sieht der markt anders. einsteiger wäre aktuell eine niere - oberklasse beide :D
 
  • Gefällt mir
Reaktionen: Zhan, SIR_Thomas_TMC und OneWinged
"dürfte im Desktop aber höher liegen als die maximal 100 Watt der mobilen Version.

Da bereits die XT-Variante mit 160 Watt rekordverdächtig energieeffizient arbeitet"
-
Was ist daran Effizient ? Meine RX470 Polaris von Sommer 2016 für 199€ arbeitet mit 53W bei Volllast.
Die Polaris mit 256bit Speicherbus und 2048 Shadern wurde damals mit nur einem 6 Pin Stromanschluss ausgeliefert. Für PCI-E 3.0

Kommt mir nicht sehr fortschrittlich vor.

Wir haben seit Polaris mit Vega die erste Architekturverbesserung, mit RDNA 1 die zweite Architekturverbesserung, mit RDNA 3 die dritte Architektur Verbesserung und dann nochmal viele Sprünge bei der Fertigung.
Ich erwarte bei 3 Generationen von Architekturverbesserungen + Fertigungsverfahren ehrlich gesagt keine Erhöhung der Leistungsaufnahme.
 
Abgesehen davon, dass deine 470 niemals nur 53w braucht, sondern das der Chip alleine ist, was hast du denn von deinen 256bit und 2048 shadern, wenn nur ~40% der Leistung im Vergleich zur 6600xt rauskommen?
Die 6600xt ist objektiv die aktuell effizienteste Karte, keine Ahnung warum man das abstreiten muss und sogar noch den Säufer Polaris besser hinstellen will.
 
  • Gefällt mir
Reaktionen: Matthias80, naicorion und Floppes
Forum-Fraggle schrieb:
Nur kann das Beispiel hier nicht passen, da es eine Karte am unteren Ende ist.
Du könntest die 6600 im Bezug zur XT so teuer machen, dass man für den "kleinen Aufschlag" lieber zur XT greift. Die XT, die bisher als zu teuer wahrgenommen wird, hätte dann eine gute P/L und deren Kaufpreis würde als gar nicht mehr so teuer interpretiert. Manipulation des Preisgefüges geht auch von unten.
 
  • Gefällt mir
Reaktionen: MilchKuh Trude und SIR_Thomas_TMC
guggi4 schrieb:
Abgesehen davon, dass deine 470 niemals nur 53w braucht, sondern das der Chip alleine ist
Doch tut sie. Wird doch im Wattman angezeigt.
Hab meine halt Optimiert mit Spannung usw.
Hier mal Spontan n Screen mit 56W in World of Tanks.
Ergänzung ()

"wenn nur ~40% der Leistung im Vergleich zur 6600xt rauskommen?"
-
Bei 3 Fach mehr Stromverbrauch mit 128bit Speicherinterface + 3 Generationen an Architektur und Shrinkvorteilen keine Große Leistung.
 

Anhänge

  • RX470 56W.jpg
    RX470 56W.jpg
    562,8 KB · Aufrufe: 297
Die RX6600 wäre perfekt für mich, um meine RX380 endlich zu ersetzen.
Die Preise werden es aber nicht zulassen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und SIR_Thomas_TMC
@Nighteye da misst der wattmann Mist, oder deine Karte läuft ohne Netzteil. Laut Test zieht die Karte alleine nur über den PciE Slot 60watt. Der Rest kommt über das Netzteil und im ganzen liegen die Modelle zwischen 120-144watt. Selbst wenn du sie optimiert haben solltest, mit nur 58watt komplett Verbrauch würde deine Karte unterdurchschnittliche Frameraten haben.
 
  • Gefällt mir
Reaktionen: Matthias80 und JJJT
Damien White schrieb:
Alle, die weniger als eine 6600XT benötigen sind mit einem 5600G besser beraten, da der trotz seiner geringen Grafikleistung für alles außer Gaming ausreicht und auch Spiele bis 1080p, wenn auch mit reduzierten Details, schafft.

Ich verstehe, wieso die 6600 existiert, um den Ausschuss der 6600XT zu verwenden, aber den praktischen Nutzen sehe ich nicht.

Ernsthaft? xD ... 7 Vega CU's oder dann gleich auf 32 RDNA2 CU's. Die 6600XT hat ziemlich genau 8 mal soviel Leistung wie die Vega 8 vom 5700G. Da ist noch reichlich Platz!

Etwas Platz kann man für kommende iGPU's ja lassen, aber mindestens noch eine Ablösung für die GTX 1050Ti/1650 sollte AMD noch bringen d.h. ohne zusätzlichen Stromanschluss und Low-Profile fähig.

Die RX 6600 ist kein Stück unlogisch. Unlogisch ist der Überfluss an riesigen Navi 23 Modellen und nur ein nicht mal mehr gelistetes ITX Model.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Qyxes und Floppes
Nighteye schrieb:
Doch tut sie. Wird doch im Wattman angezeigt.
Hab meine halt Optimiert mit Spannung usw.
Hier mal Spontan n Screen mit 56W in World of Tanks.
Ergänzung ()

"wenn nur ~40% der Leistung im Vergleich zur 6600xt rauskommen?"
-
Bei 3 Fach mehr Stromverbrauch mit 128bit Speicherinterface + 3 Generationen an Architektur und Shrinkvorteilen keine Große Leistung.
Nein tut sie nicht, die ausgelesen werte bei AMD Karten sind immer GPU Chip only.
Dann muss Nvidia ja katastrophal sein, hatten zu Polaris Zeiten massive Effizienz Vorteile und liegen jetzt hinter der ach so schlechten 6600xt :)

Man kann die 6600xt ja für vieles kritisieren, aber fehlende Effizienz zu attestieren ist absurd.
 
  • Gefällt mir
Reaktionen: eXe777
Es funktioniert nicht, egal wie man es dreht. Die DInger sind aktuell viel zu teuer. Aber irgendwie sehe ich auch keine Besserung. Wenn man das aus der Autobranche so liest, scheint es es noch viel schlimmer zu werden.

Denke gebraucht ist die einzige Alternative. Eigentlich reicht die GTX1070ti auch noch ganz gut. Raytracing nutze ich nicht und ohne gehts ja noch. Sogar neuere Spiele sind zumindest spielbar. Und ich dachte damals die 220 Euro gebraucht wären teuer für das Teil :D
 
Balikon schrieb:
Du könntest die 6600 im Bezug zur XT so teuer machen, dass man für den "kleinen Aufschlag" lieber zur XT greift. Die XT, die bisher als zu teuer wahrgenommen wird, hätte dann eine gute P/L und deren Kaufpreis würde als gar nicht mehr so teuer interpretiert. Manipulation des Preisgefüges geht auch von unten.
Halte ich für unwahrscheinlich, da die Käufer einer 660 keine wirkliche Leistung brauchen, sondern nur günstiges Office.
 
Der Wattman zeigt nur die TGP an, also GPU und Memory Controller. Da kommen locker noch einmal 25 bis 30 Watt drauf, dazu Platinenverluste & Gedöns :D

Man kann hier bis zu 30 Watt sparen, ist aber immer noch locker über 100 Watt fürs Gesamtkunstwerk

03 Power Savings.png
 
  • Gefällt mir
Reaktionen: Blumenwiese und Nighteye
Zurück
Oben