News Radeon RX 6600 XT vorgestellt: Mehr Leistung als RX 5700 XT und RTX 3060 für 379 USD

BrollyLSSJ schrieb:
Wenn du damit den NVENC meinst: Können die schon "ewig". Es muss nur die Software unterstützen. Heißt bei AMD "Video Coding Engine" (VCE). Wurde mit der HD 7700 Serie eingeführt und geht bis zur Vega 20 (Vega VII). Bei OBS musst du den "Advanced Media Framework" (AMF) Encoder auswählen. Bei den RDNA basierten GPUs heißt der Encoder Part nun "Video Core Next" (VCN).

Eine kleine Übersicht der unterstützen Formate fürs Encoden und Decoden hat Wikipedia im "Unified Video Decoder" (UVD) gelistet.

Die AMD Lösung ist aber qualitativ deutlich schlechter, leider.
 
flappes schrieb:
50 FPS, toll, also Ruckler. Glückwunsch. Von den Drops reden wir besser nicht, das Spiel braucht Leistung.
Da ruckelt bei CP 2077 gar nichts. Ich habe es mit meiner Vega 56 und Freesync auch in tiefen 40er Regionen gespielt und es war absolut in Ordnung. CP2077 ist für die aktuelle Generation das was Crysis mal für die damaligen war. Eine Machbarkeitsstudie mit fehlender Optimierung und da haben sich die Leute teilweise mit 20 FPS durchgequält. Die Ansprüche sind nur einfach sehr gestiegen.
 
  • Gefällt mir
Reaktionen: Kuestennebel79, BGnom, lord.orth und eine weitere Person
Am größten Bauchschmerzen bereitet mir der schmale Infinity Cache, der wahrscheinlich dazu führt, dass oberhalb FHD die Frameraten einbrechen werden. Werden die CB Tests sicher zeigen, aber so eine Karte kann man echt nur in der heutigen Zeit auf den Markt bringen. Quasi das AMD Pendant zur 3070ti - ein völlig unrundes Produkt, das trotzdem gekauft wird.
 
So teuer, das wars dann wohl. Machs gut ihr unter 300,- € Grafikkarten!
 
Hallo zusammen,

@ dipity
dipity schrieb:
dass oberhalb FHD die Frameraten einbrechen werden.
Du hast aber schon mitbekommen, daß sie Explizit für Full HD und eher nicht darüber gedacht ist, oder?

So long....
 
  • Gefällt mir
Reaktionen: Redundanz
@scheru
Das konnte ich aus seiner Fragestellung nicht raus lesen. Klang für mich nach "AMD bietet sowas nicht.". Daher habe ich entsprechend mit Quellen geantwortet.
 
  • Gefällt mir
Reaktionen: scheru
flappes schrieb:
50 FPS, toll, also Ruckler. Glückwunsch. Von den Drops reden wir besser nicht, das Spiel braucht Leistung.
Wieso den Ruckler? Wenn die Karte konstante FPS hält und man einen G-Sync/FreeSync monitor hat, dann ist lässt sich sehr entspannt zocken.

paulemannsen schrieb:
Es gibt keine schlechten Produkte, nur schlechte Preise. Wiedermal eindrucksvoll bewiesen hier.
Es gibt keine schlechte Preise. Es wird der Preis verlangt, den der Markt ist bereit zu zahlen. Und die letzen Jahre haben gezeigt, dass es noch genug Luft nach oben für Preissteigerungen gibt.

Ich bin immer wieder erstaunt wie jedes mal viele schockiert sind, dass ein börsennotiertes gewinnorientiertes Unternehmen versucht seine Profite zu maximieren. Eine deutliche Preissenkung können wir nur erwarten, wenn jemand versucht seine Marktanteile drastisch zu steigern. Von AMD und NVIDIA glaube ich kommt nicht mehr viel. Die aktuelle Situation scheint für beide in Ordnung zu sein.
 
Adzz schrieb:
Was hast du den getrunken? Die 2080 Super ist schon im Stock über 25% schneller als eine 3060. Und diese Karte schafft es nicht mal auf den eigenen Folien das zu leisten. Customs werden deutlich über 400 Euro Kosten im UVP. Dazu noch unbrauchbares oder kein Raytracing kein DLSS, kein Nvenc, Cuda. Die karte ist schon verarsche am Kunden und ausnutzen der Chipknappheit. Würde jedem die 12 GB 3060 empfehlen.
bisher nur Wasser. Von wegen eine 2080 Super ist 25% schneller als ne 3060. Das Video beweist dass die beiden gleich auf sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz
PCIe 4.0 8 Lanes und 128 Bit Speicherinterface für 380$?
Ich freu mich doch immmer wieder letztes Jahr noch ne 5700XT für unter 300€ bekommen zu haben...
Da muss schon eine 7700XT für max. 400€ kommen um mich zum Wechseln zu bewegen
 
Wie zu erwarten war landet sie da wo sie vermutet wurde, der UVP ist halt schon etwas zu hoch angesetzt 350 hätten es auch getan, allerdings gibt es momentan halt 100€ Differenz für ca 20% mehr Leistung die man mit der 6700XT bekommt, das ist zwischen der 6700XT und der 6800 auch nicht anders, war also auch abzusehen.
Preis Leistung.
Aber naja wann war der UVP jemals aussagekräftig
 
Powl_0 schrieb:
Kannst du doch so gesehen...steck ne x16 Karte in nen x8 Slot und sie läuft mit x8. Steck jeweils eine Karte in beide x16 (bzw x16+x8) Slots in einem Mainstream System und der x16 Slot schaltet auf x8 zurück, um 8+8 Modus zu ermöglichen.
Ja, wenn das Board einen x8er hat und man dadurch keine Nachteile durch darunter liegende Steckkarten hat kann man das machen, praktischer wäre es aber wenn man der GPU direkt sagen könnte das sie nur mit x8 laufen soll. Wäre sicher kein Hexenwerk und ich sehe da auch keinen Nachteil drin wenn man das könnte anstatt die Karte in einen anderen Slot zu stecken.
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Der Preis sollte bei max 300 liegen bei der Leistung, verglichen mit früheren Karten und der Konkurrenz, allgemeine Preissteigerung inklusive. Bei der 5600XT hat es AMD bei mir wegen den nur 6GB Speicher verbockt, hier mit dem zu hohen Preis. Da könnte ich bald mal darüber nachdenken, zur Konkurrenz abzuwandern, nachdem ich bisher seit etwa 20 Jahren nur ATI/AMD-Karten gehabt habe, auch wenn dort die UVP auch zu hoch ist. Aber da der Verkaufspreis aller Karten ja wohl eh bis weit ins 2022 weit über der UVP liegen wird, stellt sich mir diese Frage noch lange nicht.
 
Die 6700 XT und auch die 3060 scheinen mit dem geringen Mehrpreis (UVP!) mit den 12 GB die deutlich "runderen" Produkte zu sein, gerade in Bezug auf 1440P und der längeren Nutzbarkeit für die Zukunft. Für nur 1080P irgendwie zu teuer (UVP).
 
  • Gefällt mir
Reaktionen: A.Xander
Mal noch ein anderer Einwurf von mir:
Basierend auf 379 $ von 6600XT: Ja, sieht dann auch nicht gut aus für Navi24 (16CUs). Also 6500XT (4GB) von 2021 = RX 580 (4GB) von 2017 in Preis und Performance nur mit weniger Leistungsaufnahme? Oder wird AMD diesen Chip nur in Notebooks verbauen?
 
flappes schrieb:
50 FPS, toll, also Ruckler. Glückwunsch. Von den Drops reden wir besser nicht, das Spiel braucht Leistung.

Ich vermisse die Zeiten als man Spiele mit 30+ FPS spielte und sich trotzdem niemand über ruckeln aufregte... War nie ein Problem, dann galt es plötzlich als unspielbar... :freak:
 
  • Gefällt mir
Reaktionen: dswen, Northstar2710, Paladin301 und 2 andere
"AMDs Vergleich mit der Radeon RX 5600 XT sogar auf eine Leistung auf 2080-Super-Niveau hin – das schätzt die Redaktion als etwas zu optimistisch ein."


ist das evt. ein Tippfehler im Artikel? Ist nicht die 6600XT gemeint?
 
Luxmanl525 schrieb:
Hallo zusammen,

@ Ein_Freund

Da hätte ich aber doch ganz gerne ein Beispiel dafür. Aus dem Stand fällt mir keine Karte der letzten Jahre ein, welche im knapp 300 € Segment Plus knapp darüber 250 Watt zog. Selbst Polaris in Form der RX 590 zog maximal ca. 230 Watt. Und das war die absolute Obergrenze.

Ne, Nvidia Karten wie die GTX 1060 oder 1070, sogar die GTX 1080 lagen meilenweit darunter. Sogar die RTX 2070 lag noch darunter. Erst eine RTX 2080 lag darüber, die jedoch war in einer ganz anderen Preisklasse, genauso wie die 2070. Vega 64 lag darüber. Allerdings auch wieder eine ganz andere Preisklasse. Also nein, die Aussage kommt so nicht hin.
Ich bin der Ansicht das wir da schon langsam bei der 400€ Klasse sind und da sind wir noch nicht ganz 2070, aber könnte man 10% Verbrauch wohl nachsehen. X80er von AMD vorher X90er lagen hier auch immer bei dem Verbrauch, zumindest dachte ich das bis eben, die 580er sind doch deutlich sparsamer als ich es im Gedächtnis hatte.
Teilweise ist die Pin-Bestückung jedoch deutlich großzügiger so wie das aussieht, was vermutlich zu meiner falschen Annahme des Verbrauches dieser Preisklasse führte. Meistens 8-PIn 150W + 75W Board ab und an mal nochmal + 1-mal 6-pin 75W.

Hinzu kommt die X80er Klasse verbinde ich bei AMD mit einem einfachen Umbau der 7970 die jedoch kaum eine Einsparung zur Folge hatte, aber selbst meine 380x soll wohl "nur" 190w schlucken statt 300w einer GHz Edition z.B.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Hallo zusammen,

@ Ein_Freund
Ein_Freund schrieb:
die 580er sind doch deutlich sparsamer als ich es im Gedächtnis hatte.
Wie gesagt, die RX 590 war mit Abstand in der Klasse bis ca. 350 € die GPU mit dem höchsten Verbrauch. Die RX 580er zogen nochmal 20 - 30 Watt weniger, je nach Custom Modell.
Ein_Freund schrieb:
was vermutlich zu meiner falschen Annahme des Verbrauches dieser Preisklasse führte.
Ist doch egal. Jeder kann mal falsch liegen. Dafür sind die Mit-Diskutanten doch da, um einem auf den Sprung zu helfen. Du glaubst gar nicht, wie oft ich daneben lag.

Persönlich finde ich die hier avisierten Verbrauchswerte für die RX 6600XT noch ganz Akzeptabel. Die RX 6600 wird mit hoher Sicherheit nochmal deutlich darunter liegen. Ich vermute Stand jetzt, daß das möglicherweise die vom Verhältnis von Preis- / Leistung / Effizienz lohnendste Karte werden könnte. Unter Full HD wohlgemerkt.

So long....
 
  • Gefällt mir
Reaktionen: Ein_Freund
@Wolfgang die RTX 3000 Preise in der Tabelle sind nicht die Launchpreise.
 
ganz schön lächerlich, die 6600Xt gegen die 1060 zu vergleichen :( Naja wenn das der Gegner ist :freak:
und der Preis zeigt nur, dass man die gleiche Leistung vor 2 Jahren zum gleichen Preis haben konnte. Dabei ist zu befürchten, dass die Karte nicht mal für das Geld zu haben sein wird.
=> der Grafikkartenmarkt ist seit 2 Jahren (wenn nicht länger) im Popo.
Ich hoffe, dass Intel was Starkes auf den Markt bringt und der Wettbewerb endlich wieder mal Fahrt aufnimmt. Ich fürchte aber, dass die Zeiten vorbei sind.
 
Zurück
Oben