News Radeon RX 5600 XT: AMD will mit Navi 10 und 6 GB die 1660 Super klar schlagen

Also die haben mehr als ausreichend gute Navi10 Chips um diese dann so zu kastrieren um mit nur 6GB ins Rennen zu schicken? lol? Habe ich da was verpasst?
Also das 6GB Ding kann AMD behalten wie Nvidia ihre Speicherkrüppel behalten kann.

Die 6GB Karten können nur für Leute interessant sein die von 6GB oder weniger kommen und mehr Leistung wollen.

Mal sehen wo sich die 5600XT im Test einpendelt.
 
Ich habe eine Vega 56 im Referenz Design und dazu kommt die Tage der Morpheus-Kühler. Mit meinen momentanen Einstellungen zieht die Karte unter Spiele-Last laut GPU-Z 190 Watt und kommt im Superposition 1080p extreme auf über 4.200 Punkte, mit dem Morpheus wird dann auch etwas mehr möglich sein.
Wozu braucht man da dann so eine Karte? Ich warte dann in Ruhe den Launch der neuen Konsolen ab und hole mir dann die Nachfolgegeneration mit Raytracing, die dann mit den Konsolen locker mithalten kann und ein paar Jahre Ruhe bieten könnte.
 
  • Gefällt mir
Reaktionen: 1Pferdemädchen
@WommU
Ändert aber nichts daran, dass die Verkaufszahlen wohl eher schleppend ansteigen und die Karte von den meisten Tech-Seiten wegen des Preises wohl auch keine Kaufempfehlung ausgesprochen bekommt. Ob die höhere Marge bei der kleinen Gruppe von Early Adoptern das wert ist?
 
  • Gefällt mir
Reaktionen: Chismon
Bezüglich 5800 & 5900.
Da werden wohl keine mehr kommen.
"Navi 12" scheint ein Apple exklusiver Mittelklassechip mit HBM zu sein und sonst gibt's nur noch die Chips Navi 21,22 und 23.

Das wird wohl die RX 6000er Serie... Und sie kommt wohl frühestens Q3 2020.

Da kann man fast nur hoffen, dass wenigstens Ampere etwas früher erscheint. :(
 
  • Gefällt mir
Reaktionen: Shoryuken94
t3chn0 schrieb:
Die 5700XT wird immer als perfekte WQHD Karte betitelt. Kann, sein, dann aber nur für 60Hz/FPS. Denn für AAA-Title mit 120+ FPS ist die 5700XT dann doch deutlich zu schwach in WQHD.

Schade, dass es hier nichts ordentliches gibt.
Verlangst aber etwas zu viel, die rtx 2080 ti wird als 4k Karte beworben...
Screenshot_20200107_095958.jpg

Aber dann nur 60 FPS in whqd
 
  • Gefällt mir
Reaktionen: Rockstar85
duskstalker schrieb:
ein gleichwertiger pc kostet bald das dreifache.
Draguspy schrieb:
Wer nur spielen will, dem war mit einer Konsole schon immer besser gedient.

Man sollte aber fairerweise auch die zusätzlichen Kosten für Spiele und Online bei Konsolen mit einberechnen. Da kommen pro Jahr gerne nochmal 120€ drauf.
 
Was ein reinfall
Also die yield ist so gut (90%) das man am SI Zwangs kastriert um dennoch unter 300€ bereich wildern zu können. Die gpu ist so Sinnvoll wie ein Sack Reis
also will man seine gut 80% marge sichern und gibt eine gpu raus wo die marge nochmal um 20% gesteigert wird.
Die rx5500xt hat schon eine marge von 200%
Hätte die GPU 12gb vram wäre diese eine Überlegung wert mit 16gbit ram
aber so ist jede nvidia gpu ratsamer

Das lineup müsste so sein
rx5500xt 4gb 100€
rx5500xt 8gb 130€
rx5600xt 6gb 180€
rx5600xt 12gb 250€
rx5700 16gb 330€
rx5700xt 16gb 400€

Das wäre vernünftig.

Aber man wartet lieber ab was nvidia bringen wird
Was ich schon weis ist
rtx3080 16gb 4096 shader 800$ (64sm) ga104
rtx3070 16gb 3584 shader 550$ (56sm) ga104 beschnitten
rtx3060 12gb 3072 shader 450$ (48sm) ga106
jeweils mit doppelten rt kernen tensotr cores sind marginal höher ~25%

AMD Muss einen größeren chip bringen mit 48-80cu
Gut wäre
navi 24 30cu 8gb ~200€ 1920 shader
navi 23 48cu 12gb ~350€ 3072 shader
navi 22 60cu 16gb 500€ 3840 shader
navi21 80cu 16gb 1000€ 5120 shader
Aber das alles hängt von der isa ab. Diese muss bei rdna2 größer werden als 4 Blöcke
Möglich sind 8 oder 6 Blöcke und der cache ist zentral in der Mitte und die cu in 2 32 cu geteilt damit die wärme besser verteilt wird.
AMD rdna relativ hohe Wärmedichte ist ein problem ansonsten wären alle 7nm gpu deutlich effizienter.
 
@syfsyn
Viel zu viel.
Wie wäre es mit der RX5500xt für 50€ und die RX5600Xt 12Gb für 125€?
Oder noch weniger?

Wenn du die RX5600XT mit 12Gb für 250€ willst, wie hochwäre eigentlich der Anteil der 12GB an dem Preis?
 
t3chn0 schrieb:
Irgendwie bekommt Lisa die Leute nicht so gehyped wie die Lederjacke.

Das Pendant für die 5600 XT ist ja die 1660 Ti. Und wenn wir uns ehrlich sind, waren die Leute für die 1660 Ti auch nicht so gehyped.
Gehyped wären die Leute eher, wenn Lisa eine Alternative zur RTX 2060 präsentiert hätte, also eine Karte mit hardwareunterstütztem Raytracing. Aber ohne dem lockt man jetzt kaum noch einen hinter dem Ofen hervor.
 
was für ein Schawchsinn von AMD eine ansich gute und potente Hardware so zu beschneiden. Die mit 8 GB und einem vernunftigen Preis würde AMD ein großes Stück vom Brot und Butter geschäft bringen. Eine Karte die "künstlich" erschaffen wurde um in diesem Segment mitmischen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Traumwandler 75 und JPsy
Faust2011 schrieb:
Kann er Raytracing?
Ne, wird er nicht können. Zumindest wird es nicht Raytracing heißen. :p Aber sicher kommt eine ähnliche Funktion.
Bis jetzt hab ich mir immer zu viel erhofft von AMD, aus dem Grund denke ich das Big Navi wieder auf Niveau von einer Mittelklasse-Karte der neuen Nvidia Karten sein wird.
 
Wiedermal eine klein Karte, naja mal schauen wann AMD mal endlich versucht mit einer RTX2080 konkurieren zu können oder sie machen es leider wieder so Später das Nvidia einfach eine neue Gen rausbringt ...
 
Nur so nebenebei:
1578392674745.png

1578392690117.png


So darf ein Referenzdesign aussehen ! Der Knick muss natürlich nicht sein.

franzerich schrieb:
Gehyped wären die Leute eher, wenn Lisa eine Alternative zur RTX 2060 präsentiert hätte, also eine Karte mit hardwareunterstütztem Raytracing. Aber ohne dem lockt man jetzt kaum noch einen hinter dem Ofen hervor.
Ist denn die RTX 2060 in RT gut ? Ich bin gespannt, was die Leute dann sagen, wenn NV mit der nächsten GPU Generation kommt, die auch aufgrund von der üblichen Si breite und GDDR6 am Ende eine 3080 RTX, mit der Performance einer 2080 Ti bringt, das mit 8 GB und in erster Linie mehr Tensor und RT Cores (auch weil diese GPU sich sehr gut in Unternehmen verkaufen lässt, gibt es ein Grund wieso sie die Tensor Cores immer mehr aufblasen). Am Ende wird dann die RTX 2000 Serie besonders in RT geschlagen.
Also selbst wenn man RT haben möchte, wäre es bei NV ab der 3000 Serie sinnvoll, einfach weil hier NV am meisten Performance Pushen kann. War doch immer so, mit der ersten Generation einer neuen Technik
 
Zuletzt bearbeitet:
Nicht zu früh freun, das Referenz Design der VII wirkte auch Top.

Optisch finde ich 5700 Referenz auch sehr gut.
 
  • Gefällt mir
Reaktionen: Strikerking
t3chn0 schrieb:
Irgendwie bekommt Lisa die Leute nicht so gehyped wie die Lederjacke. Ich hatte mich echt auf eine High Performance 5900XT mit 16GB Speicher gefreut. Stattdessen gibt es eine 5600XT.

Die letzten AMD GPU Hypes waren am Ende auch eher nicht so sehr der Bringer. Und wenn man sich die Fremdscham PK der 5700er Karten gesehen hat... Den Hype um Vega, Fury... Ist vielleicht besser, wenn man jetzt noch nichts zeigt. Ich denke vor Ende Sommer wird auch nichts kommen, was über der 5700XT angesiedelt ist.

Also besser wenn Sie sich auf wirklich starke Produkte konzentrieren und nicht wieder ewig vorher was ankündigen, was dann monatelang nicht auf den Markt kommt.
 
pipip schrieb:
So darf ein Referenzdesign aussehen ! Der Knick muss natürlich nicht sein.
Naja da ist das Modell eben runtergefallen bevor es zur Musterung ging und jezzt sehen alle so aus :D mir gefällt das Design. Die delle hat was eigenes. Hoffentlich nehmen sie für die pro Modelle dann wieder dieses wunderschöne blau.
 
eLw00d schrieb:
Bisher haben die Straßenpreise es eben nicht gerichtet.

Doch, haben sie. Guck doch alleine, was die 5700er Karten aktuell kosten. Und dabei waren die zum Release nicht mal überteuert.

eLw00d schrieb:
Es gibt nirgends einen Preis/Leistungshammer, wie es ihn früher immer gab.

Was ist für dich denn ein "P/L-Hammer"?

Chismon schrieb:
denn das Preis-Leistungsverhältnis ist dürftig (RX5700(XT))

So? Die XT ist 100€ günstiger, bei gerade mal 8-11% (Je nach Auflösung) weniger Leistung zur 2070S. Was ist daran denn bitte "dürftig"!?

Chismon schrieb:
preislich über dem Marktführer ansiedeln

Selektive Wahrnehmung oder wie soll ich mir das vorstellen!?

duskstalker schrieb:
weil nvidia "gerechtfertigt" durch RTX die preise ordentlich nach oben gezogen hat

Alles bis rauf zur 2070 (Super) kostet ziemlich genau das gleiche wie in der Generation davor. Also in dem Bereich, in dem auch AMD etwas zu bieten hat. Darüber hinaus - wo keine Konkurrenzprodukte existieren - verlangen sie Fantasie-Preise. Warum das wohl so ist? :rolleyes:
 
An alle die schreiben, dass AMD die Chancen nicht nutzt oder dergleichen.
Das würden die gerne und sie arbeiten auch dran, jedoch lässt nvidia im Gegensatz zu Intel nichts einfach so anbrennen. Bei AMD arbeiten keine Idioten.
NVIDIA ist sehr rührig und innovativ. Ruhen sich nicht aus, treiben diverse Geschäftsfelder weiter.

Zudem hat nvidia auch kein "Fertigungsproblem", da sie, wie AMD auch einfach bei TSMC/Samsung einkaufen.
Sowohl nvidia als auch AMD arbeiten an den Grenzen des jeweils aktuell technisch machbaren.

Da haut man nicht einfach mal nächstes Jahr eine neue Arch raus und plötzlich ist alles x- Fach schneller.

Turing war ein Mammutprojekt und zum Glück für nvidia, konnten die eine neue Architektur bauen, die in sich, auch ohne Fertigungssprung deutlich effizienter ist.
Die Zeiten, wo man einfach mal den nächsten Nodeshrink mit Transistorzahlsteigerung und Taktsteigerung raushaut, sind vorbei.

Und es hört sich zwar völlig schräg an, aber es klang von irgendjemandem oben an.

Letztendlich können die, die sich Fortschritt im Grafikkartenbereich wünschen, froh sein, dass nvidia tatsächlich nach Möglichkeit generell voll raushaut und eben nicht wie Intel in einen Sleep- Mode verfällt und den Kunden von 15% zu 15% Leistungssteigerung schröpft.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: K4mpftro11 und Strikerking
ZeroZerp
NV hat nun aber auch deshalb das Problem in Zukunft mit hohen Erwartungen zu kämpfen. Man hört ja jetzt schon 50% mehr Performance bei 50% weniger Verbrauch. Bis heute ist mir zu mindestens nicht klar, wo diese Behauptung herkommt.
Dann passen aber die Gerüchte, dass Tensor Cores und RT Cores weiter ausgebaut werden.

Falls es bei NV bei einem schlanken SI bleibt, erwarte ich mir für die 3080 RTX ein 256 Bit Si, 8 GB, Performance einer 2080Ti bei Verbrauch einer 2080. Das wäre bereits ein großer Schritt. Besonders da GDDR6 zwecks Performance auch limitierender Faktor sein könnte, was 50% mehr Performance (Raster) eher unglaubwürdig erscheinen lässt. Aber ich lasse mich gerne überraschen.

Wirklich an Performance wird man aber bei RT und Tensor Core Anwendungen sehen. Besonders RT, da die 2000 RTX Serie nun mal die erste Generation ist.
Es wird schon ein Grund sein, wieso man vom NV CEO ständig RTX Kommentare hört. Letztens, meinte ja dieser, die RTX Generation sei der Grund, wieso die neuen Konsolen plötzlich RTX können.
Wenn man aber bedenkt, dass man so eine Technologie nicht von heut auf morgen in ein Design integrieren kann, eben ein Marketing um RT als Thema weiter zu pushen.
Und auch der Push Richtung Tensor Cores ist nachvollziehbar. Viele Gaming GPUs finden dann ihren Platz in Workstationen einiger Kleinunternehmen. Somit klar dass man das weiter ausbaut.

AMD wird sicherlich nicht NV aufholen, aber Big-Navi könnte schon für AMD eine Chance sein, zu mindestens auf RTX 3080 Serie aufzuschließen. Vllt mit etwas mehr verbrauch ja.

Und bezüglich Kritik an AMD RDNA. Ich möchte mal erinnern, dass vor RDNA die meisten noch meinten, es wird bei einem weiteren GCN Aufguss in 7nm bleiben.

https://www.pcgameshardware.de/AMD-...yzen-5-Radeon-Technologies-Group-RTG-1254102/

Suzanne Plummer war bis zum Jahreswechsel als Senior Director mit an den Zen-Designs beteiligt und ist schließlich zur Radeon Technologies Group gewechselt. Als Corporate Vice President stellt sie ein hohes Tier dar. Die Erfahrungen in der CPU-Entwicklung sollen in die Grafikchips übertragen werden. Konkret werden mögliche Erhöhungen der Taktraten beim gleichzeitigen Ausbalancieren der Leistungsaufnahme genannt
Anno 10.04.2018. Das betrifft also vermutlich noch nicht RDNA1 sondern vllt RDNA2. (oder erst next gen).
Also wer weiß ob positive Effekte vom CPU Bereich auf GPU Bereich übertragbar sind. Man wird es sehen. Die nächste AMD Präsentation könnte also spannend werden, Ausblick auf Zen3 und RDNA2.
Man darf eben nicht eines vergessen. NV hat von der GPU Arch her, gar nicht mal die höhere IPC (laut CB Bench). Sie können aber weit aus besser die Taktrate fahren.
Diesbezüglich ist auch Renoir im Detail vllt interessant. Vega Chip wurde auch belächelt. Jetzt sind es weniger Vega Cores mit aber (soviel ich das richtig verstanden habe) 59% bessere Optimierung!?. Auch bezüglich Turbo hat man mehr gehört, wobei unklar, ob sich das nur auf CPU Core beschränkt war. Renoir dürfte also ein Schritt vor Zen2 im Desktop sein, was neue Features angeht. Da dürfte der Turbo weiterausgebaut worden sein um das Design effizienter zu machen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben