Bericht AMD Navi: Radeon RX 5700 XT ($449) und RX 5700 ($379) sind offiziell

Sunjy Kamikaze schrieb:
jetzt mal den ganzen gebashe hier außenvor.

Ich finde es Schade das Raytracing noch nicht in dieser gen drin ist.. da ich das Thema wirklich immer Faszinierender finde. Aber was mich viel mehr juckt... Wird über der 5700XT nochwas kommen nächstes jahr? Ich meine 5700 als Zahl kann ja nicht das Maximum sein wenn die CPUs bis 3950X gehen.. da würden sich doch die GPUs sicher daran anpassen lassen um das jeweilige Produkt gleich für die Kunden gut einschätzen zu lassen. Sprich Oberklasse wäre dann eine RX 5950XT .. was ich wirklich geil finden würde.

Ob sie jetzt gleich eine 2080Ti schlagen können is wohl unwahrscheinlich.. aber ein wenig mehr als die VEGA 7 sollte doch noch drin sein hoffe ich.
Also seit vorigen Jahr ist bekannt, das für dieses Jahr nur Mainstreamleistung geplant war und erst für 2020 die höheren Ausbaustufen ;). Diese Info kam direkt von Lisa.

PS: Was hat das Namensschema der CPU´s mit dem Namensschema der GPU´s zu tun?
 
Ansich hat es nichts miteinander zu tun. Aber wenn sie jetzt schon alles umwerfen könnte man ja beides aneinander anpassen.. würde ich sinvoll finden und der mediamarkt Käufer denkt sich dann auch.. Boah 3950X braucht ne 5950X damit die PS auch richtig auf die Straße kommen :D
 
Ich weiß was du meinst. Aber da wäre die Verwirrung riesig. Da muss man schon überlegen, welche der beiden Bezeichnungen jetzt die Cpu und was denn gleich die GPU war...:D
 
G3cko schrieb:
Was Nvidias Raytracing so schnell macht ist nicht die Raytracing-Berechnung an sich, sondern das Eraten mittels KI von noch nicht berechneten Raytracing-Bildpunkten.
Was so nicht stimmt. Es sind schon die RT Kerne, welche die Raytracing Berechnung beschleunigen. Das Denoising kommt nachher noch hinzu. Siehe @ZeroZerp in #810: https://www.computerbase.de/forum/t...-sind-offiziell.1876380/page-41#post-22759949
Natürlich kann jede Hardware Raytracing berechnen, nur eben nicht schnell. Und eben solche Raytracing Einheiten hat Navi keine, ebensowenig wie Kerne zur KI Beschleunigung. Daher ergibt der von dir zitierte Satz aus der News sehr wohl Sinn.

Sunjy Kamikaze schrieb:
ich nehme an die RT Cores sind Nvidia exklusive als Produkt oder wie läuft das?
Versteh ich nicht was du damit meinst. Raytracing ist nichts exklusives. Natürlich sind die RT Kerne etwas, was Nvidia für sich entwickelt hat. Produkt? Jeder Hersteller kocht hier halt sein eigenenes Süppchen, wie er das möglichst effizient in Hardware beschleunigt, wobei ich aber durchaus glaube, dass AMD hier Nvidia Konzept nachahmen wird.
 
ZeroZerp schrieb:
Genau- Und dann kriegen auch diejenigen, die auf Kriegsfuß mit nvidia stehen, aber Raytracing interessant finden, ihre Alternative. Hat AMD ja auch offen kommuniziert.
Da das dann laut den Folien bereits RDNA2 sein soll, hoffe ich mal, dass sich an der Effizienz noch was bewegt.
Ansonsten sehen wir bei einer 60CU Karte, die dann vermutlich zwischen 2080 und 2080Ti liegt, wieder 300W+ und die ganze Geschichte mit Vega64 vs 1080 wiederholt sich
 
  • Gefällt mir
Reaktionen: .Sentinel.
Abgesehen von der Kühlung ist der Stromverbrauch bei anständiger Leistung aber den meisten doch egal.. siehe 9900K .. Von mir aus darf die GPU gern auch 350 Watt verbraten wenn sie dann die Leistung bringt.
 
  • Gefällt mir
Reaktionen: sil79
Sunjy Kamikaze schrieb:
Abgesehen von der Kühlung
Genau die, ich bin aktuell recht verwöhnt mit dem Morpheus II auf meiner Vega56, hätte aber beim nächsten Mal gerne auch eine leise Karte ohne sie selbst umbauen zu müssen.

Und der Verbrauch ist auch nicht sooo unerheblich. Wenn sie die Leistung bringt keine Frage, aber wenn sie 300W braucht um leicht über einer 2080 zu landen, die nur 225W braucht, überlegt man halt schon.
Da müsste es dann wieder über den Preis kommen oder eben eine 2080Ti schlagen
 
Zuletzt bearbeitet:
Habt ihr mal darüber nachgedacht das es bei AMD vielleicht nie richtiges Hardware raytracing geben wird? Man sieht doch selbst bei Nvidia wie schwer das ganze umzusetzen ist bzw. wie sehr die Performance einbricht.
Außerdem hat Nvidia jetzt einen gewaltigen Vorsprung der wahrscheinlich nie mehr einzuholen ist mit den begrenzten Mitteln von AMD.
Ich denke vielmehr das ganze wird ausschließlich über die cloud gehen vorallem bei den Konsolen.
 
AMD hat auch Intel eingeholt und die blauen haben noch um einiges mehr Kohle als Nvidia.. die brauchen 25% ihres Geldes ja für Lederjacken ;D

Raytracing soll von mir aus über CPU oder GPU laufen solange es kommt. Wichtig wäre das AMD jetzt in der GPU sparte auch einmal ein volles Brett raushaut damit wieder ordentlich konkurenz am Markt ist.. den nur so Profitieren wir preislich.. und vor allem Technologisch. CPUs sind für Heimanwender und Gamer im mittel schnell genug. DAs was die ganzen Freaks hier machen ist halt aus spaß an der Freude und hat nichtsmehr mit brauchen zu tun. Grafikkarten könnten aber durch die Bank weg 100% schneller sein und man könnte immernoch sichtbare unterschiede in der Grafikqualität von Games reinbringen.

Ich hätte gern als Traumobjekt einen 45-50Zoll Monitor mit 21:9 Format und 5K ultrawide Auflösung der dann auch noch 120-144 hz schafft.

Da kann ich GPUs reinhauen was ich will und würde niemals auch nur annähernd neue Titel in Hohen Einstellungen spielen können.

Von daher.. sollen die mal Gas geben bei AMD das Nvidia auch mal wieder ein wenig aufdrehen muss.. das hilft vor allem uns Verbrauchern.
 
Sunjy Kamikaze schrieb:
Abgesehen von der Kühlung ist der Stromverbrauch bei anständiger Leistung aber den meisten doch egal.. siehe 9900K .. Von mir aus darf die GPU gern auch 350 Watt verbraten wenn sie dann die Leistung bringt.

Prinzipiell ja - So lange alles leise bleibt, ist es mir persönlich egal.

Im Sommer aber, wenn dann der PC zur Heizung mutiert, eigentlich nicht mehr egal ^^

Habe aktuell meine 2080ti auf 0.8v laufen - Ergibt in den Games ca. 65-70% des PTs
Das PT ist bei 100% (also Stock) @300W --> 210W und trotzdem war es jetzt bei unserer kleinen "Hitzewelle" in Wien, ziemlich warm unterm Tisch.

Außentemp. war so ca. 32, im Zimmer um die 26 und nach den Gaming Sessions ca. 28 ^^
Ergänzung ()

Sunjy Kamikaze schrieb:
AMD hat auch Intel eingeholt und die blauen haben noch um einiges mehr Kohle als Nvidia.. die brauchen 25% ihres Geldes ja für Lederjacken ;D

Bitte nicht einfach so raushauen mit solchen Behauptungen.

Intel ist der Consumer-CPU Markt schlicht egal - Das wird oft genug in Interviews von "Szene-Kennern" besprochen.
Sie haben hier einfach die Kunden gemolken und nebenbei Geld verdient mit 0 Innovation und Weiterentwicklung (Sandy Bridge bis Kaby Lake z.B.) - Einfach mit dem "Intel-Namen".

"Eingeholt" im Consumer-CPU-Markt kann man von mir aus sagen - Aber das hat nichts mit der Kohle zu tun.
Denn wenn es um den Markt gehen würde, würde Intel seit Jahren daran arbeiten um die Nr.1 zu bleiben..

Für uns User ist Ryzen einfach genial. Ich freu mich schon auf 12 Kerne um ~500€. ^^
 
  • Gefällt mir
Reaktionen: Verak
Caramelito schrieb:
Bitte nicht einfach so raushauen mit solchen Behauptungen.

Intel ist der Consumer-CPU Markt schlicht egal

Direkt nach dieser Aussage selber sowas behaupten... reife Leistung ;)
 
Nozuka schrieb:
Direkt nach dieser Aussage selber sowas behaupten... reife Leistung ;)

Dann google mal die Umsatzzahlen. Du wirst selbst bemerken, dass das stimmt.

Es muss einfach viel passieren, dass die Firmen von Intel CPUs auf AMD CPUs wechseln.
Dann wäre Intel gefordert.

Aber bei allen Kunden, die ich aktuell kenne, kommen HP/Lenovo/Dell etc. Geräte zum Einsatz. Vor allem Notebooks und wenige Desktops bzw. Workstations.
Alle mit Intels 8th Gen CPU. i5 und i7 je nach Ausstattung.
Und sogar die Server usw. werden mit Intel CPUs ausgestattet - Da sah ich bisher keine AMDs in den Bestellungen.
Sehr schaden, aber so funktioniert die Welt..

Im Consumer Bereich - Also Privatuser --> Ist ihnen der Absatz somit egal.
Der Part macht 0.X% aus von deren Rekordeinnahmen 2018.

Ach: Im Consumer CPU-Markt ist der Stückzahlabsatz seitens AMD deutlich höher als der von Intel.
Sieht dir die Verkaufszahlen an: AMDs R5 dominiert mit großem Abstand.
Jetzt aber von "eingeholt" mit Blick auf das Geld zu sprechen, ist absurd.
 
Zuletzt bearbeitet:
Finde auf die schnelle keine Zahlen die das so aufzeigen wie du es sagst.
Aber da es deine Behauptung war, liegt die Beweispflicht ja sowieso bei dir...
 
freezer255 schrieb:
Habt ihr mal darüber nachgedacht das es bei AMD vielleicht nie richtiges Hardware raytracing geben wird? Man sieht doch selbst bei Nvidia wie schwer das ganze umzusetzen ist bzw. wie sehr die Performance einbricht.

AMD hat den DXR Standard mit den anderen zusammen mitverabschiedet. Zudem hätten sie ja jetzt eine brauchbare Vorlage (Turing), wie das ganze effizient funktionieren kann.

Die Performance von echtzeit Raytracing bricht nicht ein, sondern wird um ein vielfaches schneller - Ist sozusagen jetzt erst mit den RTX Karten überhaupt machbar.

In Relation zur Performance einer schlechter aussehenden, eingeschränkten rasterisierten Szene ist es noch 1-2 GPU Generationen langsamer (also so gut wie nichts, wenn man sieht, wieviele Generationen die Rasterkarten Zeit hatten zu reifen).

Du kannst auch rasterisierte Spiele ums doppelte beschleunigen, wenn Du die Grafik zurückschraubst. Das ist jetzt keine technische Besonderheit. Neue Grafikeffekte kosten halt.

Mit steigender Komplexität der Szenen bei gleichbleibender Auflösung gewinnt Raytracing dann irgendwann das Rennen gegen rasterbasierter Berechnung.
Auch in Sachen zukünftiger Skalierung gewinnt Raytracing gegen Rasterbasierte Berechnungen.
DIe Hersteller müssen um state of the art Effekte zu zeigen sowieso schon immer auf Raytracing- Technik zurückgreifen.

LG
Zero
 
  • Gefällt mir
Reaktionen: Cpt.Willard
ZeroZerp schrieb:
In Relation zur Performance einer schlechter aussehenden, eingeschränkten rasterisierten Szene ist es noch 1-2 GPU Generationen langsamer
Teilweise eher 2-3 Generationen, aber das gilt ja auch nur für das, was aktuell mit RT umgesetzt wird, was ja noch nicht sehr viel ist.
Ich gehe davon aus, dass es wie bei Konsolen läuft, wenn schnellere RT Karten kommen, dann wird die Komplexität der RT Features einfach erweitert, sodass die Karten mit RT dann am Ende nicht mehr FPS, aber dafür mehr Effekte berechnen können.
 
@Taxxor

Naja- Bei 60FPS@4K sollten doch nicht mehr so große Wünsche offen bleiben, denke ich (Raytracing auf High):
1-2 Generationen drauf - Dann klappts auch mit allen Effekten.

Wir werden eine genaue Einschätzung mit dem Release von Control erhalten, wie sehr dann alle Effekte gleichzeitig an den GPUs und den Frameraten ziehen.

Wie gesagt- Der Vorteil von Raytracing ist ja gerade die enorme und einfache Skalierbarkeit.
Da werden wir innerhalb kürzester Zeit signifikant größere Sprünge sehen, als es den Rastereinheiten zuteil werden wird.

LG
Zero
 
Nozuka schrieb:
Finde auf die schnelle keine Zahlen die das so aufzeigen wie du es sagst.
Aber da es deine Behauptung war, liegt die Beweispflicht ja sowieso bei dir...

Ich muss nichts beweisen - das weiß man oder googlet ;-)
Ergänzung ()

ZeroZerp schrieb:
@Taxxor

Naja- Bei 60FPS@4K sollten doch nicht mehr so große Wünsche offen bleiben, denke ich (Raytracing auf High):

Was ich etwas schade finde sind die (laut n pasr YT Videos) kaum vorhandenen FPS-Unterschiede zw. low und mid oder high und ultra.

Der Sprung von mid to high ist einfach gewaltig.
Also qualitativ und was die HW-Anforderung angeht. High to ultra sind dann nur ein paar Prozentchen ^^

Vllt. kann man hier gerade Mid mehr von Low absetzen und wirklich ein Zwischending zw. Low und High anbieten.
 
Für mich gibt es an Navi momentan wenig zu nörgeln. Klar habe ich auch auf eine geringere UVP gehofft aber gut.... mal abwarten wie sich das entwickelt. Raytracing kann mir momentan gestohlen bleiben. Kostet mir zu viel Leistung uns sieht nicht so super toll aus als das ich es unbedingt jetzt haben müsste. Wenn die 5700 XT überzeugen kann und der Preis meine Zustimmung findet wird eventuell meine Vega 56 schon wieder in Rente geschickt. Oder ich warte damit und schau was AMD noch aus dem Hut zaubert. Alles zu seiner Zeit.
 
@Inras
Unzufrieden mit der Vega56?

Meiner Meinung nach macht da das Upgrade kaum Sinn. Das sind um die 15-20% (?) Leistung für ca. 500€? :-)
Ist aber nur meine Meinung :p
 
  • Gefällt mir
Reaktionen: xexex, Taxxor und Verak
Caramelito schrieb:
@Inras
Unzufrieden mit der Vega56?

Meiner Meinung nach macht da das Upgrade kaum Sinn. Das sind um die 15-20% (?) Leistung für ca. 500€? :-)
Ist aber nur meine Meinung :p

Nö nicht wirklich unzufrieden aber ich habe lust drauf :D. Jeder spinnt auf seine Weise. Der eine laut, der andere leise.
 
  • Gefällt mir
Reaktionen: scuronero
Zurück
Oben