News AMD Radeon RX 5700: Navi übertrifft RTX 2070 mit neuer RDNA-Architektur ab Juli

Ich denke ja.. das wird auch nicht fürs Gaming gedacht sein... leider... sollte es AMD aber schaffen hardwareseitig ein DualGPU Setup zu schaffen das keine Microruckler hat und dabei noch sehr gut (75-90%) Skaliert wäre ich sofort dabei.
 
Ich hatte das schon ein paar mal angemerkt : DAS kann AMD nicht , denn AMD kann unmöglich jedes Game treibermäßig überarbeiten und anpassen , das muß von den Game Developern ausgehen . Diese müssen schon auf Dual GPU entwickelte Games rausbringen , dann klappt das auch , aber in der Regel scheuen diese den zusätzlichen Aufwand .
Ist wie mit den Kernen bei der CPU , ein auf Quadcore ausgelegtes Game juckt es wenig wenn 6 oder 8 Kerne zur Verfügung stehen...
 
Könnte sich die GPU nicht nach außen wie eine einzige verhalten?
 
  • Gefällt mir
Reaktionen: nighteeeeey
Sunjy Kamikaze schrieb:
... dabei noch sehr gut (75-90%) Skaliert wäre ich sofort dabei.

Das kommt vom Gameentwickler.
Die Leistung ist ja vorhanden. Wenn das Game diese nicht annimmt, liegts am Game.

In der Realität kaufst du eine Single GPU die passt und bist happy ;-)
 
Weiß man schon, ob Navi10 auch wie R VII 16GB HBM2 bieten wird?

Ich schwanke zwischen Radeon VII mit Wakü kaufen oder auf Navi 10 warten aber dafür ggf ne minimal schnellere (wenn überhaupt) GPU aber dafür mit halb so großem Vram kaufen.

Ideen oder Meinungen?
 
MK one schrieb:
Ich hatte das schon ein paar mal angemerkt : DAS kann AMD nicht , denn AMD kann unmöglich jedes Game treibermäßig überarbeiten und anpassen , das muß von den Game Developern ausgehen . Diese müssen schon auf Dual GPU entwickelte Games rausbringen , dann klappt das auch , aber in der Regel scheuen diese den zusätzlichen Aufwand .
Ist wie mit den Kernen bei der CPU , ein auf Quadcore ausgelegtes Game juckt es wenig wenn 6 oder 8 Kerne zur Verfügung stehen...

nicht wie es bisher gemacht wird. Aber ich möchte meinen das es sicherlich Möglichkeiten gibt eine DualGPU so zu bauen das sie sich wie oben verhält nach ausen hin wie eine verhält. Und genau das ist es was kommen müsste.
 
und eben das siehst du etwas zu naiv ... , denn egal wie du es drehen oder wenden willst , der Bildaufbau , die Shader, die Effekte , all da muss auf zwei GPU aufgeteilt werden , du spekulierst auf ein " MCP " = Master Control Programm , das alles schon richten wird .... . Das ist leichter gesagt als getan , denn die anstehende Arbeitslast verändert sich sekündlich , eigentlich sprechen wir schon von ms = Millisekunden ( Micro Ruckler ) , denn die Arbeitslast hängt nicht unwesentlich von den Aktionen des Spielers ab = Mega Wumme , viele Gegner , viele Explosionen usw... = nicht vorausberechenbar ... , oder am ehesten von den Game Developern denn diese haben die Game Szene entworfen ...
Klar , mit genug Rechenpower und mit einem AI Algorithmus könnte das gelingen , aber die Rechenpower soll ja in mehr FPS fließen und nicht bei der Analyse von Spielzenen verpuffen .... , selbst wenn es gelingen sollte , die Analyse einer Szene mit optimaler Rechenaufteilung auf zwei GPUs ist zeitaufwendig und mit einer Latenz verbunden ...
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Sunjy Kamikaze schrieb:
nicht wie es bisher gemacht wird. Aber ich möchte meinen das es sicherlich Möglichkeiten gibt eine DualGPU so zu bauen das sie sich wie oben verhält nach ausen hin wie eine verhält. Und genau das ist es was kommen müsste.
Dafür ist die Infinite Fabric eingesetzt worden. Das hat sich bestimmt Jim Keller einfallen lassen für Ryzen.
 
erste Spezifikationen zur 5700 sind aufgetaucht
https://www.tomshw.de/2019/06/09/die-ersten-spezifikationen-der-amd-radeon-5700-xt-sind-aufgetaucht/

von wegen niedriger Takt , der Boost soll bis 1900 Mhz gehen
790316
 
MK one schrieb:
erste Spezifikationen zur 5700 sind aufgetaucht
https://www.tomshw.de/2019/06/09/die-ersten-spezifikationen-der-amd-radeon-5700-xt-sind-aufgetaucht/

von wegen niedriger Takt , der Boost soll bis 1900 Mhz gehen
Anhang anzeigen 790316

Klingt fantastisch.

Hoffentlich wird damit die 2070 obsolet.

Was ich mich heute frage: Reichen 8gb VRAM?
Ich meine, deshalb ist eine 2080 für mich iwie unvollständig. Denn die Leistung ist da, aber hier und da, wirds eng, oder?
1440p reichts locker für 2-3j.
Aber 2160p? Gerade VRam kann man mit Texturen füttern, so dass eine 2070 oder 5700 schnell genug wären, oder?

Habe lange keinen gescheiten Vram Test gesehen - kennt jemand einen?
 
Caramelito schrieb:
Klingt fantastisch.

Hoffentlich wird damit die 2070 obsolet.

Was ich mich heute frage: Reichen 8gb VRAM?
Ich meine, deshalb ist eine 2080 für mich iwie unvollständig. Denn die Leistung ist da, aber hier und da, wirds eng, oder?
1440p reichts locker für 2-3j.
Aber 2160p? Gerade VRam kann man mit Texturen füttern, so dass eine 2070 oder 5700 schnell genug wären, oder?

Habe lange keinen gescheiten Vram Test gesehen - kennt jemand einen?
PCGH hatte vor kurzem einen Test im Heft.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikspeicher-2019-1278728/
 
  • Gefällt mir
Reaktionen: Caramelito
Caramelito schrieb:
Klingt fantastisch.

Hoffentlich wird damit die 2070 obsolet.
Pfffh , glaubst du tatsächlich man packt in eine 350-450 Dollar Graka 16 GB ? erinnern wir und doch mal ab welchen Preispunkt AMDs Konkurrenz mehr als 8 GB VRam bietet , hmmm war das nicht über 1.000 Dollar = 2080TI ?

man muß erst abwarten wie die Preisgestaltung aussieht , aber schon 2060er Leistung reicht mir ... , wer unbedingt 4 K will muß halt löhnen ..., bei NVidia ....
 
MK one schrieb:
Pfffh , glaubst du tatsächlich man packt in eine 350-450 Dollar Graka 16 GB ? erinnern wir und doch mal ab welchen Preispunkt AMDs Konkurrenz mehr als 8 GB VRam bietet , hmmm war das nicht über 1.000 Dollar = 2080TI ?

man muß erst abwarten wie die Preisgestaltung aussieht , aber schon 2060er Leistung reicht mir ... , wer unbedingt 4 K will muß halt löhnen ..., bei NVidia ....

Wo genau habe ich das behauptet? ^^

Eine 2080 mit 10gb wäre halt ne Killer-Karte.
Vor allem im Mindstar als gutes Custom um 589 heute erst gesehen.
Aber die 8GB sind so ne "Brems"-Hilfe gegen die 2080, zumindest für mich als dauerhafte Lösung :-/
 
Igor bestätigt den Leak, was im übrigen indirekt auch den 3950X Leak bestätigt, weil Videocardz beide leaks von derselben Quelle hat.

 
  • Gefällt mir
Reaktionen: Revan1710
Rock Lee schrieb:
TDP wäre jetzt noch interessant ;)
Die 5700XT soll 2x6-Pin haben, das wären also maximal 225W. Nach der 480 damals denke ich nicht, dass sie nochmal eine GPU so auf Kante genäht haben hinsichtlich der Stromversorgung/Anschlüsse, daher würde ich auf 190-200W real tippen.
 
Es läuft nun also auf folgende Gegenspieler hinaus:

2060 - 5700
2070 - 5700 XT

Wie in aller Welt soll das nun mit dem Leak von Sapphire zusammenpassen? Die 5700 hätte weiterhin den VRam-Vorteil, aber mit den postulierten 399 $ würde man in der P/L ziemlich baden gehen und Nvdia könnte die Pläne ihrer 2060 Super getrost wieder in die Schublade packen.

Bin jetzt doch ziemlich aufgeregt vor heute Nacht :D
 
  • Gefällt mir
Reaktionen: Cpt.Willard und pietcux
Linmoum schrieb:
Die 5700XT soll 2x6-Pin haben, das wären also maximal 225W. Nach der 480 damals denke ich nicht, dass sie nochmal eine GPU so auf Kante genäht haben hinsichtlich der Stromversorgung/Anschlüsse, daher würde ich auf 190-200W real tippen.

2*6 Pin finde ich auf jeden Fall interessant. 6-Pin sind ja 75 Watt und 8-Pin direkt 150 Watt.
Warum also nicht einfach einen 8 Pin, wie zB bei einigen RX580-Modellen. Andere Custom 580 Modelle haben einen 6-Pin+ 8-Pin.
Könnte mir daher vorstellen, dass der zweite 6-Pin "grade so" nötig ist und die TDP vielleicht sogar nur 170-180Watt beträgt.
Morgen sind wir hoffentlich schlauer.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Ist das im Video ein Wink mit dem Zaunpfahl?

Ab 4:45 vergleicht er die RX 5700 mit der RTX 2060 und sagt bezüglich des Speicherausbaus der 2060, das der der Vorteil der RX 5700 „NOCH“ besteht.

Könnte das vielleicht auf mehr als 6 GB bei der 2060 hindeuten?

Falls die RX 5700 mehr als 350 € kostet und mehr als 200 W verbraucht, wird meine neue GPU sicher eine GTX 1660 oder eine RTX 2060. Für FHD reichen mir dann auch die 6 GB VRAM und eine Leistungsverbesserung gegenüber der 480 die momentan verbaut ist es alle mal.

Eine Vega kommt wegen dem Verbrauch nicht in Betracht, da ich das NT wechseln müsste und damit das Budget überzogen wird.
 
Zurück
Oben