News AMD Radeon RX 5700: Navi übertrifft RTX 2070 mit neuer RDNA-Architektur ab Juli

Oneplusfan schrieb:
Das habe ich bisher immer wieder gelesen. Ist es wirklich so, dass die 1050ti der RX 570 bevorzugt wird? Gibts da evtl. aussagekräftige Statistiken?

786469


Sorry, aber meine Bildschirmhöhe reicht leider nicht aus bis zur RX570.... :evillol:
 
Ikone schrieb:
Ist was durchgesickert ob eine Navi Karte die dieses Jahr erscheint mit mehr als 8GB Speicher bestückt wird?
Oder nur die Top Modelle im nächsten Jahr ?
ich hab nichts mitbekommen. da es sich aber um eine neue Architektur handelt, kann alles von 6 GB bis 12 GB drin sein. vielleicht gibts wieder zwei RX 5700 Versionen. z.B. 1x mit 6 oder 8 GB VRAM und 1x mit 9 oder 12 GB.
USB-Kabeljau schrieb:
Als das angekündigt wurde, fand ich es sogar sehr interessant. Allerdings war das ja eine ziemliche Enttäuschung.
Bei RT ist es ähnlich, wobei ich da keine Erwartungshaltung hatte.

Trotzdem fühlt es sich einfach besser an, RT-Cores und Tensor-Cores mit drin zu haben.
Wenn RT mit weniger Rays umgesetzt wird, kann es auch heute schon eine Bereicherung sein (Beleuchtung / Ambient Oclusion), und die Tensor-Cores könnten noch für andere Dinge hilfreich sein bzw. das DLSS könnte vermutlich auch noch besser werden.
Raytracing finde ich ansich gut. ich durfte es selbst testen. ein Bekannter hatte ein Problem mit seiner RTX 2070 Karte, also haben wir sie bei mir im Rechner getestet. es sah schon nicht schlecht aus, aber die Leistung reicht momentan nicht aus finde ich. mit den Karten im 7nm Verfahren gefertigt sieht es vielleicht schon ganz anders aus.
mit DLSS kann ich überhaupt nichts anfangen. testen konnte ich es selbst nicht, weil ich kein Spiel mit DLSS Support hatte, aber das was ich im Netz gesehen habe, hat mich nicht überzeugt. bereits bei der Ankündigung dachte ich nur - toll, noch ein Mogel-Feature -. naja, DLSS 4K kann man nicht wirklich mit echter 4K Auflösung vergleichen.

und so ist es jetzt. ich habe die RTX Karten vorerst ausgelassen. vielleicht bin ich bei der nächsten Generation dabei. mal sehen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Ikone
USB-Kabeljau schrieb:
Ich habe halt keine 1000€ extra rumliegen, um mir einen extra PC zusammen zu stellen für ein Hobby, bei dem ich noch gar nicht so sicher bin, wie lange ich das betreiben werde.

Deswegen meinte ich ja für Freizeitstreamer ist das "neue" NVENC gut, aber die Quali mit x264 über einer eigenen render CPU ist da sichtbar besser (bei gleichen Twitch Bitraten).

Worauf ich hinaus wollte ist, dass NVENC keine Anforderung der Masse an Graka Käufern ist.
Es streamt ja nur ein verschwindend kleiner Bereich. Zudem ist NVENC kein echter Hardwarebestandteil sondern ein Softwarepart, der rein theoretisch auch über AMDs VCE möglich wäre. Da zur RX5700 aber die genauen Details noch nicht bekannt sind, könnte es durchaus sein, dass AMD da was ähnliches bietet. Gleiches gilt für DLSS, Raytracing usw.
 
Was bringen am ende die Cores der RTX 20xx, wenn die PS5 auf Navi und Raytracing ohne Cores setzt?
Ob sich Nvidias Lösung dann noch durchsetzen wird, wenn die Spieleentwickler Raytracing auf der PS5 mit AMD Hardware implementieren wird die Zeit zeigen. Schadenfreude würde aufkommen wenn am ende die Cores von diesen Spielen nicht angesprochen werden könnten :evillol: Ich wünsche AMD einfach mehr Marktanteile weil es für alle von uns besser ist. Ein Monopol hat nur Nachteile.
 
Garrus schrieb:
Deswegen meinte ich ja für Freizeitstreamer ist das "neue" NVENC gut, aber die Quali mit x264 über einer eigenen render CPU ist da sichtbar besser (bei gleichen Twitch Bitraten).
Das neue NVENC ist besser als x264 auf medium.

Ich kenne übrigens viele professionelle Vollzeit-Streamer, die eine schlechtere Qualität als ich haben.
Die kennen sich oft auch nicht sonderlich mit Technik aus.

Garrus schrieb:
Zudem ist NVENC kein echter Hardwarebestandteil sondern ein Softwarepart, der rein theoretisch auch über AMDs VCE möglich wäre. Da zur RX5700 aber die genauen Details noch nicht bekannt sind, könnte es durchaus sein, dass AMD da was ähnliches bietet.
Nein, das ist ein Hardware-Feature.
Und VCE ist im Prinzip das selbe, nur eben nicht so gut. Wenn AMD das verbessert hätte, hätten sie es beworben.
 
SimSon schrieb:
Was bringen am ende die Cores der RTX 20xx, wenn die PS5 auf Navi und Raytracing ohne Cores setzt?
Ob sich Nvidias Lösung dann noch durchsetzen wird, wenn die Spieleentwickler Raytracing auf der PS5 mit AMD Hardware implementieren wird die Zeit zeigen.

1. Woher hast du die Insiderinformationen, das Navi keine Hardwarebeschleunigung für Raytracing hat?
2. Was Sony macht ist an dieser Stelle irrelevant, sie verwenden einen proprietäre API. Microsoft (Xbox, xCloud) wird aber DXR verwenden und Navi es demensprechend beschleunigen.

Die "Spieleentwickler" dürften in erster Linie auf Nvidia Lösungen und DXR zurückgreifen, weil es dafür schlichtweg auch seit über einem Jahr entsprechende Karten gibt. Dann wird das auf Sonys API portiert und auf die Konsolen optimiert, abgesehen vielleicht von ein paar Exklusivtiteln.
 
Zuletzt bearbeitet:
Chaos Theory schrieb:
RX 5700 - zu laut, zu langsam, zu teuer, mit 8 GB VRAM
...

Ein nicht ganz auszuschließendes Fazit, hoffe allerdings inständig, dass AMD sich der Kritik annahm
 
  • Gefällt mir
Reaktionen: Cpt.Willard
modena.ch schrieb:
Kannst deinen Blödsinn auch belegen?
Mein minimal undervolteter 2600X mit X470 und RX580 braucht keine 40W.

c't 24/18 Seite 60
Threadripper 2970WX CB R15 Single 172 Core Multi Core 4339 Idle 71W Last 432W
Core i9-7980XE CB R15 Single 184 Core Multi Core 3249 Idle 51W Last W249

Klar ist der AMD schneller und günstiger für alle Anwendungen die die Cores gut ausnutzen. Es geht aber über die Brechstange, und vor allem über den Preis. Der Core i9-7980XE ist schon sehr ineffizient (Core i9-9900K hat 24/146 Watt), aber AMD schafft es noch zu toppen. Hier zu sagen dass AMD bei den CPUs ALLES richtig macht halte ich für Blödsinn. Bei den GPUs ist es noch viel schlimmer, wo Nvidia zum Teil die doppelte Effizienz hat.
 
Sharky99 schrieb:
c't 24/18 Seite 60
Threadripper 2970WX CB R15 Single 172 Core Multi Core 4339 Idle 71W Last 432W
Core i9-7980XE CB R15 Single 184 Core Multi Core 3249 Idle 51W Last W249

Klar ist der AMD schneller und günstiger für alle Anwendungen die die Cores gut ausnutzen. Es geht aber über die Brechstange, und vor allem über den Preis. Der Core i9-7980XE ist schon sehr ineffizient (Core i9-9900K hat 24/146 Watt), aber AMD schafft es noch zu toppen. Hier zu sagen dass AMD bei den CPUs ALLES richtig macht halte ich für Blödsinn. Bei den GPUs ist es noch viel schlimmer, wo Nvidia zum Teil die doppelte Effizienz hat.

😂 Sorry erstmal der TR hat viel mehr Kerne zweiten ist der Stromverbrauch bei einer WS relativ egal. Desweiteren mache mal die TDP Begrenzung aus beim Intel dann zieht er auf einmal dass doppelte. 😉

Der i9-9900 kann bis zu 250watt fressen wenn man ihn läst.

Auch hat der keine 32 Kerne du vergleist Äpfel mit Birnen toll.

Wie viele PCIE4 lans hat der i9-9900 😉
Ergänzung ()

Cl4whammer! schrieb:
Cl4whammer! schrieb:


Dass sind Concept Boards also nur weil zwei 8er drauf sind Heisst es noch lange nicht dass die auch benötigt werden. Habe auch zwei 8er drauf glaube aber soviel OC geht gar nicht bei meiner RX570. 😉,
 
  • Gefällt mir
Reaktionen: Cl4whammer! und Cpt.Willard
Mcr-King schrieb:
😂 Sorry erstmal der TR hat viel mehr Kerne zweiten ist der Stromverbrauch bei einer WS relativ egal. Desweiteren mache mal die TDP Begrenzung aus beim Intel dann zieht er auf einmal dass doppelte. 😉

Der i9-9900 kann bis zu 250watt fressen wenn man ihn läst.

Auch hat der keine 32 Kerne du vergleist Äpfel mit Birnen toll.

Wie viele PCIE4 lans hat der i9-9900 😉

24 zu 18 Kernen ist nicht deutlich mehr. Ich glaube du kannst nicht richtig lesen.

Das ist eben die Einstellung von AMD. Stromverbrauch ist völlig egal. Sinnlose Energieverschwendung. Pro Watt Performance ist bei AMD CPUs schlechter als Intel, bei GPUs deutlichst schlechter als NVidia. Es ist ein Fakt. AMD macht nicht alles richtig. Reine Brechstangentechnik.
 
xexex schrieb:
1. Woher hast du die Insiderinformationen, das Navi keine Hardwarebeschleunigung für Raytracing hat?
2. Was Sony macht ist an dieser Stelle irrelevant, sie verwenden einen proprietäre API. Microsoft (Xbox, xCloud) wird aber DXR verwenden und Navi es demensprechend beschleunigen.

Die "Spieleentwickler" dürften in erster Linie auf Nvidia Lösungen und DXR zurückgreifen, weil es dafür schlichtweg auch seit über einem Jahr entsprechende Karten gibt. Dann wird das auf Sonys API portiert und auf die Konsolen optimiert, abgesehen vielleicht von ein paar Exklusivtiteln.

1. Die Info kommt von Toms Hardware
Demnach sollen zwei Grafikkarten von AMD bereits nächste Woche angekündigt werden, die außerdem über keine dedizierten Recheneinheiten für RayTracing verfügen sollen.

2. Es ist eben nicht irrelevant. Viele Konsolenspiele werden auf den PC portiert und nicht andersherum. Wenn nun die PS5 Raytracing ohne Cores hinbekommt, wieso sollten Spieleentwickler noch weitere Zeit und Geld für Nvidias Lösung nutzen? Wieviele Titel gibt es nun mit Raytracing für Nvidia? So ca. 11 Stück und man sieht das es einfach zuviel Leistung kostet. Die PS5 wird die Anzahl der Raytracing Games schnell erhöhen und setzt dabei eben auf AMD Hardware. Klar es könnte natürlich auch sein, das Sony ihre eigenen Cores bekommt aber wir haben ja schon von Crytek gesehen, das Raytracing auf einer Vega ohne Cores läuft. Also kann ich mir auch vorstellen das Navi ohne Probleme Raytracing beherrscht, man aber noch schweigt, weil man wegen Sony noch nichts dazu äußern darf ;)
Aber wieviele gingen bei Navi noch von einem Refresh aus und wie sehr hat AMD mit einer neuen Architektur überrascht?
Ich lass mich was Raytracing und Navi angeht auch gerne überraschen aber Nvidias Lösungen sind leider nicht gut für uns Gamer.
Ein offener Standard ist besser als überteurte proprietäre Lösungen, die Käufer von anderer Hardware ausbremst ;)


@Sharky99
24 zu 18 Kernen ist nicht deutlich mehr.
Also ich finde 25% schon deutlich mehr ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
SimSon schrieb:
1. Die Info kommt von Toms Hardware

Das ist keine "Info", sondern Gerüchte!

SimSon schrieb:
2. Es ist eben nicht irrelevant. Viele Konsolenspiele werden auf den PC portiert und nicht andersherum. Wenn nun die PS5 Raytracing ohne Cores hinbekommt, wieso sollten Spieleentwickler noch weitere Zeit und Geld für Nvidias Lösung nutzen?

Du verstehst es nicht oder? Microsoft wird eine ähnliche, wenn nicht die gleiche Navi basierte Lösung für xCloud und die kommende Xbox bekommen und egal wie RT bei Navi implementiert wird, wird dort als API DXR genutzt.

Niemand "verschwendet" Zeit für eine "Nvidia" Lösung, weil es die unter DirectX schlichtweg nicht gibt! DXR ist eine API die von AMD, Nvidia und Intel genutzt werden kann und RTX nur die Implementierung dieser API auf Nvidia Hardware.

Sonys Lösung ist proprietär und interessiert "kein Schwein", die Lösung von Microsoft unterstützt hingegen sämtliche Hersteller, diverse Geräteklassen und darauf wird letztendlich entwickelt, vor allem wenn es um Multiplattformtitel geht.

SimSon schrieb:
Die PS5 wird die Anzahl der Raytracing Games schnell erhöhen und setzt dabei eben auf AMD Hardware.

Das dürfte stimmen, aber alle nicht exklusiven Titel, werden auch in einer DXR Fassung erscheinen und somit auf dem PC hardwarebeschleunigt auf Nvidia Hardware laufen.

Nur nochmal für dich:
PC - DXR mit Nvidia, AMD oder Intel Hardware
Xbox - DXR mit AMD Hardware
xCloud - siehe Xbox
Sony - GNM mit AMD Hardware
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
SimSon schrieb:
Ein offener Standard ist besser als überteurte proprietäre Lösungen, die Käufer von anderer Hardware ausbremst ;)
Das stimmt.

Die Frage ist allerdings, wie lange solche Lösungen auf sich warten ließen, wenn es kein PhysX, GSync und RTX gegeben hätte.
Gut, 3D ist leider gestorben. Aber auch hier war NVidia Vorreiter und AMD hat nur Däumchen gedreht.
Und auch TXAA gab es einige Zeit vor anderen TAA-Lösungen.

Folgendes kann ich daher irgendwie nicht unterschreiben:
SimSon schrieb:
Nvidias Lösungen sind leider nicht gut für uns Gamer.
Wenn NVidia so wie AMD agieren würde, würden unsere Spiele heute deutlich hässlicher aussehen.

SimSon schrieb:
Wenn nun die PS5 Raytracing ohne Cores hinbekommt, wieso sollten Spieleentwickler noch weitere Zeit und Geld für Nvidias Lösung nutzen? Wieviele Titel gibt es nun mit Raytracing für Nvidia? So ca. 11 Stück und man sieht das es einfach zuviel Leistung kostet.
Aha. Und du meinst jetzt also, daß RT weniger Leistung kostet, wenn man das auf allgemeinen Rechen-Kernen berechnet, deren Leistung dann woanders abgezogen wird, statt auf extra Rechen-Kernen, die sonst gar nichts täten?
Und wie viel Arbeit eine Implementierung kostet und wie leicht zwischen den unterschiedlichen Schnittstellen portiert werden kann, können weder du noch ich beurteilen.

Wir werden sehen, wohin die Reise geht.
Die aktuellen Karten sind vermutlich (bei NVidia wie auch AMD) ohnehin nicht mehr als der Fuß in der Tür, was RT angeht.
 
  • Gefällt mir
Reaktionen: DrDoom
Sharky99 schrieb:
c't 24/18 Seite 60
Threadripper 2970WX CB R15 Single 172 Core Multi Core 4339 Idle 71W Last 432W
Core i9-7980XE CB R15 Single 184 Core Multi Core 3249 Idle 51W Last W249
Da hat die C't entweder Mist gemessen oder das 250W-Limit für die CPU wurde vom Board ignoriert bzw im Bios deaktiviert.
 
Denniss schrieb:
Da hat die C't entweder Mist gemessen oder das 250W-Limit für die CPU wurde vom Board ignoriert bzw im Bios deaktiviert.
Wenn Amd schlecht dasteht ist es grundsätzlich immer eine Verschwörung.

Der nächste Amd Hammer ist schon mit dem X570 unterwegs. Lüfter auf dem MB Chipsatz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
Sharky99 schrieb:
Wenn Amd schlecht dasteht ist es grundsätzlich immer eine Verschwörung.

Der nächste Amd Hammer ist schon mit dem X570 unterwegs. Lüfter auf dem MB Chipsatz.
Die großen TRs sind bei 250W abgeriegelt. Dies ist ein Fakt. Kommt die Messung so viel höher dann stimmt was nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Sharky99 schrieb:
Wenn Amd schlecht dasteht ist es grundsätzlich immer eine Verschwörung.

Der nächste Amd Hammer ist schon mit dem X570 unterwegs. Lüfter auf dem MB Chipsatz.

😂 Alter Walter sorry musste sein so Intel sagt selbst dass PCIE4 nicht onhne Lüfter geht selbst TB4 geht nicht ohne Lüfter nur mal am Rande. 😉

Klar kannst dir ja ein PCIE3 Board von Intel kaufen oder eins für 2021 bestellen. 😉.

Desweiteren sind die Tests bei Ct für den Arsch meine Meinung dazu. Desweiteren sind ja nur 6 Kerne mehr meiner hat nur 4 und die verbrauchen knapp 130 Watt plus minus. 😉
Ergänzung ()

Denniss schrieb:
Die großen TRs sind bei 250W abgeriegelt. Dies ist ein Fakt. Kommt die Messung so viel höher dann stimmt was nicht.

Ja dass gab es auch bein Intel am Anfang haben manche Mobos den CPU bis zu 400 Watt und mehr ziehen lassen. Aber der ist sowieso ein Hoffnungsloser Wintel NV Fan.


Glaube auch nicht dass Xbox den selben guten Chip bekommt Sony soll wirklich viel Kohle rein gebutert haben. Also soweit mein Freund dort richtig informiert ist wollte die nämlich was richtig gutes. Wie damals bei der PS3 mit wau Effekt.
 
USB-Kabeljau schrieb:
Nein, das ist ein Hardware-Feature.
Und VCE ist im Prinzip das selbe, nur eben nicht so gut. Wenn AMD das verbessert hätte, hätten sie es beworben.

Achja? Was weiss man denn schon was Navi in Hard und Software kann?
DX? De/Encoding? HDMI? DP? Sound? Shader? SI Interface? Raytracing?
Vor der E3 in zwei Wochen bewirbt man da nen Scheiss....
Ergänzung ()

Sharky99 schrieb:
c't 24/18 Seite 60
Threadripper 2970WX CB R15 Single 172 Core Multi Core 4339 Idle 71W Last 432W
Core i9-7980XE CB R15 Single 184 Core Multi Core 3249 Idle 51W Last W249

Und was hat ein Threadripper mit 4 Dies, also 24 Kernen, also 8x CCX mit dem Idle
Verbrauch von einem AM4 Prozessor mit einem Die und somit 2x CCX gemeinsam ausser gar nix?

Lächerlich ist eher, dass intel bei seinem einzigen grossen Die nicht unter 51W Systemverbrauch kommt.
Dir ist wohl nicht so ganz klar, was so ein Threatripper Board an Speicherkanälen und PCIe Lanes bietet?
Dafür ist der Verbrauch echt human.

Auf der Mainstream AM4 Plattform nimmt sich der Idleverbrauch gar nix mit den aktuellen Intels.
Im Gegenteil, der 9900k ist unter Last ziemlich wenig sparsam und wird sau heiss, meilenweit weg von 95W.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Oneplusfan schrieb:
Genau, so argumentiert man natürlich richtig. Quasi das Paradebeispiel eines Fanboys: Erst mal das "Fanboy - Argument" gegen den anderen raushauen. Glückwunsch, du hast soeben meinen ganzen Punkt widerlegt.

Ja passt, ich habe mir soeben eine 2080 gekauft. Das dazu.

Das AMD in den letzten Jahren mit sinkenden Marktanteilen zu kämpfen, hat liegt schlichtweg an ihrem suboptimalen Timing bei der Einführung von neuen Produkten und der teils schlechten Verfügbarkeit nach dem Launch von neuen Karten.

Ob nun eine 2080ti die schnellste Karte ist, oder nicht fällt angesichts solcher Probleme nicht mehr wirklich ins Gewicht. Aber wie dem auch sei, du stimmst mir auf deine ganz eigene Art ja zu, siehe Satz #3
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben