Substanzlos
Lt. Commander
- Registriert
- Jan. 2006
- Beiträge
- 1.203
USB-Kabeljau schrieb:Und dann wäre da nach wie vor das Killer-Feature NVENC.
Das allein wäre mir locker 100€ mehr wert.
AMD VCE hust
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
USB-Kabeljau schrieb:Und dann wäre da nach wie vor das Killer-Feature NVENC.
Das allein wäre mir locker 100€ mehr wert.
Chaos Theory schrieb:ich hab nichts mitbekommen. da es sich aber um eine neue Architektur handelt, kann alles von 6 GB bis 12 GB drin sein. vielleicht gibts wieder zwei RX 5700 Versionen. z.B. 1x mit 6 oder 8 GB VRAM und 1x mit 9 oder 12 GB.
Raytracing finde ich ansich gut. ich durfte es selbst testen. ein Bekannter hatte ein Problem mit seiner RTX 2070 Karte, also haben wir sie bei mir im Rechner getestet. es sah schon nicht schlecht aus, aber die Leistung reicht momentan nicht aus finde ich. mit den Karten im 7nm Verfahren gefertigt sieht es vielleicht schon ganz anders aus.
mit DLSS kann ich überhaupt nichts anfangen. testen konnte ich es selbst nicht, weil ich kein Spiel mit DLSS Support hatte, aber das was ich im Netz gesehen habe, hat mich nicht überzeugt. bereits bei der Ankündigung dachte ich nur - toll, noch ein Mogel-Feature -. naja, DLSS 4K kann man nicht wirklich mit echter 4K Auflösung vergleichen.
und so ist es jetzt. ich habe die RTX Karten vorerst ausgelassen. vielleicht bin ich bei der nächsten Generation dabei. mal sehen.
I See What You Did There.Mcr-King schrieb:Du hast 11GB und 3GB und 5GB und natürlich 3,5 GB vergessen. 😉
Genau wie alle Fake 4k auf einmal alle cool finden, was hat Leder Jacke mal gesagt Konsolen mit iher Fake Auflösung ist nix für echte Gamer hust Nintendo Switch ist ja zum Glück nicht von NV. 😉
richtig. erstmal auf die Tests warten und dann sehen wir weiter.Ich sage erstmal abwarten und Tee trinken
Selanius schrieb:@USB-Kabeljau
Oh ja ich habe ganz übersehen, das diese Features ja für dich nicht wichtig sind. Denn für dich ist ja nur das "Killerfeature" NVENC wichtig.
Wie dumm von mir, das du nur Features aufzählst, die zwar für dich nicht wichtig sind, aber AMD unbedingt einbauen sollte. Äh ja, nein.
Also entweder sind Features für dich wichtig, so das du es schön finden würdest, wenn AMD diese auch hätte. Oder diese Features interessieren dich nicht, aber dann würdest du diese weder aufzählen noch müsste AMD diese auch haben.
Und NVENC ist für dich super Wichtig, für mich super uninteressant. Aber es ist wichtig, das du dies in fast jedem deiner Posts erwähnen musst. Dabei besteht doch gar keine Notwendigkeit, du hast ja offensichtlich schon die für dich passende Karte gekauft. Wieso muss jetzt AMD dieses Feature einbauen, du würdest dir ja deswegen jetzt nicht gleich noch mal eine neue Karte kaufen.
Und AMD muss am Ende weder jedes beschissene Feature was sich nVidia ausdenkt auch haben, noch müssen sie ihre neuen Karten unter Wert verkaufen, nur damit die kleinen AMD Hater im CB Forum ihre geliebten nVidia Karten günstiger bekommen.
Und RT by nVidia ist ein bis jetzt noch immer recht lebloses Feature da nach einem 3/4 Jahr es ganze 4 Spiele gibt die es unterstützen. Aber es ist immens wichtig für die ganze Welt, wenn es nach Usern wie ZeroZerp geht.
Und es stimmt sogar, RT ist immens wichtig, in ein paar Jahren wenn es wirklich eine vernünftige Verbreitung hat. Aber dann sicher nicht so wie es mal wieder nVidia unter das Volk bringen wollte. Sondern so wie es von allen auch ohne zusätzliche Hardware genutzt werden kann.
Aber Hauptsache die AMD Hater können sich hier im Forum austoben, wird ja von der CB Führung und den Moderatoren geduldet.
Ich würde nicht glauben, dass es außerhalb von speziell dafür ausgelegten Benchmarks einen Unterschied macht.oemmes schrieb:X570 und Navi unterstützen aber beide ja PCIe 4.0. Bringt die Kombination von Zen2, X570 Mobo und Navi mit 4.0 dann keine Geschwindigkeitsvorteile, die die Navis beschleunigen???
30 Karten auf der liste, aber nicht die, um die es in der Frage ging..sauber geschnittenxexex schrieb:
xexex schrieb:@daivdon
Machte auch eigentlich keinen Sinn die Liste noch weiter zu verfolgen, ich denke die Frage wurde damit auch so ausreichend beantwortet. Die Radeon RX570 liegt dort derzeit auf Platz 39 (wenn ich richtig gerechnet hab), die GTX 1050Ti hingegen auf zwei.
Ich denke das hat genug Aussagekraft...
Revan1710 schrieb:Das sind ja erstmal 499 $, da geht der Preis bei uns inkl. Steuern vmtl. eher Richtung 600 €
tomasvittek schrieb:"poor volta"?
das weckt offenbar erwartungen die amd nie erfüllen konnte.
modena.ch schrieb:Achja? Was weiss man denn schon was Navi in Hard und Software kann?
DX? De/Encoding? HDMI? DP? Sound? Shader? SI Interface? Raytracing?
Vor der E3 in zwei Wochen bewirbt man da nen Scheiss....
Ergänzung ()
Auf der Mainstream AM4 Plattform nimmt sich der Idleverbrauch gar nix mit den aktuellen Intels.
Im Gegenteil, der 9900k ist unter Last ziemlich wenig sparsam und wird sau heiss, meilenweit weg von 95W.
Bei der GPU stimmt es noch, ich gehe davon aus das man das nach den Tests der Ryzen 2 für die CPU nicht mehr sagen kann, bei den aktuellen Chipsets stimmt es nicht Z390 hat 6 W TDP gegenüber 4,8 W beim X470.Sharky99 schrieb:Bei AMD ist grundsätzlich jegliches Bauteil sehr ineffizient, egal on Cpu, Gpu, oder Chipsets.
With a new compute unit10 design, RDNA is expected to deliver incredible performance, power and memory efficiency in a smaller package compared to the previous generation Graphics Core Next (GCN) architecture. It is projected to provide up to 1.25X higher performance-per-clock11 and up to 1.5X higher performance-per-watt over GCN12(Footnote 12: Testing done by AMD performance labs 5/23/19, using the Division 2 @ 25x14 Ultra settings. Performance may vary based on use of latest drivers.
Taxxor schrieb:Falls es noch niemand gepostet hat, das hier habe ich auf Reddit gefunden, es findet sich wohl in irgendeinem AMD Dokument der Keynote.
Also ist tatsächlich die letzte GCN Gen und damit Vega gemeint.
Und getestet wurden die 1,5x Perf/Watt in Division 2 WQHD.
Schaut man mal in den WQHD Test von Computerbase, liegt eine Vega hier 3% vor einer 1080 FE, also ziemlich genau da, wo sie mittlerweile auch im Computerbase Durchschnitt liegt, das Spiel bevorteilt AMD also nicht besonders stark, die RTX2070 liegt allerdings auch nur 3% vor der Vega64, was weniger als sonst ist.
Jedenfalls wurden in diesem Spiel 1,5X Perf/Watt gemessen.
Nehmen wir nun das 225W TBP Modell, welches hier ziemlich sicher getestet wurde und stellen es gegen die Vega64 mit 295W, kommen wir auf ca 15% mehr Leistung als die Vega64.
Man befindet sich also in The Division 2 mit dieser Navi näher an der 1080Ti als an der 2070.
Dann habe ich aber auch noch mal weiter gedacht: Die 1,5x Perf/Watt gelten laut der Keynote für die neue RDNA Architektur gegenüber GCN, nicht explizit für Navi gegen Vega64.
Die Radeon VII ist ebenfalls GCN und ebenfalls in 7nm gefertigt, wie Navi.
Also müssten die 1,5xPerf/Watt auf die RadeonVII bezogen sein, da hier nur die Architektur anders ist.
Damit kämen zum Navi/Vega64 Vergleich noch mal die Perf/Watt Vorteile durch 7nm dazu.
Was die Vermutung zulassen würde, dass die gezeigte RX 5700 Karte nicht die 225W TBP, sondern die 180W TBP Karte war, also eine theoretische RX 5750, die dann in The Division 2 über der RTX2070 liegt.