Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

nicK-- schrieb:
Persönlich bin ich der Meinung man kann sich das Sync Zeug schenken wenn man 144Hz am Monitor anliegen hat. Höchstens wenn man Strategie spielt ist es beim scrollen über die Map noch ein deutlicher Vorteil aber nicht in Shootern.

Mfg David

und wann hat man 144FPS? In 90% der Titel wird mit weiner FPS, zb 70, auch super flüssig daherkommen. Ergo brauchste nur halbe GPU Leistung. Über Brechstange 144hz realisieren ist Unfug. Vor allem unnötig teurer Unfug.
 
Tut mir leid AMD.
Aber der Stromverbraucht passt nicht zur Leitung und nicht mehr in die heutige Zeit.
Für eine abzulute HighEnd GPU ,die ausgereitz ist ,gehen 300 Watt In Ordnung und für Übertaktung Oberhalb aller Vernupft auch 400Watt für Bechmarking ...aber im Serien Betrieb !

Geht garnicht !
 
@CHaos.Gentle
Wenn man Nvidia kauft, dann unterstützt man
Köf3 schrieb:
[...] eine langfristig dem Kunden schädliche Preis- und Marktgestaltung [...]
(War so schön formuliert, das musste ich zitieren)

@53rdHammerheads
Ja klar, was ich geschrieben habe war auch nicht gegen dich, ich habe es nur aufgegriffen.
 
53rdHammerheads schrieb:
Und mit der einführung von Ryzen wollte ich endlich meinen Phenom II X6 und meine HD 7870 in Rente schicken, hab dann im Frühjar doch noch gewartet weil ich was schnelleres als eine RX 580 wollte aber wegen dem Freesync / Gsync Thema eigentlich keine Nvidia.

Aber ich muss schon eingestehen wenn ich im Frühjar eine Gtx 1070 gekauft hätte, hätte ich schon meine freude an einem längst überfälligen neuen Rechner jetzt hingegen

Was hinderte dich daran einen Ryzen zu holen und die HD 7870 bis zum heutigen Tag zu nutzen? Der Wunsch ein neues System auf einen Rutsch zu haben?

Krautmaster schrieb:
und wann hat man 144FPS? In 90% der Titel wird mit weiner FPS, zb 70, auch super flüssig daherkommen. Ergo brauchste nur halbe GPU Leistung. Über Brechstange 144hz realisieren ist Unfug. Vor allem unnötig teurer Unfug.

Ich meine mich zu erinnern, dass 144Hz Monitore grundsätzlich zu weniger Tearing neigen, einfach weil sie, gerade wenn wenig Bilder pro Sekunden da sind, diese spielend leicht in einem Rutsch auf den Bildschirm zeichnen können.
 
Zuletzt bearbeitet:
psYcho-edgE schrieb:
Ich meine mich zu erinnern, dass 144Hz Monitore grundsätzlich zu weniger Tearing neigen, einfach weil sie, gerade wenn wenig Bilder pro Sekunden da sind, diese spielend leicht in einem Rutsch auf den Bildschirm zeichnen können.

Monitore mit einer höheren Bildwiederholrate zeigen weniger Tearing, weil das Tearing für eine kürzere Dauer angezeigt wird, bei gleichen fps - nämlich nur 6,94 ms, im Vergleich zu 16,67 ms bei 60 Hz.
 
Leli196 schrieb:
@CHaos.Gentle
Wenn man Nvidia kauft, dann unterstützt man (War so schön formuliert, das musste ich zitieren)

Du hast grad eine Person zitiert, die Intel als CPU nutzt. Die Nvidia als Grafikkarte nutzt. Ein Iphone und MAcbook nutzt als Smartphone und Notebook.... das sollte dir zu denken geben.

PS: Diese Formulierung kann man auch noch umdrehen. Würden jetzt alle von NV Abstand nehmen und zu AMD Fanboys mutieren, so würde das ebenso den Markt ruinieren. Also easy Bro.
 
Zuletzt bearbeitet: (PS:)
sdfighter schrieb:
Du hast grad eine Person zitiert, die Intel als CPU nutzt. Die Nvidia als Grafikkarte nutzt. Ein Iphone und MAcbook nutzt als Smartphone und Notebook.... das sollte dir zu denken geben.
Das Zitat sagt aus was es aussagt, egal wer es geschrieben hat. Abgesehen davon ist seine Nvidia-GPU und die Intel-CPU uralt; wer sagt, dass er heute nicht AMD kaufen würde und was hat Apple damit zu tun?

sdfighter schrieb:
Diese Formulierung kann man auch noch umdrehen. Würden jetzt alle von NV Abstand nehmen und zu AMD Fanboys mutieren, so würde das ebenso den Markt ruinieren. Also easy Bro.
Nein, denn wenn Nvidia infolgedessen nicht mehr dreckige Methoden anwenden würde und die Leute Nvidia wieder vertrauen würden, dann könnte man deren GPUs ja wieder kaufen.
 
Leli196 schrieb:
Monitore mit einer höheren Bildwiederholrate zeigen weniger Tearing, weil das Tearing für eine kürzere Dauer angezeigt wird, bei gleichen fps - nämlich nur 6,94 ms, im Vergleich zu 16,67 ms bei 60 Hz.

Oder so, kommt aber im Endeffekt auch auf das selbe raus, es tritt seltener wahrnehmbar auf. Wobei die Frage die ich mir gerade stelle ist, ob ein Frame der bspw. 19ms braucht nicht gleich lange auf beiden Monitoren tearen würde.
 
Zuletzt bearbeitet:
Leli196 schrieb:
Das Zitat sagt aus was es aussagt, egal wer es geschrieben hat. Abgesehen davon ist seine Nvidia-GPU und die Intel-CPU uralt; wer sagt, dass er heute nicht AMD kaufen würde und was hat Apple damit zu tun?

Nein, denn wenn Nvidia infolgedessen nicht mehr dreckige Methoden anwenden würde und die Leute Nvidia wieder vertrauen würden, dann könnte man deren GPUs ja wieder kaufen.

1. Es ist schon wichtig, wenn jemand etwas kritisiert, dann sollte man es nicht unbedingt selbst nutzen oder ? Sonst wird man unglaubwürdig. Als ob ich dir jetzt predigen würde kein Fleisch zu essen und selbst ein saftiges Steak verdrücke. Weil es Marktführer Marken wie Intel / Apple / NV usw... sind. Da ist die Diskussion immer die gleiche... AMD VS NV AMD VS INtel SAMSUNG VS APPLE usw.

2. Von welchen Dreckigen Methoden ist denn die Rede? Muss an mir vorbeigegangen sein.
 
Zuletzt bearbeitet:
Leli196 schrieb:
Stimmt; und wer ist daran Schuld? Nvidia, weil sie nicht auf den offenen Standard setzen. Und wessen Produkte kauft man demzufolge nicht, wenn man ein mündiger Konsument ist? Nvidias

Es ist nicht die Aufgabe für mich als Konsument ein schlechteres Produkt zu kaufen um irgendeine theoretische Marktausgewogenheit herzustellen. Das kann natürlich jeder Einzelne für sich als Kaufkriterium definieren, aber es sicherlich nicht als Allgemeingültig definieren.
Absichtlich schlechtere Produkte zu kaufen fördert nicht den Wettbewerb nach immer besserem zu streben, sondern den Wettbewerb darum den niedlichsten Dackelblick aufzusetzen.
Die meisten Käufer werden sicherlich der Ansicht sein, dass sie für ihr sauer verdientes Geld das bestmögliche Produkt haben wollen, und das ist auch total verständlich.

Und das es Freesync und G-Sync gibt ist aus Wettbewerbssicht auch nicht unbedingt schlecht. Denn es gibt einen Wettstreit darum wer die bessere Sync-Technologie hat. Dies führt zu Weiterentwicklungen. Wenn alle einen Standard unterstützen und sich gegenseitig nichts nehmen, entwickelt auch niemand weiter um besser zu werden als der andere. Zumindest nicht so schnell wie jetzt.
 
Zuletzt bearbeitet:
@DocWindows
Nvidia hat GSync nicht entwickelt um die bessere Technik anzubieten oder den Wettbewerb zu fördern, sonder um an einem billigen Stück proprietärer Hardware saftig zu verdienen.
Wenn du den Markt ruinieren willst ist es tatsächlich nicht deine Aufgabe beim Kauf über andere Dinge nachzudenken als "Wer macht das Beste?", denn dann haben skrupellose Unternehmen ja Erfolg mit ihrer Taktik.

sdfighter schrieb:
Von welchen Dreckigen Methoden ist denn die Rede? Muss an mir vorbeigegangen sein.
Muss tatsächlich an dir vorbeigegangen sein: Speicherbetrug, proprietäre Technik, extreme und nutzlose Tesselation weil neue Nvidia-GPUs das besser berechnen können und dadurch geplante Obsoleszenz der eigenen alten GPUs und Sabotage von AMD.
 
psYcho-edgE schrieb:
...Ich meine mich zu erinnern, dass 144Hz Monitore grundsätzlich zu weniger Tearing neigen, einfach weil sie, gerade wenn wenig Bilder pro Sekunden da sind, diese spielend leicht in einem Rutsch auf den Bildschirm zeichnen können.
Unsere Augen sind einfach nicht mehr in der Lage das Tearing bei 144 Hz genauso zu erkennen, wie bei 60 Hz. Aber es ist und bleibt da. Es ist prinzipbedingt.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Es ist nicht die Aufgabe für mich als Konsument ein schlechteres Produkt zu kaufen um irgendeine theoretische Marktausgewogenheit herzustellen. Das kann natürlich jeder Einzelne für sich als Kaufkriterium definieren, aber es sicherlich nicht als Allgemeingültig definieren.
Absichtlich schlechtere Produkte zu kaufen fördert nicht den Wettbewerb nach immer besserem zu streben, sondern den Wettbewerb darum den niedlichsten Dackelblick aufzusetzen.
Die meisten Käufer werden sicherlich der Ansicht sein, dass sie für ihr sauer verdientes Geld das bestmögliche Produkt haben wollen, und das ist auch total verständlich.

Und das es Freesync und G-Sync gibt ist aus Wettbewerbssicht auch nicht unbedingt schlecht. Denn es gibt einen Wettstreit darum wer die bessere Sync-Technologie hat. Dies führt zu Weiterentwicklungen. Wenn alle einen Standard unterstützen und sich gegenseitig nichts nehmen, entwickelt auch niemand weiter um besser zu werden als der andere. Zumindest nicht so schnell wie jetzt.

Danke. Endlich jemand, der hier das schwachsinnige Argument außer Kraft setzt, AMD zu unterstützen, nur weil sonst angeblich der Markt zerstört wird.
 
psYcho-edgE schrieb:
Was hinderte dich daran einen Ryzen zu holen und die HD 7870 bis zum heutigen Tag zu nutzen? Der Wunsch ein neues System auf einen Rutsch zu haben?
.

Weil mich das in Spielen auch nicht wirklich weiterbringt wenn ich einen guten neuen Prozessor aber eine veraltete Grafikkarte habe.
 
neofelis schrieb:
Unsere Augen sind einfach nicht mehr in der Lage das Tearing bei 144 Hz genauso zu erkennen, wie bei 60 Hz. Aber es ist und bleibt da. Es ist prinzipbedingt.
Bei 30 fps hat ein 60-Hz-Panel 50 % Tearing (sprich die Hälfte der Zeit ist Tearing zu sehen bzw. vorhanden), ein 144-Hz-Panel hat 21 % Tearing. Insofern hat er mit seiner Aussage, dass 144 Hz weniger Tearing zeigt schon recht.
 
Leli196 schrieb:
Muss tatsächlich an dir vorbeigegangen sein: Speicherbetrug, proprietäre Technik, extreme und nutzlose Tesselation weil neue Nvidia-GPUs das besser berechnen können und dadurch geplante Obsoleszenz der eigenen alten GPUs und Sabotage von AMD.

Diese Aussagen basieren auf welchen Quellen ? ... Also es geht mir nicht darum diese Aussage zu wiederlegen, würde mich nur gern einlesen. Denn das ist tatsächlich nicht bei mir angekommen.
 
Leli196 schrieb:
Nvidia hat GSync nicht entwickelt um die bessere Technik anzubieten oder den Wettbewerb zu fördern, sonder um an einem billigen Stück proprietärer Hardware saftig zu verdienen.

Sie haben es entwickelt um einen Vorteil gegenüber der Konkurrenz zu haben, um dem potentiellen Kunden einen Mehrwert zu bieten. Daraus resultierend wurde überhaupt erst Adaptive Sync für Desktopmonitore verbaut und von AMD als "FreeSync" unterstützt. Das ist genau das was Wettbewerb und Weiterentwicklung ausmacht.
Dass du als Kunde gerne die freie Wahl zwischen allem haben willst versteh ich schon. Das ist aber eben nicht wettbewerbsfördernd.

Besonders dramatisch ist diese Inkompatibilität im Grunde auch nicht. Schließlich funktioniert jeder Monitor trotzdem noch mit jeder Grafikkarte. Nur das Sync-Zusatzfeature fällt weg.
 
sdfighter schrieb:
Diese Aussagen basieren auf welchen Quellen ? ... Also es geht mir nicht darum diese Aussage zu wiederlegen, würde mich nur gern einlesen.
Nun, folgendes kann ich anbieten:
https://www.youtube.com/watch?v=O7fA_JC_R5s
https://www.youtube.com/watch?v=IYL07c74Jr4
https://www.heise.de/newsticker/mel...t-4-GByte-RAM-schnell-angebunden-2528588.html

Das belegt alles, außer die proprietäre Technik von GSync, aber das ist eigentlich allseits bekannt.
 
DocWindows schrieb:
Es ist nicht die Aufgabe für mich als Konsument ein schlechteres Produkt zu kaufen um irgendeine theoretische Marktausgewogenheit herzustellen.

Das nicht, aber es steht jedem frei ein Produkt nicht zu kaufen, weil der Hersteller unlautere Methoden einsetzt.
Zugegeben im PC-Markt ist das bei 2 1/2 dominierenden Firmen (Intel, nVidia, AMD) ziemlich schwierig, weil die Auswahl einfach nicht vorhanden ist. Es kann dann passieren, daß auf einmal keine Alternative mehr da ist....
Ergänzung ()

DocWindows schrieb:
Sie haben es entwickelt um einen Vorteil gegenüber der Konkurrenz zu haben, um dem potentiellen Kunden einen Mehrwert zu bieten. Daraus resultierend wurde überhaupt erst Adaptive Sync für Desktopmonitore verbaut und von AMD als "FreeSync" unterstützt. Das ist genau das was Wettbewerb und Weiterentwicklung ausmacht.

Das wäre richtig, wenn nicht ein Hersteller auf ein Hardwaremodul bestehen würde, obwohl eigentlich keines nötig ist. Man hätte ja auch Adaptive Sync zusammen weiter entwickeln können, anstatt auf einmal 2 nicht kompatible Systeme zu haben.
 
Zurück
Oben