Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Kasmopaya schrieb:
Da Freesync nicht ab 30FPS funktioniert, haben Geforce Nutzer überhaupt kein Interesse daran das das mit ihren GPUs funktioniert. So höre ich das zumindest in meinem Umfeld. Das beste ist gerade so gut genug.

WTF.

Also echt WTF wo kommt den dieser Erfundene Stuss her ?

Freesync funktioniert nicht ab 30 FPS ?? wo hast du das den gelesen ? Hast du das im Kaffeesatz gedeutet ?

Freesync ist abhängig von der Min Frequenz und Max Frequenz der Range und nicht " Freesync funktioniert nicht ab 30 FPS".

Ist die Min Frequenz um den Faktor 2,5 multiplizierbar und kleiner als die Max Frequenz, dann kann über LFC alles dargestellt werden sogar deine angeblich nicht funktionalen 30 FPS.

Bitte nichts erfinden, das grenzt ja schon an Kaffeesatz deuten.


BTW: Vega ist noch Beta Substanz, den späten Verkaufsstart der RX Vega 56 ist nur durch einen Re-Release in zwei Wochen zu erklären, wenn für die Architektur bessere Treiber vorliegen um von der aktuell nicht zufriedenstellenden Leistung abzulenken, ansonsten ist das ein ziemlich Desaströser Release mit teilaktiven Features ^^
 
Zuletzt bearbeitet: (Kontext Fehler)
Nai schrieb:
Wenn NVIDIA-karten wegen Gameworks in vielen aktuellen Spielen deutlich schneller sind, dann ist das tatsächlich ein großer Grund für einen potentiellen Käufer um sich für eine solche Karte zu entscheiden;

Wenn die Konkurrenz durch Gameworks benachteiligt wird, dann ist das Wettbewerbsverzerrung und da Nvidia nahe am Monopol schrammt, könnte das auch mal wieder die Wettbewerbshüter auf den Plan rufen. Warum ist Vega64 bei Dirt 4 bei den MinFPS schneller als eine 1080ti, bei vielen anderen Titeln aber deutlich langsamer? Sicherlich hat AMD da noch einiges zu optimieren und selbstverständlich ist Vega nicht das Nonplusultra, dafür gibt es doch einige große Schwächen, ich glaube allerdings auch, dass Nvidia bei so einigen Spielen die Bremse reinhauen lässt und so Vega/Polaris schlechter da stehen, als es sein müsste. Warum also solche Features in Benchmarks nicht weglassen? Wer Wert darauf legt, kauft sich sowieso eine Nvidia-Karte.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Da Freesync nicht ab 30FPS funktioniert, haben Geforce Nutzer überhaupt kein Interesse daran das das mit ihren GPUs funktioniert. So höre ich das zumindest in meinem Umfeld. Das beste ist gerade so gut genug.

Was ich auf keinen Fall mehr sehen will in Zukunft hier im Forum ist:
"Kauf Freesync, weil und überhaupt ist total viel besser weil... "

War es noch nie und wird es wohl nie sein. Erst wenn Nvidia das unterstützt und ab 30FPS funktioniert könnt ihr das hier empfehlen. Vorher schadet ihr den Leuten mehr, als das es was bringt.
Also erstmal, wenn ich ganz böse wäre würde ich ja fragen weshalb nvidia Nutzer überhaupt G-Sync bei 30fps benötigen. Die nvidia Karten sind doch alle so unglaublich leistungsstark - oder etwa doch nicht? 😱

Zweitens: weshalb schadet man den Leuten? Je mehr Leute einen Adaptive Sync Monitor kaufen... Nein anders geschrieben.

Je mehr Leute G-Sync Monitore im Regal liegen lassen, je mehr Adaptive Sync Geräte verkauft werden, desto eher ist nvidia gezwungen sich für den VESA Standard zu öffnen.

Dem Scaler im Monitor ist es egal. Es ist eine reine Treiber/Software Geschichte, was man ja wunderbar an den G-Sync Notebooks sieht. Dort braucht die nvidia GPU auch nur den 0815 Scaler und kein extra Modul.
 
Vollzitat gekürzt:
Kasmopaya schrieb:
...

Freesync erst ab 45FPS. Also ich hab Mitleid.


....


recht entlarvend, was Du da von Dir gibst. Vega wird gekauft, egal ob hier bei CB mal wieder der Sturm im Wasserglas entfacht wird. Deal with it!

Aber bleiben wir sachlich: Freesync Range meines Monitors sind 30Hz - 75Hz. Die Range hängt halt vom Modell ab.
 
HerrRossi schrieb:
Wenn die Konkurrenz durch Gameworks benachteiligt wird, dann ist das Wettbewerbsverzerrung und da Nvidia nahe am Monopol schrammt, könnte das auch mal wieder die Wettbewerbshüter auf den Plan rufen. Warum ist Vega64 bei Dirt 4 bei den MinFPS schneller als eine 1080ti, bei vielen anderen Titeln aber deutlich langsamer? Sicherlich hat AMD da noch einiges zu optimieren und selbstverständlich ist Vega nicht das Nonplusultra, dafür gibt es doch einige große Schwächen, ich glaube allerdings auch, dass Nvidia bei so einigen Spielen die Bremse reinhauen lässt und so Vega/Polaris schlechter da stehen, als es sein müsste. Warum also solche Features in Benchmarks nicht weglassen? Wer Wert darauf legt, kauft sich sowieso eine Nvidia-Karte.

Weil eben dieses selektive Auswählen von Optionen bzw Programmen für ein Benchmark auf Grund von moralischen Bedenken nicht mehr objektiv ist. Egal ob Gameworks moralisch ist oder nicht - es gehört eben zur aktuellen Spielelandschaft hinzu, und sollte deshalb auch von Benchmarks erfasst werden.
 
Nai schrieb:
Weil eben dieses selektive Auswählen von Optionen bzw Programmen für ein Benchmark auf Grund von moralischen Bedenken nicht mehr objektiv ist.

Ich finde die moralischen Bedenken sollte man aber auch nicht ignorieren. Ist mir persönlich wichtiger als Objektivität.
 
Nai schrieb:
Weil eben dieses selektive Auswählen von Optionen bzw Programmen für ein Benchmark auf Grund von moralischen Bedenken nicht mehr objektiv ist. Egal ob Gameworks moralisch ist oder nicht - es gehört eben zur aktuellen Spielelandschaft hinzu, und sollte deshalb auch von Benchmarks erfasst werden.

aha , du würdest also - sagen wir mal eine bei deinem Auto , eine Software von dem Konkurrenten deines Autos , akzeptieren , die es ausbremst und mehr verbrauchen lässt - warum nur glaub ich das nicht so recht ... hmmm ...

PS: sieht so aus als bräuchte sich AMD wegen des Vega Absatzes keine sorgen zu machen , bei Mindfactory ist der Preis von 609 auf 649 Euro gestiegen - 370 Stück verkauft - vermutlich den Minern sei dank .. . Find ich gut , bekommt AMD wenigstens wieder Geld in die Kasse um am Verbrauch zu arbeiten und das R+D Budget zu erhöhen ..

Ich brauch zur Zeit eh noch keine neue Graka :evillol:
 
Zuletzt bearbeitet:
Aber bleiben wir sachlich: Freesync Range meines Monitors sind 30Hz - 75Hz. Die Range hängt halt vom Modell ab.

Das ist die normale Range bei normalen bis guten 75Hz Monitoren, die guten 144 Hz Monitore haben eine Freesync Range von 35-144hz.

Eher ins Gesicht reiben der ganzen Leute die vorher meinten man müsse unbedingt Freesync kaufen, weil überhaupt und sonst. Viel Spaß mit Freesync ihr Freesync Fans. Vielleicht hört das ja nun auf, anderen Freesync ans Bein binden zu wollen.

Du hast echt keine Ahnung und wohl auch noch nie mit Freesync gespielt. Außerdem sind die 75Hz Freesync Monitore eher etwas für die RX 560. 570 und 580 Benutzer, für eine VEGA sollte es dann eher schon 144hz sein.
Natürlich alles bezogen auf 1080p.
 
MK one schrieb:
aha , du würdest also - sagen wir mal eine bei deinem Auto , eine Software von dem Konkurrenten deines Autos , akzeptieren , die es ausbremst und mehr verbrauchen lässt - warum nur glaub ich das nicht so recht ... hmmm ...

Quelle, Beweise? Nein? Danke.
 
Der Preis-Leistungsvergleich ist doch aktuell für die Katz solange hier nur die UVPs des Herstellers und nicht die aktuellen Marktpreise als Grundlage genommen werden. Also äusserst irreführend. :lol:
 
In diesem Fred haben doch viele behauptet, und sich darüber beschwert die Benchmarks wären "Pro-Nvidia".

In diesem Video haben sie 25 Games, quer über alle Richtungen gebencht ( Auch DX12 und Vulkan Titel ) :


https://www.youtube.com/watch?v=lQCal8t-qvQ

Ab Minute 16:05 in der Zusammenfassung stellt der Reviewer fest :

Absolut gleich auf ( Referenzkarte gegen Referenzkarte ).
Die paar FPS Differenz sind ja schon eher im Rahmen der Messtoleranz, und wenn überhaupt eher mess-,denn fühlbar.

Ich befürchte nur, das die Partnerkarten der 1070 gegen deren der VEGA 56 eher etwas drüber liegen, aufgrund des extremen Stromverbrauchs der Vega.

Bzw. wesentlich bessere Energiebilanz der 1070, und auch der wahrscheinlich doch einiges über der 1070 liegende Straßenpreis der VEGA, sprechen doch eher eindeutig für das Nvidia Pendant.

Klar, der 1070 Preis ist immer noch etwas Mining verseucht, aber da wird es der 56 nicht anders ergehen.
Jedenfalls wird die im Leben nicht für 399EUR so schnell verfügbar sein.

Und abgesehen von der 64er Vega, die absolut keinen Sinn macht. Was spricht eigentlich überhaupt für AMD in dieser Generation ??
Ich finde nicht wirklich viel.

Finde es schon etwas seltsam, kommt man den AMD Verfechtern mit diesen einfach harten Fakten wird das direkt mit dem kommenden "Wundertreiber", oder "Reift noch wie guter Wein" gekontert.
Echte Verzweiflung.
 
Zuletzt bearbeitet:
Nai schrieb:
Egal ob Gameworks moralisch ist oder nicht - es gehört eben zur aktuellen Spielelandschaft hinzu, und sollte deshalb auch von Benchmarks erfasst werden.

Bei Nvidia-Karten kann es ja von mir aus mit getestet werden, bei AMD-Karten sollten die entsprechenden Features abgeschaltet werden, ist das nicht möglich, sollte man das entsprechende Spiel aus dem Benchmarkparcours entfernen. Zur aktuellen Spielelandschaft gehören sehr viel mehr Spiele, als ein Magazin jemals testen könnte, daher kann man bei der Auswahl der Spieler sehr wohl entsprechende Sorgfalt walten lassen.
 
ralf1848 schrieb:
Was spricht eigentlich überhaupt für AMD in dieser Generation ??
Ich finde nicht wirklich viel.
Alles was gegen Nvidia spricht: proprietäre Technik (GSync), Beinahe-Monopol, massenhaft fragwürdige Praktiken um AMD-GPUs schlechter dastehen zu lassen (Tessellation, GimpWorks, GameWorks).
 
Chismon schrieb:
Wenn Du eine EVGA Karte gekauft hast, dann bestimmt auch mit kleinem Aufpreis für die mindestens 5-jährige Garantie, die Du dann wegen des flackerns in Anspruch nehmen könntest, oder nicht ;)?

Die EVGA wurde gebraucht gekauft, allerdings mit 3 Jahren Restgarantie. Der Vorbesitzer hatte die Zusatzgarantie mit abgeschlossen, Original Rechnung liegt vor. Ich war auch drauf und dran die Karte einzusenden, just in dem Moment zeigten aber meine Bemühungen zwecks Blacksreens einigermaßen Erfolg und wöchentliche "Verpflichtungen" bezüglich raids hielten mich ebenfalls zurück. (;

Ich werde die Garantie aber noch in Anspruch nehmen.
 
@ Leli 196
Fakten mit absurden Argumenten kontern, völlig aus dem Kontext und Zusammenhang gerissen....Chapeau
 
aha , du würdest also - sagen wir mal eine bei deinem Auto , eine Software von dem Konkurrenten deines Autos , akzeptieren , die es ausbremst und mehr verbrauchen lässt - warum nur glaub ich das nicht so recht ... hmmm ...

Autovergleiche - das Godwins Law jeder Hardwarediskussion. . . . . . Nur ein paar Gedanken dazu:
1. Wird die Leistung von vielen Autos bereits schon auf Grund von Produktdifferenzierung durch Herstellersoftware künstlich eingeschränkt
2. Hinkt der Vergleich vollkommen, da es nicht der Sinn des Autos ist möglichst schnell eine Software auszuführen, sondern auf einer gegebenen Strecke von A nach B zu kommen. Wie wäre es dementsprechend mit dieser Analogie: Sollte man bei der Bewertung der Rundenzeit von Rennautos bestimmte Strecken ausschließen, wenn diese von einem bestimmten Autohersteller erbaut worden sind, selbst wenn diese Strecken sehr häufig von Rennfahrern gefahren werden? Würde dieses Ergebnis dann noch ein objektives Bild der Geschwindigkeit der Rennautos auf beliebten Rennstrecken wiederspiegeln?

Ich finde die moralischen Bedenken sollte man aber auch nicht ignorieren. Ist mir persönlich wichtiger als Objektivität.
Ich sagte nicht, dass man moralische Bedenken ignorieren sollte. Ich sagte lediglich, dass diese in einem Benchmark nichts verloren haben, sofern das Benchmerk objektiv sein soll.
 
Ede aus'm Knast schrieb:
Dieser ist zwar erst um 07 Uhr erschienen und schon etwas her, hatte ja auch erwähnt, in der Vergangenheit.

Wenn es um spezifische Partnerkarten geht, mag das sicher anders sein. ;)
 
MK one schrieb:

Fallout 4 ist schon sehr interessant, was dort mit dem Patch für die neuen Gameworkseffekte gemacht wurde. Kepler verliert über 30% Leistung, so bringt man seine Kunden dazu, aufzurüsten, auch wenn es eigentlich nicht sein müsste.
Ergänzung ()

Nai schrieb:
Ich sagte lediglich, dass diese in einem Benchmark nichts verloren haben, sofern das Benchmerk objektiv sein soll.

Ein Benchmark ist aber nicht objektiv, wenn Nvidia die Konkurrenz und ältere Karten künstlich ausbremst.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben