Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Hassliebe AMD - Vega oder saurer Apfel?
- Ersteller Elephant lol
- Erstellt am
Ich würde noch die RX 56 abwarten. Gibt ja interessante Berichte aus einigen Reviews, dass die Karte mit einen paar Tweaks sogar im Vergleich zur GTX 1080 echt gut performt - ohne jetzt wirklich mehr Saft zu schlucken.
Bei den aktuellen aktuellen NV Preisen würde ich noch nicht zugreifen.
Bei den aktuellen aktuellen NV Preisen würde ich noch nicht zugreifen.
rx 56 im Vergleich zur gtx 1080??? du meinst wohl eher 1070...
Die gigabyte g1 1080 bekommst du bei alternate aktuell zu einem guten Kurs von 550 Euro: https://www.alternate.de/GIGABYTE/G...Grafikkarte/html/product/1278045?event=search und ja damit liegst du richtig. P/L ist die 1080 aktuell zu bevorzugen.
die gtx 1070 fangen bei 440Euro an bzw. kosten um die 470 Euro für die Modelle, für die man sich entscheiden sollte.
und bitte vergesst nicht, dass wenn AMD die Preise irgendwann senkt, dass nvidia auch nachziehen wird.
Die gigabyte g1 1080 bekommst du bei alternate aktuell zu einem guten Kurs von 550 Euro: https://www.alternate.de/GIGABYTE/G...Grafikkarte/html/product/1278045?event=search und ja damit liegst du richtig. P/L ist die 1080 aktuell zu bevorzugen.
die gtx 1070 fangen bei 440Euro an bzw. kosten um die 470 Euro für die Modelle, für die man sich entscheiden sollte.
und bitte vergesst nicht, dass wenn AMD die Preise irgendwann senkt, dass nvidia auch nachziehen wird.
Nein ich meine die 1080. Guck dir das Review von Digitalfoundry an. Da gibt es echt interessante Ergebnisse bezüglich OC und Stromverbrauch sowie der Performance.
Je nachdem was eine gute Custom RX 56 kosten wird und was weitere Reviews zeigen, würde ich eine RX 56 einer 1070 beim Preis unter 500 Euro vorziehen.
Je nachdem was eine gute Custom RX 56 kosten wird und was weitere Reviews zeigen, würde ich eine RX 56 einer 1070 beim Preis unter 500 Euro vorziehen.
ich habe durchgezappt. einzige Spiel wo ich sehe dass die 56er in etwa gleich auf war ist bei CoD gewesen. Ansonsten 10-40FPS Unterschied.
Also nochmal: die rx 64 hat eine uvp von 500 euro und kostet >600, die rx 56 hat eine uvp von 400 und wird vermutlich 500 kosten. Und es ist doch völlig klar, wenn die Preise irgendwann purzeln, zieht nvidia nach.
Die einzige Frage die man sich stellen sollte ist, möchte man jetzt kaufen, oder in 2 Monaten (nein, in 2 Wochen werden höchstwahrscheinlich keine Preise purzeln). Wenn jetzt, dann mMn nvidia, wenn in 2 Monaten - schauen wir mal wie da die Preise sind
Also nochmal: die rx 64 hat eine uvp von 500 euro und kostet >600, die rx 56 hat eine uvp von 400 und wird vermutlich 500 kosten. Und es ist doch völlig klar, wenn die Preise irgendwann purzeln, zieht nvidia nach.
Die einzige Frage die man sich stellen sollte ist, möchte man jetzt kaufen, oder in 2 Monaten (nein, in 2 Wochen werden höchstwahrscheinlich keine Preise purzeln). Wenn jetzt, dann mMn nvidia, wenn in 2 Monaten - schauen wir mal wie da die Preise sind
- Registriert
- Dez. 2013
- Beiträge
- 522
Danke @Deriell für den Hinweis mit HWInfo.
https://ibb.co/eyE6XQ
Die VCore Voltage wird gar nicht übernommen? Das ist ja doof. Mal Wattman probieren? Bis zur Neuanschaffung wäre ich wenigstens glücklich über etwas weniger Radau.
Also danke mal bislang. Hat mir doch ganz gut geholfen, über den Tellerrand hinaus zu schauen.
// EDIT: Wattman geht nicht mit der 280
https://ibb.co/eyE6XQ
Die VCore Voltage wird gar nicht übernommen? Das ist ja doof. Mal Wattman probieren? Bis zur Neuanschaffung wäre ich wenigstens glücklich über etwas weniger Radau.
Also danke mal bislang. Hat mir doch ganz gut geholfen, über den Tellerrand hinaus zu schauen.
// EDIT: Wattman geht nicht mit der 280

Zuletzt bearbeitet:
Achim_Anders
Commodore
- Registriert
- Nov. 2005
- Beiträge
- 4.940
@dubz, nach deiner "google doch mal" Methode solltest du auch keine Nvidia Karten kaufen...
Die habennämlich, oh Wunder, genauso Probleme und Dinge die nicht oder schlecht laufen.
https://www.google.de/search?q=nvid...rome..69i57.7647j0j7&sourceid=chrome&ie=UTF-8
Die habennämlich, oh Wunder, genauso Probleme und Dinge die nicht oder schlecht laufen.
https://www.google.de/search?q=nvid...rome..69i57.7647j0j7&sourceid=chrome&ie=UTF-8
@achim, das ist teils richtig. Nur konnte ich mit der AMD keine 144hz nutzen, mit der nvidia schon. nvidia hatte den Fehler dass die GPU nicht runtergetacktet wurde. Oder im Multimonitor Betrieb. Aber sowas war bei AMD ja gar nicht denkbar. Die ganze Zeit hat der Bildschirm geflackert, ob im Game oder im Desktop. Ging gar nicht. Zudem: nvidia hat es deutlich schneller gefixt
https://community.amd.com/thread/202408 schau dir das mal an...

S
Stuntmp02
Gast
Ich hatte auch jahrelang AMD only, weil ich weder Intel (CPU) noch Nvidia (GPU) wollte, aber leider muss ich hier eingestehen, dass ich mit keiner einzigen Nvidia Karte bisher (GTX 280, GTX 970 und GTX 1080) schlechte Erfahrungen gemacht habe (ja selbst die GTX 970 war TOP, schnell, leise und sparsam) und in der Summe zufriedener gewesen bin, als mit den gekauften AMD Exemplaren (X1950 Pro, HD3870, HD7970, HD7950). Ich kann selbst sagen, dass ich bei Gleichstand oder leichtem Ungleichgewicht stets AMD gekauft habe, aber seit Maxwell ist von Wettbewerb eigentlich nichts mehr übrig, weil Nvidia einen enormen technologischen Vorsprung hat, so wie es vor kurzem noch bei den Bulldozer Prozessoren auch im CPU Bereich gegen Intel gewesen ist.
Vergleichen wir mal AMD Vega 64 im Mindstar für 609€ mit einer Palit GTX 1080 Super JetStream für 546€.
Leistung: Die 1080 SJS liegt etwa 10-15% über der Vega 64
Lüfterdrehzahl unter Last: 2400 (VEGA) zu 1000 (1080 SJS)
Leistungsaufnahme unter Last: 290 Watt (VEGA) zu 200 Watt (1080 SJS)
Temperatur unter Last: 70°C (1080 SJS) zu 85°C (VEGA)
Preis: 609€ (VEGA) zu 546€ (1080 SJS)
Rein von der Grafikkarte spricht leider aber schon gar nichts für die AMD Variante. Als Vorteil stehen hier die zwei Spiele (Sniper Elite 4 und Prey) sowie günstigere FreeSync Monitore im Vergleich zu G-Sync zu Buche. Als objektiver Betrachter muss man aber eingestehen, dass AMD aus technischer Seite aktuell nichts entgegenzusetzen hat. Langsamer, Lauter, Hungriger, wärmer und Teurer, nicht in einer einzigen Disziplin gibt es einen Sieg oder einen Gleichstand der AMD Grafikkarte. Mit Undervolting bekommt man eine 1080 auf unter 180 Watt (meine läuft z.B. mit 175 Watt Power Target bei 0,95v mit 1900Mhz CoreTakt), das ist also nicht nur bei Vega möglich. Guten Gewissens kann man als Gamer keine Vega und auch keine RX580 bei der aktuellen preislichen Lage empfehlen. Die Obergrenze für eine Vega RX liegt preislich bei 500€ und für eine RX580 bei 280€, mehr sind beide für Gamer einfach nicht Wert. Für das Geld bekommt man aber keine und solange das so ist, sollte ein Gamer Nvidia kaufen.
Sorgen um AMD muss man sich aktuell ohnehin nicht machen, denn die Ryzen und Epyc Prozessoren sind hervorragend konkurrenzfähig und die für Gamer uninteressanten Grafikkarten Polaris und Vega werden von Minern schon bevor sie überhaupt in den Handel gelangen aufgekauft, sodass sie fast komplett ausverkauft sind. Wann gab es das in den letzten 10 Jahren, dass eine gesamte Grafikkartengeneration langfristig restlos ausverkauft ist? AMD geht es wirtschaftlich besser, als in den letzten 10-15 Jahren zuvor.
Vergleichen wir mal AMD Vega 64 im Mindstar für 609€ mit einer Palit GTX 1080 Super JetStream für 546€.
Leistung: Die 1080 SJS liegt etwa 10-15% über der Vega 64
Lüfterdrehzahl unter Last: 2400 (VEGA) zu 1000 (1080 SJS)
Leistungsaufnahme unter Last: 290 Watt (VEGA) zu 200 Watt (1080 SJS)
Temperatur unter Last: 70°C (1080 SJS) zu 85°C (VEGA)
Preis: 609€ (VEGA) zu 546€ (1080 SJS)
Rein von der Grafikkarte spricht leider aber schon gar nichts für die AMD Variante. Als Vorteil stehen hier die zwei Spiele (Sniper Elite 4 und Prey) sowie günstigere FreeSync Monitore im Vergleich zu G-Sync zu Buche. Als objektiver Betrachter muss man aber eingestehen, dass AMD aus technischer Seite aktuell nichts entgegenzusetzen hat. Langsamer, Lauter, Hungriger, wärmer und Teurer, nicht in einer einzigen Disziplin gibt es einen Sieg oder einen Gleichstand der AMD Grafikkarte. Mit Undervolting bekommt man eine 1080 auf unter 180 Watt (meine läuft z.B. mit 175 Watt Power Target bei 0,95v mit 1900Mhz CoreTakt), das ist also nicht nur bei Vega möglich. Guten Gewissens kann man als Gamer keine Vega und auch keine RX580 bei der aktuellen preislichen Lage empfehlen. Die Obergrenze für eine Vega RX liegt preislich bei 500€ und für eine RX580 bei 280€, mehr sind beide für Gamer einfach nicht Wert. Für das Geld bekommt man aber keine und solange das so ist, sollte ein Gamer Nvidia kaufen.
Sorgen um AMD muss man sich aktuell ohnehin nicht machen, denn die Ryzen und Epyc Prozessoren sind hervorragend konkurrenzfähig und die für Gamer uninteressanten Grafikkarten Polaris und Vega werden von Minern schon bevor sie überhaupt in den Handel gelangen aufgekauft, sodass sie fast komplett ausverkauft sind. Wann gab es das in den letzten 10 Jahren, dass eine gesamte Grafikkartengeneration langfristig restlos ausverkauft ist? AMD geht es wirtschaftlich besser, als in den letzten 10-15 Jahren zuvor.
Zuletzt bearbeitet:
Achim_Anders
Commodore
- Registriert
- Nov. 2005
- Beiträge
- 4.940
@dubz da ist gar nix gefixt bei dem Bug. Ebenso ist AC bei Maxwell niemals gefixt worden, obwohl es dazu eine Ankündigung gab.
Sämtliche Aussagen, der eine Treiber wäre so viel verbuggter wie der andere sind imo nonsens. Beide haben stärken und schwächen.
Wenn man sich wirklich aussagekräftige Menge an Daten mit Problemen anschauen würde, kommt bei beiden wahrscheinlich eine ähnliche Fehlerquote raus.
Das flackern hättest du im übrigen sofort wegbekommen, wenn du Freesync ausgeschaltet hättest, solange das ins 144hz Limit läuft. Und OH WUNDER: Nvidia und Gsync haben dasselbe Problem: https://www.pcper.com/reviews/Editorial/Look-Reported-G-Sync-Display-Flickering
Es ist halt kein AMD/Nvidia Problem, sondern Physik, das dauert die auszutricksen.
@sunrise
Wer ein Referenzdesign kauft, ohne da ne Wakü drauf schnallen zu wollen, kauft auch bei beiden lauten schrott. Sorry, aber das muss auch mal gesagt werden. Die 1080 FE ist genauso laut und heiß wie die Vega FE... Die Customs werdens richten, sieht man ja an der Asus. Das macht die Karte nicht wundersame Weise besser und bringt sie auch nicht auf Pascalniveau, aber zumindest für Freesyncler (und imo ist das das einzig sinnvolle technische Argument für Vega und gegen Pascal auf Ebene der 1080/Vega64.) Bei der 1070 und Vega 54 muss man auf die Customs warten, um das abschließend bewerten zu können.
Sämtliche Aussagen, der eine Treiber wäre so viel verbuggter wie der andere sind imo nonsens. Beide haben stärken und schwächen.
Wenn man sich wirklich aussagekräftige Menge an Daten mit Problemen anschauen würde, kommt bei beiden wahrscheinlich eine ähnliche Fehlerquote raus.
Das flackern hättest du im übrigen sofort wegbekommen, wenn du Freesync ausgeschaltet hättest, solange das ins 144hz Limit läuft. Und OH WUNDER: Nvidia und Gsync haben dasselbe Problem: https://www.pcper.com/reviews/Editorial/Look-Reported-G-Sync-Display-Flickering
Es ist halt kein AMD/Nvidia Problem, sondern Physik, das dauert die auszutricksen.
@sunrise
Wer ein Referenzdesign kauft, ohne da ne Wakü drauf schnallen zu wollen, kauft auch bei beiden lauten schrott. Sorry, aber das muss auch mal gesagt werden. Die 1080 FE ist genauso laut und heiß wie die Vega FE... Die Customs werdens richten, sieht man ja an der Asus. Das macht die Karte nicht wundersame Weise besser und bringt sie auch nicht auf Pascalniveau, aber zumindest für Freesyncler (und imo ist das das einzig sinnvolle technische Argument für Vega und gegen Pascal auf Ebene der 1080/Vega64.) Bei der 1070 und Vega 54 muss man auf die Customs warten, um das abschließend bewerten zu können.
Das ist nicht wahr. Meine nvidia taktet bei 144hz runter. Was maxwell ac ist weiss ich nicht. Das 144hz rx480 Problem ist freesync unabhängig. Bei der Produktpackung stand AMD zerocore drauf... geht bis heute nicht.
Ich habe in meinen 20 Jahren Computern anfangs mehr von AMD (und ATI) und gefühlt mehr als doppelt so viel Bugs mit ihnen gehabt. Das ist mein persönliches Fazit. Wenn du es anders wahrgenommen hast.. auch ok
Ich habe in meinen 20 Jahren Computern anfangs mehr von AMD (und ATI) und gefühlt mehr als doppelt so viel Bugs mit ihnen gehabt. Das ist mein persönliches Fazit. Wenn du es anders wahrgenommen hast.. auch ok

Achim_Anders
Commodore
- Registriert
- Nov. 2005
- Beiträge
- 4.940
Es ist wahr. Der Bug ist aber auch nicht bei 144hz alleine, sondern bei 144hz und einem zweiten Monitor mit z.B. 60hz.
Und ich sage nicht, dass ich andere Erfahrungen gemacht habe. Ich sage das solche einzel Erfahrungen absolut irrelevant sind für eine vernünftige Diskussion, weil die empirische Menge viel zu gering ist, um relevante Aussagen treffen zu können.
Edit: Momentan würde ich aber auch wegen der Treiberprobleme mit Vega keine Vega kaufen! Essentielle Funktionen funktionieren noch nicht und bringen viele Benutzer zur Weißglut... Das kann in 2 Wochen aber wieder ganz anders aussehen.
Und ich sage nicht, dass ich andere Erfahrungen gemacht habe. Ich sage das solche einzel Erfahrungen absolut irrelevant sind für eine vernünftige Diskussion, weil die empirische Menge viel zu gering ist, um relevante Aussagen treffen zu können.
Edit: Momentan würde ich aber auch wegen der Treiberprobleme mit Vega keine Vega kaufen! Essentielle Funktionen funktionieren noch nicht und bringen viele Benutzer zur Weißglut... Das kann in 2 Wochen aber wieder ganz anders aussehen.
Zuletzt bearbeitet:
@ TE: Wenn du jetzt kaufen willst, bleibt nüchtern betrachtet eigentlich nur nvidia.
AMD ist langsamer und verbraucht mehr Strom (= mehr Abwärme = schwerer zu kühlen = lauter oder teuer)
Es kommt auch ein bisschen darauf an, ob du in Zukunft mal eine Adaptive-Sync-Technologie nutzen willst, also G-Sync oder Freesync.
G-Sync geht nur mit nvidia, Freesync nur mit AMD. Für beides brauchst du spezielle Monitore, hierbei sind G-Sync-Modelle 100-200 € teurer als Freesync-Modelle.
Zudem muss ich aus eigener Erfahrung sagen, dass es gar nicht so leicht ist, einen guten G-Sync-Monitor zu finden.
Ich selbst möchte aufgrund der enttäuschenden Vega auf nvidia/G-Sync wechseln, habe aber offenbar mit meinem aktuellen BenQ XL2730Z einen sehr guten Freesync-Monitor mit TN-Panel erwischt.
Jetzt suche ich natürlich einen gleichwertigen oder besseren G-Sync-Monitor, aber das wird vermutlich nicht so leicht und nicht so billig.
Das solltest du also auch mit einkalkulieren.
AMD ist langsamer und verbraucht mehr Strom (= mehr Abwärme = schwerer zu kühlen = lauter oder teuer)
Es kommt auch ein bisschen darauf an, ob du in Zukunft mal eine Adaptive-Sync-Technologie nutzen willst, also G-Sync oder Freesync.
G-Sync geht nur mit nvidia, Freesync nur mit AMD. Für beides brauchst du spezielle Monitore, hierbei sind G-Sync-Modelle 100-200 € teurer als Freesync-Modelle.
Zudem muss ich aus eigener Erfahrung sagen, dass es gar nicht so leicht ist, einen guten G-Sync-Monitor zu finden.
Ich selbst möchte aufgrund der enttäuschenden Vega auf nvidia/G-Sync wechseln, habe aber offenbar mit meinem aktuellen BenQ XL2730Z einen sehr guten Freesync-Monitor mit TN-Panel erwischt.
Jetzt suche ich natürlich einen gleichwertigen oder besseren G-Sync-Monitor, aber das wird vermutlich nicht so leicht und nicht so billig.
Das solltest du also auch mit einkalkulieren.
- Registriert
- Dez. 2013
- Beiträge
- 522
Tatsächlich habe ich mich gestern bezüglich G-Sync und Freesync informiert, bin aber nicht abschließend schlau geworden.
Das wird dann aber auf jeden Fall noch von mir in Betracht gezogen. Zumindest einmal tendiere ich aktuell zur 1080 oder, wenn gute Customs da, zur 56.
Die 1070 ist ja derart überteuert , das geht mal gar nicht...
Problem ist halt, dass ich meinen Monitor vor ca. 2 Jahren gekauft habe, wo ich von Adaptive Sync noch nie gehört habe.
Er läuft auf 144 Hz, was schön flüssig ist, aber halt hohe Leistung fordert. Ist also indirekt ein Kostenfaktor.
Andererseits sind auch 60 FPS bei 144 Hz schöner, rein subjektiv.
Das wird dann aber auf jeden Fall noch von mir in Betracht gezogen. Zumindest einmal tendiere ich aktuell zur 1080 oder, wenn gute Customs da, zur 56.
Die 1070 ist ja derart überteuert , das geht mal gar nicht...
Problem ist halt, dass ich meinen Monitor vor ca. 2 Jahren gekauft habe, wo ich von Adaptive Sync noch nie gehört habe.
Er läuft auf 144 Hz, was schön flüssig ist, aber halt hohe Leistung fordert. Ist also indirekt ein Kostenfaktor.
Andererseits sind auch 60 FPS bei 144 Hz schöner, rein subjektiv.
- Registriert
- Dez. 2013
- Beiträge
- 522
Seitdem der Monitor in allen Anwendungen auf 144 Hz läuft, ist mir kein Tearing mehr aufgefallen, auch wenn die FPS niemals 144 erreichen. In WoW habe ich sogar das FPS-Limit auf 60 gestellt und es ist immer noch besser als @ 60 Hz. Die 280 schafft einfach nicht genug.
Ich persönlich möchte nie wieder ohne Sync spielen.
Das ist aber definitiv Geschmackssache und hängt davon ab, wie sehr man Mikroruckler wahrnimmt und wie sehr sie einen nerven. Tearing bekommt man mit Vsync ja meistens in den Griff, aber eben für den Preis, dass man Mikroruckler hat.
Mich persönlich haben diese schon ewig sehr gestört, sodass ich Adaptive Sync als beste neue Grafiktechnologie der letzten Jahre ansehe.
Es hängt aber auch vom Spiel ab, wie sehr man die wahrnimmt. Anno-Spiele z.B. sind katastrophal davon betroffen, bei WoW hab ich es hingegen nie als störend empfunden. Also: Extrem Engine-abhängig und der Nutzen von Adaptive Sync wird höher, wenn man eben viele von bei aktiviertem Vsync vorhandenen Mikrorucklern betroffene Spiele spielt.
Das ist aber definitiv Geschmackssache und hängt davon ab, wie sehr man Mikroruckler wahrnimmt und wie sehr sie einen nerven. Tearing bekommt man mit Vsync ja meistens in den Griff, aber eben für den Preis, dass man Mikroruckler hat.
Mich persönlich haben diese schon ewig sehr gestört, sodass ich Adaptive Sync als beste neue Grafiktechnologie der letzten Jahre ansehe.
Es hängt aber auch vom Spiel ab, wie sehr man die wahrnimmt. Anno-Spiele z.B. sind katastrophal davon betroffen, bei WoW hab ich es hingegen nie als störend empfunden. Also: Extrem Engine-abhängig und der Nutzen von Adaptive Sync wird höher, wenn man eben viele von bei aktiviertem Vsync vorhandenen Mikrorucklern betroffene Spiele spielt.
der nutzen der Sync Technologie besteht darin, Tearing zu unterbinden. Mir ist das völlig schleierhaft, wie Leute ein flüssigeres Bild mit gsync/freesync on sehen, sobald man fps drops hat. Bitte um Link wo die technische Erklärung dazu ist, dass bei framedrops mit gsync/freesync ON das Bild flüssiger sein soll, als mit gsync/freesync _sowie vsync_ off.
Ähnliche Themen
- Antworten
- 36
- Aufrufe
- 5.124
- Antworten
- 3
- Aufrufe
- 2.057
M
- Antworten
- 14
- Aufrufe
- 1.313
M
- Antworten
- 2
- Aufrufe
- 1.953