News Radeon RX Vega: AMDs neue Grafikkarte für Spieler erscheint Ende Juli

Man sollte nicht immer auf alles hören was irgendwelche Fuzzis in Foren erzählen...
Ein Großteil der Ratschläge die man hier bekommt sind fürs Klo (einige wenige respektable versierte User mal ausgenommen).

Wenn ich das gemacht hätte, hätte ich einen PC für 5000€ mit 10 Monitoren, 3 Getriebeschäden, zwei neue Klimakompressoren, irgendeine schlimme Krankheit, nen Herzinfarkt, mein komplettes Haus in die Luft gesprengt um nen Flecken von ner Fliese zu bekommen und mindestens 5 neue Turbolader wegen einem 20€ Schlauch.

Achja ich muss das machen wenn ich die Karte optimal betreiben will ? Fundiert auf was denn bitte ? Wo macht meine Karte Probleme, die ich nicht selbst kennen würde ? Lass den Bullshit mal stecken bitte. Ich muss gar nichts.
 
Zuletzt bearbeitet:
aivazi schrieb:
Man kann sich aber auch zusammenreißen :D

Bin Schwabe und von Haus aus geizig. :D

Spaß bei Seite. Meine betagte GTX760 hat förmlich nach ihrem wohlverdienten Ruhestand geschriehen, also musste eine neue Grafikkarte her. Hätte ich nicht ein unwiderstehliches Angebot für eine 1070 erhalten, würde eine RX480 in meinem PC schlummern. Warum? - Ich hatte die Möglichkeit eine RX480 zu testen und war von ihrer Leistung mehr als überzeugt, doch wie schon erwähnt erhielt ich dann das 1070er Angebot.

Lange Rede, kurzer Sinn: Wer will bzw. kann, soll sich die Karte seiner Wünsche kaufen. Und wie überall gibt es, wo Sonnenschein auch Schatten. Ich mag eben nur nicht die unverbesserlichen alles besser Wisser wenn noch gar keine Fakten geschaffen wurden.

Bin trotzdem auf die Vorstellung der Vega gespannt.

Gruß
Jojo
 
DocWindows schrieb:
Nein, das sind Themen die Leute hier im Forum dikutieren und Ratschläge die sie geben.

Du musst es machen wenn du die Karte optimal betreiben willst. Wenn du sie nicht optimal betreiben willst, dann kannste es auch lassen.
Ah, dann verrate doch mal wie "optimal" zB noch immer eine nvidia Karte derzeit mit einem AMD Ryzen unter DX12 so läuft. Bei nvidia läuft doch immer alles super. Besonders der Asynchronous Shader Support, besonders unter Maxwell ist dieser ja ausgezeichnet gewesen.

Ja ja :rolleyes:
 
DocWindows schrieb:
Mir ist noch in Erinnerung, dass es Monitore gibt wo man Freesync nicht nur einschalten-, sondern auch noch immer einen von 2 Modi festlegen muss. Hoher FPS-Bereich und Niedriger oder so.
Ist das jetzt benutzerfreundlich?
Oder die Nummer wo man bei AMD-Karten zwischen Höchstleistung und leisem Betrieb wechselt, indem man einen Schalter auf der Platine umlegt und neu durchbootet.

Oh Gott das ist EIN MONITOR gewesen, einer der in 2015 rausgekommen ist....

Das ist nie wieder passiert und seitdem haben alle Freesync Monitore eine durchgehende Spanne.
Ich kann mir gut vorstellen, dass es Eizo immernoch bereut diesen Monitor auf den Markt gebracht zu haben.


Jetzt ist ein Dual Bios schon was schlechtes ???, die Möglichkeit zwischen Silent und Performance entscheiden zu können.

Ist ja nicht so dass man immer herumschaltet, man entscheidet sich einfach am ersten tag welchen Modus man mag und betreibt ihn immer und hat zusätzlich ein Backup Bios, falls man mal was flashen will.

Jojosan schrieb:
Hätte ich nicht ein unwiderstehliches Angebot für eine 1070 erhalten, würde eine RX480 in meinem PC schlummern. Warum? - Ich hatte die Möglichkeit eine RX480 zu testen und war von ihrer Leistung mehr als überzeugt, doch wie schon erwähnt erhielt ich dann das 1070er Angebot.

Ist doch nachvollziehbar, warum nicht die schnellere Karte wenn das Angebot stimmt ?

In meinem Fall habe ich wohl einfach zu viel von der GTX 1080 erwartet... und wurde etwas enttäuscht ^^
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
@Unnu:
Ersteres, ganz Klar.. Es war doch klar dass man nur mi Polaris nicht mal eben 30Mrd mehr aufm Konto hat. Aber AMD hat immerhin 30/70 beim AMD NV Niveau was schonmal gut ist...
Naja, ob das so klar ist wage ich mittlerweile zu bezweifeln. Ich sagte ja auch, ich bin versucht auf den Imageschaden zu tippen.
Andererseits ist gerade sowas natürlich nur sehr schwer in Zahlen zu giessen.
Es gilt zu Bedenken, dass so ein Image mitunter sehr lange nachwirken kann. Und das beeinflusst halt nicht nur diese Kaufentscheidung sondern auch die Nächste und ggf. die Übernächste. Und die Mundpropaganda auch.

Wenn Vega kein absoluter Hit wird, wird es AMD bei den GPUs so schwer haben wie zuletzt bei den CPUs mit Bulldozer. Man wird sie nicht mehr ernst nehmen.
Und dann kommt obendrein noch die AMD-Affinität der Miner hinzu, die ja offensichtlich Gewinn- / Verlust-Rechnung nicht so wirklich beherrschen. Sonst wäre ja der GTX1060 Markt leer gefegt.
 
Unnu schrieb:
.

Wenn Vega kein absoluter Hit wird, wird es AMD bei den GPUs so schwer haben wie zuletzt bei den CPUs mit Bulldozer. Man wird sie nicht mehr ernst nehmen.
Und dann kommt obendrein noch die AMD-Affinität der Miner hinzu, die ja offensichtlich Gewinn- / Verlust-Rechnung nicht so wirklich beherrschen. Sonst wäre ja der GTX1060 Markt leer gefegt.

Das wird so in Etwa wie die HD 2900 XT, wenn Vega nicht zu 100% vom Markt aufgenommen wird. Extrem teuer, Extrem riesig und dazu ein extremes Speicherinterface...
 
aivazi schrieb:
Oh Gott das ist EIN MONITOR gewesen, einer der in 2015 rausgekommen ist....

Das ist nie wieder passiert und seitdem haben alle Freesync Monitore eine durchgehende Spanne.
Ich kann mir gut vorstellen, dass es Eizo immernoch bereut diesen Monitor auf den Markt gebracht zu haben.

Waren das nicht mehrere Modelle? Das hab ich doch öfter als nur ein Mal gelesen meine ich.

aivazi schrieb:
Jetzt ist ein Dual Bios schon was schlechtes ???, die Möglichkeit zwischen Silent und Performance entscheiden zu können.

Ist ja nicht so dass man immer herumschaltet, man entscheidet sich einfach am ersten tag welchen Modus man mag und betreibt ihn immer und hat zusätzlich ein Backup Bios, falls man mal was flashen will.

Wenn ich das am ersten Tag mache und dann nicht mehr anfasse, brauche ich den Schalter nicht. Wäre es nur als Backup gedacht wäre auf beiden BIOSsen dasselbe drauf. Der Schalter dürfte daher schon für eine andere Anwendungsweise gedacht sein, unterstelle ich mal.
Und da wir eben von Benutzerfreundlichkeit geredet haben und runden Lösungen, habe ich das einfach mal angeführt.
 
@Aivazi

warum sollten Sie es bereuen? Sie sind bis heute die einzigen, die die selbe Range anbieten können wie G-Sync und kein anderer Monitor (IPS) mit Freesnyc kommt bisher so tief runter wie der Eizo. Zugegebenermaßen ist die Lücke nicht sonderlich groß, aber im Bereich IPS ist der eizo mit der Snyc Range einzigartig. Kein anderer komm gleichzeitig so hoch und tief wie er. Überhaupt auch abseits von IPS gibt's soweit ich weiß nur 3 weitere Monitore, die eine ähnliche Spannbreite haben. 2 TN und 1 VA Monitor von Acer und AOC. alle anderen gehen entweder nicht so tief oder so hoch im Range Bereich. Damit ist der Eizo also nach wie vor ziemlich einzigartig und gehört über alle Panelarten hinweg nach wie vor mit zum besten, was man derzeit bekommen kann.

Aber gut, deine Aussagen zu Nvidia und AMD sind ja auch nicht wesentlich gehaltvoller was die Faktenlage und deren Interpretation angeht...
 
aivazi schrieb:
Das wird so in Etwa wie die HD 2900 XT.
Autsch. Das wäre dann der GAU.
Andererseits, ... auch die Grünen mussten diese schmerzhafte Erfahrung machen. Und sind seitdem wahre Effizienzwunder. :)
Wollen wir mal hoffen, dass uns das erspart bleibt.
Ergänzung ()

DocWindows schrieb:
Mir ist noch in Erinnerung, dass es Monitore gibt wo man Freesync nicht nur einschalten-, sondern auch noch immer einen von 2 Modi festlegen muss. Hoher FPS-Bereich und Niedriger oder so.
Ist das jetzt benutzerfreundlich?
Und auch @aivazi: Solltet ihr beiden von diesem hier reden: "http://www.prad.de/new/monitore/test/2016/test-eizo-fs2735-teil12.html".
Antwort auf Frage 2: Ja, hier ist es das, denn für den hohen Bereich schaltet man Blur-Reduction ein.
Und was jetzt an einem FreeSynch von 35 bis 90 Hz jetzt nicht ausreicht, ist mir ein Rätsel.
Das kann man mir ggf. erläutern.

Ansonsten lasst euch gesagt sein, dass dieser Monitor der HAMMER ist. Wieso Eizo "bereuen" sollte so ein Granatengerät gebaut zu haben ist wohl Unwissenheit geschuldet.
OK, es ist KEIN Monitor für FPS-Fanatiker und TN-Enthusiasten. Für alle anderen, die gerne Farben statt Bunt haben, oder auch gepflegt Fotos retuschieren, oder überhaupt irgendwas mit Bilder arbeiten, ist dieses Ding eine Offenbarung.
Und hierfür sogar noch günstig. Ausserdem ist es ein EIZO. Noch Fragen?
 
Dem stimme ich zu. Hatte ihn und er ist blendend. Gott sei Dank habe ich mit bei View Sonic ein ebenso gutes Äquivalent mit Gsync gefunden. Zwangsweise, da AMD ja wollte das ich ein weiteres halbes bis 3/4 Jahr warte bis ich diesen mit vergleichbaren FPS hätte nutzen können. :p Aber ich bin ja Nvidia Fanboy obwohl ich extra in teure AMD Hardware investiert habe. ^^
 
Für mich sieht es so aus, als hätte AMD deutlich mehr Probleme mit der neuen Architektur als ihnen lieb sein kann, wahrscheinlich waren die Aussichten von SK Hynix, was den HBM 2 Speicher betrifft, auch zu optimistisch an AMD kommuniziert worden, die Aussagen, daß AMD ihre Ressourcen hauptsächlich auf Ryzen konzentriert hat will ich auch nicht so recht glauben, da die Grafiksparte eine zu große Bedeutung für AMD hat. Vielmehr denke ich, das sich AMD mit der Endscheidung pro HBM Speicher verzockt hat und dies schon seid der Fiji-GPU, würde mich nicht wundern, wenn Fury und Fury X, genau wie Fury Nano letztendlich ein Verlustgeschäft für AMD war.
AMDs Marketing was Grafikkarten betrifft, war die letzten Jahre auch keine Meisterleistung, nun mal sehen, was letztendlich die große Spielerkarte Vega kann und wie der Konkurrent Nvidia darauf reagiert, wobei ich mir ziemlich sicher bin, das letzterer schon ziemlich genau weiß was Vega kann...
 
Die Aussage von Raja zur Prey Demo machts aber nicht wirklich besser oder? Also dass 2 VEGA einen komfortablen Vorsprung gegenüber jeder aktuellen Single GPU hatten.

@ME4Harbinger @zaoyang It was running comfortably about 60 and comfortably above *any* single gpu and we aren't done yet with Vega rx optimizations for prey

Zudem wäre es auch Zeit für Optimierungen, lang is ja nich hin und Prey is ja aktuell eher das Top Game.
 
Zuletzt bearbeitet:
Unnu schrieb:
Und dann kommt obendrein noch die AMD-Affinität der Miner hinzu, die ja offensichtlich Gewinn- / Verlust-Rechnung nicht so wirklich beherrschen. Sonst wäre ja der GTX1060 Markt leer gefegt.

Erst mal Glückwunsch zum 1000 Post :D

MHs-740x459.png

AMD Karten sind für Ethereum Mining aufgrund ihrer Zwitterbauweise deutlich vor den Nvidiakarten das ist ja nun mal das Problem der RX580 bzw. eher das Problem für normale Kunden die bekommen aktuell keine.

Ich fang glaub auch wieder damit an xD ^^

Grüße
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Die Aussage von Raja zur Prey Demo machts aber nicht wirklich besser oder? Also dass 2 VEGA einen komfortablen Vorsprung gegenüber jeder aktuellen Single GPU hatten.



Zudem wäre es auch Zeit für Optimierungen, lang is ja nich hin und Prey is ja aktuell eher das Top Game.

Manchmal frage ich mich was in dem seinen Kopf vorgeht. Das klingt geradezu dilettantisch. Wenn ich ne 1070 im SLI nehme, kann ich das genauso sagen und damit für alle anderen Karten aufwärts ebenso. Selbst mit 2 Furys würde die Aussage stimmen! Überhazupt, 2 von etwas ist besser als eines von etwas vergleichbaren? Boah ne ey echt? Man könnt glatt meinen, man könne 2 Nvidias nicht im SLI betreiben und CF wäre was bahnbrechend neues und vorallem das CF völlig fehlerfrei wäre und damit auch besser als ne Singelkarte.... Diese Aussage ist echt dermaßen hohl ihn ihrem Inhalt. Und nun stelle man sich mal die Reaktionen im Netz vor wenn diese Aussage von einem Herren in schwarzer Lederjacke namens Huang käme...
 
Zuletzt bearbeitet von einem Moderator:
Ich hab das geposted weil ca 5 mal schon auf reddit verwiesen wurde. Nur find ich das Raja Statement so schwammig wie seine VEGA Präsentation am Analyst Day.

Hatte da mehr erwartet, also einfach ne klarere Aussage oder keine.

Edit: oben hieß es AMD hätte gesagt dass Prey in dem Setting auch mit einer GPU über 60FPS laufen wurde. Ich interpretiere das Zitat anders.

Edit PCGH verliert auch paar Worte zu
http://www.pcgameshardware.de/Vega-Codename-265481/News/Raja-Koduri-klaert-Missverstaendnisse-bezueglich-Computex-Demo-mit-Vega-auf-1229278/
 
Zuletzt bearbeitet:
Unnu schrieb:
Wenn Vega kein absoluter Hit wird, wird es AMD bei den GPUs so schwer haben wie zuletzt bei den CPUs mit Bulldozer. Man wird sie nicht mehr ernst nehmen.
Und dann kommt obendrein noch die AMD-Affinität der Miner hinzu, die ja offensichtlich Gewinn- / Verlust-Rechnung nicht so wirklich beherrschen. Sonst wäre ja der GTX1060 Markt leer gefegt.
Die consumer nvidea Karten sind in der Disziplin deutlich langsamer weil beschnitten erst informieren dann Schwachsinn Posten.



Was dass Thema vega angeht lässt dich einfach noch ein wenig Wasser den Rhein runterlaufen....
 
Zuletzt bearbeitet von einem Moderator:
SKu schrieb:
Dann wüsstest du auch, dass eine einzige RX Vega FE in der Lage ist in 4K 60+ fps generieren zu können. Wie gesagt, Beitrag bei reddit lesen.

Um die Aussage gings, da falsch.
 
Krautmaster schrieb:

Hab auch schon zig mal hier im Thread gelesen dass es um I/O ging, aber so 100% glauben kann ich das nicht. Ich seh den Punkt bei der Demo einfach nicht. Würde man wirklich I/O zeigen wollen, hätte man schon ne eigene Demo machen müssen die genau diese Eigenschaft herausstellt. Vielleicht eine wo die 2 Karten live mit maximalem Tempo mit Daten zugeschmissen werden und man dann sieht dass beide PCIe-Wege mit maximalem Tempo arbeiten. Einfach nur ein Spiel zu zeigen finde ich im Kontext ziemlich unpassend.
 
Zuletzt bearbeitet:
Mustis schrieb:
Gott sei Dank habe ich mit bei View Sonic ein ebenso gutes Äquivalent mit Gsync gefunden. Aber ich bin ja Nvidia Fanboy obwohl ich extra in teure AMD Hardware investiert habe. ^^
Aha? Hast Du 'nen Link?
Fanboy, huh? Tja da hast Du dann gelitten. ;)
Ergänzung ()

Ginmarr schrieb:
Erst mal Glückwunsch zum 1000 Post :D
AMD Karten sind für Ethereum Mining aufgrund ihrer Zwitterbauweise deutlich vor den Nvidiakarten.
Öh, danke. ?
Ah ok. Nun, wie gesagt ich bin kaum im Thema.
Schätze ich muss dann wohl minen, wenn ich eine RX580 haben will. So hundert kaufen und 98 wieder verkloppen.
Oh, mann.
 
Unnu schrieb:
Naja, ob das so klar ist wage ich mittlerweile zu bezweifeln. Ich sagte ja auch, ich bin versucht auf den Imageschaden zu tippen.
Andererseits ist gerade sowas natürlich nur sehr schwer in Zahlen zu giessen.
Es gilt zu Bedenken, dass so ein Image mitunter sehr lange nachwirken kann. Und das beeinflusst halt nicht nur diese Kaufentscheidung sondern auch die Nächste und ggf. die Übernächste. Und die Mundpropaganda auch.
Sind wir ehrlich..
AMDs Image war noch nie so prall.. Immer nur billige CPUs , Schrottige Bretter (dank Via) oder eben Laute Langsame Karten.. Hätte AMD damals ATI nicht übernommen (völlig überteuert zum einen), dann gäbe es heute weder ATI noch AMD.. Imageschaden bei AMD? Wenn man hier mit 15 Jahre alten Storys kommt, wird ein Verschub von Vega auch nicht wehtun.
@ Unnu:
Die 1060 ist ungeeignet fürs Mining ;) Das passiert eben wenn man den HPC Kram herausstreicht. Klingt hart, ist aber Realität... Schau dir an was EINE Quadro kostet und dann rechne mal wie viele RX580/480 du bekommst für eine K40 ;) Schau dir die echte Computingleistung der 1060 an und dann muss man knallhart sagen: das ist ein Trauerspiel für den Preis.
 
Zurück
Oben