News Radeon RX Vega 56 & 64 Strix: Asus' Custom Design nur noch „im Laufe des Jahres 2017“

modena.ch schrieb:
Davon ab sind Miner dankbare Kunden, sie jammer nicht an den Treibern rum und haben nicht ständig neue Anforderungen bei einem neuen Game.

Und sind überhaupt nicht loyal.

tomatoes schrieb:
Hätte besser auf Gsync und ne 1080ti in FullHD gesetzt. Und zwar einfach aufgrund der Tatsache das ich das jetzt seit nem guten Jahr so nutzen könnte.

Da liegen halt mehrere hundert Euro dazwischen.
 
Iscaran schrieb:
Vielleicht hat ASUS hier einfach den kürzeren wegen des Mining-Booms:
http://www.planet3dnow.de/cms/35030-amds-vega-der-neue-star-am-krypto-mining-himmel/

Die V64 liefert bei bestimmten eCoins grob die 4x Fache Leistung einer 1080 ...kein Wunder dass die Dinger nicht zu bekommen sind.

Ist mir noch gar nicht aufgefallen, vor wenigen Wochen hingen die Reference Vega´s noch wie Blei in den Regalen.
Eben geschaut, Vega 56 bei den großen Händlern komplett weg aber die 64 teilweise noch lieferbar.
Geht das wieder los..... :o
 
also allein weil die digner so rar sind werden sie wahrsch mega teuer sein fürchte ich.

es macht einfach keinen sinn, seine hoffnungen weiter auf vega zu setzen. das ding is ne totgeburt.

der hmb2 ist einfach schlecht verfügbar, mit dem deal den amd mit intel geschlossen hat und jetzt igpus für intel cpus herstellen wird mit hbm2 wird wird der hbm2 noch knapper und teuerer (ratet mal wer den vorzug bekommt beim hbm2? die konsumenten oder intel?).

und die karten sind ja nicht mal besonderns leistungsfähig, insbesondere, wenn man sie vom stromverbrauch her und den marktpreisen (immer noch überteuert) her betrachtet.

kurzum: es nbleibt nix anderes als nvidia zu nehmen. habe ich auch getan und zur gtx 1080 gegriffen, nachdem die ersten gerüchte aufkamen, vega würde nicht das liefern was man erhofft. es war die beste entscheidung. für eine vega karte hätte ich viel länger warten müssen, hätte womöglich viel mehr geld bezahlt und trotzdem weniger leistung in vielen spielen. und wegen freesync allein lohnt es sich auch nicht, ne deutlich schlechtere karte zu nehmen. dann lieber ohne snyc dafür aber mit sehr hohen fps spielen.

und wenn ich mir vostelle, dass nvida wahrscheinlich mit ampere ihre nächste generation anfang des 2. quartals 2018 bringen wird, bemitleide ich jeden der jetzt zu vega greift: zu teuer, zumeist schlechter als die nvida konkurrenz (va. die 64er im vgl zur 1080), heißer, mehr stromverbrauch und bald schon wieder leistungstechnisch altes eisen
 
Zuletzt bearbeitet:
Die 56er performen bei den Cryptonight Währungen so gut wie die 64er und sind
halt doch noch einen hunderter günstiger und etwas sparsamer. Die sind jetzt leider sehr gefragt.
 
tomatoes schrieb:
Servus,

mir wäre es damals beim Monitorkauf einfach egal gewesen, die paar Euro mehr für Gsync auszugeben.
Allerdings hatte ich die 390x bereits und wollte dann eben auf ne Vega umsatteln.

So stehe ich gerade echt bescheide da! Die 390x ist so schnell wir die 580 und ne Referenzdesign will ich nicht.

Das schlimme, ich habe mir damals nen FullHD Monitor, 144hz geholt. Dafür wäre die Vega super gewesen!

Hätte besser auf Gsync und ne 1080ti in FullHD gesetzt. Und zwar einfach aufgrund der Tatsache das ich das jetzt seit nem guten Jahr so nutzen könnte.

Grüße
Ergänzung ()

Ach ja, und alles die jetzt kommen und meinen das ne Vega für FullHD übertrieben wäre:

Ist sie NICHT!

Endlich mal die ganzen Rollenspiele, Shooter usw. usf. ohne Framedrops mit hohen Einstellungen zocken!



moin kann dich voll und ganz verstehen. ich habe auch nen fullhd monitor mit 144hz. ich kann dir sagen, dass da schon ne gtx 1080 bei sehr aufwendigen spielen in fullhd stark ins schwitzen kommt, um eine framerate von über 140 zu halten. manche spielen müssen sogar wirklich runtergeschraubt werden und dabei ist die 1080 sogar noch besser als ne 64er vega.

ne gtx 1080ti ist die richtige karte für fullhd 140fps konstant und max details in allen spielen.

ich selbst kann dir aber auch sagen, dass die meisten spiele, die jetzt so rauskamen, auch mit ner gtx 1080 in fullhd 140fps gut laufen und, dass die spiele, die wirklich unbedingt ne 1080 ti dafür brauchen die eher minderheit sind.

also wenn man nicht bereit ist 700€ für die graka zu investieren, könnte man auch zur 1070ti oder 1080 greifen und trotzdem in den meisten spielen die 144hz des monitors voll ausfahren.
mal abgesehen davon, dass ich persönlich gar kein problem damit habe, ein paar details von ultra auf sehr hoch oder so herunterzuschrauben, da man da wirklich so gut wie keinen vorteil hat visuell aber die framerate höher und stabiler ist.
von dem her bin ich mit der 1080 für fullhd 144hz gaming sehr zufrieden und du kannst dir dieses upgrade auch überlegen. mit konstant hoher framerate brauche ich persönlich auch kein sync.
 
Zitat:
„mal abgesehen davon, dass ich persönlich gar kein problem damit habe, ein paar details von ultra auf sehr hoch oder so herunterzuschrauben, da man da wirklich so gut wie keinen vorteil hat visuell aber die framerate höher und stabiler ist.„

Damit habe ich auch kein Problem. Daher denke ich dass eine Vega richtig gepasst hätte.
Allerdings ärgert es mich einfach, dass ich die Technik Freesync so nicht nutzen könnte.

Ich finde es einfach ein absolutes Unding eine ganze Grafikkartengeneration „quasi“ auszusetzen!!

Denn das hat nichts mit „zu spät“ zu tun.

Sowieso, die ganzen zu spät schreier. Es war bis vor ein paar Jahren ganz normal, dass immer ein hersteller vorgelegt hat, und der andere dann ca. 6 Monate gleichgezogen hat (oder messtechnisch leicht schneller war).

Aber das jetzt kommt einem kompletten Aussetzen gleich (zumindest für die Spielerschaft die aber mit Freesync festsitzen).

Zudem macht es mir diese Art und Weise einfach schwer, an AMD festzuhalten, obwohl mir diese tausend mal lieber sind als NVIDIA.

Es ist jammern auf hohem Niveau. Aber es ist auch eine echt bescheidene Situation für (die Letzten) Spieler.

Grüße
 
Iscaran schrieb:
Ganz ehrlich wenn ein Monitor nach nur 1 Jahr kaputt geht dann stimmt da was anderse nicht. Außerdem würde ich in dem Fall dann Garantie beantragen.
Bzw. Meine Displays sind nun schon 10 und 8 Jahre alt. ...
Ich habe auch vor meinen Monitor ein paar Jahre einzusetzen. Alle zwei bis drei Jahre tausche ich aber meine Grafikkarte.

In weniger als einem Jahr bin ich aus der Monitor-Garantie raus.
Wenn das Teil kurz danach abkacken würde und es immmer noch keine anständigen Custom-Vegas gibt, gebe ich Nvidia/GSync definitiv eine Chance. 200€ Mehrkosten für den Monitor sind mir dann nach einem gepflegten Wutanfall sicher auch egal.
 
modena.ch schrieb:
Die 56er performen bei den Cryptonight Währungen so gut wie die 64er und sind
halt doch noch einen hunderter günstiger und etwas sparsamer. Die sind jetzt leider sehr gefragt.

und trotzdem bleibt die Thematik nicht zu Ende gedacht, wenn es so ist wie du sagst - die Karten gehen direkt an Miner...
Der Boom wir irgendwann abklingen und selbst wenn es weiter hin so rentabel bleibt, wird es früher oder später eine Abtrennung geben bzw. spezifizierte Karten und ggf. auch mehr Anbieter..
Miner werden auf jeden Fall so oder so immer das Produkt holen welches am rentabelsten arbeitet...
Somit spielt AMD auch wenn sie aktuell mehr Gewinn machen ggf. weniger Arbeit haben, mit den alten treuen Kunden egal ob in Form von Partner oder Endkunden - wie viele denken sich aktuell wohl ich haben zum letzten mal auf AMD gewartet...
 
Ich denke AMD kann froh sein dass sie ihre GPU los werden und
können sich wahrscheinlich gar nicht gross aussuchen, an wem sie verkaufen.
Auf einen Grosshändler haben sie wohl nicht viel Einfluss.

Dass AMD irgendwann anfängt ein extra Chipdesign für Miner anzubieten, würde
ich gar nicht mal drauf wetten. Das ist teuer und müsste rentieren.
Für einen Hype würd ich mir da gar keine Gedanken machen.
 
Bevor die Preise für Grafikkarten nicht wieder da sind wo sie sein sollten kaufe ich garnichts!
Und für eine Vega 56 500.-Euro springen lassen zu wollen halte ich für snobistisch.
Und Monitore mit ent oder werder FreeSync / G-Sync kommen mir garnicht ins Haus.
Ich lasse mich doch nicht durch einen Monitor auf AMD oder Nvidia festlegen.

Aber zum Thema, von mir aus kann AMD noch ganz 2018 brauchen um ihre Chips zu produzieren, vermutlich bleibe ich eh bei der grünen Fraktion. :lol:
 
joel schrieb:
Und Monitore mit ent oder werder FreeSync / G-Sync kommen mir garnicht ins Haus.
Ich lasse mich doch nicht durch einen Monitor auf AMD oder Nvidia festlegen.

Du legst dich mit keinem Monitor auf eine Grafikkarte fest, da egal welche Karte du drin hast diese ein Bild auf dem Monitor erzeugt.
Nur kannst du nicht mit jeder Karte das zusätzliche Feature (Free-/Gsync) nutzen.
 
Pict schrieb:
Dann kann ich also mit meiner Intel iGPU auch adaptive sync. von einem AMD Free-Sync Monitor ansprechen ? :rolleyes:
theoretisch ja, denn FreeSync / Adaptive Sync ist im Vesa Standard, G-Sync nicht. Heißt also, wenn Intel FreeSync bzw. eigentlich ja Adaptive Sync nutzen möchte, dann können sie das "einfach" per Software implementieren. Bei G-Sync müssen sie erstmal bei Nvidia anfragen und Lizenzen zahlen.

Die Bezeichnung "AMD Free-Sync Monitor" ist dahingehend falsch, denn FreeSync / Adaptive Sync gehört nicht AMD.
 
Zuletzt bearbeitet:
Das gibts doch nicht ..... :freak:

Ich will endlich wieder mal vernünftig spielen können in 1440p und aufwärts. Sorry, AMD, aber ---> EPIC FAIL!

Werde heute Abend dann mal Benchmarks und Preise des grünen Lagers vergleichen. Bock habe ich keinen, überhaupt nicht, aber ich seh auch nicht ein, dass ich mir von AMD die Intensität (m)eines Hobbys diktieren lasse (ja, von "dikitieren" kann man bei einem gewissen Fanboyniveau schon sprechen, AMD nutzt die Treue ja schon gewaltig aus), bzw. die Möglichkeit, diesem mit entsprechender Qualität nachkommen zu können .... :rolleyes:
 
Pict schrieb:
Dann kann ich also mit meiner Intel iGPU auch adaptive sync. von einem AMD Free-Sync Monitor ansprechen ? :rolleyes:

Wenn sie es unterstützen, wie sie zunächst vor hatten (schon 2015 haben sie davon geredet), ja. Du wirst damit zwar die von AMD entwickelten Special Features nicht nutzen können, aber Adaptive Sync würde definitiv funktionieren, da AMD nur darauf aufbaut. Bsp: Adaptive Sync über HDMI gibts nur per FreeSync.

Was gibts da nicht zu verstehen?
 
Zuletzt bearbeitet:
Ja, es ist traurig wieviele doch (vermeintlich)h technikaffine Menschen nicht mal den Unterschied zwischen Adaptive Sync (VESA Standard) , FreeSync (Treibername von AMD) und G-Sync (proprietäre Lösung von nvidia) kennen (wollen?).

Aber das Marketing der Hersteller als auch die Presse inklusive Computerbase verwenden ja zumindest den Begriff FreeSync so inflationär als Synonym für Adaptive Sync... Kein Wunder :rolleyes:
 
Zurück
Oben