News Überblick: Gerüchte zur Radeon RX Vega drehen sich im Kreis

Zuletzt bearbeitet:
@ tidus1979
auch möglich
es ist eben sehr viel möglich von 0% - 50%+ ist alles drin
wobei die wahrheit wohl irgendwo dazwischen ligen wird
 
diese benchmarkergebnisse sind noch mit äußerster vorsicht zu genießen...die benchmarks und treiber müssen ja erst an die neuen shader angepasst werden...dh für diese karten enwickelte spiele könnten durchaus schneller laufen als auf konkurrenzkarten...was aber wirklich gebraucht wird, ist viel mehr energieeffiziens...tja und die deutlich antwort von nvidia ist ja auch schon in sicht...
 
Mir Wurst ob die Karte 300W braucht, meine 2 R390X halten sich auch nicht zurück. Wenn die Vega GTX 1080 Niveau hätte wären das bei mir 80% Leistung meiner 2 Karten zusammen bei halbem Verbrauch (wobei 1 Vega für das was ich so spiele immer noch nicht reichen würde)
 
Lars_SHG schrieb:
Bei AMD ist der Unterschied Referenz / Custom ja meist zu vernachlässigen, bei nVidia hingegen sind das in den letzten Jahren deutliche Unterschiede gewesen.

Aber auch nur bis Maxwell, bei Pascal ist das wieder relativ egal, ob die Karte jetzt mit 1800 MHz oder 2000 MHz läuft, auf die ~11% Takt kommt es dann auch nicht mehr an. Bei Kepler und Maxwell war das noch ganz anders, da waren auch mal schnell 30% drin.
 
@Cuxnase

Seit Maxwell bringt TBR bei NV 20-30% Leistung und viel Effizienz.
Bei AMD sollen die Verbesserungen mit TBR im einstelligen Prozentbereich liegen?

Wohl eher nicht.
Wenns anständig angepasst ist, mindestens 15%.
 
Weiß man schon ob es unmittelbar nach Siggraph auch unabhängige Test der RX Vega geben wird, zb. bei CB oder PCGH ?
Nicht das auf der Siggraph Veranstaltung von AMD nur geschönte und auf RX Vega geschnittene Test gezeigt werden.
 
Viper80511 schrieb:
Livestream von AMD wird es morgen keinen geben, muss man nix zu sagen. https://twitter.com/VideoCardz/status/891316283576393728

Schrank schrieb:
AMD hat verlauten lassen, dass es keinen Livestream für das Vega-Launch-Event morgen geben wird.
Das verhießt nichts gutes, naja wenigstens kann ich dann zeitig ins Bett. :o
https://twitter.com/RadeonPro/status/891109514845372417
https://www.reddit.com/r/Amd/comments/6qb9tl/amd_confirms_they_wont_be_livestreaming_the/

?
 
Botcruscher schrieb:
Immerhin taugt das Ding nicht zum Coins schürfen. Da sind wenigstens normale Preise möglich.

Mit so einer Vorhersage wäre ich vorsichtig, denn momentan sind auch Karten, die eigentlich nicht ohne Abstriche für Krypto-Miner geeignet sind im Preis überzogen. Die Nachfrage verlagert sich dann auf den Restmarkt, so dass dort auch die GPUs knapp werden und Händler hier und da Reibach machen können (siehe Preisanstieg bei GTX 1080 und GTX 1080Ti Modellen).

Aktuell ist der denkbar schlechteste Zeitpunkt um eine Grafikkarte zu kaufen, denn die Preise sind exorbitant für das Gebotene (oft schon für über ein Jahr alte GPUs deutlich höhere Preis als zum Marktstart).

Wenn man keine RX Vega Referenzkarte in etwa zum empfohlenen Marktpreis AMDs kaufen kann (der auch in Anbetracht des Mining-Booms natürlich höher angesetzt werden könnte als ursprünglich angedacht), dann wird vermutlich dort auch spätestens bei den Custom-Modellen (die wohl erst frühestens einen Monat nach der Referenz im Handel eintrudeln dürften, das war bei Polaris ja auch nicht viel anders) den Mining-Boom mitbezahlen müssen.

Es ist auch gut möglich, dass man selbst die Referenzkarten wegen Chipknappheit und hohen Bestellvolumina - somit schlechter Händlerverfügbarkeit - außerhalb der traditionellen Spielerschaft (also Mining-Firmen, die Zwischenhändler umgehen und sich Chips per angemieteten Flugzeugen einfliegen lassen) nur/wenn überhaupt direkt zu erhöhten Preisen bekommt (die Händler sind ja auch nicht dumm und einige wissen die Gunst der Stunde sicherlich auszunutzen).


Naja, wenigstens könnte wohl eine ganze Reihe von Vega-Chips auf der Siggraph2017 angekündigt werden, wenn man dem Leak auf Wccftech Glauben schenken mag.

Schrank schrieb:
AMD hat verlauten lassen, dass es keinen Livestream für das Vega-Launch-Event morgen geben wird. Das verhießt nichts gutes ...

... but make sure you are following our tweets for the latest updates!

Haben die einen Schaden (?), als ob ich mir ein Account bei Twitter Fake News anlege würde um dann Kurznachrichten mitzuverfolgen, vielleicht passend für die Trump-Fans aber sicherlich suboptimal für den Rest :rolleyes:.
 
Zuletzt bearbeitet:
Schrank schrieb:
AMD hat verlauten lassen, dass es keinen Livestream für das Vega-Launch-Event morgen geben wird.

Bitte was? Das wird immer absurder, was hier gespielt wird.

Was kann ich denn dann überhaupt Montag morgen gegen 6 Uhr in der Früh erwarten? Wann kommen endlich handfeste Infos über die Modelle, Preis und vor allem Performance? Und wann gibts dann schlussendlich die Karten zu kaufen?
 
Blueline56 schrieb:
Weiß man schon ob es unmittelbar nach Siggraph auch unabhängige Test der RX Vega geben wird, zb. bei CB oder PCGH ?
Nicht das auf der Siggraph Veranstaltung von AMD nur geschönte und auf RX Vega geschnittene Test gezeigt werden.

immortuos schrieb:
Davon kannst du ausgehen, AMD wird da bestimmt keine neutralen "Tests" zeigen ;)
Ich denke wenn die Tester schon Samples bekommen hätten wäre schon mehr bekannt.

Hat immortous leider nicht.
Das, was AMD bisher gezeigt hat, war jedesmal nix anderes als betrug/verarsche/täuschung.
Blindtest mit gecapten fps, oder so kartoffelgames wie Prey, die auf 60 fps gelockt sind... lol.

PCGH hat bereits ne Vega seit vorgestern oder so?!
Bin mir sicher, dass es Tests pünktlich geben wird.


Und an dem Punkt, wäre ich überrascht, wenn AMD was brauchbares abliefern kann... An wundertreiber mit +30%+ Leistung glaub ich eher weniger.
Glaube auch nicht, dass AMD plötzlich nen SO enormen sprung gemacht hat, was Leistung pro Watt angeht.
Beispiel:
GTX 1060 vs. RX 580. Etwa gleich schnell, aber Stromverbrauch 120w vs. 200w (bei den Customs). Das sind +66% mehr.

+66% von den 180w einer GTX 1080 wären: Ziemlich genau 299 Watt etwa.

Würde also ziemlich passen, wenn Vega nur GTX 1080 Leistung bei 300 Watt bietet. Von mir aus 5-10% mehr, weil andere Architektur als Polaris, und damit wieder etwas verbessert etc....

Ich sehe in keinster Weise dass Vega sich mit ner 1080 ti messen könnte. Und wenn, müsste sie 100€~ weniger kosten (weil sie dabei immernoch mehr strom verbraucht und 3gb weniger speicher hat, der zudem noch minimal Langsamer ist).

Mal ehrlich... Wäre schon ein ziemlicher Fail hoch 10, wenn man 14 Monate (!) geduldig auf Vega gewartet hat, und dann die karte bekommt, die mit 300 Watt das schafft, was ne 1080 vor 14 Monaten schon mit 180-200 Watt geschafft hat. Selbst wenn man nach 14 Monaten dann 300€ spart.

Meine Meinung: Wenn Vega mit 300w verbrauch / TDP daherkommt, und NICHT 1080 ti Leistung bringen kann (egal welcher Preis aufgerufen wird); halte ich das ding für nen Flip.. Außer sie kostet sogar weniger als ne 1080. Was mit HBM2 wohl nicht passieren wird :/

Und bei dem deutlichen Unterschied im Stromverbrauch, ist Freesync auch kein deut günstiger als das technisch bessere G-Sync... 3 Jahre zocken, und vom Stromverbrauch hat man da schon 100-150€~ gespart, indem man ne GTX 1080 mit 180w hat, statt ne Vega mit 300w.


Ich hoffe wirklich sehr, dass ich positiv überrascht werde... ^^
 
An alle die sich hier über den Verbrauch aufregen: Ihr wisst aber auch schon woran das liegt ? Nvidia hat auf den GTX Karten einfach alle Chips weggelassen die man fürs Gaming nicht braucht bzw. nur ganz selten. Die haben ihre Professionellen und Gaming Karten strikt getrennt.

AMD geht einen etwas anderen Weg und verbaut auch auf den normalen Karten diese Chips die Nvidia weglässt und natürlich verbrauchen die Karten dann auch mehr Strom. Dafür kann man die normalen AMD Karten halt auch dann für andere Dinge ganz gut gebrauchen wo man z.b. vernünftige Double-Precision Leistung braucht oder wenn man etwas anderes als Spiele mit der Grafikkarte berechnen will.
 
Darkseth88 schrieb:
Hat immortous leider nicht.
Das, was AMD bisher gezeigt hat, war jedesmal nix anderes als betrug/verarsche/täuschung.
Blindtest mit gecapten fps, oder so kartoffelgames wie Prey, die auf 60 fps gelockt sind... lol.

Ja, AMD lässt sich nicht gerne in die Karten sehen. Aber ein Betrug ist es nur eine Karte zu verkaufen, die mit 4 GB Speicher beworben wird von denen nur 3,5 GB effektiv genutzt werden kann. Ich glaube du weißt von welcher Karte ich rede. Jeder weiß es.
Solange AMD so etwas nicht macht, solange dürfen sie ihre eigene Veranstaltung gestalten wie sie wollen.
 
Darkseth88 schrieb:
Und bei dem deutlichen Unterschied im Stromverbrauch, ist Freesync auch kein deut günstiger als das technisch bessere G-Sync... 3 Jahre zocken, und vom Stromverbrauch hat man da schon 100-150€~ gespart, indem man ne GTX 1080 mit 180w hat, statt ne Vega mit 300w.

Der Unterschied bei den Monitorpreisen soll sich wohl eher auf 200-300€ belaufen.

Man müsste in 3 Jahren jeden einzelnen Tag ca 4 Stunden Vollastbetrieb haben bis man mit Vega 150€(555kWh) mehr an Stromkosten bezahlt, bleiben immer noch 100€ Ersparnis vom Monitor übrig.
 
Zuletzt bearbeitet:
D0m1n4t0r schrieb:
An alle die sich hier über den Verbrauch aufregen: Ihr wisst aber auch schon woran das liegt ? Nvidia hat auf den GTX Karten einfach alle Chips weggelassen die man fürs Gaming nicht braucht bzw.

Naja, Nvidia lässt nicht Chips weg, sondern entwickelt separate Chips für Gaming- und Pro-Karten (GP110 und GP100), AMD hat dafür das Geld nicht und muss eine Chip entwickeln der beides einigermaßen kann, das ist mitunter auch der Grund warum AMD-Gaming-Karten beim Mining so beliebt sind und derzeit horrende Summen kosten.
Am Ende interessiert es aber den Konsumenten wenig warum die Karten mehr Verbrauchen.
Ergänzung ()

Taxxor schrieb:
Der Unterschied bei den Monitorpreisen soll sich wohl eher auf 200-300€ belaufen.

Man müsste in 3 Jahren jeden einzelnen Tag ca 4 Stunden Vollastbetrieb haben bis man mit Vega 150€(555kWh) mehr an Stromkosten bezahlt, bleiben immer noch 100€ Ersparnis vom Monitor übrig.

Die Monitore im Test waren ja noch nicht einmal gleichwertig oder von derselben Familie, also ähnliche Modelle, es wurde einfach ein 1100 € G-Sync Monitor mit einem 800 € Freesync-Monitor verglichen.
 
Beide 1440p, beide 100Hz, einmal IPS und einmal VA Panel, so rein von den Daten sieht das für mich gleichwertig aus.
 
Zurück
Oben