News Wochenrückblick: AMDs Vega ist überall

harrysun schrieb:
Ich finde, wir sollten uns auf das Aussehen der Referenzkarte konzentrieren. Denn über Aussehen kann man sich nicht streiten:

Ich finde das Referenzdesign der Vega einfach wunderhübsch :evillol:

Genau
Wieso bekommen die Referenzmodelle
Von Nvidia/AMD keine tollen Bildchen mehr
Bei Nvidia war es zuletzt die 200 Serie
Und bei AMD glaub die 6000er
Das waren noch Zeiten echt schade
 
Gibt es irgendwo eine Liste von Spielen welche maßgeblich von AC in Verbindung mit AMD Karten gegenüber Geforce Karten profitieren???
 
Chismon schrieb:
Ok, dann beleuchten wir das 'mal vom Standpunkt eines Unerfahrenen/Laien, was heisst denn "poor Volta" für diesen, der vermutlich nicht einmal die Anspielung erkennt bzw. weiß, wie er diese zu deuten hat, wenn er darüber stolpert ;).

Dieser Unerfahrene/Laie muss sich dann erst von anderen erklären lassen wie es zu deuten ist (...)


Wieso erklären lassen? Also mein Vorgehen wäre: Bei Google "Volta + Grafik/Grafikkarte" suchen. Da erfährt man dann, dass es die nächste GPU Generation von NV sein wird. Wenn man dann noch weiß, was poor heißt (was man ja zur Not auch nachgucken kann), kann man einen Zusammenhang herstellen.


Wie auch immer. Es ging mir nur darum, zu zeigen, dass die überzogenen Erwartungen sich nicht völlig selbstständig aus dem Nichts gebildet haben.



Chismon schrieb:
Somit ist die ganze Aussage/Anspielung natürlich nicht ernst zu nehmen/heiße Luft, es sei denn man will daraus etwas stricken und sich im nachhinein darüber künstlich aufregen (wo es eigentlich nichts zum drüber aufregen gibt und man es mit einer Prise Humor nehmen sollte, wenn man nicht mächtig verbittert/humorlos ist).

Da muss man sich gar nicht drüber aufregen. Es gibt ja Alternativen. Ist nur peinlich für AMD, finde ich.

Groß die Klappe aufreißen und dann nicht liefern ist halt immer peinlich. In jeder Situation und in allen Lebenslagen.


Chismon schrieb:
Wenn das nicht gerade einem typischen Psychologie-Studenten passiert, der vermutlich in alles etwas hinein interpretiert, sollte die von Dir angeführte Verkettung (Hoffnung wegen "poor Volta", deswegen warten auf RX Vega, deswegen Enttäuschung durch RX Vega) wohl eher eine sehr unwahrscheinliche Ausnahme sein.

Gut, da mag ich in gewisser Weise vorbelastet sein. :p




Ist halt wirklich eine blöde Situation. Besonders die 56 hätte ich sehr interessant gefunden. Für 400€ wäre die echt klasse gewesen. Aber wenn der Preis da wie für die 64 hoch geht, no way.
 
Zuletzt bearbeitet:
Viel zu viel Aufregung um eine Grafikkarte meiner Meinung nach.

Rusty sollte vielleicht sein kleines Zimmer einmal öfter Lüften, als zu glauben, dass die Grafikkartenabwärme maßgeblich die Zimmertemperatur beeinflusst. Eher ist es der Muff, der durch einen selbst erzeugt wird, der es mit der Zeit in einem kleinen Zimmer unerträglich lassen wird.

Und wer 100 Euro Strom im Jahr Mehrkosten sieht, der muss schon JEDEN Tag mindestens 8 Stunden zocken, und das - mit Verlaub - nehme ich niemanden ab.

Ja, Vega 64 ist aus Gamer-Sicht vielleicht nicht der Hit. Ist aber auch nicht schlimm. Möglicherweise wird AMDs Zielsetzung einfach falsch interpretiert.

Ich denke, AMD hat mit Zen eine Server-CPU entwickelt, die zufälliger Weise erstaunlich gut auch für Endkunden zu gebrauchen ist. Und Vega ist eigentlich eine Workstation-Karte mit der man zufälliger Weise auch recht gut spielen kann, wenn auch nicht optimal.
Aber weder Zen noch Vega sind meiner Meinung nach ursprünglich für den Consumerbereich entworfen worden - das Geld wird ja woanders verdient. Also, who cares? Kauft man Vega halt nicht. AMD bringt Vega für Spieler einfach raus, weil es dumm wäre, da nicht auch noch ein wenig Geld mitzunehmen. Wer sich Vega trotzdem in sein System setzt, wird seine Gründe haben, die sich einem nicht unbedingt erschließen müssen. Man sollte diese Leute nicht pauschal als dumm hinstellen.

Wie gesagt, viel zu viel Aufregung wegen einer Grafikkarte.
 
Zuletzt bearbeitet:
Balikon schrieb:
Rusty sollte vielleicht sein kleines Zimmer einmal öfter Lüften, als zu glauben, dass die Grafikkartenabwärme maßgeblich die Zimmertemperatur beeinflusst.

Ähm, die Komponenten im PC sind unter Last zwischen 50 und 80 Grad warm. Überlege mal wie schnell die Temperatur ohne Lüfter steigt, und jetzt überlege mal wo die Temperatur denn hingeht, wenn die Lüfter drehen.


Ein PC unter Last bei 400-500W Gesamtverbrauch ist wie ein kleines Heizgebläse, ich merke das bei mir schon (und da sind es nur 300W gesamt) dass die Oberseite meines Gehäuses dort wo die CPU sitzt sehr warm ist unter Last, so warm wie meine Heizung wenn sie läuft.

Im Winter lasse ich die Heizung ganz schwach stehen, wenn ich am PC bin, weil der den Rest erledigt. Und im Sommer, naja, bei 25+Grad Außentemperatur bringt Fenster aufmachen auch nichts.
 
Balikon schrieb:
Und wer 100 Euro Strom im Jahr Mehrkosten sieht, der muss schon JEDEN Tag mindestens 8 Stunden zocken, und das - mit Verlaub - nehme ich niemanden ab.

Die Stromkosten sind in der Tat das dämlichste Argument, dass gegen Vega hervorgebracht wird. Nach wie vor handelt es sich bei Computer-Hardware für den Heimgebrauch NICHT um Großverbraucher.

Meine Kinder wollen mindestens jeden 2. Tag Pizza zum Abendessen, also Ofen an: das sind 6000W x 20-25 Minuten.
Den Energieverbrauch auf 300W runter gerechnet sind das 400 - 500 Minuten, als rund 6,5 - 8,5 Stunden.

Auf die 100W Mehrverbrauch einer VEGA ggü. einer 1080 gerechnet müsste ich dann zwischen 20-25 Stunden auf VEGA zocken und eine Pizza einsparen für den gleichen Energieverbrauch. :freak:
 
Der Verbrauch ist doch völlig egal. Im Fall der Vega 64 sind das noch nicht einmal 25€ mehr im Jahr die man an Strom bezahlt (im Vergleich zu einer 1080). Wer eine zu hohe Stromrechnung hat der sollte vielleicht das Licht ausschalten wenn er es nicht braucht oder mal den Stecker ziehen und nicht alles auf Standby lassen.
 
Bei manchen scheint die Stromrechnung in ihrer Einzimmerwohnung keine Relevanz zu spielen, aber ein just-for-fun Verbraucher reißt es in der heutigen Zeit bei Verwendung von sonstigem Energiespar-Equipment den Verbrach in Summe doch schon wieder ganz nach oben; persönlich versuch ich bei zwei Personen in einem DHH mit deutlich unter 2,5 kWh/p.a. zu haushalten. Hier ist der Mehrverbrauch in speziell den Wintermonaten (= Winterdepri == mehr zocken 😂) tatsächlich deutlich spürbar in der Bilanz.
 
Zuletzt bearbeitet von einem Moderator:
Taxxor schrieb:
Ähm, die Komponenten im PC sind unter Last zwischen 50 und 80 Grad warm. Überlege mal wie schnell die Temperatur ohne Lüfter steigt, und jetzt überlege mal wo die Temperatur denn hingeht, wenn die Lüfter drehen.

Die Temperatur wird auf einer verhältnismäßig kleinen Fläche abgestrahlt, das interessiert mehrere Kubikmeter Luft quasi gar nicht. Auch gut gedämmte Räume verlieren mehr, als der PC mit 300 - 400 Watt an Abwärme erzeugt.Die wenigsten werden in einem Passivhaus sitzen.
Ich wohne unterm isolierten Dach, und habe mal bei einem Heizungsausfall den Heizlüfter bemühen müssen. Bei 1000 Watt konnte der gerade mal die Temp. halten.

Taxxor schrieb:
Im Winter lasse ich die Heizung ganz schwach stehen, wenn ich am PC bin, weil der den Rest erledigt. Und im Sommer, naja, bei 25+Grad Außentemperatur bringt Fenster aufmachen auch nichts.

Siehe oben. Da haben andere Effekte mehr Einfluß, aber der PC kaum. Als ich noch in einer Mietwohnung wohnte, haben zum Beispiel meine hitzesüchtigen Nachbarn, bei denen alles unter 25° als frostig galt, meine Wohnung mitgeheizt.

@poly123: Bei 200 Watt Mehrverbrauch zu einer GTX bezahlst Du bei 10 Stunden Winter-Depri-Zocken mit einer Vega ganze 60 Cent mehr (Strompreis 30 Cent pro KWh).
 
Zuletzt bearbeitet:
@Balikon, bei meiner BF1 und D3 Playtime ist das jenseits von gut und böse 😂 Wenn nur ein PC deutlich mehr als 15% vom Abschlag ausmacht 😁
 
Shrimpy schrieb:
Kann ein Tippfehler sein und er meint GV102.
Nein, kein Tippfehler. Die GP100 und die GV100 sind die Chips für die Quadrokarten.
 
SaschaHa schrieb:
Mal davon abgesehen, dass die Behauptung, dass NV DX12.1 nicht bietet, weiterhin falsch ist, bleibt es irrelevant, solange die neuen Features ungenutzt bleiben oder keinen optischen Unterschied bewirken :rolleyes:

Was ist falsch daran dass Vega die einzige GPU ist, welche DX 12.1 vollständig unterstützt ?
Das ist schlicht Fakt und nein das kann Pascal nicht.
Pascal kann auch kein Async in Hardware
was auch ganz nett wäre wen man schon DX12. 1 drauf schreibt.
 
Zuletzt bearbeitet:
Pascal braucht keine spezielle Hardware für Async, weil die Recheinheiten auch ohne dies ausgelastet werden.
 
Balikon schrieb:
Die Temperatur wird auf einer verhältnismäßig kleinen Fläche abgestrahlt, das interessiert mehrere Kubikmeter Luft quasi gar nicht. Auch gut gedämmte Räume verlieren mehr, als der PC mit 300 - 400 Watt an Abwärme erzeugt.Die wenigsten werden in einem Passivhaus sitzen.

Wir reden aber vom Sommer, wo es draußen sowieso wärmer als drinnen ist und die Räume eher Wärme aufnehmen als verlieren.

Der Raum wo mein PC steht ist in etwa so groß wie das Schlafzimmer nebenan. Dachgeschosswohnung.

Wenn es draußen um die 30+Grad sind und ich von der Arbeit nach Hause komme, dann sind in beiden Zimmern schon mal um die 24Grad.


Wenn ich jetzt 5 Stunden vorm PC sitze, ist mein Büro am Abend sobald es draußen genug abgekühlt hat, dass ich die Fenster aufmachen kann, locker 2 Grad wärmer als mein Schlafzimmer.(Meist so 27 zu 25 Grad)

Und die einzigen Faktoren, die das Büro mehr aufheizen als das Schlafzimmer(was wohlgemerkt sogar noch ein Fenster Richtung Westen hat, wo die Sonne gegen Abend gegenscheint, das Büro hat nur eins Richtung Norden.) sind Ich und der PC.


Der Menschliche Körper strahlt im Schnitt 100W an Wärmeenergie aus, der Rechner in meinem Fall durchschnittlich 200W(zocke ja nicht die ganze Zeit)
Also kommen diese 2 Grad zusätzliche Erwärmung zu 66% durch den PC.

Mach aus den durchschnittlich 200W jetzt 350W mit ner Vega64 und ich habe direkt um die 3Grad zusätzliche Erwärmung. Und 25 zu 28 Grad macht schon was aus.

Klar, wer seinen Rechner in einem 40m² Raum stehen hat, wird davon nicht so viel merken, aber das haben die wenigsten.
 
Zuletzt bearbeitet:
@Kisser

Da gehts nicht wirklich um erhöhte Auslastung.
Optimalerweise steigt mit AC auch die Leistung, wenn die Rechenwerke schon gut ausgelastet sind.

Asynchronous Shader sind eine optionale Komponente von DX12, bei der Grafik- und Compute-Aufgaben parallel statt nacheinander abgearbeitet werden können. Statt Befehlsschlangen mit gemischten Grafik- und Compute-Befehlen mit einem sehr zeitaufwendigen und damit leistungssenkenden Context-Switch durchzuführen, werden die Aufgaben quasi im Reißverschlussverfahren in ein- und derselben Befehlsschlange abgearbeitet.
 
MrJules schrieb:
... mein Vorgehen wäre: Bei Google "Volta + Grafik/Grafikkarte" suchen. Da erfährt man dann, dass es die nächste GPU Generation von NV sein wird. Wenn man dann noch weiß, was poor heißt (was man ja zur Not auch nachgucken kann), kann man einen Zusammenhang herstellen. Wie auch immer. Es ging mir nur darum, zu zeigen, dass die überzogenen Erwartungen sich nicht völlig selbstständig aus dem Nichts gebildet haben. Da muss man sich gar nicht drüber aufregen. Es gibt ja Alternativen. Ist nur peinlich für AMD, finde ich. Groß die Klappe aufreißen und dann nicht liefern ist halt immer peinlich. In jeder Situation und in allen Lebenslagen. Gut, da mag ich in gewisser Weise vorbelastet sein. :p ... blöde Situation. Besonders die 56 hätte ich sehr interessant gefunden. Für 400€ wäre die echt klasse gewesen. Aber wenn der Preis da wie für die 64 hoch geht, no way.

Also ich habe da meine Zweifel, das jeder sich die Mühe machen würde, "poor Volta" oder "Volta" wegen der Werbung per Suchmaschine nach zu sehen und da auf viel erbauliches gestoßen wäre, zumal das jetzt auch nicht so offensichtlich/groß breitgetreten wurde in der AMD Werbung.

Natürlich haben einige das zum Anlass genommen um Ihre maßlosen/hanebüchenen Erwartungen (noch weiter) zu befeuern, keine Frage, und die feine englische Art war es seitens AMD auch nicht, sondern eher peinlich, aber schließlich hat man dafür auch mehrfach sein Fett wegbekommen bei AMD und irgendwann sollte es einmal reichen, zumal es m.E. keinen gravierenden/relevanten Schaden verursacht hat, da gibt es anderes, was weitaus kritikwürdiger ist, aber wenig thematisiert oder ins Rampenlicht gezerrt wurde.

So gesehen bleibe ich dabei, selber Schuld, wenn man das total falsch interpretiert hat, zumal diese "Botschaft" nichts präzisieren/wirklich aussagen konnte. Bleibt zu hoffen, dass beim nächsten Mal die Leute das lockerer sehen anstatt sich damit irgendwelche tollkühnen, vagen Erwartungshaltungen damit zusammen zu reimen/spinnen.

Nun wundert es mich auch nicht mehr, dass Du darauf so reagierst, wenn Du gewissermaßen vorbelastet sein könntest :D.

Naja, wolltest Du von vornherein eine Referenzkarte kaufen und umbauen (mit vernünftigem Lüfter oder Wasserblock selber bestücken) oder zum Mining nutzen, oder interessieren Dich mehr die Custom-Modelle?

Wenn letzteres der Fall sein sollte, ist das sowieso noch nicht akut und musst Du unbedingt zu den erwartenden Early Adopter Preisen zuschlagen oder würdest lieber noch auf eine Stabilisierung der Händlerpreise auf vernünftigen Niveau warten wollen, die dann wohl auch mit reiferen AMD Treibern und evt. schon vereinzelter Nutzung von RX Vega Architektur-Features in Spielen mit einhergehen würde?

Ich nehme an, dass das nicht Dein erster Grafikkartenkauf ist und denke Du konntest mit dem jetzigen Verlauf auch rechnen, zumal die AMD Preispolitik für die Custom-Modelle nicht so relevant ist (bis auf die Extrawurst-Politik mit dem Vorabexklusivstart für RX Vega Karten von ASUS, die ein einpendeln der Custom-Modell-Preise wohl künstlich noch länger hinaus zögern wird).

Vielleicht kommt die RX Vega 56 in besserer Custom-Ausführung noch vor Weihnachten für unter 450 Euro ;) ... die 199 US$ waren bei der Polaris RX 480 damals eine ähnliche Situation (für günstige Custom-Modelle musste man auch locker 50 Euro mehr hinblättern, aber wer wollte damals schon die Referenzversion haben ohne danach eingeplant noch umzurüsten oder zu minen?

Demnach hast Du die Wahl am 28.August vorangemeldet Seiten wie Mindfactory und Co. den ganzen Tag anzuklappern um eine Karte billigst - vielleicht für 410 Euro oder so - bei einem Händler für den Erstkontingentpreis abzugreifen, musst dann aber mit dem relativ lauten Lüfter leben oder umrüsten, oder eben einige Monate mehr für die Anschaffung eines Custom-Modells in ähnlich angesiedelter Preisregion einplanen ... kommt also darauf an, was wichtiger für Dich ist, Karte zum Marktstart mit viel Glück günstig in Referenzausführung oder etwas bis deutlich teurer dann irgendwann (deutlich) später ;).

Ich werde bis Frühjahr 2018 warten und dann schauen wo RX Vega 56 steht liegt in Sachen Rohleistung und Preis (bis dahin sind auch alle Custom-Designs schon lange getestet und auf dem Markt und der Treiber hatte genug Zeit zum reifen und erste Vorzeigespiele mit Nutzung von RX Vegas Architektur-Features lassen einen besseren Ausblick zu).

Gegebenenfalls werde ich noch den Voltastart abwarten, um dann eine erhoffte Preiskorrektur bei RX Vega 56 Custom-Modellen mitzunehmen oder stattdessen eher eine GTX 1070/2070 bei 12 GB vorhandener Speicherausstattung anzuschaffen oder wenn letztere nur 8 GB bietet vielleicht eine im Preis dann gesenkte/erschwingliche GTX 1080Ti mit 11GB zu kaufen.

Die weitere Warterei ist zwar ärgerlich, aber dann sollte ich erst einmal für 4-6 Jahre in Sachen GPU ausgesorgt haben und ärgere mich nicht im nachhinein jetzt eine überteuerte RX Vega kurz nach Marktstart gekauft zu haben oder eine Pascal GP104 Karte ohne komplette DX12.1 Unterstützung und mit nur 8 GB Speicher (die mangels HBCC nach 2 Jahren schon langsam knapp werden dürften, wenn jetzt schon die Polaris Mittelklasse-GPUs genauso viel Speichermenge ähnlich lange bieten) mir anzuschaffen ;).

Sehr kurzfristig rechne ich mit Preisen von 500-550 Euro für die RX Vega 56 Custom-Modelle (etwa soviel wie man anfänglich für die GTX 1070 OC Spitzenmodelle zahlen musste), kurz- bis mittelfristig mit 400-450 Euro für einigermaßen vernünftige Modelle und 450+Euro für die RX Vega 56 Topmodelle, aber genau wissen kann ich das natürlich auch nicht.

Das Referenzmodell könnte sich evt. nach Erschöpfung des Early Adopter Erstkontingents bei knapp unter 500 Euro einpendeln kurz nach dem Start, ähnlich wie bei der RX Vega 64, aber nicht ganz so übertrieben, sondern etwas erschwinglicher.
 
Zuletzt bearbeitet:
SirSilent schrieb:
Wenn AMD eins zur Genüge hatte war es Zeit.

Absolut richtig .. nur kämpft AMD mit weit weniger Budget, an einigen Stellen mehr als nV (nur GPU) und Intel (nur CPU(APU) ...

Für diese "kleine" Firma, kann man ruhig etwas mehr Zeit verlangen.
 
ralf1848: Wie im Video aber auch am Ende erwähnt wird, hat das eigentlich zu 95% damit zu tun, dass die Nvidia Karte weniger VRAM für die neuen Spiele hatte und eine Geringere Bandbreite noch dazu.

Was wir bei Vega sehen ist aber die gleiche Bandbreite und dazu weniger VRAM als die 1080Ti, also wird sie ohne weitere Optimierungen nicht näher ran kommen.
 
So meinte ich das doch gar nicht, finde in dem Video sieht man sehr schön, das die Karten recht nah beianander liegen. Ergo "altert" die AMD Karte nicht besser als Nvidias.
Ich bin da absolut deiner Meinung, und denke nicht das Vega, vor allen Dingen bei der Leistungsaufnahme noch grosse Sprünge macht.
 
Zurück
Oben