News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

DocWindows schrieb:
Wie man nun darauf kommen sollte, dass man von 16GB in Bezug auf die Lebenserwartung der Radeon Karte in irgendeiner Form profitieren könnte, erschließt sich mir sowas von überhaupt nicht.
Für mich sind die 16GB einfach nur der Tatsache geschuldet, dass die Karte überhaupt nicht primär für Gaming gedacht ist, sondern für Prosumer. Da macht es erst recht keinen Sinn mit Gamingargumenten um die Ecke zu kommen.

die 16gb sind der bandbreite geschuldet. hbm funktioniert eben so. wenn sie 8 hätte ware die bandbreite halbiert und die r7 zieht einen guten teil ihres leistungsplus aus der bandbreite von 1TB.
die architektur von vega lässt das eben nur so zu.
16gb sind ja ne feine sache, aber hbm2 ist eben teuer.
 
  • Gefällt mir
Reaktionen: Dittsche
DocWindows schrieb:
Wie man nun darauf kommen sollte, dass man von 16GB in Bezug auf die Lebenserwartung der Radeon Karte in irgendeiner Form profitieren könnte, erschließt sich mir sowas von überhaupt nicht.

Es wird gemunkelt das die neue Konsolen-Generation mit 16GB VRAM daherkommen, das würde Spieleschmieden dazu anstiften die auch in Anspruch zu nehmen.
Ich bezweifle aber Stark das der Schritt vom aktuellem VRAM-Verbrauch zu 16GB in kurzer Zeit passiert.

Und die 16BG VRAM sind eine Notwendigkeit um mehr Bandbreite zu bekommen, Vega 56/64 waren durch die Bandbreite beschränkt. Overclocking vom HBM gab um einiges mehr an Performance als den Chip zu übertakten.
Deshalb sind die Hynix-Karten auch der schwarze Peter, die kommen selten über 1GHz.

Edit: zu langsam :D
 
Ich frage mich, ob die Karte HDMI 2.1 bietet...dann würde ich sie nach einiger Zeit für 600-630 Euro inklusive der 3 Spiele kaufen.
 
DocWindows schrieb:
Ich bin echt erstaunt wie man es schafft sich so über VRAM zu streiten. Über zig Seiten jetzt schon.

Ich kapier's auch nicht. Selbst die 8GB meiner 1080 habe Ich noch nie über 7GB füllen können... aber vielleicht bin Ich auch einfach zu doof, wenn selbst AAA mit Texturmods nicht ausreichen :confused_alt:
 
  • Gefällt mir
Reaktionen: Mort626
Joshinator schrieb:
Es wird gemunkelt das die neue Konsolen-Generation mit 16GB VRAM daherkommen, das würde Spieleschmieden dazu anstiften die auch in Anspruch zu nehmen.

Konsolen haben ein strenges Kostenbudget. Und MS und Sony haben schon vor längerer Zeit aufgehört ihre Konsolen groß zu subventionieren. Schneller VRAM in überbordendem Maße ist ein nicht zu unterschätzender Kostenfaktor. Heißt: Glaub ich erst wenn ich es sehe. Mehr als 500 Dollar können sie für ne Konsole wohl nicht nehmen ohne deren Erfolg am Markt zu riskieren.

Joshinator schrieb:
Und die 16BG VRAM sind eine Notwendigkeit um mehr Bandbreite zu bekommen

Das mag sein. Die Menge in GB bietet mir als "Gamer" aber trotzdem keinen logisch rationalen Vorteil.

BTICronox schrieb:
Ich auch einfach zu doof, wenn selbst AAA mit Texturmods nicht ausreichen :confused_alt:

Ich bin mir sicher dass man das erzwingen kann. Die Frage ist halt ob es Not tut die Details so aufzureißen wenn man in auffallend vielen Fällen in Tests lesen kann, dass erst die Stufe Hoch -> Mittel sichtbare Nachteile bringt.

Ich mag gern glauben dass das in 4k anders ist als in FullHD oder WQHD. Aber dann wäre wieder die Frage ob die Karte an sich die Last bewältigt und gut spielbare Frames auf den Bildschirm bringt.
 
Zuletzt bearbeitet:
die karte hätte zum cryptomining boom erscheinen sollen dann wäre AMD wohl dick im geschäft gewesen . und alle hätten die 699+Mwst gerne :daumen::king::evillol: bezahlt
 
  • Gefällt mir
Reaktionen: MeisterOek und McTheRipper
stainless_steve schrieb:
Wenn die Leistung wirklich einer 2080/1080ti entspricht, dann ist das top. Jedoch bei diesem Preis (699$) werden sie nur die AMD Jünger erreichen. 500$ für die Leistung und die Karten gehen weg wie die warmen Semmeln.
Im Grunde gebe ich dir Recht. Aber AMD muss auch Geld verdienen. Ich gehe mal davon aus, das die Marge dank neuer Node und HBM2 Speicher nicht sonderlich hoch ist. Zu verschenken haben sie nichts.
Ergänzung ()

Chesterfield schrieb:
die karte hätte zum cryptomining boom erscheinen sollen dann wäre AMD wohl dick im geschäft gewesen . und alle hätten die 699+Mwst gerne :daumen::king::evillol: bezahlt
Der Preis wäre instant auf der doppelte explodiert^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: duskstalker und Cpt.Willard
Toprallog schrieb:
Im Grunde gebe ich dir Recht. Aber AMD muss auch Geld verdienen. Ich gehe mal davon aus, das die Marge dank neuer Node und HBM2 Speicher nicht sonderlich hoch ist. Zu verschenken haben sie nichts.

Sicher, wenn Sie keinen Gewinn vorweisen wird es nicht gut gehen. Ich kann hier halt leider nur vom Ideal reden, denn ich befürchte, bei einem preislichen Gleichstand greifen die meisten zu Nvidia, da RT fähig und (wahrscheinlich) weniger verbauch. Ich hoffe halt das die Verkaufspreise deutlich unter der UVP liegen, ich würde mir sehr wünschen dass AMD wieder ordentlich Marktanteile gewinnt, denn Konkurenz belebt das Geschäft.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Fraggball
Die beste Karte in dem Leistungsbereich wäre die 1080ti.
Diese gibts aber nicht mehr zu kaufen.

Also hat man die Wahl zwischen Vega II und der 2080.

Jeder kann also für sich entscheiden was für Ihn besser ist.

16 GB sind schon sexy. Gebraucht wirds nur selten.
RTX wird kommen ... Aktuell kein Mehrwert.

Optimiert werden beide Karten auch beim Verbrauch nicht so weit auseinander liegen.

Also wohl wirklich eine Entscheidung pro Speicher, oder pro RT.

Für mich außerhalb meines Preisbereichs, aber eigentlich sollte man dankbar sein für mehr Auswahl.

Stattdessen kommt nur Gebashe wie unfähig AMD doch ist.

Dabei bringen Sie das was momentan möglich ist.
Mehr ist einfach nicht drin und kommt irgendwann in der Zukunft.

Warum man aber die Karte hätte zurückhalten sollen, oder etwas zu kritisieren hat, ergibt sich mir kein Sinn.
Ist doch gut, wenn man entscheiden kann.

Die Entscheidung Adaptive Sync zu unterstützten, ist doch auch nur eine Zwangsmaßnahme um die Aktionäre in irgendeinem Rahmen noch positiv zu stimmen. Dabei rausgekommen ist aber bisher auch nur halbgares .. 12 von >400 Monitoren. Respekt.
 
  • Gefällt mir
Reaktionen: fahr_rad, Cpt.Willard, Benji21 und 3 andere
Wieder mal eine typische Graka ,,wir müssen was fettes zeigen" Marketing Vorstellung. Ich hatte gehofft was zu dem 560 Nachfolger+ Ryzen3 zusehen. Immerhin der eine Bench vom Ryzen war schon ein guter Ausblick was zu erwarten ist. Da muss sich Intel warm anziehen.

Die neue Graka mit 16 Gb VRam ist ein Wink zu NV rüber. Aber ansonsten völlig belanglos für 103,45% der Nutzer.
Es ist klar das AMD/ NV erst die Op Karten bringt um was zu zeigen und den Rahm abzuschöpfen. Aber was soll das jetzt?
Die neuen Graks, die es gibt (oder noch kommen) bewegen sich zw. 369- 1300€! Völlig Gaga! Was uns alle betrifft.
AMD zeigt lieber was, man aus dem alten Chip noch herausquetschen kann.

Bloß nichts zeigen von den neuen Grakas, man könnte ja auf den Trichter kommen, dass man liber ein paar Monate noch wartet auf die Neuen.


Blade0479 schrieb:
Hab mir gerade mal eine 2070 geholt für 430 inkl. Versand.. mal testen was die kann.. Phönix von Gainward.

Du brauchst die nicht zu kaufen. Tests lesen würde reichen, um zu sehen, was die kann.^^:freaky:
 
Chesterfield schrieb:
die karte hätte zum cryptomining boom erscheinen sollen dann wäre AMD wohl dick im geschäft gewesen . und alle hätten die 699+Mwst gerne :daumen::king::evillol: bezahlt

Die Karte wird auch jetzt in vielen mining Systemen landen. +62% mehr Leistung in opencl und 1TB/s Speicherdurchsatz.
Selbst wenn am Ende nur 25% mehr Leistung bei gleichem Strombedarf der Vega64 im mining hängen bleiben sollten.
Ich warte mal die custom Designs/Preise/Benchmarks ab und dann gucken ob ich meine RX5XX in Rente schicke.

AMD Strategie ist doch offensichtlich man konzentriert sich vollkommen auf den HPC/Deep Learning/Datacenter Bereich, sowohl im CPU als auch GPU Geschäft, da macht man die Gewinne und nicht beim bunten Pixel hin und her schubsen vom Xten Battlefield Aufguss.
 
larz schrieb:
Und dass das einen Unterschied macht wenn man ein paar Stunden am Tag spielt und diese dann nicht immer auf Volllast läuft, ist doch am Jahresende verschmerzbar.
Da sollten manche lieber mal ne Schachtel Kippen weniger rauchen und sparen mehr, als wenn die Karte mal paar Watt weniger verbraucht.

Und nicht nur CPU Bottleneck, denn ich weis ja nicht ob dir Framelimiter was sagen ;)
Da brauch meine Karte bei 120hz nicht noch mehr als 120 FPS laufen, ganz zu schweigen von manchen Spielen die eh mit 60FPS Limit laufen

Und ganz ehrlich, wer viel Leistung will und dann rummosert, dass die Karte etwas zu viel nimmt.. naja...
Ist wieder wie beim Auto, heh ich will viel Leistung, aber bitte Sparsam :lol::lol:
Framelimiter ist bei kompetitiven shootern für mich störend, glaubs oder nicht. Zusätzlich führt radeon chill zu ärgerlichen lags bei mir.
Dass ich lieber effiziente Produkte kaufe, ist wohl objektiv eine vernünftige Entscheidung.
Und dass man einfach bei allem auf den Stromverbrauch pfeift, scheint wohl eher eine sehr altmodische und umweltfeindliche Ansicht zu sein.
Wenn ich 2 produkte zum selben preis X mit der selben Leistung bekommen kann. Wieso sollt ich mich dann aktiv für das ineffiziente entscheiden?
Btw 50watt mehr abwärme merkt man im sommer sehr schnell, wer anderes behauptet ist ignorant.
 
Wow, bei einigen scheint hier richtig die Doppelmoral durchzukommen. Solche Probleme, irgendwas zu rechtfertigen, habe ich als Fanboy meines Geldbeutels zum Glück nicht.
Und als solcher sage ich mal, dass mir ein 700€ Produkt mit der Leistung einer 2080 zu teuer wäre. Dementsprechend war auch die 2080 zu teuer (zum Glück gibts nun erste gute Custom Modelle um 590€, das wäre für mich gerade so noch in Ordnung)
Müsste ich heute eine Karte kaufen, wäre es die 2080.
So wird das ein Großteil der Gamer (nicht Prosumer!) auch sehen.

Und für die 700€ wird sich die Karte nicht all zu oft verkaufen, die 2080 hat sich offensichtlich auch eher schlecht verkauft.
Es freut mich zu sehen, dass die Kunden Nvidia zumindest etwas für die hohen Preise abgestraft haben. Gleiches Schicksal könnte halt jetzt auch (zurecht) AMD erleiden.

-=Azrael=- schrieb:
HPC/Deep Learning/Datacenter
In den Bereich hängt AMD vom Marktanteil doch noch mehr hinterher als im Gaming? Speziell Deep Learning ist doch eine Nvidia Domäne dachte ich.
 
Oneplusfan schrieb:
In den Bereich hängt AMD vom Marktanteil doch noch mehr hinterher als im Gaming? Speziell Deep Learning ist doch eine Nvidia Domäne dachte ich.

Natürlich deswegen drängt man da rein und ist anscheinend auch erfolgreich, warum sonst hat wohl Lederjacke so reagiert? Intel ist doch auch gehörig unter Druck.
 
Wolfgang schrieb:
AMDs CEO Lisa Su hat auf der CES die Radeon VII vorgestellt. Dabei handelt es sich um eine Grafikkarte für Consumer und damit auch für Spieler, die auf die eigentlich für professionelle Zwecke entwickelte Vega-20-GPU setzt. Der Name deutet mit der römischen Zahl „VII“ auf die 7-nm-Fertigung hin.

Zur News: Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar


update zu ein paar sachen:
https://imgur.com/a/hdUiRU5
Ergänzung ()

abenteuR schrieb:
1080Ti kann man immer noch kaufen :rolleyes:


für 900€ :freak: oder für 650 meine aours mit über nem jahr restgarantie :D
 
  • Gefällt mir
Reaktionen: Benji21
Captain Mumpitz schrieb:
Netzteile: "Ich kauf gleich ein 700w NT, ich hab gern etwas Puffer"
AMD VII: "WER ZUM TEUFEL BRAUCHT 16GB VRAM?!"

Wenn du dir ein 750 Watt Netzteil kaufst und bereit bist dafür 50€ mehr auszugeben, dann ist es einzig deine Entscheidung.

Wenn du dir eine schnelle AMD Grafikkarte kaufen willst, kannst du eine Vega VII mit 16GB kaufen, egal ob du sie je brauchen wirst.

Merkst du was?

Vermutlich gibt es einfach Menschen, denen es bewusst ist, dass 8GB HBM die Karte mindestens um 100€ verteuern und lieber eine günstigeren Vega Refresh hätten. So wie man seitenweise RTX kritisiert hat, darf man die fehlende Wahlmöglichkeit bei AMD ebenfalls kritisieren. Der "Aufpreis" dürfte hier auf jeden Fall noch höher sein.
 
r4yn3 schrieb:
Bei den meisten Kommentaren hier kann ich mir nur an den Kopf fassen.
Seit der Präsentation der Instinct Karte MI60 weiß man was Vega20 kann, rund +25%.
Es hat nur schlicht niemand für möglich/realistisch gehalten, dass AMD den teuren "HPC" Chip als Consumer Lösung bringt.

Doch AMD bringt ihn wirklich. Salvage hin oder her, für recht humane 699$ mit dicken 16GB HBM2.
Die Leistung in Games kann man teilweise sogar recht beachtlich steigern und mit Glück kann man mit dem zweit stärksten Nvidia Consumergegenpart gleichziehen.

Man bietet also eine echte Alternative. Und die Leute sind nur am maulen.
Bäh zu hoher Verbrauch, bäh zu viel Speicher, bäh zu spät.

Was hat man denn bitte erwartet? Den Ti Killer für 499€, morgen lieferbar, angetrieben von einem Perpetuum Mobile?

Haters gone hate, egal was AMD macht.


Also ich hab mindestens ein Perpetuum Mobile zweiter Ordnung erwartet kann ja nicht sein dass ich noch Strom für die anderen Komponenten bereit stellen muss!

und zu den Rum-mäulern wundert es mich auch, gibts hier wirklich jemanden der wegen Dingen sich beschwert die noch garnicht bekannt sind? Einfach mal Tests abwarten bevor man sich beschwert kann doch nicht so schwer sein.

Ja ich selbst hätte mir ne bessere Vega 64 rum gleichen Preis einer solchen gewünscht aber man kann nunmal nicht alles haben.
 
  • Gefällt mir
Reaktionen: r4yn3 und Acedia23
BTICronox schrieb:
Ich kapier's auch nicht. Selbst die 8GB meiner 1080 habe Ich noch nie über 7GB füllen können... aber vielleicht bin Ich auch einfach zu doof, wenn selbst AAA mit Texturmods nicht ausreichen :confused_alt:
oder du verwendest die "falsche" Software, spiel mal zb.: final fantasy, da wirst du sehen können wie sich der vram füllt.....
einfach mal "die Welt" aus einem anderen Blickwinkel betrachten, oder über den berühmten "Tellerrand" schauen.
Über den VRAM Verbrauch zu diskutieren ist sinnlos, da jeder andere Anforderungen (Software/Hardware) hat.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
spezialprodukt schrieb:
lückenfüller hin oder her - wenn ich kein bock hab auf nvidia und meine 980 ti ersetzen will, nenn mir mal ne alternative :)

Gleiche Situation bei mir :D
 
Zurück
Oben