News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

Joshinator schrieb:
Es wird gemunkelt das die neue Konsolen-Generation mit 16GB VRAM daherkommen, das würde Spieleschmieden dazu anstiften die auch in Anspruch zu nehmen.
Ich bezweifle aber Stark das der Schritt vom aktuellem VRAM-Verbrauch zu 16GB in kurzer Zeit passiert.
Ein Grund der dagegen spricht (und auch hier teils Anlass für die Kritik an dieser Karte ist):
Grafikspeicher ist verdammt teuer.
Bereits die 8GB HBM Speicher auf den RX Vega Karten sollen 160$ gekostet haben. Wenn die Preise immer noch so hoch sind hätte die Radeon VII in einer 8GB Variante fast 140€ günstiger sein können, was bei einer mutmaßlich etwas schlechteren Leistung vermutlich dennoch ein gutes Angebot gegenüber Nvidia gewesen wäre, da die Karte bei vermutlich deutlich besserer Leistung im Preisbereich der teureren RTX 2070 Modelle gelande wäre.

Gerade die Konsolen dürfen auf dem Endkundenmarkt nicht mehr als 400-500€ kosten um von der breiten Masse (großteils noch jugendliche) noch bezahlbar zu sein.
16GB GDDR6 Speicher kosten schon 176$ dann rechnest du mal mindestens den selben Betrag noch mal für ein entsprechend leistungsfähiges SoC, + BR-Laufwerk, Gehäuse, Kabel, Verpackung und Zubehör, beiliegender Controller, beiliegende Spiellizenz, Aufwand für Logistik, die Händler wollen auch noch was dran verdienen und die Forschung hab ich noch garnicht mit einbezogen.
Selbst wenn man von vornherein davon ausgeht, dass die Konsole unter dem Herstellungspreis verkauft wird und sich durch Abgaben bei Spielverkäufen und Onlinepässen finanziert bleibt nicht viel Spielraum um da plötzlich die übelste High-End Hardware in eine 400€ Kiste zu setzen.
Naheliegend wäre es daher, dass auch die neuen Konsolen nicht so viel teuren Grafikspeicher verbaut haben und man entweder direkt bei den 12GB, welche die One X verbaut hat bleibt, oder maximal auf 16GB hoch geht. (Dabei teilen sich CPU und GPU aber vermutlich wieder einen gemeinsamen Pool.)
 
xexex schrieb:
Es ist mir durchaus bekannt, dass es ohne die 16GB nicht die Bandbreite gegeben hätte, das ist doch aber nicht das Problem der Käufer oder?

Es soll tatsächlich Lösungen geben, die 2080 Leistung zu erreichen ohne dafür 16GB Speicher verbauen zu müssen, die der Kunde auch dann bezahlen muss wenn er es nicht benötigt. Zudem hast du als Kunde nicht einmal die Wahl zwischen einer 16GB und einer langsameren und günstigeren 8GB Variante in 7nm.

Darf man nun hier im Thread nicht die fehlende Wahlmöglichkeit kritisieren? Was AMD hier präsentiert hat ist eine fast unveränderte Grafikkarte aus dem Profisegment, damit sie überhaupt irgendwas präsentieren können. Reiner Lückenfüller den eigentlich niemand braucht.
Eine Content Creator Karte halt, aber für Gamer halt Performance aus dem Sommer 2016 und 2,5 Jahre zu spät, um Nvidia zu ärgern, zumal nicht für diesen Preis.

Und was ein Dev gesagt hat im AMD Forum, zitiere ich nochmals:
“As a gamedev/prosumer:
The AMD card has Massive amounts of raw compute potential. Likely to edge even the 2080ti in some tasks. that HBM 16GB stack is massive.
But Nvidia is too far ahead architecturally. In the past year i've wanted to play with Neural Nets and it turns out the really simple test projects you download to mess with only work on CUDA. All the main TF/Torch/Coffee libs are only available with cuda. Some have CL backend support but good luck getting those to work.
The HIP/ROCm compatibility layer only supports linux so you can't just casually mess with it without either dualbooting or running a second GPU and passing through the AMD GPU to the linux. Nvidia will work anywhere.
The Massive FP16 speed is also a factor in nvidia's favor. As well as being potentially lower powered / quieter.

And worst of all they didn't say anything about HDMI 2.1 for the Radeon VII, so it's safe to assume it doesn't have it."



Sieht eher mau aus....
 
Zelle_92 schrieb:
ich muss ja immer wieder lachen wenn sich hier über den Stromverbrauch, den die Karte ja garantiert haben wird :freak:, ausgelassen wird. Macht im Jahr vermutlich keine 25€ im Vergleich zu ner grünen Karte aus... Die richtigen Stromfresser liegen in jedem Haushalt wo anders


Zur Karte:
16GB HBM ist ein Traum! Während nVidia denkt "Hey, die geben sich doch auch mit 8 bzw. 6 GB Speicher zufrieden" haut AMD hier richtig einen raus. Preislich etwas höher als ich gedacht hätte, aber mal abwarten was Custom Modelle kosten werden. und der UVP fällt ja eigentlich eh recht fix

Hi

Das sind dienigen welche bei Grafikkarten sich über den Stromverbrauch aufregen, aber kein Problem mit Intel CPUs haben wo man den Stromverbrauch im Gegensatz zur Angabe auswürfeln kann und zwar nach oben hin.

Mal die Tests abwarten.

Gruss Labberlippe
 
Laphonso schrieb:
aber für Gamer halt Performance aus dem Sommer 2016 und 2,5 Jahre zu spät,
soso, 2 jahre zu spät.

die anforderungen für The devision 2 sind raus. da steht die "2 jahre zu späte" karte neben einer 2080ti
und die "neue" 2060 von NV wäre die alte karte mit ihren NUR 6gb vram.
dann noch - mind. 11gb vram für die höchsten einstellungen.

vielleicht ist die "sinnlose,Alte,zu teure" radeon vII doch nicht so schlecht? wie viele hoffen?!

ubi_tctd2_specs_sources-final.jpg
 
  • Gefällt mir
Reaktionen: Benji18
Jyk schrieb:
Ich finde es eher komisch das AMD trotz 7nm es "nur" auf RTX2080 Performance bringt selbst bei Low Level API Benchmarks. Was läuft da bei AMD, dass man selbst mit kleinerer Fertigung es nicht schaft an Nvidia vorbeizuziehen. Vielleicht werden die Benchmarks später mehr zeigen aber alleine das AMD mit der RTX2080 vergleicht stimmt mich pessimistisch.

Auf dem Papier haben wir also wieder eine Vega nur mit einen Shrink, vielleicht bringt die nächste Architektur mehr aber irgendwie habe ich leider keinen Grund diese Karte als große Konkurrenz zu sehen. Ich hoffe das wird nicht ewig so bleiben.
Das stimmt jetzt so auch wieder nicht. Wenn DX12 bzw Vulcan richtig genutz wird ist die Vega sehr weit vorne. Siehe Doom und strNge Brigade.
Die Rohleistung ist wesentlich höher als nvidia pendants.
 
pupsi11 schrieb:
soso, 2 jahre zu spät.

die anforderungen für The devision 2 sind raus. da steht die "2 jahre zu späte" karte neben einer 2080ti
und die "neue" 2060 von NV wäre die alte karte mit ihren NUR 6gb vram.
dann noch - mind. 11gb vram für die höchsten einstellungen.

vielleicht ist die "sinnlose,Alte,zu teure" radeon vII doch nicht so schlecht? wie viele hoffen?!

Anhang anzeigen 741495
Ob das nicht auch ziemlich entspannt in 4k max auf der 2080 läuft wird sich ja bald zeigen. Ich bezweifle stark das es da ein Problem geben wird.
 
Ehrlich, ob die Graka 200 oder 300 Watt zieht, was interessiert das vom Stromverbrauch?
 
  • Gefällt mir
Reaktionen: nicK--
pupsi11 schrieb:
die anforderungen für The devision 2 sind raus

Seit wann sind denn so halbgare, meistens komplett willkürliche Anforderungsangaben relevant? Man braucht sich nur mal die CPU Anforderungen ansehen und schon weiß man, dass man die Tabelle in die Tonne kloppen kann.
Ich möchte an der Stelle auch daran erinnern, dass des öfteren in solchen Tabellen ein Ryzen 3 1300 mit nem i7 4790k gleichgesetzt wird.
Also bitte, daraus kann man doch nicht ernsthaft etwas schlussfolgern.
 
Labberlippe schrieb:
Hi

Das sind dienigen welche bei Grafikkarten sich über den Stromverbrauch aufregen, aber kein Problem mit Intel CPUs haben wo man den Stromverbrauch im Gegensatz zur Angabe auswürfeln kann und zwar nach oben hin.

Mal die Tests abwarten.

Gruss Labberlippe
Hi, ich hab nen 6700k und bevor ich mir nen 9900k kauf gewöhn ich mir lieber das Zocken ab. Aber schön dass du alle, die mit Tatsachen kommen, unter pauschalverdacht stellst komplette Heuchler zu sein.
Warum ists für manche Menschen so schwer zuzugeben, dass etwas stimmt, das auf Fakten und Zahlen basiert?
Die Karte ist etwas ineffizient und daher nicht so beeindrucken, wie sie hätte sein können. Wir haben uns von 7nm mehr erwartet.
Vermutlich ist die Vega Architektur einfach eine Einbahnstraße?!
Oder willst du mir was andres erzählen?
Hier im Forum hat einer 43€ im jahr unterschied vorgerechnet bei mäßig intensiver Nutzung.
Solange Papa/Mama den Strom zahlen ist das kein Argument, da haste Recht...Für jeden vernunftbegabten und verantwortungsvollen Menschen jedoch, sollte etwas ökonomischeres und damit ökologischeres Herangehen an solche Überlegungen durchaus als zumutbar betrachtet werden.
 
Ich finde die gpu ja zeitlos schön =)

Warum gibt es sowas nicht mal von powercoler ? Arez usw...
Ergänzung ()

Cr@zed^ schrieb:
VII - oder V2 gefällt mir :D
Mal Tests abwarten
V2 wär mal so richtig Rakete
 
Oneplusfan schrieb:
Also bitte, daraus kann man doch nicht ernsthaft etwas schlussfolgern.
das lustige ist - das DU aber daraus etwas schlussfolgerst!
bringst du auch fakten oder nur heiße luft?
 
Ich finde die Strompreisnummer auch ein bisschen albern, kaum jemand kauft sich eine Karte nicht nur weil sie viel Strom braucht. Turing ist ja auch nicht grade sparsam.
Es gibt vernünftige Kritikpunkte gegen die r7:
-gleiche miese Preispolitik wie nivida. Mehrleistung in neuer generation mit saftigem 200 Euro mehr msrp zum Vorgängermodell.
-teurer und erstmal nutzlos grosser 16gb hbm2 Speicher aufgrund der alten und nicht sonderlich überzeugenden vega Architektur.

Und auch gute seiten:
- endlich Auswahl und dadurch Konkurrenz im wqhd high refreshrate und 4k Bereich.
- wahrscheinlich ein gutes Teil für content creator die gerne mal zocken.
 
Caramelito schrieb:
@BTICronox
Bei der 780ti mit 3gb sagte man auch easyyy.
Was wäre die 780ti gut gewesen mit mehr Vram.

Eine 780ti bricht bei The Division aber sowieso ein, unabhängig vom RAM. Meine 1080 bei entsprechender Auflösung übrigens auch.

Und was soll heißen "wäre gut gewesen mit mehr RAM"? Eine 1080 ist gut 2,5x schneller als eine 780ti, auch ohne entsprechende Auslastung des RAM.
 
Aldaric87 schrieb:
Raytracing an sich ist in seiner jetzigen Form doch mehr als Sinnlos. Ein ganzes Spiel damit am Markt, wirklich beeindruckend....nicht.

Hast Recht! Trotzdem hat selbst AMD bestätigt das die selbst daran arbeiten!

Es ist einfach die Zukunft, selbst wenn man es nicht einsieht! Und dann gibt es noch DLSS was kein Gimmick ist.

Ich für meinen Teil bin froh bei Nvidia zu sein, das einzige was bei AMD besser wäre ist die Software Oberfläche und 16GB Vram.

Toll werd ich in den nächsten 4 Jahren nicht brauchen.
 
@Xes, dir ist aber bestimmt schon klar, das deine Rechnerei ne Milchmädchenrechnung ist? Schon mal was von Großhandelspreisen gehört, das man je mehr kauft, es billiger wird?
 
Mal davon abgesehn das der Preis auch nicht "so ohne" ist, sehr gut das Nvidia den Konkurenten im Nacken hat.
Jetzt noch bisschen mehr Leistung und die nächste könnte auch wieder eine AMD sein.
 
@frankyboy1967
Sicher, aber auch das hat irgendwann Grenzen denn irgendwo wollen auch die Zulieferer noch etwas verdienen.
 
Labberlippe schrieb:
Hi
Das sind dienigen welche bei Grafikkarten sich über den Stromverbrauch aufregen, aber kein Problem mit Intel CPUs haben wo man den Stromverbrauch im Gegensatz zur Angabe auswürfeln kann und zwar nach oben hin.

Der Stromverbrauch ALLER CPUs "würfelt sich" nur nach oben hin aus, wenn man den Turbo aktiviert hat. Einfach deakt. und schon ist das vorbei.:evillol::freaky:
 
Zurück
Oben