News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

Hallo zusammen,

@ IXI_HADES_IXI

IXI_HADES_IXI schrieb:
Selbst 100 Watt zum Beispiel was eine andere Karte mehr an Strom verbraucht ist kaum der Rede wert.

Das stimmt so nicht. Ich habe das bei mir selbst ausprobiert. Wenn ich 4-5 Stunden am Tag spiele, macht das zwischen 0,3-0,5 kwh aus, je nach Spielebelastung. Bei Rollenspielen wie Pillars of Eternity I u. II merke ich gar nicht, wie die Zeit vergeht, da waren es sogar schon 7 Stunden am Stück manchmal.

100 Watt mehr sind eine Menge. Und wie gesagt, es bleibt ja nicht bei den Stromkosten. Es geht auch um eine erhebliche Abwärme, die da noch mit einher geht, die verschiedene zusätzliche Auswirkungen hat. Man sollte sich da nicht zu sehr auf den Strompreis bezogen Einengen. Bei so einer Menge hängt noch viel mehr dran wie z. b. gestiegenem Kühlungsaufwand.

So long...
 
  • Gefällt mir
Reaktionen: Obvision, Neronomicon und Zero_Point
In Spielen wie Pillars of Eternity laufen solche Karten aber auch nichtmal annähernd auf 100% Last. Man kann es auch übertreiben.
 
Hallo zusammen,

@ Aldaric87

Aldaric87 schrieb:
In Spielen wie Pillars of Eternity laufen solche Karten aber auch nichtmal annähernd auf 100% Last. Man kann es auch übertreiben.

Lies bitte meinen Beitrag nochmal. Ich habe nicht umsonst "je nach Spielebelastung" betont. Und meine Daten rühren übrigens genau von "Pillars of Eternity" her. Bei fordernderen Spielen dürfte der Wert höher sein.

Ich kann das übrigens mit Daten belegen. Gemessen mit FritzDECT200 inkl. Protokollierung. Der Vergleichsmaßstab war übrigens meine alte Sapphire Radeon 5850 Xtreme und die jetzig im Profil aufgeführte Zotac GTX 1060 Amp!. Die 5850 Xtreme zieht ungefähr ca. 50 Watt mehr als die GTX 1060 Amp!.

Nur der Vollständigkeit halber.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wonder Boy
Eine 1080ti zum guten Preis ist also immer noch eine konkurrenzfähige Karte vom Preis-Leistungsverhältnis.
(ich besitze keine)
 
@Luxmanl525

Ehrlich jetzt? Bei Grafikkarten die teilweise über 800 kosten ist das für dich so wichtig?

Selbst wenn du das schaffen solltest 5 Stunden 365 Tage im Jahr zu zocken sind das je nachdem bei welchen Stromanbieter man ist vielleicht so 20, 30 Euro mehr relativ grob gerechnet aufs Ganze Jahr.

Da sind die Unterschiede von zum Beispiel der billigsten und der teuersten 2080 schon um einiges höher als das Kinkerlitzchen hier.
 
  • Gefällt mir
Reaktionen: valnar77, ReignInBlo0d und Alexdr
f0cu$ schrieb:
Vega betreibt man ohne Probleme bei 180-220W und liegt von der Performance über Stock Turbo.

Endlich bringt das mal jemand auf den Punkt.

Ich glaube gut 90% der Anwender die eine RX VEGA 56/64, GTX 1080 Ti oder gar RTX 2080/2080 Ti besitzen, sind Leute die sich zumindest einigermaßen mit Hardware und Software auskennen. Da wird getweakt, gemacht, getan.

Nur bei der RX VEGA spricht auf einmal jeder von 250 Watt, 300 Watt, ach noch mehr, obwohl mit Radeon WattMan das einfachste OC/UV Tool zur Verfügung steht.

Meine Sapphire Nitro+ RX VEGA 56 läuft mit „maximal“ 1,0v bei 1.672 MHz was in Games und Benchmarks in 1.580 bis 1.590 MHz Realtakt resultiert. Dazu den HBM2 auf 925 MHz.

Ergebnis: Sowohl in Benchmarks (Score) als auch in Spielen (fps) durschnittlich ~ 3-5% vor einer RX VEGA 64 und GTX 1080.

Verbrauch: 190 - 205 Watt.

Bei 975mV liege ich bei 180-190 Watt und erreiche noch immer RX VEGA 64/GTX 1080 Niveau.

Hurricane271 schrieb:
Das ist nicht immerso es wird explizit dem hiesigen Markt angepasst, jüngstes Beispiel RX 590 UVP 279$ bei deiner Rechnung wäre die Karte bei ca. 335€ an den Start gegangen. Doch zum Release gab es mit 259 €das günstigste Modell und 289€ das teuerste.

Völlig richtig.

Gerade bei AMD war es schon zigfach so, dass der Europreis (inkl. Steuern) 1:1 dem Dollarpreis (exkl. Steuern) entsprochen hat.

Ich gehe davon aus, dass die Radeon VII selbst als Custom Modell von Sapphire für 699,— Euro zu haben sein wird.

Wenn’s für den Preis RTX 2080 Leistung gibt, hat AMD/RTG einen sehr guten Job gemacht.
 
  • Gefällt mir
Reaktionen: ZeroCoolRiddler, dister1, derSafran und 6 andere
IXI_HADES_IXI schrieb:
Ich finde es super das AMD wenigstens etwas auf den Markt bringt. Sollte man wirklich 2080 Niveau erreichen ist das doch super. Nvidia bekommt ein klein wenig Konkurrenz und das ist immer gut. 16 GB HBM Speicher sind mal eine Ansage.

Raytracing ist eh ein Witz und wurde auch stark kastriert damit es in BF überhaupt läuft.

Viele meckern über den Stromverbrauch. Ganz ehrlich keiner würde es am Jahresende merken ob er eine Nvidia oder AMD Karte im Rechner hat. Der Verbrauch ist eh super effizient geworden. Selbst 100 Watt zum Beispiel was eine andere Karte mehr an Strom verbraucht ist kaum der Rede wert.

Keiner zockt 24 Stunden am Tag und 365 Tage durchgehend. Da ist mir Leistung und mittlerweile ein hohes Powerlimit viel wichtiger als mir über ein paar Watt Unterschied Gedanken zu machen, was am Jahresende einen der geringsten Beträge ausmacht im ganzen Haushalt. Da gibt's wesentlich bessere Stromfresser als den PC 😉

Da bin ich ganz bei Dir !
Wenn man bedenkt was ein Intel/nVidia an mehr in der Anschaffung kostet (CPU,MB,GPU),
lass ich ein AMD System (CPU/GPU) für diesen mehr Betrag ca. 3 Jahre 365,25/24/7 laufen um quitt zu sein ...

MfG, Föhn.
 
  • Gefällt mir
Reaktionen: McTheRipper, T800SH, IXI_HADES_IXI und eine weitere Person
Hallo zusammen,

@ IXI_HADES_IXI

IXI_HADES_IXI schrieb:
Ehrlich jetzt? Bei Grafikkarten die teilweise über 800 kosten ist das für dich so wichtig?

Sagen wir mal so. Wenn eine GPU bei ähnlicher Performance 100 Watt o. mehr genügsameren Strombedarf aufweist, ist das für mich kein Pappenstiel und ehrlich gesagt wenig Tolerabel, auch wegen der weitergehenden Auswirkungen, die dies haben kann.

Aber wie so oft, so etwas ist eben auch abhängig von der Persönlichen Gewichtung. Mir ist es eben nicht unwichtig wenn die Performance sonstig auf ähnlichem Level liegt.

IXI_HADES_IXI schrieb:
Selbst wenn du das schaffen solltest 5 Stunden 365 Tage im Jahr zu zocken.

Da mach dir mal keine Sorgen. Ich spiele keine 5 Stunden am Tag Respektive an 365 Tagen im Jahr. Es ging um die Verdeutlichung, daß so ein erhöhter Strombedarf eben auch weitergehende Auswirkungen haben kann und man das vielleicht nicht so ganz auf die leichte Schulter nehmen sollte.

IXI_HADES_IXI schrieb:
man ist vielleicht so 20, 30 Euro mehr relativ grob gerechnet aufs Ganze Jahr.

Pro Jahr. Ist schon richtig. Aber nimm mal meinen Fall, ich behalte meine GPU`s immer relativ lange. 3 Jahre ist eher das geringste. Die Radeon 5850 hatte ich über 7 Jahre. Die Nvidia 8800 GTS 640 davor hingegen lediglich 4 Jahre. Also weniger als 3 Jahre hatte ich eine GPU noch nie. Also das Ganze mal wenigstens 3 Nehmen. Da kommt schon was zusammen und dies nur beim Strompreis. Und sag mir jetzt nicht, das würde sich nicht Lohnen.

So long...
 
Zuletzt bearbeitet:
@Loro Husk

lisa hat gesagt, dass die radeon 7 auch für content creators taugt. das ist im grunde ein hybrid aus rx vega und vega frontier.

@SKu

ich glaube es sind gerade die enthusiasten, die genau diese vega kaufen. für jeden anderen ist das ding nur sinnlos teuer und die sind mit irgendeiner plug&play nvidiakarte (ob 300 oder 1000€) besser bedient. vega ist ne karte für bastler und overclocker (oder leute mit passender compute workload). und das sind in der regel die "richtigen" enthusiasten. da muss es beim lesen des datenblatts kribbeln. den längsten balken suchen und viel geld in hardware buttern kann jeder mit entsprechendem kontostand.

das pcb mit L bzw. vllt sogar U förmigem vrm, mit absoluten high end mosfets/powerstages (bin schon gespannt, ob sich da was geändert hat), ein 7nm core mit 4 hbm2 stacks, 16gb kapazität und 1tb speicherbandbreite sind halt, zumindest für mich, um einiges spannender als so ne schnöde 0815 gddr5/6 gpu.

@f0cu$

ob die performance rein aus der bandbreite kommt, ist noch unklar. und man weiß auch garnicht, wie schnell die karte wirklich ist. wir haben drei spiele vs vega 64 und 2080. das ist gemessen an der performancebandbreite von vega 64 überhaupt nicht aussagekräftig. von spiel zu spiel kann die performance von vega64 im verhältnis zur passenden nvidiakarte gut und gerne mal +- 50-60% schwanken.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Hollomen und SVΞN
Hier mal paar speckige Zahlen:

345.png
 
  • Gefällt mir
Reaktionen: T800SH, Terminator-800, onkel-foehn und eine weitere Person
Benji21 schrieb:
Ist das normale G-Sync nicht eh bald Geschichte oder soll das neben der VSync Adaption weiterlaufen? Weiß nicht ob es technisch möglich wäre am Modul was zu machen und evtl. mit Firmware nachzureichen, Kohle würde Nvidia ja trotzdem noch an der Hardware verdienen.
Ja, Gsync lebt weiter für HighEnd Monitore. Ich denke die Öffnung von NV in Richtung Freesync hängt mit der Radeon 7 zusammen. NV will verhindern, dass die Leute die wesentlich günstigeren Freesync Monitore mit einer jetzt ausreichend Leistungsfähigen AMD Karte paaren. Viele haben ja momentan die Kombi Freesync Moni + NV Graka, da liegt der Schritt zu AMD hin ja mehr als nah. Gleiches gilt für Nutzer die beides neu brauchen, da hat/hatte AMD einfach das bessere PL. Jetzt hat NV dies allerdings etwas relativiert. Einzig die breite offizielle Unterstützung der Freesync Monitore bleibt man schuldig. Damit hat man als Nutzer der sonstigen 535 Modell keine Garantie das es funktioniert. Abgesehen davon das hier NV die Käufer jahrelang wieder gemolken hat.
 
  • Gefällt mir
Reaktionen: McTheRipper
Faust2011 schrieb:
Man sollte nicht vergessen, dass Vega und Vega 20 keine reinen Gaming-Chips sind. Insbesondere dieser hier, Vega 20, hat eine krasse FP64-Leistung!
Falls AMD das DP zu SP Verhältnis unbeschnitten bei 1:2 belassen hat...
Dann allerdings wären 700$ ein Schnäppchenpreis!
 
Ich frag mich wie man sich über 300 Watt verbrauch so aufregen kann eine RTX 2080 FE zieht auch 230W und eine gescheite Custom 260W. Bei Vega64 konnte man schon mit 2 Klicks den verbrauch auf 260-280W setzen bei sogar besseren Taktrate = mehr Performance. Hauptsache der PC leuchtet wie ein Tannenbaum #Gamer2k19
 
  • Gefällt mir
Reaktionen: McTheRipper, Benji21 und onkel-foehn
Bin bereit für das Popcorn und die Rechtfertigungsversuche der NVIDIA basher der letzten Monate angesichts der Preispolitik. 699 Euro. lol. Das ist mal locker 100 Euro über der Hoffnung, eher 150. Und die hat nicht mal Addonchips analog Turing.

Das Retterkostüm, das viele hier AMD imaginär schon angezogen hatten, kann direkt ins kommende Osterfeuer zum verbrennen.
Schade, das wird NVIDIA so null jucken....
 
duskstalker schrieb:
ob die performance rein aus der bandbreite kommt, ist noch unklar. und man weiß auch garnicht, wie schnell die karte wirklich ist. wir haben drei spiele vs vega 64 und 2080. das ist gemessen an der performancebandbreite von vega 64 überhaupt nicht aussagekräftig. von spiel zu spiel kann die performance von vega64 im verhältnis zur passenden nvidiakarte gut und gerne mal +- 50-60% schwanken.

Ich habe mich da auf die Erfahrung mit Vega bezogen. GCN 5 profitiert bei zu geringer Bandbreite kaum von höheren GPU-Takt. Das wird sich selbst mit ein paar Optimierungen mit 7nm nicht ändern.

Einer Vega 56 hilft man mit 1150MHz HBM und damit 600gbit Bandbreite bei realen 1500-1550MHz ein gutes Stück auf die Sprünge im Vergleich zu 800MHz. Selbst im Vergleich zu 1100MHz legt man noch gut ~5% drauf.
Um das selbe über den GPU-Takt zu erreichen, sind schon gut ~50-75MHz nötig bei 1100MHz HBM. Das heißt bei Vega ordentliche 40-60W mehr. Den hohen HBM-Takt bekommt man für lau.
 
Hm eine günstigere 8GB Variante wäre sicherlich auch nicht schlecht gewesen. Der riesige HBM-Speicher dürfte die Kosten deutlich in die Höhe getrieben haben ohne (für Spieler) deutliche Vorteile zu bieten.
 
  • Gefällt mir
Reaktionen: onkel-foehn
Zelle_92 schrieb:
ich muss ja immer wieder lachen wenn sich hier über den Stromverbrauch, den die Karte ja garantiert haben wird :freak:, ausgelassen wird. Macht im Jahr vermutlich keine 25€ im Vergleich zu ner grünen Karte aus... Die richtigen Stromfresser liegen in jedem Haushalt wo anders


Zur Karte:
16GB HBM ist ein Traum! Während nVidia denkt "Hey, die geben sich doch auch mit 8 bzw. 6 GB Speicher zufrieden" haut AMD hier richtig einen raus. Preislich etwas höher als ich gedacht hätte, aber mal abwarten was Custom Modelle kosten werden. und der UVP fällt ja eigentlich eh recht fix

Endlich mal einer der verstanden hat was für ein unfassbarer Unsinn diese Verbrauchs Diskussionen nicht sind. Hab das noch nie geschnallt ehrlich gesagt. Als wenn die Leute 24/7 die graka auf Volllast laufen lassen.

Beim Speicher bin ich raus. Wenn nvidia 6 oder 8 gig verbraucht lese ich überall nur Speicherkrüppel.
Wenn AMD dann 16 gig HBM! raushaut, isses den Leuten zu viel?
 
  • Gefällt mir
Reaktionen: valnar77, T800SH, Benji21 und eine weitere Person
nicK-- schrieb:
Es gilt die Benchmarks abzuwarten aber für mich ist es eine spannende Karte. Ich brauch kein Raytracing, die Technik ist super braucht aber sicher noch mehr als 2 Generationen bis sie gut zur wird. Der Punkt ist aber 599€ würde ich AMD sofort in die Hand drücken wenn sie wirklich auf RTX 2080 Niveau ist. Ich würde sogar mein Gsync opfern wobei ich eh den Monitor wechseln möchte und Freesync Monitore bekanntlich günstiger sind.
Die Karte kommt für 839, nicht 599. Also NVidia Abzock-Preise. Nur dass es bei AMD natürlich gerechtfertigt ist abzuzocken. NVidia ist ja böse.
 
Zurück
Oben