Test AMD Radeon VII: Benchmarks mit aktuellen Spielen und (Async) Compute

onkel-foehn schrieb:
Was für ein Trashgelaber !
(siehe Anhang) und das ist nur ein Beispiel (niemand spricht von immer) und es gibt auch noch mehrere / andere,
hab jetzt nur keinen mehr Zeit zu verschwenden, denn bei diesem Niveau ist das für die Katz ...MfG, Föhn.

Ja, ich habe mich vertan, hatte es noch anders in Erinnerung, was das Niveau betrifft, nun, musst nur deine eigene Zeilen lesen......
 
  • Gefällt mir
Reaktionen: onkel-foehn
@***

So wie auf diesem Bild werde ich meine RX 480 einbauen, wie man sieht ist dort mehr Platz wie auf den MB direkt. Das Gehäuse ist ein MSI MAG Pylon und ist schon für diese Einbauposition vorbereitet. Da ich eine M.2 NVME im unteren Anschluss und eine M.2 im oberen Anschluss verbaut habe wird warme Luft auch auf diese geblasen und der Chipsatz bekommt auch noch sein Teil ab. Wie es bei anderen Boards aussieht kann ich leider nicht sagen, aber bei den meisten sitzt ja der Chipsatz auch das die warme Luft da drauf geblasen wird.

MSI B450M Mortar.png


MSI MAG Bunker.png

In dem Video sieht man ganz gut was UV bringt. Hier ist zwar noch ein alter Treiber in Verwendung und die ganzen Tools funktionieren nicht, aber mal sehen wo die Reise hingeht.

 
  • Gefällt mir
Reaktionen: onkel-foehn und Chaos Theory
@Müritzer
danke für das Video. ich schaue mir das morgen an. ich muss leider dringend ins bett. morgen wird ein harter tag.

mieze123 schrieb:
Die Verfügbarkeit wurde im Vorraus schon etwas durchleuchtet, bzw spekuliert. Spätestens als bei Mindfactory Lagernd >5 Stück stand, war mir klar das die Stückzahlen sehr gering sein müssen.
also ich habe zahlen zwischen 5000 und 40000 stück gesehen. daher wusste ich nicht was ich glauben sollte.
ich glaube Mindfactory hatte mehr als nur 5 karten auf Lager. bei der MSI version jedenfalls.
schau mal z.B. auf der Mindstar seite rechts neben RX 570. dort sieht man, dass noch über 50 karten auf Lager sind. jetzt klick auf die RX 570 drauf und dann steht dort "5 auf Lager, 2 pro Kunde".
https://www.mindfactory.de/Highlights/MindStar
p.s.: Ich sehe die 2080 und R vii im Moment mehr oder minder gleich auf. Nvidia hat halt wie üblich bei der Unreal Engine die Nase extrem weit vorn. Hat mich dennoch die letzten Jahre nicht davon abgehalten Titel mit dieser Engine zu spielen :D
ich sehe das genauso. ich könnte mit beiden karten leben. sie haben beide vor- und nachteile. ich bin ein sehr ungeduldiger mensch. :) sollte ich demnächst eine günstige RTX 2080 finden, wird eine gekauft und umgekehrt.

so. gute nacht zusammen. bis morgen.
 
KuroSamurai117 schrieb:
Mindestens sicherlich nicht:

http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Preis-1275195/

Ersten Modelle kommen schon unter 1000,-. Nächsten mit A-Chips um 1070,-. Die sind Custom Modelle mit gutem Kühler.

Macht keine 2080 Ti zum Schnäppchen aber von 729,-,teilweise 749,- bis 829,- für die R7 sind es dann keine 50%.

Bisher gibt es lediglich ein Modell. Und er meinte halt NICHT explizit auf genau dieses eine Modell bezogen.
Weil da wären von den UVP 729 € + 50 % = 1095 € und davon gibt jede Menge.
Sowie auch 100 % mehr ausgeben kannst ohne Mühe (749 zu 1499 €) sogar bis zu 1849 € für ne 2080 Ti.

MfG, Föhn.
 
onkel-foehn schrieb:
Und mit 749 € bei Release ist sie zudem noch "günstig", da die 1080 Ti und die 2080 jenseits der 800 € gekostet haben.
Und eine Geforce 2 Ultra hat mal über 1000DM gekostet und hatte nur einen Bruchteil der Leistung. Also ist die Radeon 7 ein totales Schnäppchen. :freaky:
 
Trieber reifen nach, als positiv darstellen. Da wird eine Hardware mit Alpha Treiber released, und es wird von manchen fast noch als Feature gefeiert.
Es ist ja auch so ewig Gestrig Performance von Anfang an zu liefern. Fine Wine Technology heißt es nun...
Von Verfügbarkeit brauchen wir erst garnicht anfangen.
Hardware für den "Sieger der Herzen" Club.

Die Karte wird sich früher oder später vollkommen ebenbürtig der RTX 2080 einreihen.
Der ganze Release verlief aber einfach nur zum heulen...

just my 2 cents
 
  • Gefällt mir
Reaktionen: patison
Die Karten sind doch von der Leistung her total ebenbürtig. Wer großen Wert auf Lautstärke legt, sollte eben die RTX nehmen. Wer etwas zukunftssicheres für 4K-Gaming will, sollte die Radeon nehmen.
So einfach ist das eigentlich :)
 
  • Gefällt mir
Reaktionen: shortex, Redundanz und onkel-foehn
Zero_Point schrieb:
Und eine Geforce 2 Ultra hat mal über 1000DM gekostet und hatte nur einen Bruchteil der Leistung. Also ist die Radeon 7 ein totales Schnäppchen. :freaky:

Also Deinem Emoji am Ende zu Folge, hoffe ich das Dein Post nicht bitterer Ernst war ?!?
Somit will ich just trotzdem meinem Rechtfertigungsdrang erliegen.
Natürlich war Anno Dazumal ein vergleichbares P/L Verhältnis DM / FPS (Balkenlänge bei Benches)
selbsterklärend mit anderer Auflösung / Features ...

MfG, Föhn.
 
Also ich denke mit anständigen Kühllösungen wäre die VII jetzt auch nicht schlecht dagestanden, wenns für den jetzigen Preis ein gutes Custommodell gegeben hätte.

In den letzten GPU Generationen gab es immer noch sehr gute Leistungssprünge dadurch und das war bei der 1080 ja auch kein Stück anders, dort war ne FE deutlich schlechter als eine GLH oder GRP
 
Kandira schrieb:
Die Karten sind doch von der Leistung her total ebenbürtig. Wer großen Wert auf Lautstärke legt, sollte eben die RTX nehmen. Wer etwas zukunftssicheres für 4K-Gaming will, sollte die Radeon nehmen.
So einfach ist das eigentlich :)
Die 2080 und R7 sind mMn. nicht mal heute schnell genug für 4k und das sage ich der mit ner 1080Ti quasi die gleiche Leistung hat. Wenn ich bei neueren Titeln schon soviel Details rausnehmen muss das ich Kotzen könnte wäre WQHD die bessere und Zukunftssichere Wahl gewesen. Klar sind die AMD Karten im Alter meist an ihren GeForce Konkurrenten vorbeigezogen, das macht aber eine 290X nicht zur 4k Karte nur weil sie alt ist. Ich glaube das Thema 4k Gaming mit 60 FPS braucht noch ein paar Generationen bis es (auch preislich) Salonfähig ist und wenn die Preise weiter so absurd hoch sind wird sich das Ganze eher ausdünnen.
 
  • Gefällt mir
Reaktionen: Laphonso
Max007 schrieb:
ct fazit:

"Die Radeon VII lässt AMD im avisierten Marktsegment wieder ein Wörtchen mitreden. Gegenüber der GeForce RTX 2080 ist sie in Spielen meist auf Augenhöhe und verfügt über ein großzügigeres Speicherpolster. Dafür ist sie deutlich lauter und energiehungriger als Nvidias RTX-Karten. In Compute-Anwendungen nimmt sie es meist sogar mit der wesentlich teureren GeForce RTX 2080 Ti auf und deklassiert in einigen Spezialbereichen sogar diese. "

Liest sich doch gleich ausgeglichener.

Zero_Point schrieb:
Man könnte auch sagen: "nicht sonderlich schnell, zu laut, zu energiehungrig, aber mit viel Speicher. Den Preis verschweigen wir besser."

Nee, könnte man nicht. Aber scheinbar hast Du bei "Speicherpolster" aufgehört, zu lesen. Denn c't sagt zusammengefaßt: "Die Karte ist beim Spielen mit der 2080 auf Augenhöhe, und wer mehr mit der Karte macht, als nur spielen, erhält einen verdammt guten Allrounder mit viel Speicher, der mit der Ti gleichzieht und in einigen, speziellen Anwendungen sogar schneller ist". Das ist es nämlich, was Radeon VII ist: Ein Allrounder, der alles kann, wobei "Gamen" nicht ganz so im Fokus steht - wie schon immer bei Vega. An was erinnert mich das bloß? Richtig! An Ryzen! Der ist ja zum Spielen auch "nur" gut, zum Arbeiten aber verdammt gut.

Das will bloß nicht in Eure Gamer-Köpfe hinein. Wer nur spielen will, ist mit Nvidia möglicherweise besser beraten, und sich in diesem Usecase für Nvidia zu entscheiden, ist ja auch ok. Die Schlußfolgerung, dass Radeon VII deshalb eine Enttäuschung und ein Rohrkrepierer ist, ist jedoch falsch. Andere werden die Karte für Ihre Stärken in der Produktivität lieben, insbesondere jetzt, wo ja die Pro-Features für die Radeon VII freigeschaltet werden. Da ist es zu verschmerzen, dass man sich beim Spielen "nur" auf 2080-Niveau befindet. Und P/L erscheint dann auch in einem gänzlich anderen Licht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, Sun-Berg und Hardwarious
Kandira schrieb:
Die Karten sind doch von der Leistung her total ebenbürtig. Wer großen Wert auf Lautstärke legt, sollte eben die RTX nehmen. Wer etwas zukunftssicheres für 4K-Gaming will, sollte die Radeon nehmen.
So einfach ist das eigentlich :)
Das sehe ich auch so... Bald kommt der 4k Bildschirm und da werde ich mir sicher keine TI für 1400 euro holen.
Ich bin total zufrieden. Ich hab jetzt die 8 Grafikkarte und immer im Wechsel mit Nvidia und AMD :) cool
 
Volkimann schrieb:
Nein, weil technisch bedingt die 16GB sein müssen. Wurde aber nun auch schon im ursprünglichen Test oft genug erklärt weshalb ein 8GB Modell nicht der Kracher geworden wäre.
Echt?
Ich denke eher dass es so für AMD einfacher war, die OEM bekommen vermutlich das ganze HBM + Chip Package und dürfen das verbauen. Das also statisch und entsprechend unflexibel und teuer.

Genau genommen hätte man sonst wohl eher 12 GB mit 3 Stacks gebracht was wohl am sinnvollsten gewesen wäre.

Denke aber eher dass AMD nicht damit rechnet hier viel abzusetzen, deswegen hat man die einfachste Variante gewählt. Einfach die weniger guten Profi Beschleuniger als Consumer GPU knapp über Selbstkostenpreis raushauen, da is es dann recht egal ob und wie viele lieferbar sind. Das hängt davon ab wie viele in Profi Segment über sind.
 
kisser schrieb:
Und nicht zu vergessen die fehlende Zukunftsfähigkeit ohne Raytracing. Bald werden dann die AMD-Fanboys wieder jammern, weil alle Entwickler auf Nvidia programmieren (müssen!) und dadurch AMD benachteiligt ist.

Die Spielestudios entwickeln was Geld einbringt. Das sind nicht Spiele für eine Handvoll PC Spieler, die eine RTX besitzen und Spiele am liebsten als Key kaufen.

RTX werden wir nur in von Nvidia mit geld und manpower gesponserten Spielen sehen, oder wenn die Konsolen es können.
 
  • Gefällt mir
Reaktionen: Rage
PickNick schrieb:
Die 2080 und R7 sind mMn. nicht mal heute schnell genug für 4k und das sage ich der mit ner 1080Ti quasi die gleiche Leistung hat. Wenn ich bei neueren Titeln schon soviel Details rausnehmen muss das ich Kotzen könnte wäre WQHD die bessere und Zukunftssichere Wahl gewesen. Klar sind die AMD Karten im Alter meist an ihren GeForce Konkurrenten vorbeigezogen, das macht aber eine 290X nicht zur 4k Karte nur weil sie alt ist. Ich glaube das Thema 4k Gaming mit 60 FPS braucht noch ein paar Generationen bis es (auch preislich) Salonfähig ist und wenn die Preise weiter so absurd hoch sind wird sich das Ganze eher ausdünnen.
Ich sehe nicht mal meine 2080Ti als lupenreine 4K Karte, welche die Spiele auf den fordernden Engines 2019, 2020 und 2021 stemmen wird auf best settings und mit Puffer über 60 fps.

Die R7, 1080Ti, 2080 und 2080Ti sind für mich die 4 Karten, mit denen man die Transition zu 2560*1440 WQHD tragen kann fps technisch und bei Ultra gfx Settings.
Ergänzung ()

DonL_ schrieb:
Das was du hier von dir gibst, ist totaler Blödsinn, da etliche Modelle gerade mit Referenzdesign der Vega, bei Mindfactory nicht mehr gelistet sind, die sie aber zu tausenden abgesetzt haben.
Ändert nichts an dem Bezug, nämlich dass die NVIDIA Basher (wer sucht, finden zahlreiche Zitate hier von Usern) behauptet haben, die 2000er Serie wird ein Flop und sich nicht verkaufen.
Wie üblich, ist DAS "Blödsinn". Nur darum ging es. Der R7 Frust wird halt weiterhin an Nvidia ausgelassen.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Schwindler:
da die 2080FE eigentlich eine OC2080 ist, ist der Vergleich schon stark am Schwanken. Vergleicht mal mit der guenstigsten nichtOC von KFA/Galax unter 700eur...
 
Luxmanl525 schrieb:
Das kannst du aber genauso gut anders Sehen. Nämlich daß Nvidia mit einer GPU im 16 Nm Verfahren gleichwohl vor der Spitzen-GPU des Gegenspielers im 7 Nm Verfahren liegt. Diese dabei gerade einmal an die schnellste Pascal GPU, seines Zeichens eine GTX 1080 Ti, kommt, die zudem ca. 2 Jahre auf dem Buckel hat.

So long...
Ich mag mich irren, aber wie oft kam das vor, dass die Oberklasse der aktuellen Gen die top high End der letzten geschlagen hat? Ganz selten oder?!

Im Bezug auf kostendeckenden VK, bzw. den Preis, sehe ich das mal so.
DIE die nicht zur MI50 taugen, wären Müll, somit keinerlei Einnahme. Den HBM wird man auch nicht je nach DIE-Menge, die man nutzen kann, einzeln kaufen und letztlich ist es so oder so wichtig sich irgendwo auf dem Markt zu präsentieren, auch wenn man nicht ganz oben mitspielt, scheinen die Abnahmen der VII ja gewährleistet zu sein.
Selbst mit "Verlust", wäre es weniger Verlust, als wenn die VII gar nicht gelauncht worden wäre.
 
Zuletzt bearbeitet:
Nach meinem Eindruck möchte AMD mit der Radeon VII endlich auch wieder im Highend-Marktsegment Präsenz zeigen. Das gelingt AMD auch mit einer Grafikkarte, die der 2080 im Bereich Leistung leicht unterlegen ist, ein schlechteres/lauteres Kühlsystem besitzt und kein Raytracing beherrscht, dafür aber etwas günstiger ist und deutlich mehr VRAM bietet. In bestimmten Szenarien wird es Anwender geben, die mit einer Radeon VII mehr anfangen können als mit einer 2080. Es ist für uns Kunden immer gut, wenn es in allen Marktsegmenten Konkurrenz gibt, die zu Preissenkungen bzw. verbesserter Technik führt, wie bei den CPUs seit der Einführung von Ryzen. Daher freue ich mich über die Radeon VII. Kaufen werde ich sie aber nicht, da ich derzeit mit meiner Grafikkarte zufrieden bin.
 
  • Gefällt mir
Reaktionen: Colindo und Cpt.Willard
kisser schrieb:
Und nicht zu vergessen die fehlende Zukunftsfähigkeit ohne Raytracing. Bald werden dann die AMD-Fanboys wieder jammern, weil alle Entwickler auf Nvidia programmieren (müssen!) und dadurch AMD benachteiligt ist.

Ich weiß nicht wie alt du bist, aber hast du eine Ahnung wie lange es dauerte bis sich echte 3D-Grafikkarten durchgesetzt hatten? Das dauerte Jahre, von dem Drama um die verschiedenen Systeme will ich erst gar nicht anfangen. Für jedes Spiel extra Patches besorgen, in einer Zeit in der das Internet in den Kinderschuhen steckte.

Raytracing ist derzeit völlig untauglich bei NVidia. Warum? Ich investiere tausende Euro in 4k Hardware um dann das Spiel in Full-HD zu zocken weil die Hardware nicht potent genug ist RT in 4k zu rendern? Ernsthaft? Solange AMD dieses Feature nicht auf Konsolen bringt wird kein Studio auch nur eine Sekunde an freiwilliges Implementieren von Raytracing in seine Spiele denken. Erst wenn NV das Geld auf den Tisch legt um den Mist zu finanzieren werden die Entwickler was tun. Reden wir über das Thema in zwei bis drei Grafikkartengenerationen, oder besser in der übernächsten Konsolengeneration. Denn bisher sieht es nicht so aus als ob die neue XBox oder Playstation Raytracing unterstützen wird. Vorher wird da eher wenig passieren. Am ehesten bei PC exklusiven Titeln, aber werden immer rarer wenn wir ehrlich sind.
 
  • Gefällt mir
Reaktionen: IBISXI, Kalsarikännit und iceshield
DonL_ schrieb:
selbst meine UV Vega56 schlägt in einigen Titeln die 1080
Ah? Welche wären dass denn? Liebäugele ebenfalls mit einer V56.
Merci
 
Zurück
Oben