Die Assassins Creed Serie, The Division 2, Kingdome Come Deliverace, Ghost Recon Wildlands, Forza Horizon 4 etc drücken auch eine 2080Ti auf 1440p und Ultra (und samt im Prinzip unnötiger MSAA 8x Einstellungen etc) auf 60-100 fps. Die 2080Ti ist für mich die erste (und einzige) 1440p 60+ Ultra GPU überhaupt, aus reiner fps Fetischisten Sicht. Bin gespannt auf NaviPisaro schrieb:Raytracing wird doch erst in ein paar Jahren interessant. Natürlich wird AMD dann auch Raytracing beherrschen. Sollte man eigentlich wissen.
Ergänzung ()
Ist es sogar. Ich habe eine 1080 Ti und spiele WQHD, oft ist mir die 1080 Ti zu langsam! So viel schnelleres als meine 1080 Ti gibt es dann nicht mehr...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Radeon VII: Benchmarks mit aktuellen Spielen und (Async) Compute
- Ersteller Wolfgang
- Erstellt am
- Zum Test: AMD Radeon VII: Benchmarks mit aktuellen Spielen und (Async) Compute
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.919
@Laphonso
Navi wird zu 99,99% Midrange.. Ich glaube auch noch nicht dass ein Navi 20 zeitig nachkommt..
Rechne mal mit Navi bei 2060 Irgendwo da..Preislich könnte Navi aber sicher für Aufwind sorgen. Ich vermute man wird einen Kurs wie bei der HD48 Serie fahren. Wobei AMD hoffentlich nicht nen Pricewar beginnt, denn wie wir ja wissen: AMD kauft man nur, wenn man sich Nvidia nicht leisten kann
Zuerst kommt Ryzen 3000... Ich hoffe dass ich dann endlich meinen 3570K in Rente schicken kann
Navi wird zu 99,99% Midrange.. Ich glaube auch noch nicht dass ein Navi 20 zeitig nachkommt..
Rechne mal mit Navi bei 2060 Irgendwo da..Preislich könnte Navi aber sicher für Aufwind sorgen. Ich vermute man wird einen Kurs wie bei der HD48 Serie fahren. Wobei AMD hoffentlich nicht nen Pricewar beginnt, denn wie wir ja wissen: AMD kauft man nur, wenn man sich Nvidia nicht leisten kann
Zuerst kommt Ryzen 3000... Ich hoffe dass ich dann endlich meinen 3570K in Rente schicken kann
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
@Oneplusfan
Gegenfrage : Ist die 1060 denn soviel besser als ne RX580 ? , wenn man bei der 580 etwas UV betreibt kann man den Verbrauch ziemlich gut eindampfen , erst recht wenn man auf 20 - 30 MHz Chiptakt verzichtet .
Gegenfrage : Ist die 1060 denn soviel besser als ne RX580 ? , wenn man bei der 580 etwas UV betreibt kann man den Verbrauch ziemlich gut eindampfen , erst recht wenn man auf 20 - 30 MHz Chiptakt verzichtet .
Volkimann
Commander
- Registriert
- Jan. 2014
- Beiträge
- 3.059
Nein, weil technisch bedingt die 16GB sein müssen. Wurde aber nun auch schon im ursprünglichen Test oft genug erklärt weshalb ein 8GB Modell nicht der Kracher geworden wäre.USB-Kabeljau schrieb:AMD hätte das Teil mit 8GB für 600€ releasen sollen, dann wäre es ein absoluter Knaller geworden, den man ihnen aus den Händen gerissen hätte.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.172
Hallo zusammen,
@ USB-Kabeljau
Vielleicht ist es dir entgangen. Die Karte wird AMD auch in der jetzigen Form aus den Händen gerissen. Und sogar mit einem höheren Preis, als veranschlagt. Abgesehen davon sind die 16 Gbyte vor allem wegen der gewaltigen Bandbreite implementiert worden. Und natürlich auch weil sie ein absolutes Alleinstellungsmerkmal darstellen schlußendlich, was niemand Abstreiten kann.
@ MK one
Liegen in etwa auf ähnlichem Performance-Niveau. Nur eben nicht was die Effizienz / Strombedarf angeht. Und du darfst nicht vergessen, die GTX 1060 läßt sich ebenfalls noch gut Undervolten. Schau nur hier im Forum mal nach den entsprechenden Threads.
Wenn du jetzt die RX 590 genannt hättest, wäre ich bei dir gewesen. Diese ist bei Polaris der absolute UV-King. Und zwar mit Abstand. Und im Gegensatz zur RX 580 verliert sie dabei auch kaum Performance.
So long...
@ USB-Kabeljau
USB-Kabeljau schrieb:AMD hätte das Teil mit 8GB für 600€ releasen sollen, dann wäre es ein absoluter Knaller geworden, den man ihnen aus den Händen gerissen hätte.
Vielleicht ist es dir entgangen. Die Karte wird AMD auch in der jetzigen Form aus den Händen gerissen. Und sogar mit einem höheren Preis, als veranschlagt. Abgesehen davon sind die 16 Gbyte vor allem wegen der gewaltigen Bandbreite implementiert worden. Und natürlich auch weil sie ein absolutes Alleinstellungsmerkmal darstellen schlußendlich, was niemand Abstreiten kann.
@ MK one
MK one schrieb:Ist die 1060 denn soviel besser als ne RX580 ? , wenn man bei der 580 etwas UV betreibt kann man den Verbrauch ziemlich gut eindampfen , erst recht wenn man auf 20 - 30 MHz Chiptakt verzichtet .
Liegen in etwa auf ähnlichem Performance-Niveau. Nur eben nicht was die Effizienz / Strombedarf angeht. Und du darfst nicht vergessen, die GTX 1060 läßt sich ebenfalls noch gut Undervolten. Schau nur hier im Forum mal nach den entsprechenden Threads.
Wenn du jetzt die RX 590 genannt hättest, wäre ich bei dir gewesen. Diese ist bei Polaris der absolute UV-King. Und zwar mit Abstand. Und im Gegensatz zur RX 580 verliert sie dabei auch kaum Performance.
So long...
Zuletzt bearbeitet:
Volkimann schrieb:Hört doch bitte auf irgendwelche Spekulationen und Milchmädchen Rechnungen als Fakt darzustellen.
Auch bei AMD sitzen Leute die mit den Produkten keine Verluste einfahren wollen.
Die sitzen nicht da und sagen "ja wir verdienen nix dran, wir würden sogar Verluste machen bei dem Preis, also kloppen wir die jetzt raus"
Was heißt hier Milchmädchenrechnungen? Die Kosten für den HBM Speicher mit etwa 300 dollar sind ja bekannt. Genauso können die Fertigungskosten des Chips, das Board, die Kühlerkontruktion etc. relativ genau geschätzt werden. Im Endeffekt landet man dann um die 600-700 dollar Fertigungskosten. Dann darfst du noch den gamzen Handel, Steuern usw. drauf rechnen und es word relativ schnell klar, dass das nie im Leben kostendeckend sein kann. Gerüchteweise gab es bei AMD sehr heftige Diskussionen ob die Karte überhaupt gelauncht werden soll. Warum AMD sich trotzdem dafür entschieden hat kann ich auch nicht sagen. Meine Vermutung ist, dass die 7nm Ausbeute einfach nicht so rosig ist und man ein paar teildeaktivierte Chips hat, die man loswerden muss bzw. dass man sowieso nicht damit rechnet viele von den Karten los zu werden.
Hurricane271 schrieb:Ich weiß nicht wo man da anfangen soll.....wäre eigentlich ein Made my Day wert.
Es ist weder AMDs Fertigung oder Nvdias Fertigung, sondern TSMCs.
Also willst du uns erzählen, dass 7nm TSMC eigentlich die 12nm Fertigung von TSMC ist und diese eigentlich nicht besser als deren 16nm-Fertigung ist. Und ja ich weiß das die Namen Schall und Rauch sind, dennoch sind das alles unterschiedliche Fertigungen.
Das ist schon klar, dass TSMC für Nvidia bzw. AMD fertigt. Es geht hier aber speziell darum, dass die Packdichte gerade bei Nvidia und AMD absolut nicht stimmt. Ob das nun eine mangelnde Anpassung des Chipdesigns ist oder ob das Problem bei TSMC liegt kann ich nicht sagen. Und ja ich will sagen dass das was TSMC für AMD fertigt lediglich 12nm sind bzw. die 12nm Fertigung die Nvidia angeboten wird in Wirklichkeit 16nm sind.
Hier mal ein paar Vergleiche der Packdichten in Mio Transistoren pro mm²
Apple A10 mit TSMC 16nm: 26
Apple A12 mit TSMC 7nm: 83
Nvidia GP102 mit TSMC 16nm: 25
Nvidia TU104 mit TSMC 12nm: 25
Vega 10 mit GF 14nm: 26
Vega 20 mit TSMC 7nm: 40
Man darf jetzt logischerweise nicht GPUs mit CPUs oder Mobil SOCs vergleichen, kann aber sehr wohl die Skalierung über die Generationen vergleichen.
Man sieht sehr gut, dass bei den Apple Chips die Packdichte noch einigermaßen linear skaliert ist. Nimmt man TSMC 16nm als Basis würde man rechnerisch auf 9nm kommen.
Bei Nvidia ist die Packdichte von Pascal auf Turing üerhaupt nicht gestiegen (sogar leicht gefallen). Von daher pures Marketing, was auch erklärt warum es fast keine Performancesteigerung bei gleichem Preis gegeben hat.
Bei AMD sieht man sehr gut dass die GF 14nm schon nicht nicht besser als TSMCs 16nm waren. Beim Wechsel auf TSMCs 7nm gab es 50% mehr Packdichte. Rechnet man dies auf TSMCs 16nm Fertigung um wären das 12.9nm. Rechnet man es auf GF 14nm um wären es 11.3nm. Deshalb meine Aussage, dass es sich hierbei um eine 12nm Fertigung handelt zumindest nach bisheriger Definition.
Klar es gibt keine einheitliche Definition was 7nm Fertigung wirklich bedeutet, weil das messen der Gatelängen ja nicht mehr sinnvoll ist. Aber wenn man wie AMD groß auf jeder Präsentationsfolie die 7nm so offensiv bewirbt obwohl es eindeutig keine 7nm Fertigung ist ganz gleich wie sehr man es versucht schönzurechnen, dann kann man das nur als vorsätzlixhe Täuschung der Kunden bezeichnen.
Cl4whammer!
Lt. Commander
- Registriert
- Aug. 2008
- Beiträge
- 1.888
Gibt es eigentlich irgendeine AMD Karte die man nicht UV muss?MK one schrieb:@Oneplusfan
Gegenfrage : Ist die 1060 denn soviel besser als ne RX580 ? , wenn man bei der 580 etwas UV betreibt kann man den Verbrauch ziemlich gut eindampfen , erst recht wenn man auf 20 - 30 MHz Chiptakt verzichtet .
O
Oneplusfan
Gast
MK one schrieb:Gegenfrage : Ist die 1060 denn soviel besser als ne RX580 ?
Keine Ahnung, darum ging es doch gar nicht? Ich wollte lediglich aufzeigen, dass AMD keinen Nachteil im Prozess gegenüber Nvidia hatte/hat, sämtliche Nachteile also architekturbedingt waren/sind
O
onkel-foehn
Gast
Krautmaster schrieb:Danke für das Update. Hätte da jetzt mehr Unterschied erwartet als die Differenz zur 2080 FE von 9 auf 4% zu reduzieren. Aber besser als nichts. Denke auch die nächsten Jahre wird man die RTX FE sicher öfters hinter sich lassen können, aber das eben auch nur die FE.
Edit. Okay, Frametimes sind wichtiger. Da hat man ja nun so gut wie einen Patt mit der RTX 2080 FE.
Eben, denke ich auch. Die VII ist dort gelandet, wo AMD diese positionieren wollte. Mal vor und mal hinter der 2080. Dabei ist Founders Edition ja auch noch leicht übertaktet im Vergleich zu den Custom´s.
Was man mit der VII auch noch anpassen (Takt/UV) könnte.
Und mit 749 € bei Release ist sie zudem noch "günstig", da die 1080 Ti und die 2080 jenseits der 800 € gekostet haben. Und mit 16 GB (1 TB/s) Speicher auch Zukunftssicherer ist.
Somit denke ich dass das P/L Verhältnis bei der VII "in Ordnung" ist ...
MfG, Föhn.
O
onkel-foehn
Gast
Che-Tah schrieb:V64 war aber eine neue Architektur... diese ist jetzt komplett gleich. Auf große Verbesserungen würde ich da nicht setzen...
Wenn dann eher darauf, das neu rauskommende Spiele primär für DX12 oder Vulkan programmiert sind, was mit Vega deutlich besser läuft als mit NV.
Und die nVidia Karten werden überwiegend in DX 11 getestet, dass denen bekanntlich besser liegt ...
Großes Tennis ;-)
MfG, Föhn.
O
Oneplusfan
Gast
onkel-foehn schrieb:Somit denke ich dass das P/L Verhältnis bei der VII "in Ordnung" ist
Die 1080 ti FE hatte 699$ Releasepreis (die 2080 non FE ebenfalls). Und das bis zu 2 Jahre früher mit gleicher Leistung.
Dann muss das P/L der 1080 ti geradezu göttlich gewesen sein.....
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
da du dich ja soooooo gut auskennst , solltest du auch wissen das höherer Takt durch eine geringere Dichte erkauft wird beim Fertigungsprozess zb TSMC 7 nm HPC = 7,5 T zu den 6 T des normalen 7 nm .andr_gin schrieb:Man sieht sehr gut, dass bei den Apple Chips die Packdichte noch einigermaßen linear skaliert ist. Nimmt man TSMC 16nm als Basis würde man rechnerisch auf 9nm kommen.
Bei Nvidia ist die Packdichte von Pascal auf Turing üerhaupt nicht gestiegen (sogar leicht gefallen). Von daher pures Marketing, was auch erklärt warum es fast keine Performancesteigerung bei gleichem Preis gegeben hat.
und ich denke nicht das der Schritt von 12 auf 16 nm bei NV reines Marketing war , es wird genauso gelaufen sein wie bei GF und ihrem 12/14 nm Prozess .
Die 2000 er Ryzen Serie verzichtet auf die höhere Dichte und nimmt nur den leicht höheren Takt ( 200 Mhz ) und die leicht verringerte Leistungsaufnahme mit .
NV wird beim 12 nm ebenfallls auf die höhere Dichte verzichtet haben zugunsten von mehr Performance , die verringerte Leistungsausnahme hat man vermutlich in einem erhöhtem Transistorbudget verballert , RT und Tensor Cores kommen ja nicht aus dem nichts ...
https://www.tomshw.de/2018/09/14/nv...s-sich-hinter-turing-wirklich-verbirgt/all/1/
1080 TI = 12 Milliarden Transistoren 2080 TI = 18,6 Milliarden Transistoren = 30 % mehr...
von 16 auf 12 nm bei NV = Pures Marketing ? Bullshit ....
Zuletzt bearbeitet:
Monarch2
Lieutenant
- Registriert
- Dez. 2004
- Beiträge
- 629
Mein persönliches Fazit: das Warten auf AMD hätte sich (leider!) nicht gelohnt. Die RTX 2070 im November war für mich die richtige Karte für 1440p und im gerade noch erträglichen ~500 € Budgetrahmen. Mit der Karte bin ich bisher absolut zufrieden.
Vega kam schon wegen des Verbrauchs nicht infrage (bin doch nicht verrückt und kaufe ein neues Netzteil wegen eines GPU-Monsters). Und die V7 hat jetzt immer noch das gleiche Problem und zusätzlich auch noch einen Preis, den ich nicht zahlen will.
Ich hätte wirklich nach rund 15 Jahren mit ATI/AMD gerne weiter AMD im Rechner gehabt, aber meine Schmerzgrenze war einfach überschritten (und die altehrwürdige R7850 einfach überreif).
Vega kam schon wegen des Verbrauchs nicht infrage (bin doch nicht verrückt und kaufe ein neues Netzteil wegen eines GPU-Monsters). Und die V7 hat jetzt immer noch das gleiche Problem und zusätzlich auch noch einen Preis, den ich nicht zahlen will.
Ich hätte wirklich nach rund 15 Jahren mit ATI/AMD gerne weiter AMD im Rechner gehabt, aber meine Schmerzgrenze war einfach überschritten (und die altehrwürdige R7850 einfach überreif).
C
Chaos Theory
Gast
nö. AMD machts bei allen karten gleich, kp wieso.Cl4whammer! schrieb:Gibt es eigentlich irgendeine AMD Karte die man nicht UV muss?
oder horizontal, aber um 90 grad gedreht. so wie hier im gehäuse:Müritzer schrieb:Diese kleineren Auslässe erzeugen auch eine höhere Lautstärke. Man müsste mal die Karte mit einem Riser Kabel vertikal verbauen um zu sehen ob sich dadurch, weil man bisschen mehr Platz Richtung PCIe Anschluss hat, die Temperatur ändert.
zwei lüfter oben und einer unten und die karte zwischen den lüftern könnten abhilfe schaffen.
ich frag mich ob es was bringt wenn man unter der karte zwei 120 mm lüfter platziert, so wie hier im Case zb:Müritzer schrieb:Die Lüfter sind wahrscheinlich nicht schlecht aber durch die kleineren Öffnungen in ihrer Leistung gehandicapt .
vielleicht wären die 3 75 mm lüfter dann nicht so laut. eine Vega 56 kommt in diesem gehäuse jedenfalls sehr gut klar. ich könnte eigentlich beides testen. mir fehlt nur noch die karte.
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
Du kannst auf die Radeon VII gar nicht gewartet haben , denn sie wurde recht überraschend präsentiert , AMD hatte zuvor immer nur von einem 7 nm Vega shrink im Profi Bereich geredet ....Monarch2 schrieb:Mein persönliches Fazit: das Warten auf AMD hätte sich (leider!) nicht gelohnt. Die RTX 2070 im November war für mich die richtige Karte für 1440p und im gerade noch erträglichen ~500 € Budgetrahmen. Mit der Karte bin ich bisher absolut zufrieden.
und die Gene der Profi Karte besitzt die Radeon VII immer noch , lediglich bei der doppelten FPU Genauigkeit ist sie beschnitten und das auch nur auf 50 % = sie hat immer noch eine 8 - 10 mal höhere FPU Leistung bei doppelter Genauigkeit als ne Vega 64
Aldaric87 schrieb:@mieze123
Und das ist per Definition falsch. Egal wie, die Nachfrage übersteigt das Angebot.
Bei RTX ist es halt andersrum. Das Angebot ist groß, blos will keiner so wirklich die Karten kaufen.
Was eben auch keine Kunst ist, wenn das Angebot dermaßen gering gehalten wurde/ist.
Ich finde die Karte auch ansich gut, hatte sie auch 15 Minuten vor 3 im Warenkorb. Habe mich am Ende nur dagegen entschieden, da mir die Treibersituation nicht gepasst hat. Im großen und ganzen ein schönes Stück Hardware.
O
onkel-foehn
Gast
Oneplusfan schrieb:Die 1080 ti FE hatte 699$ Releasepreis (die 2080 non FE ebenfalls). Und das bis zu 2 Jahre früher mit gleicher Leistung.
Dann muss das P/L der 1080 ti geradezu göttlich gewesen sein.....
zur INFO : es waren 699 USD und unter 800 € hast am Anfang kaum eine bekommen (auf alle Fälle über 749 €) ...
Frage : wenn alle drei Karten UVP 699 USD und in der Leistung gleich sind, weshalb soll dann die 1080 Ti ein "göttliches" PREIS / LEISTUNG Verhältnis gehabt haben ?!? Früherer Zeitpunkt o.k.
MfG, Föhn.
Zuletzt bearbeitet von einem Moderator: