Cpt.Willard
Commander
- Registriert
- Juni 2005
- Beiträge
- 2.358
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Iscaran schrieb:Nehmen wir alternativ diese Kostenbeispielrechnung:
https://www.3dcenter.org/abbildung/fertigungskosten-pro-gate-von-90nm-zu-7nm?size=preview
100 Mio Gates kosten ~ 1.31 $ in 7/10 nm und 1.49$ in 14/16nm
Eine RTX 2080 hat 13.6 Mrd. also 13600 Mio. Transistoren (~Gates) => mit 14/16nm 1.49*13600/100 ~ 203 $
Leider wissen wir die Transistorenzahl der VII nicht - aber mal angenommen das ist im wesentlichen ein Shrink von Vega64 => der hat 12.5 Mrd Transistoren.
Gerüchteweise soll VII wohl 13.2 Mrd haben ( https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units#Radeon_RX_Vega_Series )
Das ergibt also für Vega64 in 14/16nm: 12500/100*1.49 $ ~ 186$
Und für VII in 7/10nm mit 13200/100*1.31 $ ~173 $
Shoryuken94 schrieb:Der Unterschied ist ganz einfach. Turing ist teuer und die neuen Features kann man kaum nutzen. Bis man Sie nutzen kann, sind die Karten eh zu langsam. Wer Spaß an Early Adopter Tests hat und gerne neue Sachen ausprobiert, den wird es sicherlich freuen. Dazu gab es einen Speicherausbau, der teils sehr fragwürdig ist!
Bei der Radeon VII gibts es keine solche Spezialfunktionen, dafür eine Architektur, welcher mit modernen APIs sehr gut umgehen kann und 16GB sehr schnellen Ram. Damit ist die Karte ziemlich zukunftssicher ausgestattet. Die 2080 hat zwar Raytracing, aber ob man das je so wirklich damit im großen Stil nutzen kann?
Moriendor schrieb:Aber der Rückschluss, dass der 7nm Prozess so wahnsinnig gut laufen würde, entbehrt jedweder Logik.
Wenn das so wäre, dann würde AMD (und nVidia direkt hinterher) sofort ein komplettes Line-Up von Einstieg bis HighEnd auf 7nm produzieren.
Moriendor schrieb:Stattdessen ist die erst sehr kürzlich veröffentlichte RX 590 eine 12nm Karte. Warum wohl? Weil 7nm so toll flutscht, aber man wollte halt in 12nm produzieren, weil der Chip dann schöner aussieht? Also bitte, Leute...
Shoryuken94 schrieb:Der Unterschied ist ganz einfach. Turing ist teuer und die neuen Features kann man kaum nutzen. Bis man Sie nutzen kann, sind die Karten eh zu langsam. Wer Spaß an Early Adopter Tests hat und gerne neue Sachen ausprobiert, den wird es sicherlich freuen. Dazu gab es einen Speicherausbau, der teils sehr fragwürdig ist!
Bei der Radeon VII gibts es keine solche Spezialfunktionen, dafür eine Architektur, welcher mit modernen APIs sehr gut umgehen kann und 16GB sehr schnellen Ram. Damit ist die Karte ziemlich zukunftssicher ausgestattet. Die 2080 hat zwar Raytracing, aber ob man das je so wirklich damit im großen Stil nutzen kann?
Was sie tun mussten um auf 16GB zu kommen kann uns doch egal sein. Oder stellst du dich hier hin und willst uns näher bringen, warum die Titan RTX mit 24GB so teuer ist und das gerechtfertigt sei? Schlimm wie sich alle an solchen Eckdaten aufgeilen.cypeak schrieb:weil 16gb hmb2 speicher kostenlos vom himmel fallen?
Ich finde das Argument von @cypeak aber schon richtig. Die reinen Hardwarekosten kann (!= muss) man schon mal als Basis für eine Argumentation hernehmen. Ob man die dann überhaupt braucht, sollte natürlich jeder selbst einschätzen.OZZHI schrieb:Was sie tun mussten um auf 16GB zu kommen kann uns doch egal sein. Oder stellst du dich hier hin und willst uns näher bringen, warum die Titan RTX mit 24GB so teuer ist und das gerechtfertigt sei? Schlimm wie sich alle an solchen Eckdaten aufgeilen.
Sehe ich auch so.OZZHI schrieb:Ich sage nur, dass wir erneut keine P/L Besserung bekommen, obwohl das in den letzten ~15 Jahren immer der Fall war. (Weiter zurück kann ich nicht mitreden) Und müsste ich heute erneut eine Karte mit 1080 Ti Leistung kaufen, wäre es auf jeden Fall keine 2080 mit lächerlichen 8GB, das kannst du mir glauben.
Leider stimmt das für einen gewissen lauten Prozentteil der Nutzer. Aber es gibt durchaus auch sinnvolle Kommunikation um so manches laute Geplärre herum.OZZHI schrieb:So wie es aussieht darf man hier [CB] keiner der beiden kritisieren und etwas an ihren Produkten bemängeln. Und wenn doch, ist man ein Neider oder Fanboy.
sehe ich anders, natürlich gibt es immer beispiele wier ark die schlichtweg mies programmiert sind, allerdings nutzen 99% aller titel 6gb auf 1080p nicht ansatzweise aus. nur weil eine engine den vram reserviert heisst das nicht das er tatsächlich gebraucht wird.Shoryuken94 schrieb:@Fraggball Texturen benötigen allerdings keine Rechenleistung, haben aber enormen Einfluss auf die Darstellungsqualität. Da sind mir Mediumsetting mit Ultra Texturen in 4K deutlich lieber, als wie bei der 780Ti in vielen aktuellen Spielen Hohe - Maximale Details mit Matschtexturen.
Schon in 1080p sind 6GB heute eher die Untergrenze für eine neue Karte, da einige wenige Titel bei Maximaltexturen die auch belegen und gut nutzen. Aber auch bei weniger hübschen Spielen sind in 1080p heute schon 6GB von Vorteil. Z.B. in Ark. Auf ner 4GB Karte wird das fliegen über ein bebautes gebiet zur Ruckelorgie.
Und der Unterschied ist auch, dass man mit einer RTX 2080 wohl niemals Raytracing (in vernünftigen Settings) und 4K kombinieren kann, wenn man nicht ganz hart gesotten bei den FPS ist.
Neben dem größeren Speicher ist ja auch die bandbreite ein wichtiges Thema. Sieht man ja gut, wie gut Vega und Turing auf Speicher OC reagieren
Wird leider nicht viel bringen. Wenn man die Vega 64 auf denselben Takt wie Vega 56 bringt, ist der Leistungsunterschied in Spielen kein vorhanden. Die die Rops machen kaum einen Unterschied. Vii ist der wirtschaftliche und leistungsfähige sinnvolle Kompromiss. Und dafür wird er in Ordnung sein. Nicht richtig gut, nicht richtig schlecht. Aber den Vollausbau werden wir nicht sehen, da er kaum mehr Leistung in Spielen bringen würde.HardRockDude schrieb:man stelle sich eine Art Radeon VII Ti vor mit nicht weniger Computeunits als vorher, sondern eher noch ein paar mehr
Fraggball schrieb:das für mainstream games unter 4k die 8gb die nächsten 3-4 jahre nicht reichen bezweifle ich doch stark, schliesslich arbeiten gute entwickler daran ressourcen effektiv zu nutzen und orientieren sich an der marktverbreitung von produkten.
Fraggball schrieb:2021 wird meiner meinung nach eher das problem sein das sowohl r7 als auch 2080 für enthusiasten nur noch unzureichend leistung aufbringen.