Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtTuring TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070
Nvidia würde nicht so dicke Chips bringen, wenn sie nicht müssten.
Auch hat NV gleich das Ti Modell gebracht.
Das deutet darauf hin das die 2080 nicht viel schneller als eine 1080ti ist.
(Ich tippe mal auf weniger als 10% Vorsprung für die 2080)
Also alles schön und gut, aber ich habe eine Verständnisfrage bezüglich der Chips.
Die Packdichte ist ja bei Turing mehr oder weniger identisch bei allen Chips.
TU106 ist ist eigentlich jeder Hinsicht ein halber TU102 im Vollausbau mit Ausnahme des Speicherinterface und ROPs.
Aber TU106 hat ca. 60% der Fläche vom TU102 und dennoch das kleinere Speicherinterface. Machen die ROPs wirklich so viel aus, was die Chipfläche angeht, oder stimmen die Daten zum TU106 Vollausbau evtl. nicht, so dass sogar die RTX 2070 zum Teil beschnitten ist?
Ich bin mir nämlich ziemlich sicher,dass eine 2070ti kommt. Also entweder mit einem noch weiter beschnittenen TU104, oder mit einem TU106 im WIRKLICHEN Vollausbau.
Ich bin am Überlegen eine GTX 1080 Ti oder RTX 2070 zu kaufen. Wenn die 2080 im Spiele-Benchmarks mindestens 20-30 % schneller ist als die 1080 Ti, dann sollte eigentlich die 2070 etwa so schnell sein als die 1080 Ti.
Die Leute sind von Pascal etwas zu verwöhnt. Sprünge wie von 980 Ti -> 1070 sind selten, war schon damals der Meinung dass sich Pascal rückblickend mit dem legendären G80 vergleichen lassen kann. Ich gehe nicht davon aus, dass eine 2080 durchgängig mindestens 20-30 % schneller als eine 1080 Ti ist. Erwarten würde ich stets einen kleinen Vorsprung.
ich gehe davon aus, das der abfall bei nvidia aktuell echt nicht groß ist. daher würde ich aktuell (in diesem jahr) nicht mit einer rtx2070ti rechnen. lieber bauen sie noch eine kleine quadro.
Nvidia würde nicht so dicke Chips bringen, wenn sie nicht müssten.
Auch hat NV gleich das Ti Modell gebracht.
Das deutet darauf hin das die 2080 nicht viel schneller als eine 1080ti ist.
(Ich tippe mal auf weniger als 10% Vorsprung für die 2080)
Kommt bestimmt auch nicht von ungefähr, dass die RTX 2080 Werkseitig OC ist.
Ich denke auch, 1080TI und die 2080RTX liegen grob gleich auf... die eine hat mehr RAM, die andere neue features und dank OC wird die 2080RTX dann etwas schneller sein ähnlich wie du Tippe ich auch auf die 10-15%
Die 1080TI wird sicher zügig vom Markt verschwinden (müssen).
Normalerweise würde man ja sagen, auch das dauert halt etwas bis es ausgereift ist.... aber wenn man das AMD nicht zugesteht sollte man so fair sein es hier auch nicht zählen zu lassen.
Technisch find ich die Grafikkarten extrem interessant endlich mal neue Wege.
Auch interessiert mich NV Link in verbindung mit VR... möglicherweise könnte das ein durchbruch werden für 4k VR.
Zitat CB:"Der Encoder soll darüber hinaus qualitativ gegenüber Pascal zugelegt haben und bei den üblichen Einstellungen für Streaming über Twitch und YouTube qualitativ besser als der Software-Renderer abschneiden."
Vorraussetzung das der zukünftige Uploadfilter den Stream nicht blockt
Wie sollte es Leistungstechnisch eigentlich aussehen?
GTX 1080 - GTX 1080 ti - RTX 2080 - RTX 2080 ti?
Ich weiß, Glaskugelfrage, aber wie ist das in der vergangenheit gehandhabt worden?
brauche ne grafikkarte, und schwanke zwischen ner 1080 ti und ner 2080. Preislich nehmen sich beide nicht viel. oder auf ne 2080 ti setzen?
Wenn die Aufteilung etwa 1:3 ist, warum wurden dann die Einheiten 1:1 genommen? Müssten damit die INT32-Einheiten nicht teilweise brachliegen?
Und wozu dann nicht gleich den Vollausbau?
Bei dem Preis hätte ich den Vollausbau erwartet. Abgesehen davon, sind ja auch RT-Cores gesperrt, welche für ein besseres Raytracing hätten genutzt werden können.
Das 1:3-Verhältnis ist ein Laufzeitverhältnis.
Ja, die Integer-Einheiten liegen häufiger brach, aber wären weniger verbaut, hättest du bei Integer-Aufgaben auch weniger Leistung.
Und einfach von der Verwaltung und von der Verdrahtung ergibt sich eine starre Skalierung der Einheiten, weswegen man teilweise nicht alles passkonform für die durchschnittliche Arbeitslast skaliert.
Das gilt auch für die Funktionsweise der RT-Cores, welche einen Bestandteil von einem SM darstellen, du kannst nicht SMs deaktivieren und deren RT-Cores behalten bzw. mit anderen SMs zusammen arbeiten lassen.
Und wieso nicht der Vollausbau, der Kunde verliert ein paar Prozent-Leistung, dass Unternehmen gewinnt eine höhere Ausbeute und bessere Rentabilität.
Unternehmen und Kunden haben bekanntlich eine andere Ansicht was man für Preis-X erwarten sollte.
Wovor willst Du warnen, wenn noch nicht mal bekannt ist, wie das Teil tatsächlich performt und wie sich die neuen Techniken auf zukünftige Spiele auswirken können?
Von der Chipgröße sogar ziemlich extrem High End. Zuletzt hatten die 980Ti und 780Ti richtig dicke Chips. Jetzt hat selbst die XX70 Karte einen ziemlich großen Chip.
...
ATI hatte nach dem recht heftigen Fehlschlag des R600 (HD 2900 420mm²) 2007 erstmal die Nase voll von Big Chips. Das lag sicher auch an den ebenfalls großen aber schnelleren Tesla GPUs von Nvidia.
Erst Hawaii (438) 2013 kam wieder über 400mm². Der riesige Fiji (596) und jetzt Vega (486) spielten seither dauerhaft in der 400+ Liga.
Der Vergleich 1070 zu 2070 ist doch total Schwachsinn!!!! Die beiden Karten haben nur den Namen gemeinsam, mehr nicht. Wieso vergleicht ihr nicht die KArten im gleichen Preissegment?
2070 zu 1080 !!
2080 to 1080ti
Ihr macht den gleichen Marketing Gag wie NVIDIA!!! Und erzählt uns was von 40% Mehrleistung!!!!
billig api dx12 yawn, nvidia setzt auf den schiefen Turm von Pisa... 6 Monate nach Release kräht kein Hahn mehr nach Raytracing und DX12. Alle unabhängigen game devs werden weiter DX11 nehmen (abgesehen von den gekauften).
Ganz unabhängig von den viel diskutierten Preisen und rein aus Sicht der technischen Aspekten, eine sehr interessante Architektur.
Danke zudem @Wolfgang für einen wirklich sehr guten und interessanten Faktencheck. Nachher ist man schlauer.
Aber ein wenig Kritik muss sein.
Auch wenn das bei NVIDIA Produkten zukünftig wohl zum guten Ton gehören wird, diese Form von Split zwischen der offiziellen Berichterstattung über Specs und Benches ist wirklich nicht sonderlich förderlich und lesenswert.
Man ist es als Leser eines Tech Magazins einfach gewohnt, zuerst die Technik im Detail erklärt zu bekommen und anschließend im selben Artikel die Benchmarks.
Dieses neue Format (auch wenn’s von NVIDIA vorgegeben ist) ist wirklich ein Rückschritt.
Wovor willst Du warnen, wenn noch nicht mal bekannt ist, wie das Teil tatsächlich performt und wie sich die neuen Techniken auf zukünftige Spiele auswirken können?
Es geht einzig alleine darum, das NVIDIA die Preise so derart hochgesetzt hat, das man annehmen muß, das mit steigender Leistung auch der Preis immer höher wird. 1300 EURO Kostet das Flagschiff... In der nächsten Generation villeicht schon 1600 Euro.... Da würde ich mir wirlich mehr Kritik wünschen, wie ein Monopolist willkürlich die Preise anhebt.