Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizGeForce RTX 2070: Kleinste Turing-Grafikkarte erscheint am 17. Oktober
die karte ist noch nicht durch die tests, preislich gibt es bestenfalls einen ungefähren fingerzeig, aber schon jetzt wissen hier alle was die karte taugt..oder eben nicht...
wie wäre es einfach mal mit abwarten bis die tests und ersten verkaufspreise bekannt sind?
ach ja: angeblich wird es keine "kleinen" rtx geben..also sowas wie rtx2060 oder rtx2050ti - viel eher wird gemutmaßt dass diese bestenfalls anfangs nächsten jahres als "reguläre" gtx2050/gtx2050ti kommen, also ohne die rt-anteile im chip...
Die 2070 finde ich die uninteressanteste Turingkarte.
Sie hat ca. 30% weniger Shader als die 2080. Mit etwas Glück ist sie damit nur etwas schneller als eine 1080. Dazu wird die 2070 zu langsam sein, um die RTX Features wirklich zu nutzen, wenn eine 2080Ti schon bei 1080p Probleme bekommt. Die 1080 gibt's für unter 500€, die nur unwesentlich langsamere 1070Ti für unter 450€. Selbst Vega 64 gibt es für unter 500€.
Die 2070 ist nicht schneller als bisherige Karten, sie ist jetzt absehbar schon zu langsam für die neuen Features und es gibt ähnlich schnelle Karten schon lange für 150-200€ weniger. Wen sollte das ansprechen (außer Hardcore Nvidia Fanboys, die sich keine der großen Turingkarten leisten können).
Ich würde entweder eine Vega 64 kaufen, oder ein paar Euro drauflegen und eine 1080Ti nehmen. Ich sehe aktuell keinen guten Grund für die 2070.
ch werd wohl auf eine 1080Ti gehen, reicht mir für WQHD, die Karten müssen nur noch etwas günstiger werden.
Für 500€ schlag ich dann zu, immerhin ist die Karte schneller als die 2070
Auch wenn ich es mir wünschen würde, bin ich mir sicher, dass das nicht passieren wird. Die Preise der 1080 TI Karten werden exakt so bleiben wie aktuell bis zum Abverkauf. Ich rechne damit, dass Anfang des nächsten Jahres kaum noch 1080 Ti Karten verfügbar sein werden. Aktuell gehen die relativ gut weg.
Es wird zwar bestimmt nochmal Angebote im Bereich 600€ geben, aber mit 500€ würde ich weniger rechnen.
@Phear dann wird eben gebraucht gekauft, mehr ist mir eine Grafikkarte einfach nicht wert.
Vielleicht reicht mir ja meine 1070 irgendwann absolut gar nicht mehr, ist jetzt schon grenzwertig in WQHD
Ich glaube die 2070 wird durchschnittlich 10% schneller als die 1080 sein (Glaskugel). Vor Allem in DX12/Vulkan Titeln wird sie gutes Stück besser sein und in Titeln mit DLSS sogar in 4K eine gute Leistung bieten.
10% schneller als die 1080 FE von 2016 vielleicht. Damit wäre sie wohl so schnell wie die 1080 11Gbps Edition von 2017.
Ich frage mich auch, woher du die Annahme nimmst, dass DLSS für 4k bei der 2070 interessant sein soll. Immerhin hat die 2070 50% weniger Tensor Cores als die 2080 Ti.
Vermutlich kann die 2070 kein DLSS2x, weil sie dafür zu lahm ist. D.h. das einzige, was dann geht, ist das DLSS, was dann aus deiner 4k Auflösung intern 1080p macht und dann wieder etwas weich zeichnet. Eine andere Form von Checkerboardrendering bekannt aus den Konsolen.
Wenn dann das moderne Spiel die neuen Shading-Techniken (Adaptive Rate Shading) unterstützt, können Teile des Bildes in in 540p berechnet werden (1x Shader pro 16 Pixel statt 1x Shader pro 1 Pixel), geht vielleicht auch "natives" 4k ohne DLSS
Willkommen im Fake-4k!
Da würde ich lieber eine 1080 Ti für das gleiche Geld holen und richtiges 4k genießen. Also besser schnell sein, Nvidia hofft bestimmt die 1080er Karten schnellstmöglichst loszuwerden.
Habe noch nie eine Karte über 300,-€ gekauft, aber anscheint gibt es heute keine Grenzen nach oben wie vor 15. Jahren. Wenn Nvidia da den Preis 899,- € setzen würde gibts es immer noch genug Käufer für. Alles nur noch Preis und Nachfrage
550 € ? Bis der Preis erreicht wird, fließt aber noch viel Wasser den Berg herunter.
Eine 2070 wird sich wohl leistungstechnisch bei einer 1080 einordnen. Finde die Karte daher uninteressant, da man für weniger Geld gleichwertige Leistung schon jetzt bekommen kann -> Vega64 / GTX 1080.
Das ist immer nur eine momentane Betrachtung. In einem Jahr könnte die Situation ganz anderes aussehen, sollten keine/kaum noch 1080(ti) mehr verfügbar sein und die Preise der RTX niedriger sein.
Ich versteh das nicht, dass man sich jetzt über den Release Preis aufregt und dann noch mit alten, im Preis gefallenen, Karten vergleicht. Klar muss man als Early Adopter tiefer in die Tasche greifen. Das war bis jetzt bei JEDER neuen Generation so.
Solange es noch keinen realen DLSS und Raytracing Tests gibt, die neue Windows Version raus ist und ein brauchbarer Treiber verfügbar ist, mache ich mir noch keine Gedanken.
Was ist das für eine wirre Betrachtungsweise? Mich interessieren die UVP Preise der alten Karten kein bisschen.
Wenn ich jetzt eine Karte kaufe, schau ich auf Leistung X bei Preispunkt Y, mir doch egal ob die alte Karte mal einen höheren UVP hatte.
Wie in einem Jahr die Situation ist, interessiert mich als Käufer zum jetzigen Zeitpunkt herzlich wenig. Es könnte genauso gut sein das wir dann alle Navi kaufen, oder nVidia schon die 7nm Generation bringt.
Jeder hat hier erwartet das RT und DLSS als "Hardware-Seller" agieren, aber mehr als eine kleine Niesche interessiert sich für diese Technologien bisher gar nicht. DLSS nur bei 4k Auflösung, RT glänzt bisher sowas von gar nicht und hier steht zudem nur die hälfte der Tensor-Cores zur Verfügung. Zudem die Liste der "supported" Games ziemlich Mau ist. Es spricht Bände das keines der großen Studios (außer Dice-EA) mit auf den Zug gesprungen ist.
Stand jetzt ist diese GPU überteuert und es gibt bessere Produkte für weniger Geld.
550 € ? Bis der Preis erreicht wird, fließt aber noch viel Wasser den Berg herunter.
Eine 2070 wird sich wohl leistungstechnisch bei einer 1080 einordnen. Finde die Karte daher uninteressant, da man für weniger Geld gleichwertige Leistung schon jetzt bekommen kann -> Vega64 / GTX 1080.
Ich denke die RTX 2070 wird etwas flotter als eine GTX 1080 werden, gerade wegen FP16-Berechnung und DDR6.
Vergleicht man die Daten der beiden sieht das so aus:
RTX 2070
GTX 1080
Shader
2304
2560
Texture Units
144
160
ROPs
64
64
GPU-Takt-Boost
~1700
~1700
Sieht also sehr ähnlich aus und die RTX 2070 hat wesentlich mehr Speicherbandbreite, kann von FP-16 profitieren und wer weiß wofür die Tensorkerne sowie Raytracing-Kerne noch performancemäßig mißbraucht werden können bzw. an Boost bieten, siehe DLSS...
Man kann auch von etwas mehr möglichem GPU-Takt bei der RTX 2070 als bei der GTX 1080 ausgehen.
Sollte der Preis also Zeitnah das Niveau der GTX 1080 erreichen spricht alles für eine RTX 2070.
Wo soll der GPU Takt nun her kommen? Wie sich an den großen Modellen zeigt, takten die Turing Karten keinen deut höher als die Pascal Gegenstücke. Die Karte wird sich auf dem Niveau der 1080 (+-5%) positionieren. Kostet aber fast so viel wie eine 1080 Ti.
Selbst wenn der Preispunkt irgendwann nächstes Jahr mal Richtung ~550 € fallen wird, gibt es momentan Produkte am Markt die dort locker mithalten können für um die ~400 €.
Die Asus Vega64 (meist schneller als die 1080) gab es letzte Woche für 399 € + Games. Wer sollte da also für die gleiche Leistung 650 € bezahlen wollen?
Wenn ich jetzt eine Karte kaufe, schau ich auf Leistung X bei Preispunkt Y, mir doch egal ob die alte Karte mal einen höheren UVP hatte.
Wie in einem Jahr die Situation ist, interessiert mich als Käufer zum jetzigen Zeitpunkt herzlich wenig. Es könnte genauso gut sein das wir dann alle Navi kaufen, oder nVidia schon die 7nm Generation bringt.
Ich habe nur geschrieben dass es eine momentane Betrachtung ist. Als die 1080 kam, war die auch zu teuer und es wurde die 980TI empfohlen. Das ist doch jedes Mal dasselbe Spiel. Ich wunder mich nur das jedes Mal aufs neue gejammert wird.
Vega ist bei mir keine Option. Selbst wenn man mit Undervolting noch 50-60 Watt sparen kann, hat die danach immer noch zuviel.. Ich möchte bald eine Karte für die nächste 3-4 Jahre kaufen, aber AMD ist da komplett raus bei mir..
Das kommt bei jedem ja auf den Einsatzzweck an. Wenn Stromverbrauch wirklich sehr wichtig ist, dann ist Vega nichts das stimmt. Mir hingegen macht es wenig aus (Vega 64 braucht sogar eher weniger Strom als meine jetzige Karte )
Ich möchte meine nächste Karte auch wieder wie meine jetzige auch wieder mehrere Jahre nutzen. Und da fühle ich mich bei Vega besser aufgehoben, als bei Nvidia momentan. Zudem ist Freesync ein entscheidender Pluspunkt für mich. Ich habe am Rechner 3 1080p Freesync Monitore und ich denke Vega ist da ein guter GPU Unterbau. Ich möchte nicht noch immer weiter ewig warten. (Navi wird sicher eine ähnliche Leistung haben und deutlich verbrauchsärmer sein). Ich möchte maximal 500€ ausgeben. Pascal kommt da eher nicht in Frage (DX12 schwächen und die letzten Nvidia Generationen sind auch nicht so super toll gealtert).
Aber ich kann auch jeden verstehen der sagt, dass ihm Vega zu viel Strom frisst und er deshalb etwas anderes kauft.
Das kommt bei jedem ja auf den Einsatzzweck an. Wenn Stromverbrauch wirklich sehr wichtig ist, dann ist Vega nichts das stimmt. Mir hingegen macht es wenig aus (Vega 64 braucht sogar eher weniger Strom als meine jetzige Karte )
Wobei man da auch sagen muss, dass viele teilweise auch übertreiben.
Sie kommen mit dem Stromverbrauchs-Argument, anstatt die Karten zu undervolten. Gleichzeitig aber eine nVidia GPU in der Signatur die mit OC ans Limit getrieben ist (und dann auch gut schluckt).
Beim Turing-Verbrauch bin ich ja mal gespannt. Pascal war eine GPU, Vega ist GPGPU (Compute-Anteil vorhanden) der Strom frisst. Turing ist dahingehend aber jetzt auch eher eine GPGPU. Mal sehen wie der Verbrauch von Turing ist, wenn die Tensor-Cores voll belastet werden, zusätzlich zu den normalen Einheiten.
Ihr jammert ohne Ende über Markteinführungspreise.... wer zum Geier zwingt euch die Karten in den ersten 3 Monaten nach Release zu kaufen? Kauft eben alte Technik wenn ihr jetzt gerade eine Graka braucht. Habt ihr was Zeit, bleibt cool
Find erstaunlich dass Nvidia dafür nen eigenen Chip raushaut. Macht ja eig nur Sinn wenn die 2060 auf demselben basiert und damit auch RT + Tensor bietet oder?
Die werden sicher per Laser-Cut den Ausschuß der großen Dies weiterbenutzen – was ja auch ökonomisch betrachtet nur geboten ist.
Shoryuken94 schrieb:
Die Turingchips sind ziemlich riesig. Bei 12nm dürfte die Yield-Rate Recht hoch sein, so dass man lieber kleinere Chips fertigt, als große zu Beschneiden. …
Ist das nicht ein Widerspruch in sich? Entweder ist die Yield-rate hoch (Tip: yield ist engl. für Ausbeute), oder aber die Ausbeute ist gering, da man riesige Chips auflegt (womit in Folge zwangsläufig die Defect Density a.k.a Fehlerquote massiv ansteigt).
Die Chips werden ja in TSMC‘s 12nm FFN hergestellt und sind mit riesigen 775 mm² gar größer als ein Skylake-SP mit 698 mm² – der ja bekanntermaßen Intel seit geraumer Zeit aufgrund der Ausbeute bei der Defekt-Rate ziemliche Probleme bereitet. Ich möchte einmal ganz stark annehmen, daß Intel's 14nm-Prozess doch mittlerweile nach all den Jahren eine exorbitant hohe Ausbeute erreicht hat (und geringer liegt, als TSMC's bei ihren 12nm).
Wen Intel es schon massivste Probleme bereitet (auf einer Node, die mittlerweile von der Ausbeute die beste der Industrie sein dürfte/sollte), dann wird TSMC bei einem noch größeren Die sicher nicht die Ausstoß-Zahlen von Intel erreichen – und die sind, wie wir alle wissen sollten, nicht allzu hoch. Als Folge davon, hat ja Intel erst solche Probleme mit den Stückzahlen …
Wie gesagt, im theoretisch bestmöglichen anzunehmenden Fall … Edit: @Jan Kann es sein, daß ihr Euch mit der Die-Fläche etwas vertan habt?! TechPowerUp hat direkt am Die nachgemessen – und die kommen auf größere 775 mm² – statt nur 754 mm² wir bei Euch. Habt Ihr die Karte auch entpuzzelt und nachgemessen? Was ist denn nun die richtige Die-Fläche?
775 mm² oder 754 mm²? CB oder TPU?
Ihr solltet dringend mal die Bedeutung von "jammern" nachschlagen. Ich sehe hier niemand mit Tränen in den Augen. Es ist im Gegensatz ziemlich lächerlich auf irgendwelche zukünftigen Preis-Drops hinzuweisen. Die interessieren momentan kein Schwein. Man bewertet die Ist-Situation. Nicht die "Vielleicht-Situation" in 3-18 Monaten.
ach ja: angeblich wird es keine "kleinen" rtx geben..also sowas wie rtx2060 oder rtx2050ti - viel eher wird gemutmaßt dass diese bestenfalls anfangs nächsten jahres als "reguläre" gtx2050/gtx2050ti kommen, also ohne die rt-anteile im chip...
Das wurde ja im Vorfeld sogar mal mit einem Leak gezeigt, dass es eine GTX 2060 geben wird und nicht eine RTX 2060, was aber auch jedem, der nur einigermaßen mitdenken kann, klar sein sollte. Also noch mehr die RTX Hardware im GPU Chip zu beschneiden, wie das bei der RTX 2070 der Fall ist, geht ja auch nicht mehr!
RTX 2080Ti >>> Raytracing bei richtiger Programmierung vielleicht 60 FPS in 1920x1080p
RTX 2080 >>> Raytracing bei richtiger Programmierung vielleicht 45 FPS in 1600x900p
RTX 2070 >>> Raytracing Ready bei richtiger Programmierung vielleicht 30 FPS in 1280x720p