Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Turing: Erste GeForce RTX 2080 (Ti) der Partner in Bildern
Früher hatte mal die grüne Oberklasse 350,- gekostet. Nun haben sie es also tatsächlich geschafft, die Preise fast zu verdreifachen. Und die Gamer sagen weiterhin, Take my Money .
Ich hoffe ja noch, daß sie das relativ modular gehalten haben. Bis jetzt wären Tensor Cores auf Consumerprodukten noch eine Verschwendung von Chipfläche. Bei den RT-Cores muss man sehen, wie das mit den Anwendungen/Spielen weitergeht.
Mit der Ti steht und fällt auch das Preisgefüge ein wenig.
Wenn man davon ausgehen mag, dass die 2080 etwas schneller und dabei effizienter als die aktuelle 1080 Ti ist und man nun noch die neuen RTX-Features dazurechnet, wird die 2080 sicherlich nicht ganz günstig.
Wenn die neue Ti die Non-Ti wieder um 20-30% schlagen sollte, bin ich mal auf den Preis gespannt.
Ich auch nicht. Sollte die 2080 Ti die aktuelle 1080 Ti um mindestens 40% im Schnitt in WQHD schlagen, dann landet meine 1080ti hier nächste Woche aufm Marktplatz.
Früher hatte mal die grüne Oberklasse 350,- gekostet. Nun haben sie es also tatsächlich geschafft, die Preise fast zu verdreifachen. Und die Gamer sagen weiterhin, Take my Money .
Die bei Nvidia wären ja auch relativ bescheuert, wenn man die Konsumgier nicht ausnutzen würde. Ich drücke denen die Daumen, dass sie satte Gewinne machen.
Klingt für mich danach als ob Nvidia die GTX 1080 und GTX 1080ti hergenommen und etwas optimiert hätte. Und dann statt GDDR5X einfach GDDR6 draufgepackt für mehr Takt bzw. mehr Speicherbandbreite.
Also bei solchen Aussagen muss man sich echt fragen, was du so in letzter Zeit gelesen hast.
Zwischen den GTX und RTX Karten ist das erste Mal wieder so ein Technologiebruch vorhanden wie schon seit langem nicht mehr. Die RTX verfolgt mit ihren Raytracing Rendereinheiten und ihrem Deep Learning Netzwerk ganz andere Ansätze wie es noch mit den GTX Karten möglich war und da redest du von einer Optimierung?
Allein das Konzept 64 niedrig aufgelöste Bilder zu rendern und dann damit ein neuronales Netz zu trainieren um ein hochaufgelöstes Bild zu generieren, das man dann auf dem Bildschirm ausgeben kann ist ja wohl komplett anders als alles was man bisher im Grafikkartenbereich gesehen hat.
Ich freue mich jedenfalls schon extremst auf all das was die Entwickler mit der neuen Technologie, die in der GPU steckt alles anangen werden. Hardwarebeschleinigte Deep-Learning Netzwerke in der GPU werden so einiges in Spielen massiv verbessern.
Ich hoffe ja noch, daß sie das relativ modular gehalten haben. Bis jetzt wären Tensor Cores auf Consumerprodukten noch eine Verschwendung von Chipfläche. Bei den RT-Cores muss man sehen, wie das mit den Anwendungen/Spielen weitergeht.
Modular ist relativ, es ist fester Bestandteil der Die. Klar kann Nvidia in Zukunft die Gewichtung ändern, sollte Raytracing wichtiger werden.
Ich denke Nvidia hat wie AMD das Problem dass man die Shader nicht unbegrenzt erweitern kann bzw es dann an der Auslastung dieser hapert. Bevor man nun also 6000 Shader drauf knallt versucht man hier nun initial ein neues Konzept aufzugreifen. Raytracing.
Vermutlich sagt man sich dass dieses in Zukunft besser skalieren wird sofern es an Gewichtung gewinnt. Das Rendern wie zb in Blender ist ja zu Raytracing ebenfalls sehr ähnlich. In DX12 setzt man nun vereinzelte Strahlen mit kleinerer Framerate ein um dann intelligent Spiegelungen realistischer hinzugekommen. Selbes gilt für die Beleuchtung + Schatten. Für eine vollständig in Raytracing gerechnete Szene brauchte es sicher noch Faktor 100 an Mehrleistung.
Für Nvidia stellt das wohl ein so massiver Bruch dar dass man nun sogar GTX als Label verwirft. Es kommt auch etwas überraschend dass man nun doch schon ein nicht unerheblichen Teil der Die für Dinge opfert, die aktuell noch vollkommen belanglos sind. Nvidia dürfte da viel viel Mittel reinstecken um diese auch zeitnahe einzusetzen und sich von der Konkurrenz abzuheben. Ist die Frage was AMD tut. Gehen sie den Raytracing Weg mit? Anzunehmen wäre es.
Nvidia hatte nun ja auch >2 Jahre Zeit sich mit dem neuen Chipdesign zu befassen, Pascal ist wirklich schon ewig her.
edit: Eher 5-10 Jahre da sich seit der GTX 8800 nur wenig geändert hat was GPU Design angeht.
Ich vermute ja ganz stark, dass die Leistung der Karten nicht sooo viel schneller ist...sonst müsste man nicht gleich noch die TI launchen. Denn wenn die 2080 viel schneller wäre, dann könnte man sich die 2080Ti noch aufheben für später. Und da der Benchmark Balken der 2080 nicht viel größer ist (oder vll sogar kürzer als der der 1080Ti) muss man dafür eben schon die 2080Ti raushauen.
Das wärs ja!
Na ja, sonst fuerchtet nVidia evt. doch den Kontroll-/PC-Gaming-GPU-Kronenverlust (was ja eine riesige Schmach waere ), wenn man wirklich nicht mit 7nm plant (obwohl, notfalls wuerden die das identsiche Design als Refresh in 7nm kommendes Jahr bringen koennen, wenn AMD/RTG da wirklich eine in 7nm gefertigte RX(R) Navi-Oberklasse-GPU in den Ring werfen wuerde (die Hoffnung darauf stirbt ja bekanntlich zuletzt).
So schnell haengen einige (nVidianer) die Fahnen dann in den Wind, wenn die Argumentationsgrundlage fehlt und Effizienz ploetzlich nicht mehr allesentscheidend sein soll (auch wenn man bekanntlich nVidia GPUs primaer zum "Stromparen" kauft, wie wir ja alle laenger schon wissen ) sondern die Rohleistung ... so schnell kann das manchmal gehen .
Wenn der gemunkelte Minimal-Speicherausbau kommt fuer die nVidia Turing-Karten, kann man diese bewusst kastrierten GPUs sowieso laengerfristig vergessen, weil die mit Ach und Krach gerade einmal 2 Jahre dann langen werden (in einigen, kommenden Spieletiteln evt. sogar kurz nach Veroeffentlichung schon die teureren Karten limitiert sein werden).
Dann heist es hoffen auf 12 GB bei AMD/RTG Navi-Karten im kommenden Jahr (sowie ein besser optimiertes HBCC-Feature) .
Also langsam wird der Launch bzw. die Ankündigung zur neuen Generation einfach nur noch lächerlich. Ein Glück kann ich diese Generation und das Ganze Theater drumherum überspringen. Das würde mich jetzt schon nerven bräuchte ich ne neue Grafikkarte.