News Nvidia Turing: Erste GeForce RTX 2080 (Ti) der Partner in Bildern

@bertlinger

identisch wie bei der aktuellen TI auch. 8 Speicherbausteine hat die non TI (PCB Abbildung), also die 2080. Mit 8GB.
 
  • Gefällt mir
Reaktionen: bertlinger
Was für eine Monsterkarte! Da werden schon einige Gehäuse die weisse Fahne schwenken:p
 
franeklevy schrieb:
Früher hatte mal die grüne Oberklasse 350,- gekostet. Nun haben sie es also tatsächlich geschafft, die Preise fast zu verdreifachen. Und die Gamer sagen weiterhin, Take my Money .

Mit dem Unterschied, dass man die dreißigfache Leistung bekommt...
 
  • Gefällt mir
Reaktionen: MarshallMathers und D0c_cR4Zy
Krautmaster schrieb:
Damit legt man schon nen schönen Zahn zu, klar, 7nm oder 10nm wären mir lieber gewesen;)
Zudem hat man ja noch Tensor und das Raytracing Zeuch an Bord.
Ich hoffe ja noch, daß sie das relativ modular gehalten haben. Bis jetzt wären Tensor Cores auf Consumerprodukten noch eine Verschwendung von Chipfläche. Bei den RT-Cores muss man sehen, wie das mit den Anwendungen/Spielen weitergeht.
 
Reaper75 schrieb:
Was für eine Monsterkarte! Da werden schon einige Gehäuse die weisse Fahne schwenken:p

Die schwenken bei den aktuellen TI mit 2+ Slots auch schon die Fahne... :lol:
 
  • Gefällt mir
Reaktionen: Alexus6677
Mit der Ti steht und fällt auch das Preisgefüge ein wenig.

Wenn man davon ausgehen mag, dass die 2080 etwas schneller und dabei effizienter als die aktuelle 1080 Ti ist und man nun noch die neuen RTX-Features dazurechnet, wird die 2080 sicherlich nicht ganz günstig.

Wenn die neue Ti die Non-Ti wieder um 20-30% schlagen sollte, bin ich mal auf den Preis gespannt.

Ich kann den Test kaum noch erwarten. :)

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: cm87
RYZ3N schrieb:
Ich kann den Test kaum noch erwarten. :)

Ich auch nicht. Sollte die 2080 Ti die aktuelle 1080 Ti um mindestens 40% im Schnitt in WQHD schlagen, dann landet meine 1080ti hier nächste Woche aufm Marktplatz. :evillol:
 
In sechs Monaten kommt dann die 2080TI+ ?
Nvidia lässt sich doch das doppelt abkassieren nicht nehmen....
 
  • Gefällt mir
Reaktionen: Andre Prime
franeklevy schrieb:
Früher hatte mal die grüne Oberklasse 350,- gekostet. Nun haben sie es also tatsächlich geschafft, die Preise fast zu verdreifachen. Und die Gamer sagen weiterhin, Take my Money .


Grüße


Die bei Nvidia wären ja auch relativ bescheuert, wenn man die Konsumgier nicht ausnutzen würde. Ich drücke denen die Daumen, dass sie satte Gewinne machen.
 
scryed schrieb:
Normale und die ti Version gleichzeitig ? Gab es das schonmal ?..... die ti Karten sind doch immer erst später gekommen

Möglicher Grund. Die 7 NM Fertigung kommt nächstes Jahr.:) Endlich gibt es mal Bewegung in der ganzen Sache. Auch wenn ich gut bedient bin.:)
 
D0m1n4t0r schrieb:
Klingt für mich danach als ob Nvidia die GTX 1080 und GTX 1080ti hergenommen und etwas optimiert hätte. Und dann statt GDDR5X einfach GDDR6 draufgepackt für mehr Takt bzw. mehr Speicherbandbreite.
Also bei solchen Aussagen muss man sich echt fragen, was du so in letzter Zeit gelesen hast.
Zwischen den GTX und RTX Karten ist das erste Mal wieder so ein Technologiebruch vorhanden wie schon seit langem nicht mehr. Die RTX verfolgt mit ihren Raytracing Rendereinheiten und ihrem Deep Learning Netzwerk ganz andere Ansätze wie es noch mit den GTX Karten möglich war und da redest du von einer Optimierung?
Allein das Konzept 64 niedrig aufgelöste Bilder zu rendern und dann damit ein neuronales Netz zu trainieren um ein hochaufgelöstes Bild zu generieren, das man dann auf dem Bildschirm ausgeben kann ist ja wohl komplett anders als alles was man bisher im Grafikkartenbereich gesehen hat.
Ich freue mich jedenfalls schon extremst auf all das was die Entwickler mit der neuen Technologie, die in der GPU steckt alles anangen werden. Hardwarebeschleinigte Deep-Learning Netzwerke in der GPU werden so einiges in Spielen massiv verbessern.
 
  • Gefällt mir
Reaktionen: Transistor 22, GERmaximus, Shadow86 und 3 andere
yummycandy schrieb:
Ich hoffe ja noch, daß sie das relativ modular gehalten haben. Bis jetzt wären Tensor Cores auf Consumerprodukten noch eine Verschwendung von Chipfläche. Bei den RT-Cores muss man sehen, wie das mit den Anwendungen/Spielen weitergeht.

Modular ist relativ, es ist fester Bestandteil der Die. Klar kann Nvidia in Zukunft die Gewichtung ändern, sollte Raytracing wichtiger werden.

Ich denke Nvidia hat wie AMD das Problem dass man die Shader nicht unbegrenzt erweitern kann bzw es dann an der Auslastung dieser hapert. Bevor man nun also 6000 Shader drauf knallt versucht man hier nun initial ein neues Konzept aufzugreifen. Raytracing.

Vermutlich sagt man sich dass dieses in Zukunft besser skalieren wird sofern es an Gewichtung gewinnt. Das Rendern wie zb in Blender ist ja zu Raytracing ebenfalls sehr ähnlich. In DX12 setzt man nun vereinzelte Strahlen mit kleinerer Framerate ein um dann intelligent Spiegelungen realistischer hinzugekommen. Selbes gilt für die Beleuchtung + Schatten. Für eine vollständig in Raytracing gerechnete Szene brauchte es sicher noch Faktor 100 an Mehrleistung.

Für Nvidia stellt das wohl ein so massiver Bruch dar dass man nun sogar GTX als Label verwirft. Es kommt auch etwas überraschend dass man nun doch schon ein nicht unerheblichen Teil der Die für Dinge opfert, die aktuell noch vollkommen belanglos sind. Nvidia dürfte da viel viel Mittel reinstecken um diese auch zeitnahe einzusetzen und sich von der Konkurrenz abzuheben. Ist die Frage was AMD tut. Gehen sie den Raytracing Weg mit? Anzunehmen wäre es.
Nvidia hatte nun ja auch >2 Jahre Zeit sich mit dem neuen Chipdesign zu befassen, Pascal ist wirklich schon ewig her.

edit: Eher 5-10 Jahre da sich seit der GTX 8800 nur wenig geändert hat was GPU Design angeht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SirDoe, latexdoll und yummycandy
Ich vermute ja ganz stark, dass die Leistung der Karten nicht sooo viel schneller ist...sonst müsste man nicht gleich noch die TI launchen. Denn wenn die 2080 viel schneller wäre, dann könnte man sich die 2080Ti noch aufheben für später. Und da der Benchmark Balken der 2080 nicht viel größer ist (oder vll sogar kürzer als der der 1080Ti) muss man dafür eben schon die 2080Ti raushauen.
Das wärs ja! :D
 
  • Gefällt mir
Reaktionen: edenjung
duskstalker schrieb:
... "stromverbrauch ist egal, nur die leistung zählt" - nvidia fanboys 2018. :daumen:

Na ja, sonst fuerchtet nVidia evt. doch den Kontroll-/PC-Gaming-GPU-Kronenverlust (was ja eine riesige Schmach waere :p), wenn man wirklich nicht mit 7nm plant (obwohl, notfalls wuerden die das identsiche Design als Refresh in 7nm kommendes Jahr bringen koennen, wenn AMD/RTG da wirklich eine in 7nm gefertigte RX(R) Navi-Oberklasse-GPU in den Ring werfen wuerde (die Hoffnung darauf stirbt ja bekanntlich zuletzt).

So schnell haengen einige (nVidianer) die Fahnen dann in den Wind, wenn die Argumentationsgrundlage fehlt und Effizienz ploetzlich nicht mehr allesentscheidend sein soll (auch wenn man bekanntlich nVidia GPUs primaer zum "Stromparen" kauft, wie wir ja alle laenger schon wissen :D) sondern die Rohleistung ... so schnell kann das manchmal gehen :lol:.

Wenn der gemunkelte Minimal-Speicherausbau kommt fuer die nVidia Turing-Karten, kann man diese bewusst kastrierten GPUs sowieso laengerfristig vergessen, weil die mit Ach und Krach gerade einmal 2 Jahre dann langen werden (in einigen, kommenden Spieletiteln evt. sogar kurz nach Veroeffentlichung schon die teureren Karten limitiert sein werden).

Dann heist es hoffen auf 12 GB bei AMD/RTG Navi-Karten im kommenden Jahr (sowie ein besser optimiertes HBCC-Feature) :).
 
  • Gefällt mir
Reaktionen: Acedia23 und edenjung
Also langsam wird der Launch bzw. die Ankündigung zur neuen Generation einfach nur noch lächerlich. Ein Glück kann ich diese Generation und das Ganze Theater drumherum überspringen. Das würde mich jetzt schon nerven bräuchte ich ne neue Grafikkarte.
 
  • Gefällt mir
Reaktionen: Deleo
Zurück
Oben