Notiz GeForce GTX 1180: Wie aus Platzhalter-Einträgen gesicherte Fakten werden

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.736
TechpowerUp! arbeitet stetig an ihrer umfangreichen Produktdatenbank. Das schließt auch das Anlegen noch unbekannter Produkte ein, zu denen es noch keine handfesten Eckdaten gibt. Das ist legitim. Weil das allerdings nicht allen klar ist, wird der Platzhalter zur „Nvidia GeForce GTX 1180“ aktuell als gesichert herumgereicht.

Zur Notiz: GeForce GTX 1180: Wie aus Platzhalter-Einträgen gesicherte Fakten werden
 
Richtig so! Der Rest soll zu Wccftech gehen und den Luftschlössern hinterherjagen.
 
Ich bin mal gespannt ob Nvidia mit Ampere die Leistungssteigerungen liefern kann wie mit Maxwell und Pascal.
 
Bei diesen Leistungssprüngen auch einfach mal auf 2 Jahres Rhythmus umsteigen. Oder wie Apple einfach ein s (für Speed) dran hängen 🤦🏼*♂️ In Wahrheit lohnt es sich ja gerade mal nach 3 Generationen aufzurüsten unter normalen p/l Verhältnissen ..
 
Hoffentlich kommt diese Karte auch als Ti-Variante heraus und bietet einen deutlichen Boost, gerade für die höher auflösenden VR-Brillen ist das dringendst notwendig, da dürften die Grafikkarten auch gerne 500 % so stark sein um die garnicht mal so hohe Auflösung rendern zu können und nicht die Settings alle auf Minimum zu stellen damits gerade so läuft. Da muss sich einiges tun!
und irgendwann mit 16 K VR Brillen und 2.X SuperSampling kann man dann so langsam von Realismus reden :)
Aber bis dahin werden bestimmt noch 7-10 Jahre vergehen :(

Oder wenn die Hersteller mal eine Option bieten würde, die Grafikkarten zusammenzuschalten, zb. ein externes Rack mit 4-8 Grafikkarten, OHNE die SLI-Problematiken (Mini-Ruckler, kaum ein Spiel kompatible). Dann könnte man sich (ok durch deutliche Mehrkosten) richtige Grafikpower zusammenstellen die man fast beliebig hochskalieren kann. Diejenigen, die dann halt 5 bis 10 k Euro investieren können, bekommen die geballte Grafikpower.
 
Zuletzt bearbeitet:
Waaaaaas? CB springt nicht auf den Hypetrain auf? Wo kommen wir denn da hin, wenn Journalisten nur noch seriöse Berichte verfassen???

:freaky:
 
Finde ich gut so. Spekulatius hat seine Zeit und die ist nicht jetzt. ;)

Im Übrigen sollte AMD bald mit einem neuen Chip aus den Puschen kommen, zaubert NVIDIA spätestens dann was als Reaktion aus dem Hut. Bis dahin: Glaskugel rules! :evillol:
 
@M.B.H.

Bedank dich bei NVIDIA dafür das sie DX12 und Vulkan boykottieren. Wenn die endlich einmal aufhören würden DX11 als den heiligen Gral anzusehen dann würden Multi-GPU Systeme auch ohne SLI und Crossfire funktionieren. Gerade wenn du so hohe Anforderungen hast wie du es sagst sind die neuen Grafik-APIs die einzige Möglichkeit deinen Leistungshunger zu stillen.
Single GPU Karten & Systeme werden auch in 10 Jahren nicht in der Lage sein deine Beschriebenen Anforderungen umzusetzen. Die Entwicklungszyklen werden immer länger. Neue Fertigungstechnologien werden immer später stabil umsetzbar sein. So sieht nun einmal die Zukunft im PC Bereich aus.
Die Chipgröße können sie auch nicht ins unendliche Steigern sofern sie den Stromverbrauch nicht durch die Decke schießen lassen wollen.
 
Zuletzt bearbeitet:
200W für die 1180? Sollten die Karten nicht sparsamer werden?
Das muss dann ja heißen, dass die 1180 doppelt so schnell wird wie die 1080. Immerhin ist die 1080 schon 2 Jahre alt und in der Zwischenzeit gab's ja wieder diverse neue Fertigungsverfahren. Und dazu dann noch 20W mehr Leistungsaufnahme. Und nicht zu vergessen, dass da auch 40% mehr Shader drin sind.
Oder kommen die 20W vom RAM? 16GB GDDR6 brauchen bestimmt auch etwas mehr Saft als 8GB GDDR3 - wobei der VRAM ja auch sparsamer werden sollte mit jeder Generation.

Wird schon mal vorbestellt!!!111einself

[/irony]
 
Wobei die Überschrift so klingt, als würde es tatsächlich gesicherte Fakten geben.

Das sollte besser in "vermeintlich gesicherte Fakten" geändert werden.
 
Floxxwhite schrieb:
In Wahrheit lohnt es sich ja gerade mal nach 3 Generationen aufzurüsten...

Ich hocke noch auf einer 780Ti, aber ich werde bestimmt keine 2 Jahre alte 1080 mehr kaufen. Zumal bei durch Mining-Hype künstlich überhöhten Preisen.
Bevor es einen aktuellen Nachfolger gibt, wird nicht gekauft. Und wenn Nvidia weiter trödelt und AMD dabei schneller ist, wird vielleicht auch mal wieder was von denen.
(Ärgerlich nur, dass man sich je nach GPU-Hersteller auch auf bestimmte Monitore festlegen muss, wenn man synchronisierte Frameraten will.)

benneque schrieb:
200W für die 1180? Sollten die Karten nicht sparsamer werden?

Ich finde, es sollte beides geben. Sparsame Modelle in Mittelklasse und Low End, aber auch echte High End-Karten, die die PCIe-Spezifikationen (300W) möglichst weit ausreizen.
 
Ich könnte mir vorstellen, dass es sogar noch länger dauert als bisher gedacht, denn mittlerweile ist doch gesichert, dass Ampere die neue HPC-Generation wird und diese - gemäß Datacenter first - zuerst vorgestellt werden soll?!

Da von Ampere noch nicht viel zu sehen ist, würde ich vermuten das Turing für Gaming noch eine Ecke länger auf sich warten lässt.
 
Nvidia hat doch gar keine Eile. Derzeit sind sie so konkurrenzlos wie lange nicht mehr. Sie können eine 1080TI günstiger produzieren wie AMD eine Vega 64, die zudem langsamer ist und oft mehr Strom verbraucht. Nvidia wird die Schublade öffnen wenn AMD Leistung liefert.
 
SKu schrieb:
Leistungssteigerungen liefern kann wie mit Maxwell und Pascal.
Solche wie mit Pascal sind äußerst selten. Rückblickend würde ich Pascal mit dem legendären G80 vergleichen.
 
Piak schrieb:
Nvidia hat doch gar keine Eile. Derzeit sind sie so konkurrenzlos wie lange nicht mehr.

Ich sehe aber an meinem eigenen Beispiel, dass Nvidia trotzdem Geld entgeht. Ich bin sicher nicht der einzige, der inzwischen gerne aufrüsten möchte, aber keine 2 Jahre alte Karte mehr kaufen will. Oder anders gesagt: Wer an einer 1080 interessiert war, hat sich schon längst eine gekauft. Großartig neue Käufer werden sich dafür nicht mehr finden.

Es nutzt also nicht wirklich viel, "konkurrenzlos" zu sein. Das einzige, was Nvidia (und AMD) trotzdem hilft ihre alten Schätzchen weiter los zu werden, ist dieser bescheuerte Mining-Hype. Ohne den wären sie längst viel stärker unter Druck, was neues zu liefern.
 
Absolut.
Welcher Gamer kauft bitte 2 Jahre alte Karten zu einem deutlich höheren Preis als vor einem Jahr?
Auch ich warte.

Wegen den Monitoren mache ich mir übrigens keinen Kopf.
Werde mir nen 144Hz Monitor holen, und dann sind mit Freesync und GSync auch egal.
 
Ich als 1080 Vorbesteller würde auch gerne wieder aufrüsten. Aber nun noch eine 1080Ti wegen 20-25% mehr Leistung für nen 1000er zu holen lohnt einfach nicht.
Es juckt mich zwar schon so in den Fingern wieder rumzubasteln, aber ich warte bis eine neue Generation rauskommt.
Auch wenn es noch ein Jahr dauern wird.
 
Naja, Karte rein/raus, Stecker ab/dran, Gehäuse auf/zu könnte man basteln nennen :D
 
Herdware schrieb:
Ich sehe aber an meinem eigenen Beispiel, dass Nvidia trotzdem Geld entgeht.

Nicht wirklich, weil es gibt ja bestimmte Produktionslimits. NVIDIA sagt ja nicht umsonst Datacenter first, die Marge ist da viel höher.

Und Gamingkarten wird man auch super für AI-Workstations und Mining los. D.h. deren Produktion werden die auch ganz sicher so abverkaufen können und wenn nicht, dann wird die Gamingproduktion sicherlich einfach noch weiter zurückgefahren und HPC noch weiter hochgefahren.



Piak schrieb:
Nvidia hat doch gar keine Eile. Derzeit sind sie so konkurrenzlos wie lange nicht mehr.

Das stimmt natürlich auch, dass hatte ich hier...

ascer schrieb:
Ich könnte mir vorstellen, dass es sogar noch länger dauert als bisher gedacht, denn mittlerweile ist doch gesichert, dass Ampere die neue HPC-Generation wird und diese - gemäß Datacenter first - zuerst vorgestellt werden soll?!

Da von Ampere noch nicht viel zu sehen ist, würde ich vermuten das Turing für Gaming noch eine Ecke länger auf sich warten lässt.

...noch gar nicht mit berücksichtigt.
 
ascer schrieb:
Nicht wirklich, weil es gibt ja bestimmte Produktionslimits. NVIDIA sagt ja nicht umsonst Datacenter first, die Marge ist da viel höher.´

Da ich kein Data-Center betreibe und auch kein Mining, wäre Nvidia für mich halt gestorben und weitgehend uninteressant (abgesehen von allgemeinem, rein theortischen Interesse an der Technik), wenn sie den Gaming/Consumer-Markt aufgeben würden.

Wenn sie mein Geld nicht haben wollen, ist das ok. ;)

In dem Fall wäre zu hoffen, dass andere Hersteller in diesen dann brach liegenden Milliarden-Markt einsteigen.
 
Zurück
Oben