News Nvidia Pascal: Die letzten Tage der GeForce GTX 1080 (Ti) sind gezählt

Status
Für weitere Antworten geschlossen.
Pisaro schrieb:
@Aldaric87 : Bin da eigentlich bei dir, allerdings wird die 1080 TI von der RTX 2080 TI beerbt. Die RTX 2080 ist dann der Nachfolger der 1080. Wie zum Teufel kommt man darauf dass die 2080 der Nachfolger der 1080 Ti ist? GTX 1070 war auch nicht der Nachfolger der 980 TI, dass war die 1080 TI.

Zu AMD: Nun, bis jetzt hat AMD eigentlich in jeder Generation bis auf ein paar Ausnahmen mehr VRAM gebracht als NVidia.

Wird oft so behauptet, weshalb muss man nicht verstehen.
Stimmt, beide Hersteller bringen in der Regel mit jeder Generation mehr VRAM, bis auf wenige Ausnahmen.
 
@Pisaro

Es sollte nur herausstellen das man in gleicher Leistungsklasse zusätzlich sogar noch den VRAM verringert hat zur Vorgängergeneration. Natürlich ist die 2080 Ti der Nachfolger der 1080 Ti. Jedoch hätte man erwarten können das bei gleicher Leistungsklasse zumindest nicht noch der Vram kastriert wird.

Siehe 9xx -> 1xxx. Die 980 hatte auch lediglich 4 GB Ram und wurde zur Nachfolgegeneration auf 8 GB aufgestockt. Hier hätte man ebenfalls der 2080 schon 11 GB bescheren können und bei der 2080 Ti, immerhin eine 1300 + € GPU, hätte ich eigentlich 16 GB erwartet.
 
  • Gefällt mir
Reaktionen: Torr Samaho, Chismon und Hatsune_Miku
m.Kobold schrieb:
Ich kann wirklich nicht verstehen wieso hier einige meinen 8GB würde nicht mehr reichen, das ist totaler schwachsinn für die "meisten" PC User, viele zocken noch nicht mal in 1440p und fakt ist auch in 1440p bekommst du die 8GB VRAM nie und nimmer voll.

Man müßte schon in VR zocken wollen mit 5k Auflösung um ans 8GB VRAM Limit zu kommen, mal abgesehen von irgend welchen schlecht optimierten Spiele die ein Memory bug haben und selbst in VR mit 4-5k (je nach GPU ausnutzung) haben ich öfters noch 2-3 Gbyte frei.

Noch einmal:
https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/

Wenn das 2016 schon ein Thema war, was ist dann in 2020?
Du darfst dabei nicht vergessen, dass sich bei der doch mittlerweile sehr "langsamen" Entwicklung bei GPUs die Leute nicht jedes Jahr eine 750€ Grafikkarte kaufen.
Wenn man also Ende 2018 eine 750€ Grafikkarte mit nur 8GB erwerben kann, bei der lediglich der Grafikspeicher beispielsweise Ende 2019 zum limitierenden Faktor werden könnte, dann ist das eine miese Nummer des Herstellers. Vor allem dann, wenn der High-End-Vorgänger mit 11GB RAM im März 2017 für etwa 830€ erschienen ist und das aktuelle 11GB High-End-Modell bei ca. 1200€ liegt.
Dazu kommen dann noch die wirklich sehr überschaubaren "realen" Neuerungen der 2080, was Nvidia wohl nun dazu bewegt hat, die 1080 so schnell wie möglich einzustellen.
Schon blöd, wenn das alte Modell attraktiver und günstiger als das neue Modell ist; da schiebt der Hersteller natürlich irgendwann einen Riegel vor.
 
  • Gefällt mir
Reaktionen: GERmaximus, Seeadler79, Chismon und 2 andere
FCK-THIS schrieb:
HBCC ist nur eine Auslagerung in der Hauptspeicher, mit echtem VRAM hat das wenig zu tun.

Ach und was macht HBCC ? Nachladeruckler eliminieren, die durch zu kleinen Vram entstehen.
 
  • Gefällt mir
Reaktionen: GERmaximus
Aldaric87 schrieb:
@Pisaro

Siehe 9xx -> 1xxx. Die 980 hatte auch lediglich 4 GB Ram und wurde zur Nachfolgegeneration auf 8 GB aufgestockt.

Siehe GTX 780 -> GTX 980. 6GB vs 4GB :freaky:

Hat das einen bei 1080p damals gestört? Nein.
Stören einen 8GB bzw. 11GB aktuell bei 1440p? Nein.

Allgemein bin ich ja bei dir, mehr VRAM werden in Zukunft notwendig.
Mit der nächsten Generation reicht es allerdings.
 
o2r_basti schrieb:
naja wenn die 1080 und 1080 ti weg sind ergibt sich ja eine große preisspanne... ich denke die rtx karten werden dann dieses loch durch einen niedrigeren preis auffüllen... trotz großem chip etc sind die margen wahrscheinlich sowieso groß genug um das zu erreichen

das sollte man zumindest hoffen
warum sollte sich nVidia selbst die Marge kaputt machen? Alles was der Verein tut, spricht dagegen. In der Leistungsklasse 2080 Ti gibts nunmal aktuell leider quasi keine Konkurrenz. Das nutzt nVidia genauso schamlos aus wie Intel vor ryzen... und sie nutzen es noch immer aus, da es genug Hochfrequenzgamer gibt, die intel den Mittelfinger nicht zeigen können/wollen.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
OldTechMan schrieb:
Noch einmal:
Vor allem dann, wenn der High-End-Vorgänger mit 11GB RAM im März 2017 für etwa 830€ erschienen ist und das aktuelle 11GB High-End-Modell bei ca. 1200€ liegt.

Gibt es hier jemanden, der meint der Preis der RTX 2080 Ti wäre angemessen? :freak:
Mit dem VRAM hat das allerdings wenig zu tun.
Seit wann ist lediglich die Größe des VRAMs ausschlaggebend für den Preis?
Die Leistung, die auch in Spielen umgesetzt wird, ist ausschlaggebend. Auch wenn Nvidia mit der RTX 2080 Ti selbstverständlich deutlich übertrieben hat.

Für die Masse ist die RTX 2080 jedoch ausreichend, mit der RTX 2080 Ti streicht man dann noch die rießige Gewinnmarge ein, die die wenigen Leute, die das Mehr an Leistung "benötigen" auch zahlen.

Keiner - wirklich keiner, der Grafikkarten nur kauft und nicht an der Börse vertreten ist, ist froh über das "Teilmonopol" das Nvidia gerade hat. Vor Ende 2020 wird AMD Vega 20 für Consumer jedoch nicht vorstellen, da kann man sich noch so über die Ti beschweren.

Einen Anreiz für Entwickler vor 2021 Texturen mit mehr als 11GB zu erstellen liegt bei 0.
Allein der Anreiz Texturen zu erstellen, die mehr als 8GB benötigen dürfte bei nahezu 0 liegen, die GTX 1080 Ti und die RTX 2080 Ti sind immerhin die einzigen Grafikkarten, die mehr als 8GB bieten und der Anteil dieser beiden Grafikkarten am Markt dürfte kein Prozent ausmachen.
 
Zuletzt bearbeitet:
Luzifer71 schrieb:
Für dich und alle anderen die es noch nicht Wissen:

Aktiviertes RT erhöht nicht den Verbrauch der RTX-Grakas.

Man hat bei den Tests von BF V mit RT keinen unterschied im Verbrauch gemessen. Ob RT An oder Aus ist egal, Verbrauch ist derselbe.

Ok, also doppelter Verbrauch pro Frame. 😂
Danke für die Vorlage...
 
  • Gefällt mir
Reaktionen: dalaidrama
7hyrael schrieb:
warum sollte sich nVidia selbst die Marge kaputt machen? Alles was der Verein tut, spricht dagegen. In der Leistungsklasse 2080 Ti gibts nunmal aktuell leider quasi keine Konkurrenz. Das nutzt nVidia genauso schamlos aus wie Intel vor ryzen... und sie nutzen es noch immer aus, da es genug Hochfrequenzgamer gibt, die intel den Mittelfinger nicht zeigen können/wollen.

Hohe Marge hin oder her, wenn ich mein Zeug nicht verkaufe ist es auch nicht so besonders... Es wird genau das passieren, was bei der 1080 und 1080Ti passiert ist, sie werden durch wundersame Weise auf einmal um 100 Euro oder mehr billiger in der UVP... schau die Umsatzfunktion an als Nvidia die Preise gesenkt hatte... außerdem stimulieren sie damit den Markt jetzt sich doch "the new shit" zu kaufen

Kunden in den Gebrauchtmarkt zu drängen macht keinen Umsatz

Bei der 1080 die man für rund 750 Euro nur kaufen konnte haben auch alle gestöhnt

https://www.3dcenter.org/news/nvidi...gehend-neue-rekordwerte-fuer-quartal-und-jahr

Der miningboom spielt hier auch rein natürlich...
 
Tobias123 schrieb:
Ok, also doppelter Verbrauch pro Frame. 😂
Danke für die Vorlage...

:confused_alt:

Die RTX 2080 verbraucht bei ähnlicher Framerate zu GTX 1080 Ti weniger Strom:

"Das Effizienzversprechen löst Nvidia ein: Verbriet die GeForce GTX1080 Ti in der Furmark-Schleife rund 242 Watt, sind es bei der RTX 2080 nur noch 230 Watt."

https://www.heise.de/newsticker/mel...t-viel-besser-als-die-Vorgaenger-4168248.html

Die Effizienz erhöht sich in der Regel mit jeder Generation, wäre schlimm wenn nicht.

o2r_basti schrieb:
Hohe Marge hin oder her, wenn ich mein Zeug nicht verkaufe ist es auch nicht so besonders... Es wird genau das passieren, was bei der 1080 und 1080Ti passiert ist, sie werden durch wundersame Weise auf einmal um 100 Euro oder mehr billiger in der UVP... schau die Umsatzfunktion an als Nvidia die Preise gesenkt hatte... außerdem stimulieren sie damit den Markt jetzt sich doch "the new shit" zu kaufen

Kunden in den Gebrauchtmarkt zu drängen macht keinen Umsatz

Bei der 1080 die man für rund 750 Euro nur kaufen konnte haben auch alle gestöhnt

https://www.3dcenter.org/news/nvidi...gehend-neue-rekordwerte-fuer-quartal-und-jahr

Der miningboom spielt hier auch rein natürlich...

Wo hast du belegt, dass Nvidia ihr "Zeug" nicht verkauft? Gerade die GTX 1080 hat sich sehr gut verkauft.
Der generelle Umsatz, der hauptsächlich durch Grafikkarten unterhalb der GTX 1080 entsteht, bringt mir dabei leider nichts.

Dass die RTX 2080 Ti, vor allem so kurz nach Release und bei dem Preis, in nächster Zeit nicht die meistverkaufte Grafikkarte wird, ist selbstverständlich, das hat aber bestimmt keiner erwartet. Die RTX 2080 Ti ist ein Nischenprodukt, dass aktuell wie oben geschrieben nur dazu dient, die Leute, die es "benötigen" zu melken.
Für die allermeisten dürfte eine RTX 2080, wenn nicht schon eine RTX 2070/ Vega 64 etc. ausreichend sein.

Die meisten Grafikkarten werden aktuell garantiert im Bereich einer RX 580/ GTX 1060 verkauft - nicht im Bereich einer GTX 1080 geschweige denn einer RTX 2080 Ti.
Das hat damit zu tun, dass die Leute das Geld für Highend oder allein "obere Mittelklasse" nicht ausgeben möchten und garantiert nicht mdamit ob etwas "besonders" ist oder nicht.
Demnach sind Sportwagen, 77 OLED etc. auch nicht besonders, da sie sich nicht so oft verkaufen wie ein Fiat 500, 49 Zoll LED, etc? :freak:

Eine Preissenkung wird es, wie bei allen Grafikkarten, ob nun Nvidia oder AMD, zwangsweise geben.
Das war schon immer so (wie du schreibst mit Ausnahme des Mining-Booms) und wird auch weiterhin so laufen.

Die GTX 1080 hat ein Jahr nach Release auch eine UVP von 499$ erhalten, vorher 699$.
Das selbe mit der RX Vega 64, nach Release 2017 599€, heute 2018 ab 469€ zu haben.

Wenn man wartet fallen die Preise nahezu immer.
 
Zuletzt bearbeitet:
Was ich noch vergessen habe und was auch möglich wäre Nvidia schießt ne komplette GTX Version der 2080 und 2080ti noch in den Markt. Alleine der Release der 2080ti und 2080 gleichzeitig hat mich schon sehr verwundert.

Ist dann wie mit denn 1080+ Modellen mit schnellerem speicher in dem Fall halt ohne Raytracing
 
Zuletzt bearbeitet:
FCK-THIS schrieb:
Gibt es hier jemanden, der meint der Preis der RTX 2080 Ti wäre angemessen? :freak:

Wohl kaum

FCK-THIS schrieb:
Mit dem VRAM hat das allerdings wenig zu tun. Seit wann ist lediglich die Größe des VRAMs ausschlaggebend für den Preis?

wenn man mit dem spitzen Bleistift rechnet und tausende Produkte verkauft sind 3 GB mehr VRAM ein ziemlicher Kostenfaktor.

FCK-THIS schrieb:
Für die Masse ist die RTX 2080 jedoch ausreichend...

Natürlich, zumal die Karte auch 4K zocken ermöglicht.
Aaaaber, gerade beim spielen in 4K sind 8GB VRAM grenzwertig wenig, ich habe den Grafikspeicher der 1080Ti in etlichen Spielen immer gut gefüllt.
Warum bringt man denn nun eine 4K taugliche Karte raus und reduziert den verbauten Speicher - Richtig, zur Gewinnoptimierung und nicht weil er nutzlos ist.
Von den eingesparten 3 GB VRAM pro Karte mal weis der Geier wie vielen tausend verkauften Exememplaren kann man sicherlich das nächste Betriebsfest für die komplette NVIDIA Belegschaft ausrichten.
 
o2r_basti schrieb:
Hohe Marge hin oder her, wenn ich mein Zeug nicht verkaufe ist es auch nicht so besonders... Es wird genau das passieren, was bei der 1080 und 1080Ti passiert ist, sie werden durch wundersame Weise auf einmal um 100 Euro oder mehr billiger in der UVP... schau die Umsatzfunktion an als Nvidia die Preise gesenkt hatte... außerdem stimulieren sie damit den Markt jetzt sich doch "the new shit" zu kaufen

Kunden in den Gebrauchtmarkt zu drängen macht keinen Umsatz

Bei der 1080 die man für rund 750 Euro nur kaufen konnte haben auch alle gestöhnt

https://www.3dcenter.org/news/nvidi...gehend-neue-rekordwerte-fuer-quartal-und-jahr

Der miningboom spielt hier auch rein natürlich...

Das wird frühestens passieren wenn AMD irgendwas bringt was Leistungstechnisch in die Regionen einer 1080 Ti vordringen kann. Aber selbst dann kann mir nVidia mit ihrem RTX Käse den hintern Küssen. die Vega 56 reicht mir völlig um warten zu können bis AMD was bringt für 4K. Wenn man berücksichtigt, dass AMD GPUs meist wie guter Wein sind, die werden mit dem Alter oft noch etwas besser, schieb ich lieber denen mein Geld in den Hals.

Dein Link sagt ja nur das gleiche wie das was ich selbst gesagt hab. Es gibt genug Leute die nicht in der Lage sind - oder sein wollen was ja ihr gutes Recht ist - solchem Geschäftsgebaren wie nVidia es mit den GPUs an den Tag legt mal durch nicht-Kauf zu begegnen. Aus dem Grund wird die 2080 Ti auch guten Absatz verzeichnen, aus dem gleichen Grund wird auch der i9 9900K gut laufen (also bei den Verkaufszahlen, der fast erforderliche Chiller um das Ding unter Kontrolle zu haben nehmen die dann auch noch in "Kauf" :D).
 
o2r_basti schrieb:
Was ich noch vergessen habe und was auch möglich wäre Nvidia schießt ne komplette GTX Version der 2080 und 2080ti noch in den Markt. Alleine der Release der 2080ti und 2080 gleichzeitig hat mich schon sehr verwundert.

Ist dann wie mit denn 1080+ Modellen mit schnellerem speicher in dem Fall halt ohne Raytracing

Sehr, sehr unwahrscheinlich.

cookie_dent schrieb:
wenn man mit dem spitzen Bleistift rechnet und tausende Produkte verkauft sind 3 GB mehr VRAM ein ziemlicher Kostenfaktor.

Nochmal, seit wann ist lediglich die Größe des VRAMs für den entgültigen Preis ausschlaggebend?
Ich habe nicht behauptet, dass es kein Kostenfaktor wäre.

cookie_dent schrieb:
Natürlich, zumal die Karte auch 4K zocken ermöglicht.
Aaaaber, gerade beim spielen in 4K sind 8GB VRAM grenzwertig wenig, ich habe den Grafikspeicher der 1080Ti in etlichen Spielen immer gut gefüllt.
Warum bringt man denn nun eine 4K taugliche Karte raus und reduziert den verbauten Speicher - Richtig, zur Gewinnoptimierung und nicht weil er nutzlos ist.
Von den eingesparten 3 GB VRAM pro Karte mal weis der Geier wie vielen tausend verkauften Exememplaren kann man sicherlich das nächste Betriebsfest für die komplette NVIDIA Belegschaft ausrichten.

Für die wenigen Leute, die sich eine RTX 2080 für 4K kaufen ist es natürlich schade, der deutliche Großteil wird allerdings bei 1440p liegen.
4K macht alleine aus dem Grund, dass es bis auf die Modelle für 2.499€ keinen Monitor mit mehr als 60Hz gibt, für die wenigsten Sinn. Deshalb auch der geringe Anteil an Leuten, die 4K zum Spielen nutzen.

Aber grundsätzlich gebe ich dir Recht, bei 4K sind 8GB nicht ausreichend. Ohne vernünftig bepreiste Gaming-Monitore ist das aktuell jedoch nur für wenige Leute ein Thema.
 
Zuletzt bearbeitet:
FCK-THIS schrieb:
:confused_alt:

Die RTX 2080 verbraucht bei ähnlicher Framerate zu GTX 1080 Ti weniger Strom:

"Das Effizienzversprechen löst Nvidia ein: Verbriet die GeForce GTX1080 Ti in der Furmark-Schleife rund 242 Watt, sind es bei der RTX 2080 nur noch 230 Watt."

https://www.heise.de/newsticker/mel...t-viel-besser-als-die-Vorgaenger-4168248.html

Die Effizienz erhöht sich in der Regel mit jeder Generation, wäre schlimm wenn nicht.

Da sieht man eine Effizienzerhöhung? Dort wird eine 1080 Ti mit der 2080 verglichen, wobei die 2080 ganze 12 Watt weniger verbraucht. Eine wirkliche Effizienzerhöhung sehe ich da nicht, da die 1080 Ti auch 3 GB mehr Vram zu versorgen hat mit Strom. Wo heise da ein eingelöstes Effizienzversprechen sieht, frag ich mich wirklich.
Ergänzung ()

FCK-THIS schrieb:
4K macht alleine aus dem Grund, dass es bis auf die Modelle für 2.499€ keinen Monitor mit mehr als 60Hz gibt, für die wenigsten Sinn. Deshalb auch der geringe Anteil an Leuten, die 4K zum Spielen nutzen.

Die meisten spielen 4k nicht auf einem Monitor, sondern am TV.
 
  • Gefällt mir
Reaktionen: Grundgütiger
Aldaric87 schrieb:
Da sieht man eine Effizienzerhöhung? Dort wird eine 1080 Ti mit der 2080 verglichen, wobei die 2080 ganze 12 Watt weniger verbraucht. Eine wirkliche Effizienzerhöhung sehe ich da nicht, da die 1080 Ti auch 3 GB mehr Vram zu versorgen hat mit Strom. Wo heise da ein eingelöstes Effizienzversprechen sieht, frag ich mich wirklich.
Ergänzung ()

Tobias123 schrieb:
Ok, also doppelter Verbrauch pro Frame. 😂
Danke für die Vorlage...

Das Zitat, auf das ich mich bezogen habe nicht gesehen?
War eigentlich schwer zu übersehen.
Bei ähnlicher Framerate verbraucht die RTX 2080 weniger.

Aldaric87 schrieb:
Die meisten spielen 4k nicht auf einem Monitor, sondern am TV.

Stimmt, habe ich auch schon, bei den selben 60Hz und hier sogar ganz ohne G- oder Freesync jedoch nur für wenige Spiele interessant.
Der deutliche Großteil der Käufer der RTX 2080 wird jedoch @1440p spielen oder willst du dem widersprechen?
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Ach und was macht HBCC ? Nachladeruckler eliminieren, die durch zu kleinen Vram entstehen.

Nein, die Frametimes deutlich erhöhen, sobald mehr als 8GB verwendet werden.
Das bringt einem dann genau was? Die zusätzlichen 4GB der Vega sind genau so nutzlos, wie die zusätzlichen 0,5GB der GTX970.
Alles andere als "echter" VRAM ist kein "echtes" Argument.
 
  • Gefällt mir
Reaktionen: FCK-THIS
FCK-THIS schrieb:
Nochmal, seit wann ist lediglich die Größe des VRAMs für den entgültigen Preis ausschlaggebend?

Und wer soll das bitte behauptet haben? Gerne mit Zitat.

Was genau verstehst du denn jetzt nicht? Wenn 8GB VRAM schon 2016 ein Thema war und es Spiele gibt, die 2018 die 8GB mit irgendwelchen Einstellungen sprengen: Über wie viel VRAM sollte dann eine Grafikkarte verfügen, die Ende 2018 für 750€ erscheint?
Wir sprechen hier nicht von Smartphones, sondern von Grafikkarten. Die meisten Leute kaufen sich nicht jedes Jahr eine neue Grafikkarte für 750€.
 
  • Gefällt mir
Reaktionen: Chismon
Früher war es leichter und übersichtlicher weil es da in jeder Preiskatekorie eine Grafikkarte gab. Hast du 300€ ausgeben hat man eine 300€ grafikarte bekommen. Kurz vor und nach dem Release eine neuen generation wurde etwas am Preis gedreht. Aber den Nachfolger gab es im Grunde zum gleichen Preis.

Das gibt es heut ja nicht mehr wirklich. Es werden ja oft gar nicht mehr die ganze Generation ersetzt. Viele Chips werden wiederverwertet. Wie soll man da noch von Nachfolger reden? Wegen der Nummer? Man kauft doch nach einem Budge, Nach einem Preis, nach Leistung, aber doch nicht nach einer Nummer. Dtas macht auch eine die Klassische Grafikartenklasse aus. Beispiel, Ich gebe bis zu 800€ für die Grafikarte aus. Ich glaub da kann man glaube ich schon von Highend oder zumindest oberklasse reden, dann bekommt man 2016 eine 1080, 2017 eine 1080ti und jetzt zu 2018 eine 2080. Ist mein Budget bei 600, gab es 2016 eine 1070, 2017 eine 1080 und 2018 eine 2070 dafür....

Wer das ganz anders sieht, soll mir doch bitte sagen wer der Nachfoger von der HD 58xx Serie ist. War das jetzt die HD 68xx oder doch die HD 69xx?
 
FCK-THIS schrieb:
Nochmal, seit wann ist lediglich die Größe des VRAMs für den entgültigen Preis ausschlaggebend? Ich habe nicht behauptet, dass es kein Kostenfaktor wäre.

Ok, hast Recht.
Ich denke mittlerweile sowieso das die Gier des Herstellers der größte Preistreiber ist und man deshalb auch die 3 GB bei der 2080 gestrichen hat.

FCK-THIS schrieb:
4K macht alleine aus dem Grund, dass es bis auf die Modelle für 2.499€ keinen Monitor mit mehr als 60Hz gibt, für die wenigsten Sinn. Deshalb auch der geringe Anteil an Leuten, die 4K zum Spielen nutzen.

Naja, mir persönlich reichen 60 FPS.
Aber für besagte 144Hz 4K Monitore mit 144FPS zu versorgen gibt es ja noch keine Grafikkarten, davon ist auch die 2080Ti noch Meilenweit entfernt. Es sei denn man lässt sich auf SLI Experimente ein.
 
  • Gefällt mir
Reaktionen: McTheRipper und FCK-THIS
Status
Für weitere Antworten geschlossen.
Zurück
Oben