News Grafikkarten-Preise: Nvidia GeForce ist bis zu 10 Prozent günstiger

Fangen die bei NVidia nicht immer mit der Neuen Titan an oder irre ich mich da?
 
Keine Geduld! schrieb:

Das ist zum einen kein Tiefststand, die Karte war auch mal billiger, und zum anderen ist es eine aktuelle Generation. Nvidia mag Pascal seit 2 Jahren fahren und hat sich im groben und ganzen den sonst üblichen Refresh gespart, aber ansonsten ... nicht wirklich ungewöhnlich. Und die nächste Generation steht gerade in den Startlöchern. Im Zuge dessen das Crypto schon wieder am stiegen ist ... könnte der sonst übliche Abverkauf der alten Generation diesmal aber auch ganz ausfallen.
 
Dass das leider kein Tiefstand ist weiß ich. Hatte für meine bei Mindfactory vor 2 Jahren so um die 255€ bezahlt. Und ich glaube auch das der Crypto-Mining Wahnsinn die Gamer wohl noch ne Zeitlang beschäftigen wird. Jeder der keine 450-800 € für ne GraKa über hat, schaut so langsam in die Röhre. Da werden die Spielekonsolen für so manchen immer verlockender.
 
Zuletzt bearbeitet:
Das schlimme an der Situation ist ja auch, dass es den Herstellern gelingt, sowohl jegliche Vorab-Leaks sehr, sehr gut einzudämmen als auch die Roadmaps für zukünftige Produkte quasi nicht mehr zu veröffentlichen. Die Nachfolger von AMDs Navi bzw. Nvidias Volta wurden noch nie genannt. Und Volta heißt ja inzwischen Turing, mehr ist nicht bekannt. Was auch immer dort jeweils als technologische Weiterentwicklung geplant ist, die Infos dazu werden nicht mehr vorab verkündet.
 
Naja theoretsich gab es quasi bei nv kleine refreshes mit der 1060 und 1080 gddr5x varianten ;).
 
raphe schrieb:
Ja, die Titan V auf Volta-Basis ist aber bereits erschienen

Wobei hier die Frage ist, ob die Titan V tatsächlich auf den Techniken basiert, die dann auch mit der nächsten Generation in der Geforce-Serie aufschlägt. HBM2? Tensor-Cores? ...? Noch nie war die Lage so unklar, wie derzeit.
 
Hallo Wolfgang, hallo CB,

vielen Dank für die kurze kompakte News.
Ich würde mich über eine noch mehr neutrale und sachdienliche News-Berichterstattung von CB bzw. dessen News-Schreibern allgemein freuen.

Dem Verständnis nicht sehr dienlich fand ich die Formulierung "... günstiger". Da fehlte mir der Bezug.
Also, ob es z.B. zeitlich (und welche Zeit gemeint ist) oder andere Modelle (evtl. anderer Anbieter) bezogen war.
Da dies zu formulieren eventuell in der Überschrift zu lang werden könnte, hätte ich eine Idee:

Statt
Grafikkarten-Preise: <Hersteller XYZ> ist bis zu 10 Prozent günstiger
könnte man z.B. auch schreiben: "Grafikkarten-Preise: Stand 2. Hälfte (oder genaues Datum) Mai 2018".
Man könnte die Preise damit auch besser über die interne Suche finden und ggf. mit denen aus der Vergangenheit vergleichen.

In der News selbst sind diese Daten ja wunderbar übersichtlich dargestellt.

Gruß, MiMo
 
Ich finde die immer noch viel zu hoch. Hoffentlich wird meine GTX 970 noch lange halten. :)
 
SKu schrieb:
... bisher nur Spekulationen, sollten sich aber die Daten für die GTX1170 bewahrheiten, wird die Leistungssteigerung dieses Mal geringer ausfallen als von Maxwell auf Pascal und eine 1080ti wird damit nicht eingeholt. Bei der 1080ti würde ich von einer soliden WQHD-Karte sprechen, je nach Setting, ist aber auch diese Karte bereits zu schwach auf der Brust. Für 4K zu langsam und WQHD benötigt nicht wirklich diese Menge an Speicherkapazität. Gerade die AAA-Titel sind vom VRAM-Gebrauch eher sehr schonend ausgelegt. Wenn Nvidia ihrem Release-Zyklus treu bleibt, kommt eine 1180ti wohl erst ein Jahr nach Release um das als zuvor deklarierte High-End Flaggschiff GTX2080 abzulösen. Zuerst müssen die Performance-Chips an den Mann gebracht werden, was für Nvidia wohl kein Problem sein sollte ... mich ist die 1180ti schon gesetzt (es sei denn AMD kann mit Navi überraschen), nur wird das mit Sicherheit ein ziemlich kostspieliges Vergnügen. :)

Das ist wahr, noch wissen wir nichts konkretes und sind alles Glaskugelvorhersagen .... interessant fand ich übrigens die Information in dem Artikel auf Tom's Hardware, dass PNY wohl die Founders Edition Referenz-Grafikkarten für nVidia produziert (analog zu Sapphire und gerüchteweise Biostar wohl bei AMD/RTG).

PNY als verantwortlicher Produzent der Referenzkarten ...

Meines Wissens gibt nVidia 3 Jahre Garantie auf deren Referenzkarte, wohingegen PNY für deren Custom-Modelle aber mittlerweile nur 2 Jahre Garantie vorsieht (vor einiger Zeit wurde die Änderung der Garantiebedingungen bei PNY für deren GeFroce Produkte im Zusammenhang mit der (Ab-)Nutzung durch Miner ja auch auffällig deutlich/hitzig diskutiert).

Des Weiteren wird im o.g. Artikel von Herrn Wallossek auch die Vermutung von 50% Mehrleistung einer GTX 1180/2080 gegenüber einer GTX 1080 geäussert, was demnach auf ca. 15% Mehrleistung zu einer GTX 1080Ti hinaus laufen würde.

In diesem Fall würde eine GTX 1170/2070 rohleistungstechnisch natürlich nicht an eine GTX 1080Ti mehr heranreichen (auch wenn diese vermutlich mehr Speicher und deutlich bessere Effizienz aufweisen dürfte), es sei denn, dass nVidia - wie zu Kepler Zeiten noch - eine stark übertaktete GTX 1170/2070 genauso schnell wie eine Stock GTX 1180/2080 machen würde.

Dagegen sprächen aber die mit Pascal erstmals eingeführte 70Ti Reihe (der deutliche Leistungsabstand zwischen beiden Chipvarianten) und der nicht vorhandene Druck durch AMD/RTG (anders als noch zu Radeon HD 79XX Zeiten) sowie der zu kleine Sprung bei der Fertigung.

Denkbar wäre aber fast, dass nVidia erstmalig eine GTX 1180Ti/2080Ti mit relativ kleinem ("Mittelklasse-Chip") in 7nm gefertigt herausbringt, um die eigene Gewinnmarge noch einmal kräftig zu erhöhen, zumal dann ein Großchip nicht nötig werden könnte, es sei denn Navi wird ein Donnerschlag von einer GPU.

Letzteres erwarten wohl (nach Koduris Weggang und Umorientierung bei der RTG) die wenigsten, mich eingeschloßen, auch wenn ich mir es sicherlich anders wünschen würde/gerne eine halbwegs bezahlbare AMD/RTG Oberklassekarte erwerben würde.

Wenn aber AMD/RTG wirklich ein leistungstechnisch in etwa auf Augenhöhe befindliches Konkurenzprodukt zur GTX 1180Ti/2080Ti aus dem Boden stampfen können sollte, dann würde dieses sich - ohne Miningboom-Sondereffekt natürlich - sicherlich preislich auch in einem ähnlichen Rahmen bewegen wie das nVidia Gaming-Flaggschiff (zumal dann HBM2 auch wieder güntiger geworden sein könnte oder HBM3 vielleicht günstiger/effizienter herzustellen sein wird?).

Naja, wenn man sich Final Fantasy XV anschaut, sind 12 GB (GDRR6) schon angeraten (hoffentlich ohne den in Aussicht gestellten 100 Euro Aufpreis wegen der relativ hohen Speicherpreise derzeit), damit man nicht speichertechnisch in einigen Bereichen des Spiels evt. verhungert (so dass es anfängt zu ruckeln).

Das war sicherlich ein erster Fingerzeig, auch wenn Squre Enix Studios nicht gerade als ressourcenschonend und effizient bei der Umsetzung gelten (man schaue sich dahingehend nur einmal den letzten Deus Ex Teil an) und man darf gespannt sein, wie sich das dann bei Shadow of the Tomb Raider verhält, welches ein neuer Meilenstein sein könnte (auch in Sachen Hardware-Anforderungen, die die neuen GT104 Karten schon fordern/schwitzen lassen könnten).
 
  • Gefällt mir
Reaktionen: thepusher90
anexX schrieb:
Die Preise sind nach wie vor en Scherz - ne 1070 für 420 € ? Die Karte wird in Kürze abgelöst, die sollte locker unter 300€ sein zum heutigen Zeitpunkt. Nene, also hier kann man leider immer noch nicht von gut sprechen.

wenn ich bedenke das ich vor acht jahren für das spitzenmodell (eine hd5870) 350 euro ausgegeben habe jetzt ist das doppelte was verlangt wird. gaming ist teurer geworden.

die preise sind echt stabil die bewegen sich eher nach oben als nach unten dank mining. habe vor kurzem meine GTX 1060 3 gb verkauft und der preis ist fast gleich wie vor 6 Monaten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: thepusher90
Chismon schrieb:
Naja, wenn man sich Final Fantasy XV anschaut, sind 12 GB (GDRR6) schon angeraten (hoffentlich ohne den in Aussicht gestellten 100 Euro Aufpreis wegen der relativ hohen Speicherpreise derzeit), damit man nicht speichertechnisch in einigen Bereichen des Spiels evt. verhungert (so dass es anfängt zu ruckeln).

Das war sicherlich ein erster Fingerzeig, auch wenn Squre Enix Studios nicht gerade als ressourcenschonend und effizient bei der Umsetzung gelten (man schaue sich dahingehend nur einmal den letzten Deus Ex Teil an) und man darf gespannt sein, wie sich das dann bei Shadow of the Tomb Raider verhält, welches ein neuer Meilenstein sein könnte (auch in Sachen Hardware-Anforderungen, die die neuen GT104 Karten schon fordern/schwitzen lassen könnten).

Square Enix ist eine Ausnahme. RotTR hat auch bereits knapp 8GB in WQHD mit höchsten Textureinstellungen gezogen. Die ganzen anderen AAA-Titel von EA und Ubisoft ziehen nicht mal ansatzweise so viel Speicher - z.B. ACO benötigt knapp 3GB mit höchsten Textureinstellungen und adaptiven AA in WQHD.
 
@Chismon
Warum sollte AMD nicht in der Lage sein, eine reine Gaming GPU her zu stellen, wenn sie der Meinung sind, das dies nötig ist?
Sie würden wie nVidia nur den Compute Teil rapide kürzen und Tada eine Gamingkarte erblickt das Licht der Welt. Ich finde jetzt nicht, das nVidia da ein Wunder der Technik erstellt hat mit ihren Geforce Karten. Vor allem wenn man bedenkt wie lange sie jetzt auf DX11 rumkauen und man ja an sämtlichen DX12/Vulkan tauglichen (und nicht schlecht programmierten, *in Richtung SquareEnix guck*) Spielen sieht, wie viel Leistung dort die Allroundkarte von AMD schon fahren kann.

Also wenn AMD wirklich wollen würde, bekämen sie das hin. Und warum auch nicht.

Dieser ganze Pessimismus der hier immer verbreitet wird ist absolut unnötig. Man sieht jetzt schon, wie gut die AMD Karten mithalten können als Allrounder mit den reinen Gamingkarten von nVidia. Verbrauch ist halt höher und auch die Leistung wird nicht immer ganz umgesetzt in Gameworksoptimierten Spielen. Aber gerade wo eben keine unnötigen Bremsklötze eingebaut sind, sind beide gleich auf und mal die eine etwas schneller und mal die andere.
Wenn man jetzt also den Kram raus lässt, der eben den Verbrauch nach oben drückt, glaubt ihr allen ernstes, dass man hier keine gute Gamingkarte sehen würde?

Einfach mal abwarten was Navi sein wird, ist ja alles möglich. Und die Flinte nicht schon ins Korn werfen, bevor es abgeerntet ist.
 
  • Gefällt mir
Reaktionen: thepusher90
nVVater schrieb:
Das sind keine 100% ;)
Sondern eher 80-90%, so wie SLI meistens immer skaliert im GPU limit.

100% wären es wenn man vorher 40FPS hatte und mit zwei anschließend 100FPS.
40 fps + 100% (also noch mal 40 fps obendrauf) = 100 fps?
 
  • Gefällt mir
Reaktionen: thepusher90
Cohen schrieb:
40 fps + 100% (also noch mal 40 fps obendrauf) = 100 fps?

Danke...ich hatte mich nicht mehr getraut zu fragen, weil ich dachte ich hätte mal wieder was nicht verstanden oder außer auch gelassen... :D
 
SKu schrieb:
... eine Ausnahme. RotTR hat auch bereits knapp 8GB in WQHD mit höchsten Textureinstellungen gezogen. Die ganzen anderen AAA-Titel von EA und Ubisoft ziehen nicht mal ansatzweise so viel Speicher - z.B. ACO benötigt knapp 3GB mit höchsten Textureinstellungen und adaptiven AA in WQHD.

Das mag sein, nur soll die GTX 1180/2080 zumindest eine Weile das neue Gaming-Flaggschiff bei NVidia werden und wenn dieses schon zum Marktstart oder kurz danach limitiert, weil wieder extrem seitens NVidia mit dem Speicher gegeizt wurde (das wäre zwar - auch in der Oberklasse - nicht das erste Mal), dann dürften das viele (die Grafikkarten mittel- bis langfristig sich anschaffen, mich also eingeschlossen) als frühzeitiges K.O.-Kriterium sehen.

Ob das mit GDDR6 durch die doppelte Speicherdichte kompensiert werden kann? HBM3 soll jedenfalls günstiger ausfallen als HBM2 und hoffentlich läuft da die Optimierung und Produktion auch runder, aber vor 2019 würde ich mit HBM3 sowieso nicht im Gaming-Bereich (also AMDs/RTGs Navi-Architektur) rechnen.
 
Dark_Knight schrieb:
@Chismon
... sollte AMD nicht in der Lage sein, eine reine Gaming GPU her zu stellen, wenn sie der Meinung sind, das dies nötig ist? ... würden wie nVidia nur den Compute Teil rapide kürzen und Tada eine Gamingkarte erblickt das Licht der Welt. Vor allem wenn man bedenkt wie lange sie jetzt auf DX11 rumkauen und man ja an sämtlichen DX12/Vulkan tauglichen (und nicht schlecht programmierten, *in Richtung SquareEnix guck*) Spielen sieht, wie viel Leistung dort die Allroundkarte von AMD schon fahren kann.

Dieser ganze Pessimismus der hier immer verbreitet wird ist absolut unnötig. Man sieht jetzt schon, wie gut die AMD Karten mithalten können als Allrounder mit den reinen Gamingkarten von nVidia. Verbrauch ist halt höher und auch die Leistung wird nicht immer ganz umgesetzt in Gameworksoptimierten Spielen ... gerade wo eben keine unnötigen Bremsklötze eingebaut sind, sind beide gleich auf und mal die eine etwas schneller und mal die andere. Wenn man jetzt also den Kram raus lässt, der eben den Verbrauch nach oben drückt, glaubt ihr allen ernstes, dass man hier keine gute Gamingkarte sehen würde?

In der Lage schon, nur eben nicht von heute auf morgen, mit 4-6 Jahren musst Du schon mit einer komplett neuen GPU-Architektur rechnen und aktuell sieht es nicht danach aus, als ob bei AMD/RTG das in der (eher in Bezug auf Intel berühmt-berüchtigten) Schublade liegt oder eben gegenwärtig in der Mache ist und mit Fertigstellung in 2019 gerechnet werden kann.

Dazu geht es m.E. bei AMD/RTG viel zu drunter und drüber wegen Koduris Weggang und der nachfolgenden Umorientierung. Dass sie aber generell dazu in der Lage wären, denke ich auch, nur eben nicht von heute auf morgen (und 2019 wäre dann quasi schon "morgen").

Des Weiteren ist die Frage, ob man die eigenen Produkte (bzw. deren Compute-Einheit) so kastriereren will, wie das bei nVidia der Fall ist, nur weil einem im Gaming-Bereich derzeit ein wenig die Felle davon schwimmen.

Wegen des (immer noch) grassierenden Miningbooms ist das sicherlich abzuwägen oder man könnte die jetzige Gaming-GPU-Sparte in eine Miningsparte umfunktionieren und dann bei Vorhandensein passender/verschlankter Architektur eine neue auf Gaming (wegen kastrierterter Compute-Einheit) und sonst nichts optimierter GPU-Serie starten in Anlehnung an die nVidia Gaming GPU-Produkte.

Was die DX11/Open GL Unterstützung anstelle alleinigem Fokus auf DX12/Vulkan angeht, so sitzt nVidia da leider am Drücker und die Entwickler richten sich nun einmal oft/überwiegend nach dem Marktführer, auch wenn da künstlich die Entwicklung stagniert/ausgehebelt wird, nur um sich einen Wettbewerbsvorteil zu sichern, bis man irgendwann vielleicht in DX12/Vulkan auch AMD/RTG irgendwie übertrumpfen kann.

Somit regieren da Stagnation und Kalkül und ich sehe eigentlich nur die kleine Chance, dass Microsoft da mit einer DX13 Version - die schon revulutionär mehr bieten müssten, vor allem deutlich einfacher als DX12 von Entwicklern genutzt werden könnte - da am Status Quo etwas ändern könnte, aber solch eine Investition lohnt sich für Microsoft wohl nicht und DX12 war wohl durch den Druck von Mantle erst entstanden.

Bis auf die Tomb Raider Serie (und den für den asiatischen Markt entwickelte J-RPGs u.ä.) sehe ich Square Enix aktuell klar auf dem absteigenden Ast, die Hitman Reihe hat man (zum Glück) abgegeben, der letzte Deus Ex Ableger ist gefloppt, das in der Entwicklung befindliche Avengers Spiel braucht wohl auch eine Weile und ist kein Erfolgsgarant trotz des Erfolgs der Filme ... aber wer weiss, vielleicht berappeln sie sich ja wieder und momentan kompensiert das Tomb Raider Franchise (auch mangels ernsthafter Konkurrenz, da Disney ja die Indiana Jones Reihe ehrenrühriger Weise eingestampft hat bzw. nicht die Lizenz zur Spielentwicklung vergibt) das eben.

Irgendwie glaube ich aber nicht, dass bei vielen Entwicklern ein Sinneswandel vollzogen wird und man sich bemühen wird, zukünftig ressourcenschonender zu arbeiten/programmieren, ein anderes Beispiel ist Mirror's Edge Catalyst von EA/Dice, was sicherlich kein großer Erfolg war (aber Dice hat auch bei daneben entwickelten Spielen im Gegensatz zu anderen EA Studios einen Blankoscheck, da Söderlund als deren Ex-CEO die schützende Hand über das Studio hält) aber in Hyper Einstellungen auch kräftig Speicher gezogen hat.

Wann bei Star Citizen dann auch die (GPU-Speicher-)Anforderungen angehoben werden oder bei anderen, noch fordernderen Spieleserien, ist doch eigentlich nur eine Frage der Zeit, genauso wie die immer mehr Festplatten-/SSD-Speicher-fressenden Installationsumfänge/-dateien bei Spielen ... Maß halten liegt nicht im Trend sondern Entwickler aasen i.d.R. massiv mit den gegebenen Ressourcen.

Sehen die Spiele dafür so viel besser aus als zu Zeiten von Crysis etwa, als dass es diese Entwicklung rechtfertigen würde (?) ... nicht wirklich, wie ich finde, aber Hautpsache der Konsument wird gemolken (viele sind sich dieser "Absprache" nicht bewusst) und in diesr Industrie hackt eine Krähe der anderen kein Auge aus, zumal beide davon profitieren ;).

Das mag Dir und mir so gehen und einigen anderen Leute hier ebenso, aber da die aktuelle Marktsituation im PC Gaming Bereich zugunsten des Marktführers ist schon erdrückend und die Mehrheit warten doch nur auf neues Futter von nVidia und AMD wird von vielen nur als Preisdrücker gewünscht aber nicht als ernsthafte Alternative.

Nicht ohne Grund haben die Praktiken von nVidia gefruchtet und sie in diese Position katapultiert und würde AMD/RTG nicht die beiden großen Konsolen bestücken, dann hätten sie kaum noch etwas zu melden (bei den Entwicklern), so ernst sieht es aus und die Verkaufszahlen bei den GPUs spiegeln das wieder.

Durch den Krypto-Mining Boom ist das ganze sogar noch verschärft worden, denn Leute die AMD/RTG kaufen wollten, konnten das eben zu anständigen Preisen oft nicht mehr und sind daher zum Marktführer bei Gaming GPUs abgewandert.

So gesehen braucht man m.E. die Quasi-Monopolstellung und Marktmacht nVidias (letztes Beispiel dafür die Dreistigkeit, mit der GPP durchgesetzt werden sollte) nicht kleiner zu reden als diese sind und es hat schon seinen Grund, wieso soviel Pessimismus hier die Runde in Bezug auf AMD/RTG GPUs im Gamingbereich macht.

Auch wenn die RX Vega und Polaris Grafikkarten per se ziemlich ordentlich ausgefallen sind (wenn der Stromdurst bei diesen auch ein wenig üppig ausgefallen ist, was z.T. durch den größeren Fokus auf Compute erklärt werden kann) und von einigen (bewusst) in Grund und Boden geschrieben werden, was diese Produkte sicherlich nicht verdienen, so haben diese nicht dazu geführt, dass man gegenübr nVidia aufholen konnte (sondern man hat eher noch mehr Boden verloren).

Ein Großteil der Compute-Leistung über Bord zu werfen wird vermutlich nicht reichen, man benötigt auch mehr Unterstützer der spezifischen/charakteristischen GPU-Architektur bei den Entwicklern (wie das löblicher Weise schon Bethesda tut), um wirklich auf Augenhöhe Spiele unterschiedlicher GPUs bewerten zu können, denn aktuell wird eigentlich mit gezinkten Karten (Stichwort Gameworks) gespielt.

Dahinein muss also ebenfalls investiert werden und idealerweise sollte man bei MCM vor nVidia auf dem Markt sein, aber ob man das mit vorhandenem Budget und Größe im GPU-Bereich schaffen wird können (trotz der Infinity Fabric Entwicklung und dem Wissenschatz aus dem CPU Bereich ... nVidia stellt nVidiaLink (Fabric) wohl dagegen)?

Warten wir's ab, aktuell sehe ich leider wenig (bzgl. Markt- und Nachrichtenlage angeht), was einen optimistisch für den AMD-RTG-Gaming-GPU-Bereich stimmen lässt, auch wenn ich mir das anders wünchen würde ;).
 
  • Gefällt mir
Reaktionen: Tanzmusikus und thepusher90
Also ich finde nicht das bei AMD jetzt Chaos herrscht in der GPU Sparte, nur weil Kodouri weg ist. Aber das werden wir erst 2019 dann sehen.
Einzig das sie den Vega Refresh weg gelassen haben, das ärgert mich schon etwas, da Ziel eigentlich war dieses Jahr einen neuen PC mit Zen+ und Vega+ mir zusammen zu bauen.
Aber so verschiebt es sich wohl ins nächste Jahr, außer die Preise im GPU Bereich fallen auf ein erträgliches Niveau. Dann könnte ich eventuell doch noch schwach werden.

Und ich sage es immer wieder gerne, AMDs GPUs sind gleich auf was die Balkenlänge angeht mit jeder Karte von nVidia in der selben Klasse. Somit ist absolut jedes Spiel genauso gut oder schlecht spielbar. Wer dann lieber zu nVidia greift, weil diese etwas weniger Strom verbrauchen, der solle dies machen. Scheint am Ende ja der einzige wirkliche Grund zu sein nicht auch mal zu AMD zu greifen. Ich wünschte nur, das die Menschen die behaupten es ginge um Strom zu sparen, dies auch in ihrem kompletten Lebensbereich so machen würden. ;)
 
  • Gefällt mir
Reaktionen: thepusher90
Zurück
Oben