News Nvidia selektiert GPUs: Werks-OC bei günstigen GeForce RTX untersagt

Die Aufteilung in zwei verschiedene Klassen und IDs könne auch verhindern, dass Kunden eine günstige Karte nachträglich mit dem BIOS einer schnelleren Version „aufrüsten“, heißt es weiter.

Für Nvidia und die Board-Partner würde diese Unterteilung neue Argumente für den Aufpreis zur Founders Edition oder einer übertakteten Partnerkarte schaffen.

Es bleibt aber abzuwarten, ob die exakte GPU-Version überhaupt öffentlich kommuniziert wird.

Eine "guenstige Karte" bezogen auf RTX Turing Grafikkarten von nVidia :lol:, ist das ganze ein Satire-Artikel ;) @ CB?

Gewohnt unterirdische Kunden/-Produktpolitik der Marke nVidia, denn die RTX Karten an sich sind ja noch nicht genuegend uberteuert da muss zu den Mondpreisen dann noch eine Klassen-Unterteilung in stark und wenig OC-faehig vorgenommen werden, weil dann ein noch groesserer Reibach mit den dazugehoerigen Preisstufen gemacht werden kann :freak:.

Wer die Abzocke mitfinanziert/gutheisst ist m.E. selber Schuld, fuer mich ist das nur noch ein weiterer Faktor der die RTX Turing Karten von nVidia jetzt schon disqualifiziert.

Was ist denn, wenn einer der Boardpartner einen "B" Chip preislich als "A" Chip anbietet und damit abkassiert, denn Transparenz ist da evt. nicht vorgesehen und wenn das nicht einmal beworben werden muss vom Anbieter, hat man als Kaeufer wohl scheinbar keinen Anspruch darauf spaeter davon zurueck zu treten (auch wenn man als Verbraucher dann getaeuscht wurde :rolleyes:).

Die Chips werden (vorerst?) also nicht mehr als Vollausbau und beschnittene Variante von TU 102, 104 und 106 Chips (als RTX 2080Ti, 2080 und 2070 Grafikkarten) angeboten (oder kommen da noch Plus, LE oder "was-weiss-ich-was fuer-krumm-konfigurierte/beschnittene" Versionen irgendwann dazu, womit dann (gewollt?) jegliche Transparenz fuer Laien floeten geht?), sondern leistungstechnisch Klassen mit non-OC-GPUs (also bei Intel CPUs analog die nicht-"K"-CPUs) und OC-GPUs (analog zu Intel "K"-CPUs) kuenstlich aufgemacht, um zukuenftig noch besser/massiver die Kundschaft abkassieren zu koennen :rolleyes:.

Da kann sich "die Lederjacke" ja selber wieder dafuer auf die Schulter klopfen und vor versammelten nVidianern feiern lassen, denn es gibt leider genuegend Lemminge heutzutage denen Verbraucherrechte fremd/fern sind und die dieser miesen Kunden-/Produktpolitik unreflektiert aus der Hand fressen ... na ja, vielleicht verdienen diese es dann auch damit im Nachhinein auf die Schnauze zu fallen :evillol::p.

Wieder ein Grund mehr zu warten und bei dGPUs zukuenftig zu AMD/RTG (oder evt. irgendwann Intel) zu wechseln :) ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
Warum regt ihr euch so auf? Endlich werden mal die Lootboxen unter die Lupe genommen und Nvidia macht was gegen die Silicon Lottery. (etwas Ironie) Eventuell wird es weniger Leute geben die ihre Karten 10x zurückschicken, weil sie nicht das erwünschte OC Potential hatten. Jetzt wissen sie was sie kaufen.

Ich persönlich finde es natürlich nicht gut, da ich meine Hardware aus Prinzip übertakte. Ich habe aber noch nie ein Stück zurückgeschickt, weil es sich nicht gut übertaktet hätte. Um so schöner ist es dann, wenn man mal ein gutes Stück erwischt.
 
is ja mies. das mit dem selektieren: ok. aber zu untersagen, dass die "billigeren" werks-oc kriegen: bitter. d.h. man wird bis aufs hemd ausgezogen, jedes feature muss de facto bezahlt werden :D.
 
anexX schrieb:
Red doch nicht son Quark - hier will niemand etwas unrealistisches bzw noch nie da gewesenes - die Leute wollen einfach nur das was bisher immer völlig selbstverständlich geboten wurde und kritisieren Nvidia zurecht dafür das es nun aus Gründen von Geldgeilheit seitens Nvidia nicht mehr geboten wird.

Wenn du über 1000€ für ne Graka zahlst und weisst im Hinterkopf das dein Chip ausm Resteverwertungsbecken gezogen wurde dann wird das auch bei dir nicht dauerhaft für gute Laune sorgen.
:kotz:
Es ändert sich nichts zu früher, nur dass es früher eine Lotterie war, ob man einen guten oder schlechten Chip bekam. Oder glaubt hier wirklich nur einer, wenn Nvidia nicht den Weg gegangen wäre, dass sie all diese Chips, die nicht A Chips, welche trotzdem funktionieren, in den Müll geworfen hätten?
 
Smartcom5 schrieb:
Oha, das ist ja mal die charmanteste Umschreibung und Verharmlosung von zahllosen »PR-Stunts bei einem Hersteller, der bereits in der Vergangenheit mit praktisch jeder der letzten Grafikkarten-Generationen die Preise der Karten-Palette preislich wieder einmal eine ganze Stufe nach oben hin zu verschieben versuchte«, die man hier lesen darf …

Und das wiederum ist die charmanteste Umschreibung für eine Unterstellung, deren Wahrheitsgehalt Du einen Beweis schuldig bist, nämlich dasss nVidia hier gezielt "versucht" andere Preisstrukturen durchzusetzen.

Die Preisstrukturen sind nämlich bezogen auf die Leistung gleich geblieben. Es ist nachwievor so, dass man heutzutage für weniger Geld immer mehr Leistung erhält.
Was man allerdings gemerkt hat ist, dass es Konsumenten gibt, die bereit sind überdurchschnittlich viel zu bezahlen, wenn man in Richtung Maximalausbau und High- End geht. Somit erschafften man Klassen über den bekannten klassen und passt die Namensschemen an.
Man erhält also neue Auswahlmöglichkeiten, die man vorher nicht hatte. Und jetzt sehen anhand des Preises viele, dass sie ab einer gewissen Preiskategorie nicht mehr mitspielen wollen/können, derne Leistung trotzdem einen magischen Reiz ausübt.
Das gräbt ein wenig am Zufriedenheitsfaktor. Wenn High- End nämlich vorher 400,-€ gekostet hat, so konnte man sich für wenig Geld zu den TOPs zählen. Mit gutem Gefühl und ohne den Hintergedanken, dass es noch etwas besseres gibt.
Diese Zufriedenheit nimmt man jetzt einer gewissen Einkommensklasse (man merk hier anhand der überbordenden Diskussion, dass da nVidia diesmal genau den Nerv getroffen hat).

nVidia hatte schon mit der GTX 10x0-Serie beabsicht, langsam aber sicher das gesamte Portfolio der Karten im Preisgefüge kontinuierlich nach oben zu drücken. Und sie waren leider wieder einmal erfolgreich und haben es geschafft; Nämlich eine geldwert komplette Verschiebung des Mainstream in's untere High-End.
Dass wir für neue Dinge, gerade im Computersektor, wo die Luft aufgrund der Fertigungsengpässe und Möglichkeiten immer dünner wird, in Zukunft mehr Geld für große Leistungssprünge hinlegen müssen, wird doch hier niemand ernsthaft bestreiten.
Da werden einige hier die nächsten Jahre ob der Realität einen ganz harten Aufprall erleiden, wenn man denkt es geht unendlich weiter so.

Jetzt mach mal bitte Raytracing nicht madig! Zumindest die Tester dürfen einbrechende RT-Framezahlen bewundern! Anhang anzeigen 709511
Es wird zumindest bis zum großen Microsoft- Update kein Raytracing geben. Auch wird man sich am Anfang kein wirkliches Urteil über die Leistungsfähigkeit der neuen Hardware bilden können, solange nicht das erste Spiel erscheint, welches schon während der Entwicklung mit den Möglichkeiten der neuen Hardware im Hinterkopf entwickelt wurde.

Wie damals bei Einführung von T&L auf dem Chip.
Alles schon dagewesen. Die Reaktionen der Konkurrenz und der User waren damals schon gleich.
Brauchen wir nicht, wollen wir nicht, Platzverschwendung auf dem Chip, bei den ersten Titeln keine Geschwindigkeitsvorteile.

Geschichte wiederholt sich.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: t3chn0 und MOS1509
SKu schrieb:
Die Klasse 2050/2060 werden von den meisten Kunden gekauft.

Genau dieser Umstand, dass die GeForce 2060, 2050 Ti und 2050 noch nicht angekündigt sind und vermeintlich nicht in der RTX- sondern in der GTX-Serie beheimatet sein werden, verwundert doch sehr.

Das vermeintliche RTX-Portfolio der ersten Generation, RTX 2080 Ti, 2080 und 2070 sind somit ein elitärer (da teurer) Testlauf für Raytracing Features.

Hinzu kommt, dass Raytracing erst in 1-2 Jahren flächendeckend und in der gewünschten Qualität in Spielen verfügbar sein wird.

Die RTX-Serie ist ein radikaler Schritt und eine absolute Zukunftsaktie, Kursverlauf unbekannt.

Technisch hochinteressant, zu den Preisen aber nur bedingt zu empfehlen und auch nur dann, wenn die klassische Renderingleistung signifikant verbessert wurde.

Abseits aller Bedenken, ein interessantes Stück Hardware.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Darkblade08
ZeroZerp schrieb:
Wie damals bei Einführung von T&L auf dem Chip.
Alles schon dagewesen. Die Reaktionen der Konkurrenz und der User waren damals schon gleich.
Brauchen wir nicht, wollen wir nicht, Platzverschwendung auf dem Chip, bei den ersten Titeln keine Geschwindigkeitsvorteile.

Geschichte wiederholt sich.

Grüße
Zero
T&L ist auch schon wieder 19 Jahre her. Viele die hier schreiben waren damals wahrscheinlich noch nicht einmal auf der Welt und gingen noch in den Kindergarten und kennen dies gar nicht aus eigener Erfahrung.
 
ZeroZerp schrieb:
Dass wir für neue Dinge, gerade im Computersektor, wo die Luft aufgrund der Fertigungsengpässe und Möglichkeiten immer dünner wird, in Zukunft mehr Geld für große Leistungssprünge hinlegen müssen, wird doch hier niemand ernsthaft bestreiten.
Da werden einige hier die nächsten Jahre ob der Realität einen ganz harten Aufprall erleiden, wenn man denkt es geht unendlich weiter so.

Grüße
Zero

Das ist einfach nicht richtig. Hardware ist ein Konsumer-Segment und die Leute werden nicht bereit sein so viel mehr Geld für Leistung zu zahlen. Sieht man übrigens ausgesprochen gut an dem Aufschrei der Communities wegen der RTX-Preise. Und nein, Hardware muss nicht immer teurer werden. Sieht man sehr gut daran, dass Nvidia immer größere Gewinne einfährt. Wenn die höheren Preise durch Fertigung und Co. gerechtfertigt wären würde Nvidia nicht so einen Wachstum hinlegen. Nach deiner Logik hätte die 970 deutlich teurer sein müssen als eine 780ti. War sie aber nicht. Sie hat ca. die hälfte gekostet.

Immer dieser Quatsch von wegen: "Mehr Leistung muss mehr Kosten". Es verlangt keiner dass Nvidia Grafikkarten verschenkt. Aber fuckin' 1400€ ist fast so viel wie ich für meinen ganzen scheiß Rechner gezahlt hab. das willst du mir doch nicht erzählen das du das ok findest.

Einen Multimilliarden-Dollar Konzern für kundenfeindliche Geschäftspraktiken zu verteidigen,und ja, so hohe Preise sind kundenfeindlich) ist als Konsument einfach dermaßen hirnverbrannt. Am Ende zahlst du dann für ne 1080p 30FPS fähige Karte 500€. Super Vorstellung.

Mit den verbesserten Fertigungsprozessen kommen übrigens auch mit der Zeit bessere Yield-Raten. Dazu sind FineFets und sowas da. Dazu werden Fertigungsprozesse verfeinert. Die werden über Zeit finanziert. Ja die Entwicklung muss finanziert werden. Aber das macht halt TSMC und Global Foundries und Samsung so zu 95,9876123456% (Übertreibung für vage Zahl). Das ist nicht Nvidia's Baustelle. Nvidia hat alleine in den Bandbreiten von Pascal noch Luft nach oben. Nvidia's Karten sind sehr oft einfach Speicher-Interface-Krüppel. Man kann Shader optimieren und Softwareseitig ginge noch einiges wie es die gut laufenden Vulkan-Titel wie Doom und Co. gezeigt haben.
 
  • Gefällt mir
Reaktionen: derSafran, Seeadler79, Suteki und 3 andere
CCIBS schrieb:
T&L ist auch schon wieder 19 Jahre her. Viele die hier schreiben waren damals wahrscheinlich noch nicht einmal auf der Welt und gingen noch in den Kindergarten und kennen dies gar nicht aus eigener Erfahrung.
damals (geforce256 launch) war ich schon 3 jahre lang begeisterter PC schrauber :p wie die zeit vergeht...

ich denke mal mit der news wird viel lärm um nichts gemacht, aber wie sagt man nicht so schön: none news are bad news are good news :D
 
nVidia will jetzt auch am OC verdienen. xD :D Die Hersteller zahlen mehr für bessere Chips, und geben das den Kunden weiter.

Eins muss man schon sagen, nVidia weiss wie Kohle gemacht wird. :)

"Wobei selber übertakten darf man ja noch", allerdings viel Spass wenn der Chip selektiert ist, und nicht viel mehr bringt als der Boost-Takt. :(
 
DocWindows schrieb:
Hier sind die Chips auch klar gekennzeichnet. Mit A oder ohne.[...]

Okay, da hast du natürlich prinzipiell Recht; ich hätte das weiter präzisieren müssen. Die Chips sind zwar gekennzeichnet, aber die Produkte, die der Konsument am Ende im Laden oder Internet kauft, sind es nicht.

Eine 2080Ti kann durch diese Praxis eben (stärker als bisher?) in ihrer Qualität schwanken. Wenn jetzt alle Tests mit TU102-400A Chips durchgeführt werden -und machen wir uns nichts vor, das wird passieren. NVidia ist bei diesem Launch ja bisher sehr bemüht, alle Eventualitäten im Griff zu haben-, dann steht in den diversen Fazits auf diversen Internet Portalen nachher wie gut die 2080Ti sich übertakten lässt, wie leise die Karte ist und das der Stromverbrauch gut ist und evtl. noch durch undervolting verbessert werden kann.

Wer sich nicht so sehr in der Materie auskennt und in ~6 Monaten nach einem Test sucht, wird genau das Fazit für sich ziehen und dann evtl. eine zu dem Zeitpunkt schon deutlich billigere Variante kaufen. Denn nicht jeder Kunde hat die Zeit, das technische Verständnis oder schlicht die Lust, um sich etliche unterschiedliche Tests durchzulesen, die einzelnen Kühlkonzepte zu vergleichen und das für sich ideale Modell herauszusuchen.
Nur hat er dann den TU102-400 Chip, der sich nicht leicht übertakten lässt, mehr Strom verbrät und lauter ist, als er/sie das erwartet.
Dann tauchen in den Foren Threads auf wie "Hilfe, meine nagelneue RTX 2080(Ti) lässt sich nicht übertakten".

Chips zu selektieren ist kein Verbrechen!

Nvidia darf das gerne tun.

Aber dann bitte nicht "versteckt" auf der dritten Seite der Produktinformationen, wo es "Niemand" herausfindet.

Ich meine, Coffee Lake i7 8700 und 8700K sind auch der gleiche Chip, nur selektiert. Ryzen R7 2700 und 2700X genau so.
Man erhält ein bisschen besseres Silizium und zahlt dafür ein 'bisschen' mehr. Das ist fair; Jeder weiß, worauf er sich einlässt.

Bei Nvidia... nicht so sehr.

Bei mir hinterlässt NVidias gesamtes Vorgehen eben momentan einen bisschen den Eindruck von einem mittelmäßigen Las Vegas Zauberer:
POOF GIGARAYS; POOF Tensor Cores; POOF DLSS; POOF super übertaktbar; POOF jetzt Vorbestellen;

Und hinter dem Vorhang:
Preiserhöhung, bisher keine unabhängigen Tests, jetzt zusätzlich selektierte Chips, proprietäre Hardware (G-Synch), proprietäre Software (Gameworks), GPP
 
  • Gefällt mir
Reaktionen: MeisterOek, RaptorTP, Alexus6677 und eine weitere Person
Laut PCGH gibt es auch Geruechte, die andeuten koennten, dass nVidia in Zukunft zunehmend GPUs bei Samsung fertigen lassen wird, wohingegen AMD/RTG mehr zu TSMC neigt.

Scheinbar wird mit GTX/RTX 2050 (, 2050Ti) und 2060 - basierend auf TU107er und 108er Chips - erst fuer das kommende Jahr (um dann wohl direkt gegen AMDs/RTGs 7nm Navi Karten anzutreten) gerechnet, wobei ein 8nm LPP Fertigungsprozess von Samsung ins Spiel gebracht wird, der auch fuer einen ebenfalls gemunkelten Refresh der RTX 2070, 2080 und 2080Ti Modelle herhalten koennte.

Wer also unbedingt nVidia (Turing) kaufen will, aber ein Jahr (fuer vermutlich deutlich mehr Leistung) warten kann und dann auch in den preislich moderateren Preis-/Leistungsklassen eher gewillt ist zu investieren ;) ...

Bei mir laeuft trotzdem alles auf eine Navi GPU hinaus (wobei sich da die Frage stellt, ob man bei AMD/RTG nachzieht und oberhalb/mit einer RX 680 ein Hybrid-Raytracing-Feature (hin zu einem zukuenftigen RT-Raytracing) ebenso wie nVidia vermarkten und sich teuer bezahlen lassen wird, oder ob man vorerst auch ohne ein solches Feature auskommen wird (um ggfs. erst spaeter - wenn es mehr/ausgereiftere Spiele gibt - auch dort einzusteigen)?

Sich eine Vorselektierung (auch bei eigenen Referenzkarten) wie nVidia zusaetzlich bezahlen zu lassen (denn mit Sicherheit wird dafuer der Kunde auch aufkommen muessen und mittel- bis langfristig fuer weitere kuenstliche Klassen/Fragmentierung verhaeltnismaessig noch mehr zahlen muessen) kommt AMD/RTG hoffentlich (aehnlich wie bei den immer OC-freien RyZen CPUs im Gegensatz Intels nur OC-offenen "K"-CPUs) nicht in den Sinn.
 
RYZ3N schrieb:
Genau dieser Umstand, dass die GeForce 2060, 2050 Ti und 2050 noch nicht angekündigt sind und vermeintlich nicht in der RTX- sondern in der GTX-Serie beheimatet sein werden, verwundert doch sehr.
Nicht wirklich. Die großen Chips finden halt auch massiv Verwendung auf Profikarten, wo die neuen Feature auch deutlich mehr genutzt werden. Denn in dem Bereich gibt es tatsächlich große Konkurrenz und jede Menge Marge.

Die kleinen Karten sind zwar für viele Gamer am interessantesten, bringen aber auch weniger Marge mit sich. Die Consumer RTX Karten sind eher ein Beiwerk der Profientwicklung. Sie schaffen die Basis dafür, dass sich Raytracing langsam durchsetzen kann. Wie du schon sagst, bis das ganze Reif für die Massen ist vergeht noch ordentlich Zeit. Die ersten RTX Karten kann man mit dem Feature und ohne Konkurrenz entsprechend bepreisen. Ähnlich wie die ersten Titan, die auch völlig außer Konkurrenz lief. Die RTX Karten sind wohl wie Maxwell 1.0 ein Testlauf. Wahrscheinlich damit Entwickler und Kunden die Technik kennenlernen können und im nächsten Jahr sehen wir dann entsprechende 7nm Modelle mit den gleichen Features, etwas mehr Performance und deutlich kleineren Chips zu humaneren Preisen.

Ich bin auf das nächste Jahr gespannt. Ich denke da werden wir starke Mittelklasse Karten sehen. Ich denke AMD wird auch in Richtung Raytracing arbeiten und entsprechende Lösungen in der Mittelklasse anbieten.
 
mieze78 schrieb:
damals (geforce256 launch) war ich schon 3 jahre lang begeisterter PC schrauber :p wie die zeit vergeht...

So ein Küken. ;)

Wo ZeroZerp mit seinem Vergleich falsch liegt ist, dass die GeForce 256 damals eine extrem starke Karte war, selbst wenn man T&L komplett außen vor lässt. Zumindest die Version mit DDR-Speicher war mit deutlichem Abstand das schnellste was es gab.

Ob es bei den 2000ern auch so sein wird, bleibt abzuwarten. Falls sie auch mit konventioneller 3D-Leistung (Rasterization) voll überzeugen und allein damit schon ihren Preis rechtfertigen können, hat Nvidia es bei der Produktpräsentation vortrefflich verstanden, diesen wichtigen Umstand zu verschleiern und in den Hintergrund zu rücken. :lol:

Ein neues Feature auf Kosten von konventioneller Leistung zu bringen, ist jedenfalls eine sehr schlechte Idee. Sowas geht erfahrungsgemäß selbst dann schief, wenn man der absolute Platzhirsch ist.
(Siehe z.B. Intels Pentium Pro-Debakel. Sauschnell mit 32Bit-Software auf Kosten von 16Bit-Leistung, als alle Welt, inklusive Win95, noch weitgehend auf 16Bit setzten.)
 
Shoryuken94 schrieb:
Wahrscheinlich damit Entwickler und Kunden die Technik kennenlernen können und im nächsten Jahr sehen wir dann entsprechende 7nm Modelle mit den gleichen Features, etwas mehr Performance und deutlich kleineren Chips zu humaneren Preisen.

Es ist naiv zu denken, dass nVidia die Preise einer 7nm Generation wieder senken würde, nur weil der Chip kleiner ausfällt. Als würde Lederjockl auf Marge verzichten, wenn der Preis erstmal etabliert wurde.
 
Aldaric87 schrieb:
Es ist naiv zu denken, dass nVidia die Preise einer 7nm Generation wieder senken würde, nur weil der Chip kleiner ausfällt. Als würde Lederjockl auf Marge verzichten, wenn der Preis erstmal etabliert wurde.

Ach ich glaube der Onkel von Lisa Su versteht ein wenig mehr von Marktwirtschaft als du. Davon ab habe ich nicht gesagt, dass NV nicht weiterhin auch entsprechend teure High End Lösungen anbietet. Durch 7nm kann man allerdings deutlich kleinere Chips mit ähnlicher Leistung anbieten. Sicher werden sie auch 7nm Big Chips fertigen und entsprechend verkaufen. Ähnliches hat Nvidia, ach ich meine der Lederjockel, schon öfters gemacht. Bestes Beispiel war die GTX 980. Leistungstechnisch leicht über der 780Ti, in der Fertigung deutlich günstiger dank kleinerem Speicherinterface und insgesamt kleinerem Chip und in der UVP ein gutes Stück günstiger. Damit kann man gute Marge bei deutlich mehr Absatz generieren ;) Denn diese riesigen Chips auf Consumerkarten sind wenig wirtschaftlich. Mit 7nm bekommt man einen Chip wie den TU104 wahrscheinlich auf unter 300mm². Damit ist man in der Lage attraktive Preise mit guter Marge zu verbinden. Und entsprechend große Chips kann man weiterhin anbieten, natürlich dann mit entsprechendem Leistungssprung.

Ähnlich wird man wohl auch bei der nächsten Generation verfahren. Und natürlich wird man wieder eine 1000€ Plus Karte bringen, daran zweifelt wohl kaum einer. Gibt ja genug Leute die das ausgeben.
 
Aldaric87 schrieb:
Es ist naiv zu denken, dass nVidia die Preise einer 7nm Generation wieder senken würde (...)

Davon gehe ich auch nicht aus.

Ich gehe vielmehr davon aus, dass NVIDIA das Preisgefüge nun versucht zu etablieren und die erste Generation der RTX GPUs ist dafür ja ein sehr guter Indikator.

Verkaufen sich RTX 2080 Ti, 2080 und 2070 wie erhofft, werden die RTX 3080 Ti, 3080 und 3070 in 7nm deren Preise 1:1 übernehmen.

Wir müssen uns wohl damit anfreunden, dass die absolute Leistungsspitze (RTX xx80 Ti) zukünftig ~ 1.200,— Euro+ kosten wird.

Erst wenn AMD wieder in diesem Leistungsbereich mitspielen kann und seinerseits nicht auch 1.000,— Euro+ für seine stärkste GPU aufrufen sollte, könnte sich das Ganze wieder in Richtung 750,— Euro entwickeln.

Alles halb so wild, wenn’s ordentliche Mittelklasse Gaming GPUs zwischen 200,— und 400,— Euro gibt.

Gibt’s ja ...

AMD Radeon RX 580 OC für 229,— Euro
https://geizhals.de/powercolor-rade...580-8gbd5-3dhdv2-oc-a1626664.html?hloc=de&v=e



AMD Radeon RX Vega 56 OC für 399,— Euro
https://geizhals.de/powercolor-rade...n-axrx-vega-56-8gbhbm2-2d2hd-oc-a1793534.html


Ich habe aktuell ein super Angebot für die Red Dragon Vega 56, für 349,— Euro und bin kurz davor zuzuschlagen.

Aber eigentlich möchte ich, ausgehend von meiner RX 580 ein größeres Upgrade (Preisrahmen bis 450,— Euro) und gerne eine moderne und neue GPU um WQHD besser zu befeuern.

Leider kann NVIDIA oberhalb der RX Vega 64 aktuell machen was sie wollen, da es an Konkurrenz fehlt.

Naja, bei mir gibt’s wohl wahrscheinlich erst einmal das Vega 56 Upgrade und dann warte ich auf Navi.

Langsam wird’s aber Zeit für den RTX Test, ich kann’s kaum noch erwarten. :)

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: derSafran
RYZ3N schrieb:
Wir müssen uns wohl damit anfreunden, dass die absolute Leistungsspitze (RTX xx80 Ti) zukünftig ~ 1.200,— Euro+ kosten wird.
Gibt ja auch Gerüchte, dass es keine neuen Titans mehr geben wird. Mit der 2080Ti wird man dann wohl die Kunden abgrasen wollen. Da die letzte Titan ja auch schon bei 3000€ lag würde es mich nicht wundern.

Letztlich Wurster Nvidia wieder ordentlich am Namensschema und der Positionierung rum.

Ich bin sehr auf Navi gespannt. Dürfte in 7nm kommen und ziemlich spannend für viele werden. Aber erst Mal den RTX Launch abwarten. Ich glaube aber, die 2000er Serie dürfte eine Recht geringe Halbwertszeit haben
 
v_ossi schrieb:
Okay, da hast du natürlich prinzipiell Recht; ich hätte das weiter präzisieren müssen. Die Chips sind zwar gekennzeichnet, aber die Produkte, die der Konsument am Ende im Laden oder Internet kauft, sind es nicht.

Woher weißt du dass die Custom-Produkte im Laden nicht gekennzeichnet sein werden? Das ist eine reine Mutmaßung. Bei Grafikkarten im Preisvergelich steht auch immer der genaue Chiptyp dabei. Das ist seit Jahren üblich. Und bei den FEs soll ja eh immer der A-Chip verbaut werden.

v_ossi schrieb:
Eine 2080Ti kann durch diese Praxis eben (stärker als bisher?) in ihrer Qualität schwanken.

Zumindest was Overclocking angeht kann sie jetzt weniger schwanken, weil nicht alle Chips in einen Topf wandern, sondern in zwei Töpfe. Das ergibt automatisch ein Differenzierungspotenzial und die übliche Chiplotterie wird ein wenig abgemildert.

v_ossi schrieb:
Wenn jetzt alle Tests mit TU102-400A Chips durchgeführt werden -und machen wir uns nichts vor, das wird passieren.

Wenn jetzt alle Benchmarks des Ryzen 2700X gemacht werden ...
Da kann man das auch unterscheiden und dort werden auch differenzierte Angaben gemacht. Warum nicht auch bei GPUs?

v_ossi schrieb:
Wer sich nicht so sehr in der Materie auskennt und in ~6 Monaten nach einem Test sucht, wird genau das Fazit für sich ziehen und dann evtl. eine zu dem Zeitpunkt schon deutlich billigere Variante kaufen. Denn nicht jeder Kunde hat die Zeit, das technische Verständnis oder schlicht die Lust, um sich etliche unterschiedliche Tests durchzulesen, die einzelnen Kühlkonzepte zu vergleichen und das für sich ideale Modell herauszusuchen.

Wer >1000 Euro "einfach so" ausgibt ohne sich über das Produkt detailliert zu informieren hat wahrscheinlich auch kein Problem damit mit dem zu leben was er dann bekommt. Wir reden hier über Overclockingmöglichkeiten und keinen Leistungsbeschnitt durch Lasercut oder so.

v_ossi schrieb:
Aber dann bitte nicht "versteckt" auf der dritten Seite der Produktinformationen, wo es "Niemand" herausfindet.

Es ist doch an den Herstellern ihre Produkte zu benennen und nicht an nVidia. Wie gesagt: Die FEs die nVidia direkt verkauft sollen alle den "guten" Chip bekommen.

v_ossi schrieb:
Ich meine, Coffee Lake i7 8700 und 8700K sind auch der gleiche Chip, nur selektiert. Ryzen R7 2700 und 2700X genau so.
Man erhält ein bisschen besseres Silizium und zahlt dafür ein 'bisschen' mehr. Das ist fair; Jeder weiß, worauf er sich einlässt.

Bei Nvidia... nicht so sehr.

Schreib lieber "bei den Boardpartnern" und auch gleich dazu dass du das jetzt eh alles noch gar nicht so genau weißt. Wenns von Asus ne 2080Ti und ne 2080Ti+ gibt, weiß auch jeder worauf er sich einlässt, bzw. kann es wissen wenn es ihn interessiert und er sich informiert.
 
Zurück
Oben