Niemand ist über die aktuellen und vermutlich zukünftigen Preise glücklich. Man darf sich nichts vormachen: JEDES Unternehmen zieht doch so viel Geld aus dem Kunden wie nur möglich, egal in welcher Branche. AMD wird auch maximal zugreifen, sobald es ihre Position am Markt erlaubt. Viele die hier meckern holen sich doch trotzdem dann eine 1200€ GPU und regen sich dann darüber auf, dass Nvidia sie „erpressen“ würde. Als ob. Kleidung und Schuhe sind auch asozial teuer und trotzdem rennen die Leute mit Markenklamotten durch die Gegend. Höchstwahrscheinlich ist die Marge da um ein Vielfaches höher als bei Hardware.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert
- Registriert
- Aug. 2018
- Beiträge
- 2.728
Laphonso schrieb:Nö, man muss nur die Ignoranz derer durchbrechen, die im “damals” hängengeblieben sind, denn die Transition auf 1440p ist ja noch im Gange, und heute will mal mit der GPU auch den 65 Zoll OLED im Wohnzimmer fluten und die Shooter auf 144, 165 oder 240 fps ballern. Raytracing wäre auf cool alles auf dem Schirm, und alles an Effekte , was die neuen Iterationen der Cryengine und Unreal Engine bieten können.
Die Low End GPUs können heute mehr, zum Glück, als die High End GPUs vor 10 Jahren.
Zudem haben wir Inflationszuwächse und viel komplexere , modernere Fertigungsprozesse .
Aber ja, klar, eine 3090 für 500 Euro bitte !
Und 1080p, 60Hz, Tesselation, DX12 und die bisherigen 7nm sind natürlich alle gottgegeben und seit Anbeginn der Spielegeschichte Standard...
Dass neben Leistung auch Features dazukommen war bisher fast immer so, trotzdem gab es immer mehr Leistung für ähnlich viel Geld. Vor 10 Jahren konnten Low-End-GPUs im Vergleich sogar deutlich mehr als High-End-GPUs vor 20 Jahren, da ist in 10 Jahren wesentlich mehr passiert, trotzdem sind die Preise nicht explodiert. Und eine HD5870 war zu ihrer Zeit nicht nur die schnellste Grafikkarte am Markt, sondern auch technologisch ein Sprung vorwärts und hatte eine UVP von 350€...
Und klar, ich kaufe mir Jahre nach meiner Hawaii für ähnlich viel Geld die Nachfolger, die dann genau gar nichts besser machen (480, 580, 1060...). Die Logik passt doch hinten und vorne nicht. Wenn die Leute, die sich früher alle 1-2 Jahre ein lohnenswertes Upgrade geholt haben, dass jetzt alle 5-6 Jahre machen, weil man durch die Preisexplosion dafür einfach nicht das gewohnte Leistungsplus bekommt, lohnt sich das für die Hersteller auf Dauer auch nicht.
Gerade weil die Konsolen dieses Jahr zwar relativ teuer werden, aber auch im Vergleich zu PC-Hardware extrem stark, wird man erst sehen müssen, wie sich das entwickelt. Wie gesagt, wenn bald außer ein paar Bonzen keiner mehr Grafikkarten kauft, weil man für relativ wenig Geld mit der Xbox dank mehr oder weniger gleicher Hardware quasi einen verdammt guten PC für sehr wenig Geld bekommt, wird man sich zumindest bei nVidia schon irgendwann umsehen...
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.533
Ha!Luxmanl525 schrieb:Was bitte ist da so schwer? Die GPU`s von Nvidia unterhalb der RTX 2060 verfügen nicht über RT u. DLSS. Ganz einfach. Das sind Alleinstellungsmermale,
Und schon hast Du Dir binnen 2 Posts selbst erklärt, wie die Preise, die Du kritisierst, entstanden sind:
- Turing Add On (= teurer in der Produktion)
- Alleinsteungsmerkmal seit fast 2 Jahren
Also, mit Deinen Worten: Was bitte ist da so schwer?
😉
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.211
Luxmanl525 schrieb:Aus meiner Sicht, meiner langjährigen Erfahrung her beobachtet, ist es die Midrange Klasse, die hier einen überbordenden Preisanstieg zu Verzeichnen hat. Nicht die jeweiligen Spitzenmodelle einer GPU-Generation. Diese waren und sind immer auch Prestigeobjekte gewesen und deshalb auch mit regelrechten Enthusiastenpreisen versehen.
Richtig und vor allem dass massive bescheiden im Entry Bereich GTX16er Totaler Mist kein NVec4k und keine Tensor-RT Cores und DSSL grade dort währe DSSL sinnvoll. Wie es bei Konsolen der PS5 auch kommt.
AMD ist auch nicht Besser RX5500 läuft nur auf AMD Systemen besser und wir reden hier von 10-15% bei dem 8GB Modell. RX5600 XT trotzdem die Leute kaufen es.
Ergänzung ()
Wo bei dass mit DSSL und NV Voice auch auf GTX gehen würde, nur möchte man nicht und deswegen GTX16er Müll Punkt aus vom 6GB ganz zu schweigen.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.170
Hallo zusammen,
@ Laphonso
@ Mcr-King
Es gibt halt auch noch viele Leute, die genau deshalb darauf Verzichten. Ich denke schon, daß Nvidia das absichtlich so hält bzw. gehalten hat.
So long....
@ Laphonso
Bitte? Ich kritisiere die Preise lediglich in einem bestimmten Bereich. Und dies vor allem nicht auf eine GPU-Herstellergeneration bezogen. Vor allem über die Jahre gesehen beobachtet. Nicht umsonst rede ich von einem bestimmten Zeitraum bzw. zeige denselben sogar auf. Grundgütiger!Laphonso schrieb:Und schon hast Du Dir binnen 2 Posts selbst erklärt, wie die Preise, die Du kritisierst, entstanden sind
@ Mcr-King
Ganz genauso ist es. Nicht umsonst habe ich einen gewissen Zeitraum angegeben und ebenso absichtlich keine Eingrenzung auf einen einzigen Hersteller vorgenommen. Denn die Orientieren sich ja selbst zum nicht geringen Teil auch an dem jeweilig anderen. Das kann man auch schön über den Zeitraum beobachten.Mcr-King schrieb:AMD ist auch nicht Besser RX5500 läuft nur auf AMD Systemen besser und wir reden hier von 10-15% bei dem 8GB Modell. RX5600 XT trotzdem die Leute kaufen es.
Na ja, ich sehe durchaus bei den "Nicht-RT" Modellen derzeit noch durchaus eine Daseinsberechtigung. Einfach weil es noch im Verhältnis zuwenige Spiele gibt, welche besagte Features umfassend und wirklich Spürbar zu Unterstützen Wissen.Mcr-King schrieb:nur möchte man nicht und deswegen GTX16er Müll Punkt aus vom 6GB ganz zu schweigen.
Es gibt halt auch noch viele Leute, die genau deshalb darauf Verzichten. Ich denke schon, daß Nvidia das absichtlich so hält bzw. gehalten hat.
So long....
Zuletzt bearbeitet:
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.533
Bierliebhaber schrieb:Wenn die Leute, die sich früher alle 1-2 Jahre ein lohnenswertes Upgrade geholt haben, dass jetzt alle 5-6 Jahre machen, weil man durch die Preisexplosion dafür einfach nicht das gewohnte Leistungsplus bekommt, lohnt sich das für die Hersteller auf Dauer auch nicht.
Nicht den Apostel hauen. ;-)
Ich erinnere mich an die out of Stock Postings der 2000er GPUs in sämtlichen Gaming Foren.
Der Run kommt jetzt durch alle, welche die 2000er GPUs geskipped haben und auch die 5000er AMDs überspringen.
Hier gibt es Hunger und Durst aller, die 2018, 2019 und 2020 bis jetzt abgewartet haben.
Die neuen AMD und Nvidia Karten werden einem Kaufrausch sondergleichen entgegensehen:
- 1440p Umstiege
- 4K Umstiege
- VR
- next gen und fps burner Games wie Cyberpunk, RDR2, MSFS
- Raytracing
- DLSS
- DirectX 12 Ultimate
- ggf. neue AMD Features
- Unreal Engine 5
- etc.
Auch „explodierte Preise“ und die neuen Konsolen werden den Run auf die neuen GPUs nicht bremsen.
Ergänzung ()
Du hast explizit die 2060 genannt und das Fundament Deiner eigenen Kritik selbst zum Einsturz gebracht im nächsten Post. Das war das Ulkige.Luxmanl525 schrieb:Hallo zusammen,
@ Laphonso
Bitte? Ich kritisiere die Preise lediglich in einem bestimmten Bereich. Und dies vor allem nicht auf eine GPU-Herstellergeneration bezogen. Vor allem über die Jahre gesehen beobachtet. Nicht umsonst rede ich von einem bestimmten Zeitraum bzw. zeige denselben sogar auf. Grundgütiger!
Genau, Grundgütiger. ;-)
Cohen
Commodore
- Registriert
- Aug. 2010
- Beiträge
- 4.575
Tut mir leid, das sagen zu müssen.Luxmanl525 schrieb:Das ist Quatsch. Ich hatte lange Jahre jeweilige Spitzenmodelle wie eine Nvdia Geforce 3 oder die ATI / AMD Radeon 9800 XT.
Die kosteten alle um die 1000 €, Plus Minus X. Das war in den Jahren 2001 - 2003. Diese beiden Modelle nenne ich einfach mal stellvertretend. Weil es Produkte beider der größten GPU-Hersteller sind und jeweilig kurze Zeit das jeweilige Spitzenmodell darstellten.
Aber wenn du damals wirklich um die 1000 € für eine GeForce 3 oder eine Radeon 9800 XT bezahlt hast, hat man dich ganz schön über den Tisch gezogen.
Die GeForce 3 ist noch zu D-Mark-Zeiten erschienen, das waren umgerechnet ca. 500 €. Und auch die 9800 XT war im Bereich 500 - 600 Euro.
https://www.computerbase.de/2001-06/test-inno3d-tornado-geforce3/17/
"Preis mit 999 DM zu hoch für den Mainstream Markt"
https://www.computerbase.de/2003-10/ati-mit-megalaunch-zum-radeon-9800-xt-start/
"Doch nun zum Wesentlichen: Was kostet der Spass? Also 500-600 Euro dürfen wohl hingeblättert werden für ATis neueste Errungenschaft."
https://www.computerbase.de/2003-12...-9800-9600xt/9/#abschnitt_asus_radeon_9800_xt
"So gehört die Asus Radeon 9800 XT zu den teuersten Grafikkarten ihrer Klasse und kostet laut Geizhals.at durchschnittlich saftige 530 Euro."
Zuletzt bearbeitet:
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.211
Luxmanl525 schrieb:Es gibt halt auch noch viele Leute, die genau deshalb darauf Verzichten. Ich denke schon, daß Nvidia das absichtlich so hält bzw. gehalten hat.
Was aber lustig ist die GTX16er werden nie wirklich beworben bei Alternate immer RTX und Amazon oder TV Spot, schon ein bisschen schizo von NV dass ganze.
Wie gesagt was mich hauptsächlich stört DSSL und NV4k fehlt dürfen GTX16er Nutzer keine 4k Videos machen.
NV4K mit dem CPU abzufangen benötigst du mal schnell einen R9-3900 und genau die werden sich eine GTX16er kaufen.
PS: Noch als Randnotiz NV hat damals viele Minnig GPUs als Gamer Verkauf angeben, dazu läuft aktuell immer noch ein Prozess von Investoren.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.211
Ganz einfach im Prinzip eine Backplate mit Lüfter wie der igor oder meine RX570 mit Kupfer Backplate zeigen bringt es viel was GPU Temp angeht.
https://www.igorslab.de/wenn-die-ba...stige-kuehler-koennen-ordentlich-profitieren/
Jap warte noch auf die Leute die kein NT mit 12er Pin haben.
https://www.igorslab.de/wenn-die-ba...stige-kuehler-koennen-ordentlich-profitieren/
Ergänzung ()
Evilc22 schrieb:Endlich 900 Fps dafür brennt mir die Steckdose ab
Jap warte noch auf die Leute die kein NT mit 12er Pin haben.
Tawheed schrieb:Ich denke damit ist das Thema beendet und die Gamer müssen damit leben, dass ihr Hobby immer teurer werden wird
Die Vorstellung die manche haben ist heutzutage schlichtweg nicht mehr haltbar. Früher hatte man Fertigungsprozesse verkleinert um mehr Leistung zu bekommen und die Kosten zu senken. Da aber Taktsteigerungen praktisch nicht mehr möglich scheinen, ist jegliche Steigerung der Leistung nur durch noch mehr Fläche zu erreichen.
Bei den CPUs mag das eine lange Zeit geklappt haben, 10 Jahre lang 4 Kerne mit immer kleineren Strukturen ergaben potenziell fallende Kosten und günstigere Preise. Jetzt wo es bei den GPUs und CPUs nur noch um noch mehr Kerne geht, werden auf Dauer die Kosten nur noch eine Richtung kennen, bis letztlich das Thema "PC" sowieso erledigt ist und alles in die Cloud wandert.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.170
Hallo zusammen,
@ Cohen
Im Fall der Sapphire Radeon 9800 XT liegst du allerdings falsch. Die hat tatsächlich 1000 - 990 € um genau zu sein - € gekostet. Ich habe sogar noch den Kaufbeleg von meinem Schnapp-Markt bei uns um die Ecke. Nicht umsonst hatte die besagte Währung speziell in manchem Bereichen den Beinamen "Teuro".
@ Mcr-King
Und man kann ebenfalls nur Hoffen, daß AMD sich langsam bis zur nächsten GPU-Generation Nvidia wieder angenähert hat insoweit, daß auch bei den GPU`s wieder mehr Wettbewer auf ähnlichem Niveau einher geht. Leider ist das bisherig nur im Midrange Bereich der Fall. Wobei derselben ja nicht mehr das gleiche ist, wie vor einigen Jahren. Leider.
@ xexex
Es ist nun einmal Fakt, daß Intel so verfahren konnte, weil kein entsprechender Mitbewerber konkurrenzfähig war. Zum Glück ist das vorbei und erst jetzt, seit Erscheinen von Ryzen, ist dies eingetreten, was du in deinem Absatz aufzeigen wolltest bzw. aufgezeigt hast.
Persönlich gehe ich davon aus, daß sich Äquivalent dazu auch bei den GPU`s erst wirklich etwas tun wird, wenn AMD in allen Bereichen wieder auf ähnlichem Performanceniveau wie Nvidia agieren kann.
So long....
@ Cohen
Vielen Dank für deinen Hinweis. Und du hast im Fall der Geforce 3 vollkommen Recht. Ich habe Euro und D-Mark schlichtweg durcheinander gebracht. Die hat tatsächlich 1000 DM gekostet.Cohen schrieb:Die GeForce 3 ist noch zu D-Mark-Zeiten erschienen, das waren umgerechnet ca. 500 €. Und auch die 9800 XT war im Bereich 500 - 600 Euro. https://www.computerbase.de/2001-06/test-inno3d-tornado-geforce3/17/ Preis mit 999 DM zu hoch für den Mainstream Markt"
Im Fall der Sapphire Radeon 9800 XT liegst du allerdings falsch. Die hat tatsächlich 1000 - 990 € um genau zu sein - € gekostet. Ich habe sogar noch den Kaufbeleg von meinem Schnapp-Markt bei uns um die Ecke. Nicht umsonst hatte die besagte Währung speziell in manchem Bereichen den Beinamen "Teuro".
@ Mcr-King
Umsonst wird das natürlich auch nicht der Fall sein. Ist eigentlich klar, daß die RT-Modelle auffälliger beworben werden. Muß ja eigentlich auch im angesicht des Fakts, daß es kaum eine Handvoll Spiele dafür gibt, die wirklich spürbares vorweisen können. Insofern für mich eigentlich keine sonderliche Überraschung.Mcr-King schrieb:Was aber lustig ist die GTX16er werden nie wirklich beworben bei Alternate immer RTX und Amazon oder TV Spot, schon ein bisschen schizo von NV dass ganze.
Ich für meinen Teil heiße das ja auch nicht gut. Weshalb ich auch nach wie vor noch mit meiner 1060er Passabel unter Full HD durch die Gegend gondele. Man kann das aber so sehen, daß Nvidia sich das eben erlauben kann mangels Konkurrenz auf ähnlichem Niveau.Mcr-King schrieb:Wie gesagt was mich hauptsächlich stört DSSL und NV4k fehlt dürfen GTX16er Nutzer keine 4k Videos machen.
Und man kann ebenfalls nur Hoffen, daß AMD sich langsam bis zur nächsten GPU-Generation Nvidia wieder angenähert hat insoweit, daß auch bei den GPU`s wieder mehr Wettbewer auf ähnlichem Niveau einher geht. Leider ist das bisherig nur im Midrange Bereich der Fall. Wobei derselben ja nicht mehr das gleiche ist, wie vor einigen Jahren. Leider.
Jep. Habe ich mitbekommen. Und dieser Prozeß ist auch höchst berechtigt. Aber ehrlich gesagt, über die ganzen Jahre gesehen bzw. Jahrzehnte gesehen, nehmen sich die in Punkto "Kunden für Dumm und dämlich verkaufen" kaum etwas. Es ist ja nicht so, daß ATI / AMD sich da über die Jahre gesehen nicht auch das ein oder andere geleistet hätte. Im Großen und Ganzen ist keiner der beiden nun einmal ein Robin Hood-Unternehmen, wie manche es aber ab und an gerne hinstellen. Je nach Farbengetönter Brillenausrichtung .Mcr-King schrieb:PS: Noch als Randnotiz NV hat damals viele Minnig GPUs als Gamer Verkauf angeben, dazu läuft aktuell immer noch ein Prozess von Investoren.
@ xexex
Das muß ich aber in Abrede stellen. Bis kurz vor Erscheinen von Ryzen, hatten wir knapp 10 Jahre Stillstand bei den CPU`s. Und zwar nicht nur bei den Kernen, sondern auch zum Großteil bei den Preisen der CPU`s. Das meine ich nicht verurteilend in dem Sinne.xexex schrieb:Bei den CPUs mag das eine lange Zeit geklappt haben, 10 Jahre lang 4 Kerne mit immer kleineren Strukturen ergaben potenziell fallende Kosten und günstigere Preise.
Es ist nun einmal Fakt, daß Intel so verfahren konnte, weil kein entsprechender Mitbewerber konkurrenzfähig war. Zum Glück ist das vorbei und erst jetzt, seit Erscheinen von Ryzen, ist dies eingetreten, was du in deinem Absatz aufzeigen wolltest bzw. aufgezeigt hast.
Persönlich gehe ich davon aus, daß sich Äquivalent dazu auch bei den GPU`s erst wirklich etwas tun wird, wenn AMD in allen Bereichen wieder auf ähnlichem Performanceniveau wie Nvidia agieren kann.
So long....
Zuletzt bearbeitet:
L
Lübke82
Gast
Tawheed schrieb:Es ist und bleibt Ressourcenverschwendung, wenn man 500 Watt zum Befriedigen der eigenen Gelüste verschwendet. Computer Spiele rechtfertigen nicht so einen hohen Verbrauch.
Es ist auch Belanglos ob ich Ferrari fahre oder im Zelt lebe, die Wahrheit bleibt davon unberührt.
Wie gesagt ich setzte mich für eine sehr hohe Steuer für Unterhaltungselektronik ein. Am besten Gestaffelt bezüglich Energieverbrauch. Ähnlich beim Hubraum eines KFZ.
Junge, du bist ja fernab der Realität. Hast keine Ahnung was die Karte überhaupt an Energie braucht, noch irgendeine Ahnung was für Strom von den Leuten gebucht ist (grüner Strom z.B.). Ich finde es falsch tausende von Wh in Autos zu pumpen um damit rumzufahren und Leute wie du wollen einen was erzählen über Stromverbrauch?? Als würden wir nicht mit den Strompreisen schon genug hier verarscht werden! Bist wohl auch einer dieser leichtgläubigen CO2-Schwarzseher, die denken man könnte die Welt mit ner Co2-Abgabe oder Umrüstung auf Wasserstoff retten. Dabei wird dann schnell ignoriert, dass Wasserdampf ebenfalls ein Treibhausgas ist und alles sogar verschlimmern könnte. ;-)
Sorry für den OT, aber bei solchen Leuten kommt mir das Würgen!
Zuletzt bearbeitet von einem Moderator:
Luxmanl525 schrieb:Zum Glück ist das vorbei und erst jetzt, seit Erscheinen von Ryzen, ist dies eingetreten, was du in deinem Absatz aufzeigen wolltest bzw. aufgezeigt hast.
Eingetreten ist letztlich nur eine konkurrenzbedingte Preisanpassung, aber schon der Ryzen 3950 kostet eben nicht das gleiche wie ein Ryzen 1800. Von den GPU Herstellern wird aber erwartet, sie sollen für die doppelte Leistung zu einem Vorgänger das gleiche Geld verlangen.
Es funktioniert auf Dauer schlichtweg nicht und jeglicher Wachstum in der IT Branche ist endlich, auch wenn manche anscheinend der Meinung sind das wird jetzt einfach die nächsten 100 Jahre wie bisher so weiter gehen. Blöderweise macht einfache Physik dem ganzen bald am Ende, dann ist mit Wachstum und immer mehr, mehr, mehr, Schicht im Schacht.
Der "Sweetspot" bei der IC Fertigung ist schon längst überschritten, nicht ohne Grund sind die meisten Fertiger aus diesem "Rennen" bereits ausgestiegen und fertigen in Prozessen die bezahlbar und für die Anforderungen vollkommen ausreichend sind.
https://en.wikipedia.org/wiki/List_of_semiconductor_fabrication_plants
Zuletzt bearbeitet:
Tawheed
Banned
- Registriert
- Juli 2020
- Beiträge
- 409
Genau dahin wird wahrscheinlich die Reise hingehen. Ich denke dass das schneller gehen wird als es uns lieb ist. Back to the roots mit mainframes 😁xexex schrieb:bis letztlich das Thema "PC" sowieso erledigt ist und alles in die Cloud wandert.
Nvidia fängt jetzt schon an für Unternehmen treiber für virtuelle Umgebungen anzubieten
Ähnliche Themen
- Antworten
- 58
- Aufrufe
- 13.869
- Antworten
- 733
- Aufrufe
- 103.625
- Antworten
- 587
- Aufrufe
- 68.670
- Antworten
- 169
- Aufrufe
- 23.651
- Antworten
- 246
- Aufrufe
- 39.522