Naja, wie gesagt, es gibt Mittel und Wege. Bisher bin ich bei den Drops auch ohne technische Hilfsmittel an meine Karte zur UVP gekommen. Hat gedauert, aber hat geklappt.snickii schrieb:Naja die künstliche Verknappung ist mMn immernoch teils Marketing.
Und die wirds wieder geben. Dazu Krieg/Corona was die Vorlieferanten betrifft
Wer denkt das es ausreichend Karten gibt und das die Karten nach 2-3 Monaten leicht verfügbar sind glaubt auch an den Weihnachtsmann... Sorry aber das wird nicht passieren.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4090 und 4080: Ada Lovelace startet für 1.099 bis 1.949 Euro ab Oktober
Das stimmt wohl aber haben die keine 19% und manche Bundesstaaten haben keine daher wird bei ihnen die Preise ohne vat angegebentheGucky schrieb:Die Amis und JEDER ANDERE muss AUCH Steuern auf den 1599$ obendrauf zahlen. Die 1599$ sind ohne jedwede Steuer
- The five states with the highest average combined state and local sales tax rates are Louisiana (9.55 percent), Tennessee (9.547 percent), Arkansas (9.48 percent), Washington (9.29 percent), and Alabama (9.22 percent).
Gehen wir mal von max 10% aus bei 1600 Dollar also ontop 160 Dollar also 1760 Dollar.... Aber ja die EU kann Bluten bei 1950 Euro
D
DeltaPee
Gast
Naja ich hab schon geschaut, hätte gestern ne Palit 3080 für 610 Euro haben können. NEU gibts die 6800 für 599 und gebraucht iwo bei 400-500.basic123 schrieb:Das Thema hatten wir schon vor 2 Jahren. Damals hieß es in ein paar Wochen stoßen viele ihre 2080 Ti für 400€ ab. Und wir wissen was draus geworden ist. Eine 3080/6800XT wird dir keiner schenken.
Vor zwei Jahren gab es ein Mining Thema oben drauf. Aktuell sitzen aber alle auf Überbeständen… Aktuell ist der Gebrauchtmarkt am Attraktivsten. Vorausgesetzt man muss upgraden und braucht nicht die Leistung einer 4090…
PHuV
Banned
- Registriert
- März 2005
- Beiträge
- 14.219
Na ja, die 300-400% mehr ist eben nur DLSS 3.0, daß darf man nach wie vor nicht außer acht lassen. Daher bin ich wirklich mal gespannt, wie sich die 1400 Tensoreinheiten in den ML/DL Benchmarks schlagen werden, oder was Blender dann so rausschlägt, was wiederum nur über die Rohleistung gehen wird.Revan1710 schrieb:Das dachte ich mir auch gerade
Was ich schreiben wollte: 4090 = 200-400 % der 3090 Ti oder eben +100-300 %
estros
Fleet Admiral
- Registriert
- Sep. 2009
- Beiträge
- 10.400
Krasse Leistung, bin sehr gespannt, welche Auflösungen man damit spielen kann.
Das ist nun wirklich nicht die Zielgruppe von diesen Grafikkarten. Sondern Bürgerliche, die gerne High-End zocken wollen.Tornavida schrieb:die Preise sind der angedachten Klientel schon längst entrissen, welcher Schüler & Teen kann sich denn sowas mit Ferienjob und Taschengeld leisten? Selbst 329,- für den Einstieg wären zumindest zu meiner Zeit ein Haufen Schotter gewesen.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.756
Laphonso schrieb:Das Geld, das vorher bei EVGA landete, nehmen nun Zotac, Gigabyte, Asus und MSI mit.
Oder auch nicht und es geht zu AMD Exklusiv Partner wie XFX oder Sapphire. Werde ich mir stark überlegen, da kein Nvidia Partner so gut wie EVGA ist/war.
Zum Thema kann man sagen wie erwartet. Ich dachte sogar an eine höhere UVP aber das wird denke ich die 4090 Ti liefern für 2.249 € oder 2.299 €.
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Also die 4080 12Gb sieht schon sehr komisch aus gegen die 3090Ti. 5 Tflops mehr, aber fast nur halbe Bandbreite, sowie mit 12GB für RT auch wieder sehr knapp bemessener Speicher.
Denke für viele wird hier die 4080 16GB interessanter. Wenn jetzt eine 4070 "nur" mit 8Gb kommt wäre das ja auch wieder sehr knapp beim Speicher. Da darf man gespannt sein, wie das Portfolio nach unten abgerundet. wird.
Aber die RT Leistung scheint nun so hoch zu werden, dass man wirklich von der ersten RT Gen sprechen kann, bin da schon auf Vergleiche gespannt. 50% mehr RT Kerne und diese auch noch in Gen 3, die RT Tests sollten nett werden bei der 4090.
Denke für viele wird hier die 4080 16GB interessanter. Wenn jetzt eine 4070 "nur" mit 8Gb kommt wäre das ja auch wieder sehr knapp beim Speicher. Da darf man gespannt sein, wie das Portfolio nach unten abgerundet. wird.
Aber die RT Leistung scheint nun so hoch zu werden, dass man wirklich von der ersten RT Gen sprechen kann, bin da schon auf Vergleiche gespannt. 50% mehr RT Kerne und diese auch noch in Gen 3, die RT Tests sollten nett werden bei der 4090.
Zuletzt bearbeitet:
- Registriert
- Juni 2007
- Beiträge
- 170
Ich finde die Preisentwicklung gelinde gesagt schade. Ich verstehe auch nur schwer, wie manche argumentieren, dass doppelte Leistung einen (nahezu) doppelten Preis rechtfertigt. Zumindest war das früher nicht so. Da war es gefühlt normaler, dass man bei ner neuen Generation eine signifikant höhere Leistung bekam für (nahezu) den selben Preis der Vorgängergeneration.
Ich glaube, man muss sich von dem Gedanken verabschieden, dass NVidia irgendwas macht um den Gamern eine Freude zu bereiten. Die werden einfach ökonomisch handeln. Das Angebot bestimmt die Nachfrage, das heißt durch die hohen Preise wird die Nachfrage gedrosselt. Da ja derzeit eh nicht so viel produziert werden kann wie früher und die Nachfrage ja anscheinend doch recht groß ist, haben sie sich wohl einen Preis gesetzt, bei dem sie den Markt besser bedienen können ohne am Ende der Generation noch unmengen auf Lager zu haben und dennoch genug eingenommen zu haben.
Aber wir Gamer sind manchmal einfach Konsumopfer. Ich hab mir auch ne 2080 für über 800€ gekauft obwohl ich nie so viel Geld für ne GraKa ausgeben wollte, einfach wegen des Habenwollen-Gefühls. Ich spiel wirklich nur selten Spiele, die diese Leistung auch nur annähernd ausreizen. Insofern bin ich auf einer Seite ganz froh, dass NVidia einen Preis gefunden hat, bei dem der Drang nein zu sagen wesentlich größer ist als das Habenwollen-Gefühl. Dennoch würde ich mir natürlich auch wieder 80er Karten für 600€ wünschen.
Bei der 3080 hatte ich ja noch das Gefühl, dass es wieder in die richtige Richtung geht. Die hab ich mir nur nich gekauft, weil ich nie bereit war, mehr als den UVP zu bezahlen. Nun ja, diese Generation schau ich mir auf jeden Fall von der Seitenlinie an.
Ich glaube, man muss sich von dem Gedanken verabschieden, dass NVidia irgendwas macht um den Gamern eine Freude zu bereiten. Die werden einfach ökonomisch handeln. Das Angebot bestimmt die Nachfrage, das heißt durch die hohen Preise wird die Nachfrage gedrosselt. Da ja derzeit eh nicht so viel produziert werden kann wie früher und die Nachfrage ja anscheinend doch recht groß ist, haben sie sich wohl einen Preis gesetzt, bei dem sie den Markt besser bedienen können ohne am Ende der Generation noch unmengen auf Lager zu haben und dennoch genug eingenommen zu haben.
Aber wir Gamer sind manchmal einfach Konsumopfer. Ich hab mir auch ne 2080 für über 800€ gekauft obwohl ich nie so viel Geld für ne GraKa ausgeben wollte, einfach wegen des Habenwollen-Gefühls. Ich spiel wirklich nur selten Spiele, die diese Leistung auch nur annähernd ausreizen. Insofern bin ich auf einer Seite ganz froh, dass NVidia einen Preis gefunden hat, bei dem der Drang nein zu sagen wesentlich größer ist als das Habenwollen-Gefühl. Dennoch würde ich mir natürlich auch wieder 80er Karten für 600€ wünschen.
Bei der 3080 hatte ich ja noch das Gefühl, dass es wieder in die richtige Richtung geht. Die hab ich mir nur nich gekauft, weil ich nie bereit war, mehr als den UVP zu bezahlen. Nun ja, diese Generation schau ich mir auf jeden Fall von der Seitenlinie an.
Zuletzt bearbeitet:
Revan1710
Captain
- Registriert
- März 2012
- Beiträge
- 3.302
@PHuV
Schon klar, dass die reine Rasterizer-Leistung eher bei +100 % liegt (was ja auch schon mehr als beachtlich ist).
Mir gehts ja auch nur darum, dass beide (4090 und 4080) mit diesen +100-300 % (zu 3090 Ti / 3080 Ti) beworben werden. Und dann müsste 4090/4080 den gleiche Abstand haben wie 3090Ti/3080Ti (das sind bei CB ~10 %). Die 4090 müsste sich mit der Anzahl an Recheneinheiten aber ja viel deutlicher absetzen können.
Schon klar, dass die reine Rasterizer-Leistung eher bei +100 % liegt (was ja auch schon mehr als beachtlich ist).
Mir gehts ja auch nur darum, dass beide (4090 und 4080) mit diesen +100-300 % (zu 3090 Ti / 3080 Ti) beworben werden. Und dann müsste 4090/4080 den gleiche Abstand haben wie 3090Ti/3080Ti (das sind bei CB ~10 %). Die 4090 müsste sich mit der Anzahl an Recheneinheiten aber ja viel deutlicher absetzen können.
stachelbeere
Ensign
- Registriert
- Jan. 2004
- Beiträge
- 146
Ich habe für meine Asus Strix 2080 knapp 600€ bezahlt. Wenn ich mir jetzt die Preise anschaue, dann muss ich einfach in die gleiche Kerbe schlagen, wie der überwiegende Teil hier im Forum. Ich arbeite selbst in einer Branche, in welcher in den letzten 2 Jahren die Endverbraucherpreise um ca. 25% gestiegen sind. Realistische Preise für einen Vollausbau einer Asus Strix 4080 werden wahrscheinlich (eher im besten Fall) um die 1500€ liegen. Jetzt kann sich jeder ausrechnen, das hier einfach das maximal mögliche seitens Nvidia rausgeholt wurde. Ich zocke jetzt seit 25 Jahren am PC und in den späten 90er war PC Hardware viel teurer und hatte einen viel kürzeren Lebenszyklus. Da wurde schon mal für ein Spiel wir Unreal oder Quake der Rechner für viel Geld aufgerüstet. Ich war bereit 900€ für eine gute 4080 auszugeben (was schon erschreckend genug ist). Bei den Preisen überlege ich mir ernsthaft auf eine XBOX umzustellen und den GamePass zu nehmen.
Zuletzt bearbeitet:
O
owned139
Gast
Ja, wenn Rasterleistung mit den Recheneinheiten 1:1 skalieren würde, aber das tut sie nicht.Revan1710 schrieb:Die 4090 müsste sichr mit der Anzahl an Recheneinheiten aber ja viel deutlicher absetzen können.
Nvidia gab dies damals als Grund an, weshalb man RT so forciert.
peakyblinder
Lt. Commander
- Registriert
- Juni 2022
- Beiträge
- 1.201
Weil bereits ein guter 4K TV für unter 900€ losgeht bis rauf 1600€, je nachdem welche Ansprüche man setzt oder wie groß der Fernseher sein soll. Und selbst bei dem Modell für 900€ hast du bereits ein Top Notch Gerät, in dem Fall ein 48 Zoll LG OLED C1. Bei Monitoren sieht das anders aus. Oder setzt du dich an den Monitor, wenn du fensehen willst? 😉just_fre@kin schrieb:Konsole berücksichtigst du den (4K) Fernseher nicht? Will man die Features der PS5 nutzen, um ein halbwegs vergleichbares Erlebnis auch auf Konsole zu haben, muss man 1000€ aufwärts für nen gescheiten TV investieren
Übrigens kriegt man auf eBay 55-65 Zoll OLED TVs für unter 700€, ganz attraktiv der LG OLED C9 sowie CX - ich glaub, da muss man nichts weiter sagen.
Junge junge, da bin ich echt froh das mich das Gaming immer weniger bis gar nicht mehr reizt. Ich lese nur Geschwindigkeit bis zu und Preise ab. Das hört sich alles überhaupt nicht gut an. Wie gut das es deutlich bessere und günstiger Hobbys gibt. Die 3080 wird wohl meine letzte Karte sein, es sei denn sie geht irgendwann nicht mehr.
PHuV
Banned
- Registriert
- März 2005
- Beiträge
- 14.219
Da müssen wir die Spieletests abwarten.Revan1710 schrieb:@PHuV
Schon klar, dass die reine Rasterizer-Leistung eher bei +100 % liegt (was ja auch schon mehr als beachtlich ist).
Tut sie bei Blender, Redshift und Autodesk eben nicht, siehe unten.Revan1710 schrieb:Die 4090 müsste sich mit der Anzahl an Recheneinheiten aber ja viel deutlicher absetzen können.
https://blogs.nvidia.com/blog/2022/09/20/nvidia-studio-geforce-rtx-40-series/
70% Mehrleistung bei Blender
100-150% mehr bei Encodieren mit Davinci Resolve
Und nun AV1 Support per GPU, was für die meisten Leute online kaum einen Benefit bringen wird.
Daher würde ich mal sagen, 70-80% Mehrleistung in den meisten Spielen halte ich für real.
Revan1710
Captain
- Registriert
- März 2012
- Beiträge
- 3.302
Das ist auch klar, aber wenn ich mit +65 % ALUs nur etwa 10 % mehr Leistung schaffen sollte, ist die Skalierung miserabel und dann macht es wirtschaftlich auch keinen Sinn, einen so großen Chip zu fertigen.owned139 schrieb:Ja, wenn Rasterleistung mit den Recheneinheiten 1:1 skalieren würde, aber das tut sie nicht.
Ich denke eher, dass die Angaben bei der 4090 weitestgehend realistisch und bei der 4080 eher wohlwollend sind.
Das gilt aber nur für diejenigen, die das Lager wechseln. Ich habe in meiner Threema Battlefield+Forza+Formel 1 Gaming Gruppe (ja, wilde Kombination, frag nicht ) nur Aussagen gelesen wie "dann kaufe ich Nvidia eben wieder bei MSI" oder "dann wirds eben eine Zotac".Cool Master schrieb:Oder auch nicht und es geht zu AMD Exklusiv Partner wie XFX oder Sapphire.
HansDetflefAndi
Lt. Commander
- Registriert
- Aug. 2021
- Beiträge
- 1.050
€ killed gaming, not NVIDIA
€ mal eben 20% weniger Wert als vor 2 Jahren zum Ampere Release. 2020 1000,-= 1200,- 2022, 2020 1500,-=1900,- 2022 etcpp
€ mal eben 20% weniger Wert als vor 2 Jahren zum Ampere Release. 2020 1000,-= 1200,- 2022, 2020 1500,-=1900,- 2022 etcpp
Zuletzt bearbeitet:
Painkiller72
Commander
- Registriert
- März 2011
- Beiträge
- 2.611
Was das nun wieder soll mit den zwei unterschiedlichen VRAM Größen bei der RTX 4080 ? Kann sich NVIDIA hier nicht mal einig werden ?
RTX 4090 TI 24GB GDDR6X ( Oder kommt da noch ein Brett mit noch mehr VRAM oder man gibt das Kürzel Ti auf ? )
RTX 4090 16GB GDDR6X
RTX 4080 16GB GDDR6X
RTX 4070 16GB GDDR6X
RTX 4060 12GB GDDR6
RTX 4050 8GB GDDR6
Und bitte jetzt nicht wieder der Kommentar, das dies Anno 2022 nicht möglich sei. Vor ein paar Jahren konnte ich das ja von den Kommentaren noch verstehen wegen der teuren VRAM Chips. Dieses Hindernis wurde ja schon technisch gelöst zur Zeit oder immer noch nicht ? Dann verstehe ich die Entwicklung anscheinend nicht.
Das fand ich bei den RDNA2 Karten einfach besser, da AMD hier 3 Karten mit 16 GB im Portfolio hat. Hoffentlich behalten sie das bei der 7000er Serie bei und NVIDA täte gut daran, hier auf einen Nenner zu kommen um dem ständigen Gemecker der Käufer zu entgehen.
Für mich sind 250 Watt Leistungsaufnahme für ne Graka die Kotz Obergrenze, daher würde es dann wohl eine RTX 4070 werden und wenn die 16 GB GDDR6X hätte wäre gerade das ein entscheidender Kaufanreiz.
Ansonten kann Nvidia ihre Stromfresser gerne behalten und es bleibt vorerst bei meiner RX 6800.
RTX 4090 TI 24GB GDDR6X ( Oder kommt da noch ein Brett mit noch mehr VRAM oder man gibt das Kürzel Ti auf ? )
RTX 4090 16GB GDDR6X
RTX 4080 16GB GDDR6X
RTX 4070 16GB GDDR6X
RTX 4060 12GB GDDR6
RTX 4050 8GB GDDR6
Und bitte jetzt nicht wieder der Kommentar, das dies Anno 2022 nicht möglich sei. Vor ein paar Jahren konnte ich das ja von den Kommentaren noch verstehen wegen der teuren VRAM Chips. Dieses Hindernis wurde ja schon technisch gelöst zur Zeit oder immer noch nicht ? Dann verstehe ich die Entwicklung anscheinend nicht.
Das fand ich bei den RDNA2 Karten einfach besser, da AMD hier 3 Karten mit 16 GB im Portfolio hat. Hoffentlich behalten sie das bei der 7000er Serie bei und NVIDA täte gut daran, hier auf einen Nenner zu kommen um dem ständigen Gemecker der Käufer zu entgehen.
Für mich sind 250 Watt Leistungsaufnahme für ne Graka die Kotz Obergrenze, daher würde es dann wohl eine RTX 4070 werden und wenn die 16 GB GDDR6X hätte wäre gerade das ein entscheidender Kaufanreiz.
Ansonten kann Nvidia ihre Stromfresser gerne behalten und es bleibt vorerst bei meiner RX 6800.