News Nvidia GeForce RTX 4070 Ti: GeForce RTX 4080 12 GB unter neuem Namen wird günstiger

Es steht dir doch frei, jene Äußerungen, Beiträte zu ignorieren, die nicht deinen Geschmack treffen. Zu spekulieren, warum wer welche Äußerung tätigt, halte ich für etwas sehr weit hergeholt. So wenig wie ich mich zu deinem F30 äußere, ließe sich doch auch hier mutmaßen, dies diene... nein, ich verkneif's mir... im Gegensatz zu dir, der sich in Mutmaßungen übt.... würde das doch so wenig schmeichelhaft ausfallen, wie deine vorangegangene Äußerung...

mit frdl. Gruß
 
Nolag schrieb:
Welche Frechheiten soll man denn aufzeigen? Der Chip auf der 4070ti kostet etwa das gleiche wie der auf der 6900xt und die hatte einen Launchpreis von $999. Ist dann die 6900xt nicht auch eine Frechheit?
In gewissermaßen ja, nur weil es die "schnellste" AMD Karte ist und einen Aufpreis hat.
1672415936628.png

Wegen den 10% mehr haben die meisten aber die 6800XT genommen, der übrigens der selbe Chip ist ;)
 
  • Gefällt mir
Reaktionen: cookie_dent und Rockstar85
Ragnarök88 schrieb:
AMD hat es aufgrund der höheren Kosten derzeit aber schwerer Preise zu senken. Eine 4080 ist deutlich günstiger zu fertigen als 7900XT und 7900XTX, eine 4070Ti viel günstiger. Eine Preisschlacht würde AMD nicht gewinnen.
Es ist tatsächlich genau anders herum.
Nvidias Monolith Chipdesign ist in der Fertigung teurer, auch wegen TSMC 4nm Node (was 5nm Enhanced ist). Ein Monolith Chip ist zwar technisch einfacher zu produzieren aber alleine auf Grund seiner Größe teurer in der Produktion. AMD neues Chipletdesign ist günstiger in der Produktion, auch weil AMD noch TSMCs regulären 5nm für den Chip und 6nm für die MCDs nutzt. Die einzelnen Chip sind trotzdem deutlich kleiner, leichter und schneller zu produzieren als ein großer Monolith Chip. Das ist auch der Vorteil von Chiplets Skalierbarkeit und geringere Kosten.
 
  • Gefällt mir
Reaktionen: iWeaPonZ
metoer schrieb:
Hätten sich die Leute nicht weltweit in den Foren und auf social media aufgeregt würde Nvidia diese Karte als 4080 12GB für noch mehr als den jetztigen Preis anbieten. Man muss nicht immer alles still hinnehmen, solche Frechheiten gehören aufgezeigt.
Ich hab auch nichts davon geschrieben das ich gegen ein Diskussion über die Preisgestaltung von NV und AMD bin. Nur wirklich bei jedem Artikel, News, Notiz, über GPUs wird die gleiche Preisdiskussion und NV AMD gebashe rausgeholt. Sry aber da ist auch nichts mehr sachlich bei. In den letzten 3 Jahren hat man das Gefühl bekommen, dass manche Leute völlig am Rad drehen und es in Foren rauslassen. Trotzdem wünsche ich allen einen guten Rutsch.
 
  • Gefällt mir
Reaktionen: Vigilant
Ich habe mir gerade das Thema bei einem Becher Kaffee inhaliert.

Und puh... ca. 75%+ (gefühlt, nicht empirisch) sind Beiträge für die Klagemauer, die zumindest tauglich scheinen, um ein wenig Luft abzulassen. Soweit verständlich.

An der aktuellen Situation wird es voraussichtlich nichts ändern. Das wirft die Frage auf, was die Handlungsoptionen sind. Es gibt tatsächlich nicht viel und reduziert sich am Ende auf Verzicht oder Kauf.

Einen Mittelweg gibt es evtl., wenn nicht der Pfad 4K/8K-32-40-Zoll-Display bei 165Mhz/FPS und max. Details beschritten wird. Das ist aktuell der Spielplatz einer 4090 oder 4080 und deren zukünftige Ausbaustufen. Hier gibt es eine eindeutige Korrelation zwischen Auflösung, Darstellungsqualität und GPU-Anforderungen. Der aktuelle Bereich für Enthusiasten. War schon immer teuer und wird es auch bleiben.

Setzt man eine Grenze bei 27-Zoll-WQHD, was aktuell (neben FHD) die größte Anwenderbasis ist, sieht das schon anders aus. Die GPU´s für WQHD sind mit 3070 , 3080 und den AMD-Pendants sowohl aktuell also auch im Verlauf der letzten 2-3 Jahre mit Preisspannen von 700€ bis über 1.100€ bereits teuer.

Da erscheint es folgerichtig und fügt sich in das aktuelle Bild, dass eine 4070 nicht unbedingt günstiger werden kann, solange sich die Preise (auch gebrauchter) Karten weiterhin in diesen Regionen bewegen. Vermutlich könnte der Preis der 4070 die Preise der 3080er drücken, was diese wiederum attraktiver machen könnte. Aber das ist Spekulation.

So oder so, ist für Hardwarehersteller ein Punkt erreicht, der es ab hier schwerer macht, die Margen aufrechtzuerhalten, weil ein großer Teil der User die neue Leistungsfähigkeit einer 4080 oder 4090 nicht benötigt, solange nicht wie oben beschrieben 4K mit max. Qualität und max. FPS angestrebt werden.

Was wiederum auch den Unmut erklären könnte, weil für diesen Bereich die neuen Generationen der GPUs keine günstigere Optionen zur Aufrüstung bieten und die alte gleichzeitig ein hohes Preisniveau behält. Aus Gründen, die mittlerweile sehr komplex geworden sind und sich nicht allein mit einem Steinwurf auf das Firmenschild erklären lassen.

Ich finde, wir täten gut daran, uns von drei Dingen zu befreien:

1. Opferrolle ("Wir werden von Nvidia und AMD abgezockt".)
2. Manipulation ("Nvidia und AMD machen mit uns, was sie wollen und arbeiten sogar konspirativ zusammen".)
3. Revolution, Reset ("Zeit, es denen zu zeigen, um zu bekommen, was wir wollen".)

Recht universelles Prinzip und auf viele Dinge anwendbar. Führt aber stets in keine gute Richtung.

Ich denke, wenn man das Spiel nicht mitmachen möchte, ist Verzicht der einfachste Weg. Streichen wir die Position einfach vom Einkaufszettel und leben mit dem, was wir haben. Und Ruhe ist. Lasst Nvidia, AMD und Co. einfach ziehen und widmen wir uns schöneren Dingen. Niemand ist gezwungen.

Ansonsten kauft man einfach das, was man gerade braucht. Daran ist auch nichts zu kritisieren, weil die Situation einfach ist, wie sie ist. Daran wird sich kurz- bis mittelfristig nichts ändern.
 
  • Gefällt mir
Reaktionen: Ceberus, Apple ][, eXtra und 2 andere
War immer im Kundenkreis die zwischen der X070 und X080 herumgekreiselt sind, letzte Wahl fiel auf 3080 da der Preis unterschied letztens nicht so gewaltig war.
Das hier... 1000€+ für ne 4070 lässt mich da echt skeptisch vom nvidia Tisch abstand nehmen zumal man derzeit auch noch drauf zahlt.
 
ComputerJunge schrieb:
Laut Deiner Signatur hast Du ja auch noch Turing gekauft, und zwar aus Gründen, die ich ganz sicher nachvollziehen würde.
Ich habe zu dem Zeitpunkt von einem alten AMD Phenom II X6 1100T System mit GTX 970 (ursprünglich war eine GTX 570 drin) zu einem Ryzen 2700x mit eben der 2080 einen neuen PC selbst gebaut und durch den Kauf der Karte nicht direkt zum Release hab ich nicht die zuerst geforderten 850€ (und mehr...) für eine Custom 2080 Gigabyte Gaming OC der Händler sondern 100€ eingespart und durch das 3 Spiele Bundle damals von nvidia. Selbst wenn man sie zu dem Zeitpunkt als Gamekey gekauft hätte nochmals 100€ dazu gesparrt. Wodurch ich für mich von den ursprünglichen 850€ auf effektiv 650€ runter war. Das war okay. Dazu hab ich ein eigens Heimkino und encodiere meine Videos in H265 selbst. Die GTX 970 konnte zwar schon H265 encodieren aber nicht decodieren. Erst das Upgrade auf die 2080 bot mir meine Encodierungen direkt am PC auch zur Kontrolle abzuspielen (und nicht nur über meinen externen Media Player auf TV gestreamt) weil sie auch einen H265 Video Decoder in Hardware hatte.
Aktuell hab ich an ein erneutes GPU Upgrade gedacht weil ich auch den Monitor von 144Hz FullHD auf min 144Hz UWQHD upgraden möchte. Aber da mich nichts drängt, hab ich keine Lust die aktuell immer noch überteuerten Preise zu bezahlen und will daher mindestens bis Ende März/April nächsten Jahres oder sogar länger warten.
ComputerJunge schrieb:
Oder ich habe Dich falsch verstanden?
Ja hast du. Denn ich sage niemanden er soll oder muss jetzt AMD kaufen. Ich sage nur wenn jemand eine neue Karte jetzt zwingend benötigt dann soll er die 6000er AMD wählen um so gegen nvidias Preispolitik mit der Brieftasche zu wählen. Weil an nvidias 4000er Preisen orientiert sich aktuell alles darunter egal ob nvidias eigene 3000er oder AMDs 6000/7000er Generation. Und wenn die Leute anstatt der 4000er die 3000er kaufen, spielen sie nvidia trotzdem in die Karten weil die 4000 nur deswegen so viel teurer sind um langsam aber kontinuierlich den Abverkauf der 3000er OHNE Preis Reduzierungen zu erzwingen.

Nvidia baut hier simpel darauf das Ihr Ruf der angeblich besseren Treiber und Features wie Raytracing oder DLSS niemanden zu AMDs günstigeren 6000/7000er greifen lassen wird.
Nur in meinen Augen sind alle 3 Sachen irrelevant weil das Treiber Ding ist nur noch ein Mythos.
Für Raytracing gibt es nicht genug neue Spiele so das nvidia regelmäßig mit um Raytracing erweiterte alte Spiele Werben muss (Siehe Quake 2 RTX oder nun Portal) die sie größtenteils sogar selber für die Original Entwickler um das Feature erweitert haben. Nur um überhaupt mit einen alten aber Prominenten Namen werben zu können! (Nun sollen ja Modder alte Spiele mit RTX aufwerten damit nvidia so ihre immer noch lausige Titelzahl künstlich aufblähen kann) Ich erinnere mich noch an Jensen Huang Aussagen bei der 2000er Vorstellung wie leicht es doch ist Raytracing zu integrieren und es "einfach funktioniert"! Öhm wieso hat das dann immer nicht jedes neue Spiel? Und wieso bekommen die Spiele Entwickler es in 4ter RTX Generation (ja die 20x0 "Super" Karten waren auch eine eigene Generation) die meisten als mit Raytracing angekündigten Spiele nur irgendwann mal (wenn überhaupt, was keinem aufzufallen scheint...) per Patch nachzuliefern?
Und DLSS wird nun als der Heilbringer für 4k oder UWQHD angepriesen. Dabei wurden die Konsolen die noch nie genug Rohleistung für die Native Auflösung hatten/haben, schon immer die Spiele in deutlich Geringerer Auflösung berechnet und dann in die tatsächliche Display Auflösung nur Hochskaliert haben all die Jahre (ja Jahrzehnte) nur belächelt. Nun aber soll es die AI richten weil sie das hochskalieren künstlich besser macht. Entweder meine Karte hat genug Leistung für die native Auflösung oder eben nicht und ich muss Details wie Schattenqualität, Sichtweite ect. reduzieren!

Das einzige valide Argument für nvidia Karten ist für mich aktuell nvidias CUDA Schnittstelle bzw. der darüber angesprochene NVENC (nvidia Video Encoder) weil es schlicht viele Programme gibt ihre Berechnungen darüber in Hardware über die Grafikkarte deutlich schneller als über die CPU durchführen können WENN man das privat auch nutzt. Das hat AMD schlicht verpennt auch direkt zu puschen, denn auch wenn es ihre Karten mittlerweile können, so gibt es (noch) zu wenig Programme die es auch für Privat und als kostenloses Open Source Programm mit AMD Karten in Hardware unterstützen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman, ComputerJunge und Rockstar85
metoer schrieb:
Vielleicht siehst du daran mal wie unsinnig es ist Gesamtpreise durch Chippreise zu rechtfertigen.
Ich rechtfertige nichts. Ich möchte verstehen welche Frechheit du meinst.
metoer schrieb:
Wenn aber versucht wird das gesamte lineup nach oben zu verschieben nur damit man die gleiche Marge schieben kann wie zu einer absoluten Ausnahmezeit werd ich stinkig.
Wo sehen wir denn diese Verschiebung zu Ungunsten des Kunden? Grafikkarten mit $30-40 Chips kosten weiterhin zwischen $300-400. Früher (bis zur 1080ti) gab es gar keine Karten mit Chips die deutlich über $40 gekostet hätten. Die $80 Chips gibt es erst seit der Ampere und RDNA2. Die 4070ti ist die erste neue Karte mit einem $80 Chip und verschiebt den Preis der vorherigen Karten mit $80 Chip (3090 und 3090ti) von $1499 und $1999 nach $799. Damit ist die 4070ti die günstigste Karte mit einem $80 Chip von Nvidia. Man darf nicht nur auf den Namen schauen, sondern was man tatsächlich für sein Geld bekommt und da ist eine Verbesserung erkennbar. Sind es wirklich die Namen die stören? Ich dachte es geht hier um Erhöhung der Margen und das ist für mich nicht zu erkennen. Wenn hier manche von "Lack gesoffen" reden, dann sollte man das auch belegen können.
 
Wenn diese Karte jetzt 799 kostet, müsste die 4070 dann 699 kosten ? Das wird auch eine Karte mit 12 GB oder ?
Die 4060 müsste dann knapp 499-599 kosten und das dann mit 8 GB ?
Also ich bin echt gespannt auf das Line Up von NV und AMD. Bin gespannt ob dann jene, die jetzt die 4070TI Preise so rechtfertigen.
Des weiteren spannend seitens AMD. Ein 7800XT kommt dann noch mit 256 Bit SI und 16 GB. Vllt noch eine Variante mit 192 Bit und 12GB (vllt 7700 ?)
Navi 33 ist dann ein 6nm Chip mit 2048 Shader. Das entspricht dann Navi 23 XT mit ebenso vielen Shader. Mit vllt 10% höherer IPC und etwas mehr takt, wäre die dann bei der 6700XT. Würde ja lachen, wenn das dann aufgrund des 6nm Prozess die Preis/Leistung Top Karte wird :lol:
RX 7500XT um 400 Euro, cheap :evillol:
 
Ich habe einen Vorschlag. Wir sollten uns an den Händen halten und uns gegenseitig das Vertrauen aussprechen. Kein Grund für Aufregung, sie wollen nur unser Bestes. Friede, Freude, Eierkuchen !
 
CMozzarella schrieb:
Ach, meine RTX 3080 für damals 800 Euro freuts. Wir verweilen noch ein bisschen länger zusammen. Ganz einfach :)
Passt doch die 4070 ti 12 gb mit der Leistung einer 3090 ti für 1k ist doch klar
 
  • Gefällt mir
Reaktionen: Ragnarök88
Ich hatte Dich doch richtig verstanden. ;)

Gamefaq schrieb:
Nvidia baut hier simpel darauf das Ihr Ruf der angeblich besseren Treiber und Features wie Raytracing oder DLSS niemanden zu AMDs günstigeren 6000/7000er greifen lassen wird.
Nur in meinen Augen sind alle 3 Sachen irrelevant weil das Treiber Ding ist nur noch ein Mythos.
Ich weiß nicht, warum die anderen mehrheitlich nVidia kaufen. Deine Punkte spielen da sicherlich mit hinein.

Die Relevanz von Raytracing ist dabei aber sicherlich zunehmend immer bedeutender. Das häng halt vom individuellen Anforderungsprofil ab.


Gamefaq schrieb:
Das einzige valide Argument für nvidia Karten ist für mich aktuell nvidias CUDA Schnittstelle
Das ist - wie ich auch in diesem Thread schon anmerkte (Kontext openCL) - für mich das mitauschlaggebende Argument geworden. Spielen kann ich mit Karten der beiden großen Anbieter ausreichend.

Aber beim Rest ist halt nVidia klar führend. Und nachdem ich - in der "Neuzeit" ab ca. dem Jahr 2000 - ausschließlich ATI/AMD-Karten hatte, sind meinen diesbezüglichen Erwartungen an AMD mittlerweile mehr oder weniger am Nullpunkt angekommen.

Bisher hatte ich AMD dennoch unterstützt, da offener Standard und das preisliche Investment für den reinen Unterhaltungszweck für mich i. O. war. Aber bei Preisen > 500€ möchte ich das Potential eines derartigen Parallelrechenknechts definitiv auch andersweitig heben. Denn dafür nutze ich Computer.

Nachtrag:
Ich schreibe hier nur für mich. Deine anderen Argumente spie(t)len für mich alle keine besondere Rolle. Insbesondere, wie sich irgendwelche "Markenbotschafter" dieser bedienen. Das bereitet mir zwar oft Kopfschmerzen nur beim Lesen. Aber meine Einschätzung erarbeite ich mir immer selber.

Visuell überzeugendes Upscaling beispielsweise ist selbstverständlich ein Zugewinn, egal auf welcher Plattform. Und "nativ" ist an Tris und Quads bei Rastergrafik auch nicht viel.

Ja, und für Fortschritt nehme ich dann auch das Bullshit-Marketing eines CEOs in Kauf - bei Werbung schalte ich sowieso immer ab.
 
Zuletzt bearbeitet:
Taurus104 schrieb:
Es ist tatsächlich genau anders herum.
Nvidias Monolith Chipdesign ist in der Fertigung teurer, auch wegen TSMC 4nm Node (was 5nm Enhanced ist). Ein Monolith Chip ist zwar technisch einfacher zu produzieren aber alleine auf Grund seiner Größe teurer in der Produktion. AMD neues Chipletdesign ist günstiger in der Produktion, auch weil AMD noch TSMCs regulären 5nm für den Chip und 6nm für die MCDs nutzt. Die einzelnen Chip sind trotzdem deutlich kleiner, leichter und schneller zu produzieren als ein großer Monolith Chip. Das ist auch der Vorteil von Chiplets Skalierbarkeit und geringere Kosten.
Dafür hätte ich gerne mal Belege.

Wir haben hier 379mm2 4N (N5) vs. 300mm2 N5 +222mm2 N6. AD103 ist trotzdem immer noch verhältnismäßig klein und NV hat hier keine extra Kosten, die eben durch den MCM-Ansatz entstehen. iirc hatte Ian Cutress mal grob überschlagen, dass AMD hier insgesamt ~$20 pro Chip spart.

Dass N31 günstiger zu fertigen ist als AD102, ist offensichtlich. Dass man aber sogar günstiger fertigen (lassen) kann als NV bei AD103, das darf stark bezweifelt werden. Gegenüber AD104 und der 4070Ti schon gar nicht, da ist ja der Chip selbst schon kleiner als nur AMDs GCD.

Und das dürfte für AMD auch das viel größere Problem sein als eine 4080 und AD103. Einen Preiskampf gegen AD104 verliert man haushoch, obwohl ich für AMD befürchte, dass der Chip sie nächste Woche im Gesamtpaket teilweise ganz schön alt aussehen lassen wird.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Sittich01 schrieb:
Moin,
nicht heulen einfach nicht kaufen und fertig.
Jeder kauft das was er mag und ausgeben möchte.
Ich versteh das ganze gemaule nicht.
Das ist halt Kapitalismus und damit muss man leben in einer freien Welt.
Klar mögen die Preise happig sein aber wer es sich leisten kann holt sich das was er braucht.
Und das wird bestimmt nicht das Ende sein. Ich hab das letzte mal denke ich aufgerüstet, da mir Preise auch zu hoch erscheinen.
Als nächstes gibt es dann eine Konsole da muss man sich nicht alle 2 Jahr nen Kopf machen wegen aufgerüstet.
Naja wenn man noch auf ner 1060 rumkrebst wie ich und während des Miningbooms nicht gekauft hat, dann sitzt man schon sehr auf heißen Kohlen. Wenn es eine halbwegs brauchbare Alternative gäbe wäre es ja ok. Leider ist das Maß an Überteuerung ja durch die Bank in allen Preis- und Leistungsregionen zu sehen. Wird bei mir wohl darauf hinauslaufen das ich mit extrem fadem Gefühl im Bauch einfach kaufe. Da AMD genauso überteuert ist und meiner Meinung nach das bei weitem schlechtere Produkt abliefert wird es wohl die 4080 oder 4070ti werden.
Konsolen sind für mich absolut kein Ersatz zum PC, eher eine Ergänzung. Wenn man aber gerne mit dem Gamepad spielt macht das natürlich Sinn.
 
  • Gefällt mir
Reaktionen: MojoMC
Geht mir genauso, nur dass ich ne 1070 habe. Aber so viel Geld möchte ich nicht zahlen. Hab jetzt von nem Bekannten ne 2080 Super für 250€ gekauft. Meine 1070 kann gehen und wir noch knapp über 100€ bringen. Der Tausch war also nicht wirklich teuer, und lässt mich noch 1-2 Generationen überstehen.
 
  • Gefällt mir
Reaktionen: iWeaPonZ und MojoMC
Nolag schrieb:
Natürlich überlassen uns die Hersteller die Produkte zum Herstellungspreis.
Keine Ahnung, wie du da jetzt wieder drauf kommst. Ich hab das weder gesagt noch angedeutet.

Nolag schrieb:
Die Karten, die früher um die $389 zum Launch gekostet haben, hatten alle einen Chip der $30-40 kostete.
Du langweilst mit deiner persönlichen Faustformel, nach der die von dir wahrgenommenen Chipkosten proportional auch den Gesamtpreis der Karte steuern und das nach irgendeiner völlig verqueren Logik, die du sicherlich noch erklären wirst, dann das Überspringen ganzer Preisstufen rechtfertigt - wobei Inflation und normale technische Weiterentwicklung da schon berücksichtigt sind.

Gortha schrieb:
Das gejammere kann ich mir auch immer schwerer anhören, dass ich hier lese oder als Erwiederungen bekomme. Fakt ist, dass es niemals in den letzen 70+ Jahren des aktuellen Geld- und Wirtscahftssystem diese Endzeitendwicklung der Leitwährungen gab, sprich enorme Inflation der Währungen und dazu steigende Rohstoffpreise=Energiepreise=Hilfsproduktpreise=Produktpreise, Logistik teurer etc pipapo.
Ist ja nicht so, als könnte man sowas wie Inflation nicht berücksichtigen und dann erstaunt feststellen, dass (vorwiegend) nVidia trotzdem in letzter Zeit die Preise massiv angezogen hat...
 
Die kritischen Kommentare hier zur Preisgestaltung sind legitim und entsprechen der freien Entfaltung der Meinungsfreiheit. Wem derartige Kommentare nicht passen kann sich ja woanders umschauen oder den Kommentarbereich meiden. Bei so einem Thema ist der Kommentarbereich nunmal genau für so eine Diskussion die hier gerade stattfindet gedacht.
Die kritischen Anmerkungen dienen auch dazu sich gar nicht erst an dieses neuerdings aufgerufene Preisniveau zu gewöhnen und Unbedarfte die vielleicht zum ersten mal eine Karte kaufen von diesem Missstand zu unterrichten.
 
  • Gefällt mir
Reaktionen: eXe777, elvis2k1, Jossy82 und 3 andere
MojoMC schrieb:
Du langweilst mit deiner persönlichen Faustformel, nach der die von dir wahrgenommenen Chipkosten proportional auch den Gesamtpreis der Karte steuern und das nach irgendeiner völlig verqueren Logik, die du sicherlich noch erklären wirst, dann das Überspringen ganzer Preisstufen rechtfertigt - wobei Inflation und normale technische Weiterentwicklung da schon berücksichtigt sind.
Dann erkläre du es doch, wenn es so offensichtlich falsch ist. Das einzige was man hier liest ist Polemik. Nvidia verkauft übrigens nur wenige Grafikkarten um die Boardpartner unter Druck zu setzen. Die Haupteinnahmequelle ist der Verkauf der Chips an die Boardpartner. Es ist halt eine Tatsche, dass in der Vergangenheit bis zur 1080ti die Chips auf den Karten nicht mehr als $50 gekostet haben. Karten mit $40-50 Chips kosten auch weiterhin $400-500. Die CPU Preise folgen dem gleichen Muster. Das Silizium des Ryzen 7700X kostet $40 und der Launchpreis lag bei $399. Margen sind halt Faktoren. Wenn die Margen erhöht werden, dann müsste man höhere Faktoren ermitteln und das ist einfach nicht der Fall. Die vorherigen Grafikkarten mit einem $80 Chip hatten Faktoren von 18-25 für den Launchpreis. Mit der 4070ti ist es nur noch Faktor 10. Grafikkarten mit so teuren Chips wie auf der 4080 und 4090 hat es noch nie gegeben und trotzdem sind sie günstiger als die 3090 und 3090ti.
 
pipip schrieb:
Wenn diese Karte jetzt 799 kostet, müsste die 4070 dann 699 kosten ? Das wird auch eine Karte mit 12 GB oder ?
Die 4060 müsste dann knapp 499-599 kosten und das dann mit 8 GB ?
Die 4070 wird eine 8GB Karte, den Gamern zu liebe :D
Ich weiß nicht, ob ich eine 4060 mit 8GB als Fortschritt sehen soll, vor allem wenn diese irgendwo zwischen meiner 3060Ti und deiner 3070 krebst..
Dass Nvidia die 3060Ti und die 3060 vor Launch absichtlich langsamer macht, ist schon frech
 
  • Gefällt mir
Reaktionen: iWeaPonZ
fortknox schrieb:
Die kritischen Kommentare hier zur Preisgestaltung sind legitim und entsprechen der freien Entfaltung der Meinungsfreiheit.
Hat jemand was Anderes behauptet?
fortknox schrieb:
Wem derartige Kommentare nicht passen kann sich ja woanders umschauen oder den Kommentarbereich meiden.
Oder sich - ganz im Sinne deiner "freien Entfaltung der Meinungsfreiheit" - einfach genauso hier zu Wort melden wie es alle anderen auch tun. Wo ist das Problem?
fortknox schrieb:
Bei so einem Thema ist der Kommentarbereich nunmal genau für so eine Diskussion die hier gerade stattfindet gedacht.
Die kritischen Anmerkungen dienen auch dazu sich gar nicht erst an dieses neuerdings aufgerufene Preisniveau zu gewöhnen und Unbedarfte die vielleicht zum ersten mal eine Karte kaufen von diesem Missstand zu unterrichten.
Diskutieren ist das eine, Missionieren das Andere. Überlass es den Leuten doch einfach selbst, ob sie sich an höhere Preise gewöhnen wollen oder nicht. Nicht jeder legt Wert darauf, von den Erleuchteten dieses Forums gerettet zu werden.

Ich weiß auch nicht, was das Ganze einem "Unbedarften" bringen soll. Wenn so jemand heute in einen PC-Laden stolpert und der Verkäufer ihm sagt, dass er für einen Oberklasse-PC - sagen wir mal - 3000 Euro in die Hand nehmen muss, dann ist er dazu entweder bereit oder nicht. Was soll ihm denn in dieser Situation der Verweis auf ein in den letzten Jahren gestiegenes Preisniveau bringen? Soll er dann voller Empörung den Laden verlassen, weil er ein derart schändliches Treiben nicht unterstützen will, oder wie stellst du dir das vor?
 
  • Gefällt mir
Reaktionen: Ragnarök88, ASCORBIN und Stuffz
Zurück
Oben