News Zwei Wochen nach Marktstart: Nvidias GeForce RTX 4070 fällt unter die 600-Euro-Marke

Zwirbelkatz schrieb:
Ich sag nur eine 4070Ti die eine 4080/12 werden sollte, eine 4070 die nun 35% weniger SM als ihre direkter Vorgänger hat (und halt auch teurer ist) und eine 4060Ti, die am Ende nicht mal eine 4060 wäre, sondern eine 4050... Läuft halt, solange die Leute kaufen.
 
  • Gefällt mir
Reaktionen: iceshield
McLovin14 schrieb:
Und woran liegt es?
Weil Nvidia machen kann, was es will. Es gibt von AMD aktuell keine echte Alternative, nur Karten aus der (wirklich tollen) 6000er-Generation. Die 7000er sind eine echte Enttäuschung und AMD macht mit bei der Preistreiberei, siehe den Nachfolger der RX6800XT mit stärkerem Cut-Down als 7900XT für 899$ auf den Markt zu bringen.

Daher bin ich froh hier zu lesen, dass Nvidia die Produktion aussetzen muss (!), weil zu viel Lagerbestand existiert. Sollen sie drauf sitzen bleiben!
AMD weiß, dass die 7000er Modelle suboptimal performen. Deshalb machen sie das, was in einer Situation, wo es schwierig ist, Marktanteile zurückzugewinnen, am einfachsten erscheint. Sie bleiben in der Nische und segeln beim Preis in NVIDIAs Windschatten. Richtig auf Marktanteile kannst du nur gehen, wenn beides stimmt, nämlich Preis und Leistung.

McLovin14 schrieb:
Daher bin ich froh hier zu lesen, dass Nvidia die Produktion aussetzen muss (!), weil zu viel Lagerbestand existiert. Sollen sie drauf sitzen bleiben!
Und an den Punkten sieht man auch, wie absurd die vielfach hervorgekramte Inflationsrhetorik ist.

Wir haben eine komplett gegenteilige Situation. Geringe Nachfrage, viel zu hohes Angebot. Und obwohl sich die Kostenseite deutlich entspannt hat, senkt NVIDIA nicht die Preise, sondern limitiert lieber das Angebot. Das kannst du nur machen, wenn der Markt nicht funktioniert. Weil sonst würde ein Konkurrent in diese Lücke stoßen, die Kostenvorteile in niedrigere Preise umsetzen und NVIDIA Marktanteile abnehmen.

Aber so zementiert NVIDIA seine Position, gewöhnt Kunden an den Preissprung. Und leider noch genügend Kunden nehmen das hin. NVIDIA kann das auch aussitzen, so lange es bei Datacenter läuft wie geschnitten Brot.
 
Cleric schrieb:
Weil sonst würde ein Konkurrent in diese Lücke stoßen
Ja würde AMD gerne, aber 2 Jahre Lieferfrist, wenn man jetzt bei TSMC was aktuelles in Masse bestellt.
Daher geht es eben nicht das AMD einspringt.
1-2 Jahre später ist N3 und eine neue Gen, dann werden die Karten neu gemischt und es wäre Wahnsinn einfach im voraus viel viel mehr Kapazität zu buchen.
Vor allem wenn sich AMD, NVIDIA und Intel um die Kapazität prügeln und AMD viel mehr pro Waferfläche bei EPIC als mit Radeon verdient. Deswegen *** NVIDIA ja auf Konsumer, die Enterprise, Automotive und KI bringen den Löwenanteil und zahlen eh jeden Preis. Da kann man Konsumer schön schröpfen.

Bei Ryzen ging es auch nur Gen um Gen voran.
Da hatte man auch EPYC und Zen mit selben DIE, d.h. man musste nur ein Chiplet ausstoßen.
Und nicht eine ganze Familie, der Monolith kam da auch erst Jahre später.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cleric
Draco Nobilis schrieb:
es wäre Wahnsinn einfach im voraus viel viel mehr Kapazität zu buchen.

Bei Ryzen ging es auch nur Gen um Gen voran.
So schaut es aus. Selbst wenn du an die Kapazitäten kommst, kannst du nicht einfach das Wafervolumen im Vergleich zu NVIDIA auf Verdacht über den Daumen verzehnfachen. Das wäre in der Tat Wahnsinn.
 
Was ist die rtx4070
rein technisch versucht nvidia wieder kleinere chips in größere sku zu vermarkten aber durch die höheren kosten der sku ist ein notwendiger umstruktuierung der sku nicht möglich.

ein ad104 chip kostet nvidia aktuell 85$ der vram ist drastisch gesunken von anfang 2022 10$ pro 8gbit auf nur noch 3$ pro 8gbit
in der sku wird aber 16gbit genutzt diese kosten für 20gbps chips etwa 8$
nehme ich alle kosten auf werden das bei einer Bruttomarge von 70% etwa 479€ Endkunden preis und das mitn dicken Kühler um die 60$
Oft sind in der klasse maximal 40$ kühler dabei.

Nehme ich das als gegeben an hat nvidia noch Spielraum für Preissenkungen aber als rtx4060ti zu vekaufen geht nicht da man dort min bei 399€ kommen muss.
Den die Konkurenz von amd wird diesmal hart werden
ne rx7700xt soll bei 399-449$ sein bei uns 439€-489€

Diese wird 54 cu haben und etwa 2,8ghz Takten was die sku nahe der rtx4070 bringt.
Allein dadurch wird nvidia gezwungen den Preis der rtx4070 auf etwa 499€ zu senken (459$)
Und ich glaube das ist auch nvidia plan sofern amd liefert.
Noch härter wird das mit rx7600xtx und 48cu bei 2,8ghz= 16tf was in etwa der rtx4060 ti gleichkommt und für maxed 299€ kommt.
nvidia plan diese bei 449€ anzusetzen wird nicht aufgehen Zumal die 8gb vram der gpu den hals brechen.

am ende ist ganz klar das die Vorstellungen von nvidia das durch hohe preise der neuen gen die alte abverkauft wird nicht aufgeht. Dafür sind die sku einfach nicht mehr den Anforderungen gerecht Abhilfe wäre sämtliche 8gb sku auf unter 250€ zu senken und einige sku neu auflegen sofern möglich wie die rtx3070 mit 16gb

meine Lösung wäre sofern kaum bis keine sku mehr in den aib lagern sind
rtx3050 180€
rtx2060 6gb 150€
rtx2060 12gb 300€
rtx3060 8gb 250€
rtx3060 12gb 300€
rtx3060ti 300€
rtx3070 8gb 350€

und neu dann
rtx3060ti 16gb 400€
rtx3070 16gb 450€ (reduzierter Takt auf 170w tbp +- 1,7ghz)
und oc als rtx3070 16gb mit 1,9ghz 550€

Das dies geht sieht man an der rtx a4000 140w tbp und nur 15% langsamer.

leider hat nvidia aber kaum noch produzierte ga104 chips die sind schon verbaut.
Also muss die neue gen von ad106 chips mit 16gb kommen. dann passt es wieder.
Und ich ahne das nvidia das auch tun wird sofern amd aggressiv beim preis der n32 sku wird was die rx7700xt betrifft. Das maxed der sku sehe ich wie gesagt bei etwa 489€ und hat 16gb vram bei knapp 20tf Leistung
Das entspricht in etwa der rx6800xt bzw rtx3080 10gb das die rtx4070 da nicht fern ist sollte klar sein.
Deswegen sind aktuell 629€ für die rtx4070 bei aktueller Marktlage einfach zu teuer.
Das kuriose ist das nvidia sich weigert den aib den altbestand drastisch den preis zu senken.

ne rtx3060 8gb für 250€ und die 60ti 70er Modelle für maxed 300€ 350€ würden schnell die lager leeren.
Dann paar neue sku sofern genug chips da mit 16gb hinterher und später dies mit den neuen ad106 chips bei 12gb 16gb und 389€ sowie 439€ anbieten.
Das dies nicht passiert liegt allein daran das nvidia die Investoren nicht erschrecken will und zugeben müsste das man wieder den minern aufn Leim gegangen ist.
Zu viele chips produziert zu viele falsche sku Planung von Ursprung der 16gb Modelle weg.
Hin zu mehr 8gb Modelle die bald unverkäuflich sind.

nvidia muss die preise der alten gen drastisch senken das diese raus gehen unter wert was bei 8gb Modelle bis 350€ bedeutet
Solange amd bis 300€ nur 8gb anbietet wird diese strategie klappen ansonsten gibt es ein problem.
Amd dagegen kann keine 300€ rx7600xt bringen mit nur 8gb eher sehe ich da 12gb drin sind
Da auch die sku billiger sind zu fertigen derzeit geht ein größerer chip in der rx6600 für nur 229€ über die Theke. mit nur 12gb käme man auf etwa 299€ und hat dieselbe Leistung wie die rx6700xt
Derzeit gehe 12gb vram bei 379€ weg (rx6700xt)

Daher gehe ich davon aus das amd wenn n33 mit 12gb kommt dann dieser preis angepeilt wird 349-399€
Und darunter sku mit nur 6gb bei 150€ und 8gb bei 200€ als rx7500xt/x bringt

Die kommenden Monate wird sehr gut für uns Kunden sofern nvidia richtig reagiert egal ob Abverkauf der rtx a4000 umgelabelte in rtx3070 16gb oder ad106 mit doppelten Speicher beides wäre ein gewinn.

Amd ist nicht ganz raus aus meine Plänen wenn rx7700xt bei nur 489€ kommt wäre das ne Überlegung wert
 
Zuletzt bearbeitet:
Gortha schrieb:
???:mussweg:

... 12 GB VRam (NVidia VRAM 12GB nach PCGH Rechnung 13-14GB AMD Vram) werden bei WQHD ewig reichen.
Ich hab grad nochmal geschaut ob ich falsch lag und dein Emoji irgendwie Sinn ergibt, aber du hast mir irgendwie implizit unterstellt als hätte ich gesagt das bei WQHD Machttexturen kommen würden, das hab weder ich oder der verlinkte PCGH Artikel aber gesagt, zumindest nicht in dem Kommentar auf den du dich bezogen hast.

Ihr unterstellt einfach immer nur stur als ob WQHD die einzige relevante Auflösung wäre bei ner Highend-karte (600 Euro ist ein Highendpreis) 2023 ist UHD eine sehr wichtige Auflösung, und jetzt könnt ihr wieder damit kommen das bei Steam die meisten nicht mit UHD spielen, die meisten haben aber auch keine >600 Euro Karte bei Steam.

Hätte die Karte 16gb würde in UHD mit Raytracing einige Spiele rund laufen sie hat genug Rechenpower genug Raytracing Leistung nur der VRAM hindert sie Raytracing in den Einstellungen bei z.B. Hogwards dar zu stellen.
So hat die GeForce RTX 4070 Ti zum Beispiel in Ultra HD und DLSS Quality bei ansonsten voller Grafikqualität zwar keine Performance-Probleme, aber bei manchen Objekten werden die Texturen nicht geladen, andere verschwinden kurzfristig völlig, da die Engine vermutlich versucht, die Situation irgendwie noch zu retten.
Soweit ich das lese hat die 3090 Ti dieses Problem nicht und läuft da recht gut. Nun kann man sagen ja die Radeon 6xxx Karten haben dann auch relativ wenig FPS weil deren Raytracingfaehigkeiten nicht so gut sind, aber 1. ist der Abstand kleiner als man vermuten würde bei Current-gen Nvidia Raytracing Karte vs Last gen AMD, 2. muss die Radeon grad noch mit FSR 2 gegen DLSR 3.0 ankämpfen, das wird sich kurz/mittelfristig ändern und 3. kostet sie gebraucht 170 Euro weniger, bei 430 Euro ist es ok wenn UHD mit Raytracing gut läuft bei 600 Eure ist das schwerer zu rechtfertigen imho.
 
Cleric schrieb:
dass die 7000er Modelle suboptimal performen
Sagt wer genau?

Also meine 7900XTX performt in meinem System zb. in BF2042 derzeit mit 180 -210 FPS (Enhanced Sync).
Aktivier ich RT bin ich immer noch bei 140-160FPS. (Seh da aber leider keinen Unterschied)...
Da ich nur nen 144Hz Monitor habe reicht mir das aber dennoch locker........
 
@Weedlord
Das Problem sind nicht zwangsläufig immer niedrige fps oder stuttering (Ruckler), viele Spiele laden die Texturen dann einfach nicht/viel später, was zu sehr unschönen Ergebnissen führt.
12 GB finde ich nicht super dramatisch, für 1440p sollte es reichen, bis die Karte nicht mehr genügend Leistung bringt (3080 Niveau) und auch in 2160p mit DLSS Quality/Performance sind 12 GB meist noch ausreichend.

Und auch die angesprochene Effizienz, insbesondere bei begrenzten fps ist richtig klasse, da ist Ampere leider richtig schlecht, denn dort lässt sich nur effektiv Strom sparen, wenn man ein Powerlimit über Drittsoftware setzt.

Die wirkliche Problematik der RTX 4070 ist wohl der Preis und nach den Quartalszahlen von TSMC darf man die Schuld auch nicht nur bei nvidia suchen, trotzdem ist eine Midrange-Karte (xx70) für >600€ teuer.
Normalerweise könnte man den Preis auch noch verargumentieren, aber durch die ebenfalls ungewöhnlich schlechte Leistung in Relation zur vorherigen xx80 (welche eigentlich deutlich geschlagen werden sollte) ist die 4070 ein Produkt, welches bestenfalls von sehr geduldigen GTX-Besitzern interessant sein könnte.
Ergänzung ()

Cleric schrieb:
Aber so zementiert NVIDIA seine Position, gewöhnt Kunden an den Preissprung. Und leider noch genügend Kunden nehmen das hin. NVIDIA kann das auch aussitzen, so lange es bei Datacenter läuft wie geschnitten Brot.

Das langfristige Problem ist irgendwann aber ein kaputter PC-Markt im AAA-Bereich, hatten wir vor ~17 Jahren schon (Xbox 360/PS3-Ära).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz und RaptorTP
Ich finde es nach wie vor merkwürdig, dass die 4070 so stark kritisiert wird, während die 4070 ti recht ungeschoren davon kommt. Nicht falsch verstehen: Natürlich ist die 4070 eine verdammt überteuerte Karte. Natürlich hat die 4070 zu wenig Speicher.

Aber die 4070 ti ist doch noch überteuerter und hat zwar absolut genauso wenig, im Verhältnis zu ihrer Rohleistung aber noch weniger Speicher. Schließlich wurde von der 4070 ti → 4070 der Speicher nicht beschnitten, sondern ausschließlich die GPU selbst.
 
Zuletzt bearbeitet:
Nuja, Preis ist auf jeden zu hoch. Für eine 4070 mit der Leistung einer 60er Karte (verglichen mit den vorherigen Gens)

Aktuell haben wohl 230 Leute, die an der Umfrage teilgenommen haben, eine 4090 gekauft.
Das verstehe ich auch nicht so ganz. Wäre es mir nicht wert, bzw. bin ich froh den Hype rechtzeitig zu verlassen. :/
 
Die 40xx-Generation ist technisch brilliant, aber auch sehr kostpielig. Hierfür ist die RTX 4070 ein weiteres Beispiel. Man muss sich genau überlegen, ob Leistung, Temperatur, Stromverbrauch und Bauform in Relation zum Preis akzeptabel sind oder nicht. Im SFF-Bereich dürfte die RTX 4070 etwa recht attraktiv sein aufgrund ihrer Bauform und relativ niedrigen Betriebstemperaturen. Der hohe Preis wird aber viele SFF-Selbstbauer trotzdem zögern lassen.
 
CDLABSRadonP... schrieb:
Ich finde es nach wie vor merkwürdig, dass die 4070 so stark kritisiert wird, während die 4070 ti recht ungeschoren davon kommt. Nicht falsch verstehen: Natürlich ist die 4070 eine verdammt überteuerte Karte. Natürlich hat die 4070 zu wenig Speicher.

Aber die 4070 ti ist doch noch überteuerter und hat zwar absolut genauso wenig, im Verhältnis zu ihrer Rohleistung aber noch weniger Speicher. Schließlich wurde von der 4070 ti → 4070 der Speicher nicht beschnitten, sondern ausschließlich die GPU selbst.


Ich glaube bei der 4070ti sind sich eigentlich alle einig, dass 12GB für eine 900 Euro Karte einfach zu wenig sind! Da braucht man nicht diskutieren, das sehen wahrscheinlich alle. Und das könnte eine richtig gute "echte" 4070 sein, wenn man sie für 600 Euro anbieten würde.
Und die die falsche 4070 dann als 4060ti für 500 Euro oder so.
 
  • Gefällt mir
Reaktionen: MegaManX4, scheru und Zwirbelkatz
Unter FHD-Auflösung (1920x1080) reicht auch eine GTX 1050 Ti mit 4 GB RAM zum Spielen aller aktuellen Spiele aus.
Ich spiele den hardwarehungrigen Microsoft Flight Simulator 2020 mit mittleren bis hohen Grafikeinstellungen vollkommen flüssig mit der GTX1050 Ti und mit einer 4-Kern Intel i3-12100F CPU und 16 GB DDR4 3200 RAM (2x8 GB).
Mein Stromverbrauch beim Spielen bleibt dadurch niedrig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Flyerdommo
sTOrM41 schrieb:
Hab meine 3070TI FE für 525€ auf eBay Kleinanzeigen verkauft und für 610€ die super leise 4070 MSI Ventus 3X ins System gesteckt, für mich ein guter Tausch :-)
Jop, definitiv ein guter Deal für du. Ich ziehe meinen (nicht vorhandenen) Hut :smokin:
 
blackiwid schrieb:
Ihr unterstellt einfach immer nur stur als ob WQHD die einzige relevante Auflösung wäre bei ner Highend-karte (600 Euro ist ein Highendpreis) 2023 ist UHD eine sehr wichtige Auflösung, und jetzt könnt ihr wieder damit kommen das bei Steam die meisten nicht mit UHD spielen, die meisten haben aber auch keine >600 Euro Karte bei Steam.

Hätte die Karte 16gb würde in UHD mit Raytracing einige Spiele rund laufen sie hat genug Rechenpower genug Raytracing Leistung nur der VRAM hindert sie Raytracing in den Einstellungen bei z.B. Hogwards dar zu stellen.

Und wie kommst du darauf das Hogwarts Legacy wegen "nur" 12GB VRAM auf der 4070 in 4K mit Raytracing nicht vernünftig läuft?

Hier hast du genau dieses Szenario:
60FPS in 4K mit DLSS + FG + Raytracing

Dabei gilt zu beachten das die Aufnahme in Hogsmeade gemacht ist, das ist so ziemlich das fordernste Gebiet überhaupt, in den meisten anderen Gebieten hat man ca 20% mehr FPS.


Ich spiele Hogwarts Legacy (mit ansonsten identischen Settings) aktuell in 3440x1440, in den meisten Länderein liegen da 100fps an und es sind ca 10GB VRAM belegt.
hog.jpg



Wobei das natürlich aber unrealistisch ist zu denken dass man mit einer Mittelklasse Grafikkarte in 4K lange Spaß hat, daran würden aber auch 20gb VRAM nichts ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Also 12 Gb vram sehe ich auch nicht als Problematisch an, in 3440x1440 es langt. Heutzutage ist die Kompression von Texturen gut. Als ob mir einer im Spiel den unterschied sieht z.b bei Resi 4 ob er mit Hoch 8/6/4 Gb spielt...sieht alles sehr identisch aus. Aber anders ist es natürlich mit Textur mods für div games wie gta5, da können es dann auch ü 16gb schnell werden.
 
Fallout667 schrieb:
Das ist doch mal wieder eine sehr geschönte Version der Vergangenheit. Die 1080 kostete zu Beginn als Custom 800€ und mehr. Meine MSI GTX 1080 hat mich kurz nach Release 850€ gekostet. Die MSI GTX 1070 die ich für den Zweitrechner gekauft hatte lag bei fast 600€. Bis die wirklich billiger wurden hat es gedauert bis die 1080ti rauskam, das war fast 1 Jahr. Dann kam auch der erste Miningboom und dann waren die Preise auch wieder Essig. Also eine GTX 1080 für 540€ hat es definitiv nicht kurz nach Release gegeben.
Monate, ja. Aber kaum einer kauft die original Karte, mit Turbo-Prop. , 1 Lüfter Kühllösung. UVP war auch bei 599USD. GTX 980 wurde zum 549USD eingeführt. GTX 780 zu 649USD. 800€ sind Unsinn. Gabs es zwar auch, war jedoch kein regulärer Preis.
Ich bleibe dabei, GTX 1080 hat nach Monaten etwa 540€ gekostet. Meine Asus Strix habe ich Ende 2020 für 250€, mit einem Vollwasserkühler gekauft. Der Verkäufer hatte 2 von im SLI Verbund betrieben. Die hat er für je 540€ gekauft.
Sagte er. Aber warum sollte er da mir die Unwahrheit sagen? Hätte er doch nichts von. Geizhals hat auch die Aufzeichnung der Preisentwicklung einzelner Modelle.

Bezüglich der Effizienz und technologischer Entwicklung.... wie kommts, dass GTX 1080 TDP 180W hatte und viele Jahre später und dem halbierten Technologieknoten, die RTX 3080 beinah das Doppelte an Strom verbraucht? Die 4000er Reihe, scheint auch nicht besonders effizient zu arbeiten.

Das ist doch Realsatire. In Deutschland waren die Strompreise auch so schon die höchsten in der gesamten EU. Jetzt sind die noch mal um 50% mindestens gestiegen und die neuen Grafikkarten, trotz der vermeintlicher Weiterentwicklung, haben sogar den Stand von 2008 (GTX 280 TDP 236W) übertroffen. Was geht ?!
 
Zuletzt bearbeitet von einem Moderator:
Vor kurzem habe ich seit über 10 Jahren mir mal wieder einen Desktop Pc zusammengestellt und gebaut. Eine dedizierte Grafikkarte fehlt bis heute. Wenn man das letzte Mal einen PC mit legendären Grakas wie die 8800 GT/GTS oder HD 3870 zusammengestellt hat, fängt man einfach an zu weinen, wenn man bei Geizhals die entsprechende Rubrik öffnet...
 
@ThePlayer Was ja nichts mit Zukunftssicherheit zu tun hätte, weswegen man jetzt die 12GB Karten verteufeln müsste.

Außerdem kannst man die 6800xt und 3070 auch jeweils noch zusätzliche 3-4 Jahre weiternutzen wenn man die Regler bedient. Das ist eine sehr individuelle Entscheidung wann eine Karte nicht mehr reicht.

blackiwid schrieb:
(600 Euro ist ein Highendpreis)

Wie kommst du denn auf das schmale Brett?
Was High-End ist und was nicht definiert sich über das Lineup einer Generation und nicht am Preis.
Höchstens in der Preiskategorie.

blackiwid schrieb:
Wenn ich ne teure Grafikkarte kaufe will ich doch nicht von irgendwem ne Liste kriegen welche 50-80% Spiele ich spielen darf, ich will dann irgend ein Spiel spielen und nicht gesagt bekommen, ok da reichts nimmer für maximale Grafik.

Wenn das der Anspruch ist, dann musst du eine 4090 kaufen. AMD ist dann ganz raus.
Maximale Grafik heißt nicht nur maximale Texturen.

Am Besten und günstigsten wäre alternativ natürlich eine Konsole. Da bekommst du nicht gesagt was du spielen kannst und was nicht. Hier entscheidet der Hersteller über deine Grafikeinstellungen und nicht du selber.

Komischerweise ist diese Anpassung der Grafikeinstellungen durch den Hersteller das was viele Leute an den Konsolen begrüßen, aber gleichzeitig etwas was sie am PC partout ablehnen. Obwohl sie es selber machen können und damit entscheiden welcher Aspekt ihnen am wichtigsten beim Spielen ist. Verrückt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: >NvidiaFanboy<, Gortha, Fallout667 und eine weitere Person
gidra schrieb:
Ich bleibe dabei, GTX 1080 hat nach Monaten etwa 540€ gekostet.

Bezüglich der Effizienz und technologischer Entwicklung.... wie kommts, dass GTX 1080 TDP 180W hatte und viele Jahre später und dem halbierten Technologieknoten, die RTX 3080 beinah das Doppelte an Strom verbraucht? Die 4000er Reihe, scheint auch nicht besonders effizient zu arbeiten.
Ja als die 1080ti rauskam ging die UVP auf 599€ runter, da bekam man auch Karten ab 499€.

Die 1080 hatte auch nur den kleine 104er Chip die 3080 den 102er und keine RT und AI Kerne, natürlich ist da die TDP niedriger. Vor allem hat der Stromverbrauch jetzt nichts mit der Effizienz zu tun.
Die 300er Reihe war jetzt auch kein Effizienzwunder aber bei der 4000er Serie ist doch gerade die Effizienz einer der großen Vorteile.
 
Zurück
Oben