Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 5.931
wird aber dennoch gekauft. Wie man hier gut sehen kann, können sich einige kaum zurückhalten ... als obs morgen keine mehr gäbe!
AD104 aka 4060ti aka 4070ti aka zu teuer-zu krüppelig
naja, gönnt euch! Viel Spaß !
PS: Wie man an ein paar 3070 Usern hier sieht, ist der Updatedrang schon nach 1-2 Jahren wieder real. Sie machen alles richtig - auch wenn man es nicht fassen kann.
AD104 aka 4060ti aka 4070ti aka zu teuer-zu krüppelig
naja, gönnt euch! Viel Spaß !
PS: Wie man an ein paar 3070 Usern hier sieht, ist der Updatedrang schon nach 1-2 Jahren wieder real. Sie machen alles richtig - auch wenn man es nicht fassen kann.
Gortha schrieb:Selten so einen Mumpitz gesehen. Keine Logik - Nichts. Es ist nichtmal ein Äpfel und Birnen Vergleich... NVidia hat AD102, AD103 und AD104 einfach dieses Mal anders postitioniert.
Man kann die Karten alle ähnlich oder gleich Takten und fertig....was ist dann? Dann sieht es ja noch schlimmer aus!!!!!°1^1
Ich versuch es nochmal, extra für dich, ganz ausführlich.
Hier ein tabellarischer Vergleich der letzten 10 Jahre Nvidia Karten und ihrer relativen Leistung zueinander innerhalb einer Generation.
Warum ist der Vergleich gut?
Mit dem Topmodell hat man für jedes Jahr das Maß der Dinge in Sachen möglicher Leistung. Sozusagen 100% der zur Zeit möglichen Leistung.
Davon ausgehend kann man sich dann anschauen, wieviel Prozent der Leistung des Topmodells in den kleineren Karten vorhanden ist.
Wozu ist das gut?
Du bist der Sache eh schon fast auf die Schliche gekommen!
Gortha schrieb:Namen sind Schall und Rauch.
Nämlich um bei dem ganzen Marketing bla bla eine objektive Einordnung der Karten zu haben. Denn nur damit kann man sinnvolle Vergleiche mit früheren Generationen anstellen, statt über Bezeichnungen zu Streiten hat man plötzlich klare Zahlen vor der Nase.
Und dann sieht's so aus (mal exemplarisch für die letzten drei Generationen, der Trend hält sich aber die letzten 10 Jahre!):
Ada | Leistung | Ampere | Leistung | Turing refr. | Leistung |
---|---|---|---|---|---|
4090 | 100% | 3090 | 100% | 2080ti | 100% |
4080 | 59% | 3080 | 88% | 2080 super | 78% |
4070ti | 48% | 3070 | 60% | 2070 super | 63% |
Und was soll ich jetzt damit anfangen?
Aus der Tabelle lässt sich zB ablesen, dass mit der neuen Generation die 4080 in die Leistungsklasse abgerutscht ist, in der die letzten 10 Jahre die 3070, 2070, 1070, usw. angesiedelt waren. Innerhalb der jeweiligen Generation wohlgemerkt.
Die 4070ti bewegt sich im Bereich der 3060ti, 2060, 1060 (6GB).
Und was soll mein Hirn jetzt mit diesen Informationen anfangen?
zB Vergleichen wieviel Prozent der maximalen Leistung es bis jetzt in welcher Klasse und folglich in welchem (ungefähren) Preisbereich zu kaufen gab.
Oder mal die Werte mit der MSRP in Verbindung bringen (schönt eher pro Nvidia, da der Preis in letzter Zeit eher deutlich über MSRP lag.)
Ampere | Preis | Preis % | Leistung | Ada | Preis | Preis % | Leistung |
---|---|---|---|---|---|---|---|
3090 | 1499$ | 100% | 100% | 4090 | 1599$ | 100% | 100% |
3080 | 799$ | 53% | 88% | 4080 | 1199$ | 75% | 59% |
In Worten: Bei Ampere gab es mit der 3080 88% der 3090 Leistung zu 53% des Preises, ein sehr gutes Verhältnis. Mit Ada gibt es bloß noch 59% der 4090 Leistung in der 4080 dafür aber um 75% des Preises!
Ich kapier es immer noch nicht? Die 4070ti ist 3x so schnell wie die 3090ti zum halben Preis und halben Stromverbrauch!!!!!!!!!!!!!!!!!!11111
Stimmt (also, das mit dem 3x so schnell natürlich nicht).
Aber: Die 4080 und 4070ti sind die schlechtesten Angebote, die Nvidia in den letzten 10 Jahren auf den Markt geworfen hat. Die Begründung dafür siehe oben.
Postscript: Dass die 4070ti mal eine 4080 (12GB) war zeigt für wie dumm Nvidia ihre Kunden verkaufen möchte bzw. hält.
ricardovonzimme
Ensign
- Registriert
- Nov. 2022
- Beiträge
- 168
für 1440 werden die vram min 5 Jahre reichen oder
Falc410
Vice Admiral
- Registriert
- Juni 2006
- Beiträge
- 6.639
tl;drscheru schrieb:In Worten: Bei Ampere gab es mit der 3080 88% der 3090 Leistung zu 53% des Preises, ein sehr gutes Verhältnis. Mit Ada gibt es bloß noch 59% der 4090 Leistung in der 4080 dafür aber um 75% des Preises!
Die 4080 ist zu schwach im Vergleich zur 4090 und sollte näher an der dran sein. Ach...sag bloss Deshalb verkauft die sich wohl nicht so gut.
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.675
Johannes125 schrieb:AD103 hat 9.728 intakte Shadereinheiten (von 10.240) ...
Dann abfallende Chips ohne Defekte schön sammeln und dann im Spätsommer dann eine 4080S oder TI rausballern. Oder auch beide, da man für die TI den 102er nutzen kann, der nicht für 4090 reicht.
Don Sanchez
Commander
- Registriert
- Apr. 2008
- Beiträge
- 2.278
[/QUOTE]
Geht es da um die Optik oder haben hier viele Leute kleine Gehäuse? Was für Erweiterungskarten benutzt ihr noch, dass mehr als zwei Slots ein Problem wären?Simanova schrieb:Danke! Hat mich echt gewundert, dass NBB so großzügig ist. Und dabei ist die Karte noch das beste Modell von Allen, wegen dem 2 Slot Design.
Die Frage müsste eher lauten: Wenn es die 7900XT für nen 100er weniger gegeben hätte, wie hättet Ihr euch entschieden?Laphonso schrieb:Was mich mal interessiert @ alle 4070Ti Käufer :
Wenn die 7900XTX (ja, die große 7900) für rund 949 Euro zu kaufen wäre, wie hättet Ihr Euch entschieden?
Das wäre zumindest für mich dann eine sehr schwierige Entscheidung gewesen.
Was mich bei AMD ehrlichgesagt am Meisten stört ist die unglaublich schlechte Effizienz (vor Allem mit Frame-Limit).
Treiberprobleme und der aktuell höhere Preis machen für mich persönlich das Angebot dann nochmals unattraktiver.
thepusher90
Lt. Commander
- Registriert
- Nov. 2011
- Beiträge
- 1.559
Jap meinte bei den Ratings.Wolfgang schrieb:MEinst du bei den Ratings? Da kann das sein. Bei den richtigen Spiele-Benchmarks dagegen nicht.
krucki1
Lieutenant
- Registriert
- Okt. 2007
- Beiträge
- 927
Vielleicht hat es auch eher was mit äußeren Einflüssen zu tun, die zu einem Wechsel führen, als mit einem Updatedrang. Das kann man wohl nicht einfach so pauschal behaupten ohne genauere Faktoren zu kennenfox40phil schrieb:PS: Wie man an ein paar 3070 Usern hier sieht, ist der Updatedrang schon nach 1-2 Jahren wieder real. Sie machen alles richtig - auch wenn man es nicht fassen kann.
Warum wurden eigentlich die Intel 770 (LE) und die 750 nicht mitgetestet?
Die Vorgängergeneration von AMD und Nvidia wurde auch mitgetestet, mich würde schon interessieren wie sich die Karten über die weiteren Tests hinweg schlagen, auch immer wenn Updates kommen.
Die Vorgängergeneration von AMD und Nvidia wurde auch mitgetestet, mich würde schon interessieren wie sich die Karten über die weiteren Tests hinweg schlagen, auch immer wenn Updates kommen.
DefconDev
Commander
- Registriert
- Jan. 2008
- Beiträge
- 2.584
Danke für die Mühen nur leider lässt sich null ableiten was preislich "gerecht" ist. Wenn NV nächstes Jahr eine 5090 für 3000 Euro released und eine 5080 die gerade einmal die Leistung von 40 % erreicht dafür aber 500 Euro kostet, wäre laut deiner Tabelle die 5080 ein schlechter Deal. Daher, es fehlt das Verhältnis Preis zu Leistung.scheru schrieb:Ich versuch es nochmal, extra für dich, ganz ausführlich.
Hier ein tabellarischer Vergleich der letzten 10 Jahre Nvidia Karten und ihrer relativen Leistung zueinander innerhalb einer Generation.
Warum ist der Vergleich gut?
Mit dem Topmodell hat man für jedes Jahr das Maß der Dinge in Sachen möglicher Leistung. Sozusagen 100% der zur Zeit möglichen Leistung.
Davon ausgehend kann man sich dann anschauen, wieviel Prozent der Leistung des Topmodells in den kleineren Karten vorhanden ist.
Wozu ist das gut?
Du bist der Sache eh schon fast auf die Schliche gekommen!
Nämlich um bei dem ganzen Marketing bla bla eine objektive Einordnung der Karten zu haben. Denn nur damit kann man sinnvolle Vergleiche mit früheren Generationen anstellen, statt über Bezeichnungen zu Streiten hat man plötzlich klare Zahlen vor der Nase.
Und dann sieht's so aus (mal exemplarisch für die letzten drei Generationen, der Trend hält sich aber die letzten 10 Jahre!):
Ada Leistung Ampere Leistung Turing refr. Leistung 4090 100% 3090 100% 2080ti 100% 4080 59% 3080 88% 2080 super 78% 4070ti 48% 3070 60% 2070 super 63%
Und was soll ich jetzt damit anfangen?
Aus der Tabelle lässt sich zB ablesen, dass mit der neuen Generation die 4080 in die Leistungsklasse abgerutscht ist, in der die letzten 10 Jahre die 3070, 2070, 1070, usw. angesiedelt waren. Innerhalb der jeweiligen Generation wohlgemerkt.
Die 4070ti bewegt sich im Bereich der 3060ti, 2060, 1060 (6GB).
Und was soll mein Hirn jetzt mit diesen Informationen anfangen?
zB Vergleichen wieviel Prozent der maximalen Leistung es bis jetzt in welcher Klasse und folglich in welchem (ungefähren) Preisbereich zu kaufen gab.
Oder mal die Werte mit der MSRP in Verbindung bringen (schönt eher pro Nvidia, da der Preis in letzter Zeit eher deutlich über MSRP lag.)
Ampere Preis Preis % Leistung Ada Preis Preis % Leistung 3090 1499$ 100% 100% 4090 1599$ 100% 100% 3080 799$ 53% 88% 4080 1199$ 75% 59%
In Worten: Bei Ampere gab es mit der 3080 88% der 3090 Leistung zu 53% des Preises, ein sehr gutes Verhältnis. Mit Ada gibt es bloß noch 59% der 4090 Leistung in der 4080 dafür aber um 75% des Preises!
Ich kapier es immer noch nicht? Die 4070ti ist 3x so schnell wie die 3090ti zum halben Preis und halben Stromverbrauch!!!!!!!!!!!!!!!!!!11111
Stimmt (also, das mit dem 3x so schnell natürlich nicht).
Aber: Die 4080 und 4070ti sind die schlechtesten Angebote, die Nvidia in den letzten 10 Jahren auf den Markt geworfen hat. Die Begründung dafür siehe oben.
Postscript: Dass die 4070ti mal eine 4080 (12GB) war zeigt für wie dumm Nvidia ihre Kunden verkaufen möchte bzw. hält.
Don Sanchez schrieb:Geht es da um die Optik oder haben hier viele Leute kleine Gehäuse? Was für Erweiterungskarten benutzt ihr noch, dass mehr als zwei Slots ein Problem wären?
Soundkarte, Netzwerkkarte, hab hier sogar eine USB 3 Erweiterungskarte, eine für den Parallelport (zugegeben, exotisch), und falls es das noch gibt: vom Mainboard aus gibts oft slots die noch weitere USB Ports rausbringen... aber ich will auch nicht, dass auf meinem Mainboard ein 1k Kühler dranhängt. Ich meine eine Heizung. Letztlich ist die Karte ja eine Heizung.
Zuletzt bearbeitet:
Pro_Bro
Commander
- Registriert
- Okt. 2001
- Beiträge
- 3.038
Kenne jemanden der ohne Not, also just for fun, 1700,- für eine 6900xt per Kredit hingelegt hat, dagegen sind die 1000,- hier ein Witz! Habe keine Zweifel das die 4070 Ti gut weg geht.Twin_Four schrieb:Abwarten, gibt es echt so viele, die sich ohne Not heraus, so viel Geld für eine (Mittelklasse-) Grafikkarte auf den Tisch legen?
ich denke, dass AMD bald den Preis der 7900XT nach unten anpassen wird
eine Grafikkarte mit Kredit zu bezahlen: das unnötigste was man braucht und das sinnloseste was man tun sollte, ich hoffe dass Dein Bekannter sie auch abbezahlen kann/konnteBruder_Joe schrieb:Kenne jemanden der ohne Not, also just for fun, 1700,- für eine 6900xt per Kredit hingelegt hat, dagegen sind die 1000,- hier ein Witz! Habe keine Zweifel das die 4070 Ti gut weg geht.
- Registriert
- Aug. 2016
- Beiträge
- 3.547
Wird es geben, ja. Morgen oder übermorgen, heute kam ich nicht zu der entsprechenden News und im Endeffekt geht derzeit eh alles im CES-Trubel unter. Dafür sind die Ergebnisse der Umfrage morgen/übermorgen dafür dann umso aussagekräftiger.Simanova schrieb:
- Registriert
- Dez. 2014
- Beiträge
- 9.193
@HansWoke
Preislich ist das nicht attraktiv.
Preislich attraktiv wären 650€ oder 500€.
Da wo eine Brot und Butter GPU hingehört.
Wer diesen Wahn unterstützt, tut dem pc-gaming einen bärendienst.
Klar ist das in einer egoistischen Welt wie unseren egal, denn alle leben nach dem Motto "Nach mir die Sintflut" aber irgendwann beißt es halt auch diejenigen in den Hintern die das unterstützt haben.
Preislich ist das nicht attraktiv.
Preislich attraktiv wären 650€ oder 500€.
Da wo eine Brot und Butter GPU hingehört.
Wer diesen Wahn unterstützt, tut dem pc-gaming einen bärendienst.
Klar ist das in einer egoistischen Welt wie unseren egal, denn alle leben nach dem Motto "Nach mir die Sintflut" aber irgendwann beißt es halt auch diejenigen in den Hintern die das unterstützt haben.
Zuletzt bearbeitet:
Klingt für mich immer noch schräg.edenjung schrieb:Preislich attraktiv wären 650€ oder 500€.
Da wo eine Brot und Butter GPU hingehört.
650€, das sind die Regionen da war etwa die 980 Ti
https://www.anandtech.com/show/9306/the-nvidia-geforce-gtx-980-ti-review
Und die 980, also die 2.schnellste Karte am Markt kostete 550$
Die 1080 Ti: 699, die 1080 dazu 599 (nur 100 unterschied zwischen den 2 Modellen beim Launchdatum, tatsächlich war es 699 vs 499 als die 1080 Ti rauskam...) : https://www.anandtech.com/show/11180/the-nvidia-geforce-gtx-1080-ti-review
Was kriegt man dafür heute?
Um die neuen Preise mal ins Verhältnis zu setzen: Die Radeon RX 480 mit 8 GB kam neu 260 EUR. In den USA offiziell gut 200 USD. Und war keine langsame Karte: Die GTX 1070 war ca. 40% schneller und die GTX 1080 ca. 70% (RX 480 fehlt in diesem Test, aber es gibt vergleichbare Karten). 260 EUR für, nach meinem Eindruck, das Performance-Segment! Die Radeon Vega 56 kostete neu schon 405 EUR. Ich vermisse solche Preise. Bei mir verrichtet noch eine RX 580 ohne zu Murren ihren Dienst und ich bin zufrieden mit ihr. Für mich bleibt das eine Performance-Karte und ich streiche die letzten 5 Jahre aus meinem Gedächtnis. Spielerisch ist sowieso nicht allzu viel Gutes passiert...
Ähnliche Themen
- Antworten
- 808
- Aufrufe
- 78.950
- Antworten
- 1.421
- Aufrufe
- 138.543
- Antworten
- 226
- Aufrufe
- 30.093
- Antworten
- 599
- Aufrufe
- 71.360
- Antworten
- 962
- Aufrufe
- 116.379