News GeForce RTX 4070 Ti: Colorful bestätigt Spezifikationen der einstigen RTX 4080

alkaAdeluxx schrieb:
4090 max. 1200 (oder wo auch immer die Titan GPUs waren)
Da muss ich einhaken: Die RTX Titan der 2000er Serie kostete 2699€ UVP
Das ist auch keine UVP die ich für eine 4090 sehen möchte...
 
  • Gefällt mir
Reaktionen: angband1
Master Chief ! schrieb:
Also das "immer optimal" stimmt ja mal überhaupt nicht. Auch bei den Konsolen gibt es regelmäßig sowas wie Abstürze, Freeze, FPS-Drops unter 30 etc.
Stimmt nicht bzw. ist extrem übertrieben.
Kann mich auf der PS5 nicht ansatzweise an soetwas erinnern. Könnte an der Spieleauswahl liegen aber Konsolen sind generell viel stabiler, da das Testen viel einfacher ist und sogar gezielt auf diese optimiert wird.

Am PC sollte man darauf jedoch immer gefasst sein. Allein schon irgendein neuer Treiber kann vieles kaputt machen.

Und zu einer 500€ GPU kommt noch ein 150€ Mainboard, 100€ Arbeitsspeicher und 300€ CPU.
Das ist mindestens das doppelte.
Konsolen können sich viel mehr Leute leisten.
Hier braucht man gar nicht diskutieren.
 
  • Gefällt mir
Reaktionen: elmex201
Gaspedal schrieb:
Schau mal auf Mindfactory wieviele hunderte Leute bereit waren für Customer RTX 4090 Karten weit über 2200€ zu bezahlen.
Ich schätze mal, die rechnen so: Lieber jetzt 2200 Euro zahlen und vier Jahre Ruhe haben oder 1500 Euro und evtl. schon in 2 Jahren nochmal dasselbe hinlegen, weils nicht mehr langt. Dann wären die 2200 Euro sinnvoller angelegt.

Das Problem an dem Ganzen: Wenn RT in Spielen immer mehr ausgebaut wird, dann könnte auch eine 4090 keine vier Jahre halten. Ich habe keinen Zweifel, dass RT immer mehr Anteile bekommen wird, zumindest in AAA Spielen.

Wenn schon Portal mit seiner minimalistischen Grafik (= notwendige Rasterizer Leistung ist gering) dank RT eine 4090 ohne DLSS 3 an die Wand drückt und AMD ganz platt macht, dann wird es bei anderen Spielen, die mehr Rasterization fordern und ähnlich einen hohem RT-Anteil haben, nicht anders sein.
 
  • Gefällt mir
Reaktionen: k0n
Herdware schrieb:
Für mich wäre entscheidend, wie viel die Grafikkarte verbraucht (vorhandenes 650W-Netzteil soll ausreichen) und ob sie in mein µATX-Gehäuse passt.
Ich hoffe, dass es von der 4070Ti etwas kompaktere Modelle geben wird.

Der Preis ist natürlich übel, allerdings hatte ich für meine alte RTX2080 damals nicht viel weniger bezahlt.
Ich werde erstmal noch etwas abwarten, wie sich die Lage entwickelt.
Die rtx 2080 kam für 639 € auf den Markt.
 
  • Gefällt mir
Reaktionen: Gaspedal
Ich sehe schon wie das ganze RTX 40XX lineup in den Regalen liegenbleibt, ausgenommen der RTX 4090.

Wenn man Nvidias Preisgestaltung (un)logisch fortführt, kommt man bei einer 4060 bei deutlich über 500€ raus.
Tschau.
Ich hoffe wirklich, dass die Kunden die antwort geben und sowas einfach nicht gekauft wird. Diese Hochnäsigkeit von Nvidia darf einfach nicht durchgehen.

Und als Argument zu bringen man könne ja noch die RTX 30er Serie kaufen ist auch schwach. Dann hat man in 2 Jahren eine RTX 5060 für 1100€ und bringt als Argument eine RTX 4060 die man ja zum Schnäppchenpreis von 650€ bekommt. Oder halt die dann 4 Jahre alte 3060 für 400€.
 
Man sollte nicht custom mit Referenz preise vergleichen, da die custom ja wieder teurer wird
 
Fuzetea schrieb:
Ich bin der Meinung nvidia hat sich wieder mit den Namen Vertan, für mich ist es Bestenfalls eine 4070.
Wie mit RTX 4080 16GB, die für mich eine RTX 4070Ti ist. Vor allem hat es nur 256 Bit Speicherschnittstelle, viel weniger als eine RTX 3080 (320 Bit) und weniger Bandbreite (RTX 4080=672 GB/s, RTX 3080 hat 760 GB/s). Tanz somit komplett aus der Reihe. Die RTX 4070Ti ist für mich auch eher eine normale RTX 4070.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaCrazyP
Ich mag auch den Porsche Macan, ist aber nicht meine Preisklasse.
Meine letzte 2070S kostete 500.- die 4070Ti dann 1000.- ???

Nvidia wird sich noch wundern wieviele ihrer 70er Kunden an AMD verloren gingen und gehen.
 
  • Gefällt mir
Reaktionen: HotteX
Leereiyuu schrieb:
Da muss ich einhaken: Die RTX Titan der 2000er Serie kostete 2699€ UVP
Das ist auch keine UVP die ich für eine 4090 sehen möchte...
ja gut die der GeForce 700 (7xx) series und GeForce 900 (9xx) series wiederum 999$
der GeForce 10 series 1200$ (vorsicht Mining Hype in der Gen.. Mondpreise in 3..2..1)
GeForce 20 (20xx) series 2499$ / 2699€ (Mondpreise)
GeForce 30 (30xx) (vorsicht Mining Hype in der Gen.. Mondpreise in 3..2..1)
GeForce 40 (40xx) Mondpreise

ich sehe da ein leichtes schema :utrocket: :D
ich weiss noch als wir uns über die 1200$ der 10. Gen Lustig gemacht haben :hammer_alt:
 
Balikon schrieb:
Ich schätze mal, die rechnen so: Lieber jetzt 2200 Euro zahlen und vier Jahre Ruhe haben oder 1500 Euro und evtl. schon in 2 Jahren nochmal dasselbe hinlegen, weils nicht mehr langt. Dann wären die 2200 Euro sinnvoller angelegt.

Das Problem an dem Ganzen: Wenn RT in Spielen immer mehr ausgebaut wird, dann könnte auch eine 4090 keine vier Jahre halten. Ich habe keinen Zweifel, dass RT immer mehr Anteile bekommen wird, zumindest in AAA Spielen.

Wenn schon Portal mit seiner minimalistischen Grafik (= notwendige Rasterizer Leistung ist gering) dank RT eine 4090 ohne DLSS 3 an die Wand drückt und AMD ganz platt macht, dann wird es bei anderen Spielen, die mehr Rasterization fordern und ähnlich einen hohem RT-Anteil haben, nicht anders sein.

Ich sage nicht, dass es so kommt. Aber als Gegenargument in einer Diskussion: Wenn das so ist, inklusive der zu zahlenden Preise, wird sich RT (bis auf optionale optische Spielereien, ähnlich der Wassershader im ollen Morrowind) auch in drei, vier Jahren nicht mal näherungsweise durchgesetzt haben. Trotz der Entwickler-Prognosen von 2019, dass das eigentlich jetzt schon absoluter Standard sein sollte (damals: "In zwei, bis drei Jahren.")

Und vielleicht sogar jemand eine Alternative gefunden haben, die zumindest ähnliche Ergebnisse bei akezptablem Aufwand respektive Performanceverlust produziert. Auch wenn das unwahrscheinlich ist, Raytracing gilt schon seit sehr vielen Jahren als "die Zukunft". Es wäre trotzdem ein wenig das Physx und Hairworks-Phänomen. Der Poll vor ein paar Wochen hier in einem Enthusiasten-Forum wie Computerbase ist dabei auch ziemlich vielsagend bei immerhin 7000 Teilnehmern: Nur 11% nutzen RT regelmäßig, fast 50% lehnten es wegen negativer Kosten/Nutzen-Rechnung ab. Der optische Gewinn ist offenbar nicht groß genug, um die Performanceverluste in Kauf nehmen zu wollen. Umfragen bei Gamestar und Co. fielen nicht erheblich anders aus. Wie es auf dem Gesamtmarkt aussieht, kann man sich in etwa ausrechnen.

Aber klar, immerhin wird man dann der RTX 4090 ein paar schickere Bilder entlocken können. Zwar überwiegend mit den gleichen (Multiplattform-)Spielen, die auch auf einem Bruchteil so teurer Hardware ordentlich laufen. Aber trotzdem. Das freut auch das Nvidia-Marketing.
 
Zuletzt bearbeitet:
@Svennc

Svennc schrieb:
Wenn das so ist, inklusive der zu zahlenden Preise, wird sich RT (bis auf optionale optische Spielereien, ähnlich der Wassershader im ollen Morrowind) auch in vier Jahren nicht mal näherungsweise durchgesetzt haben.
RT steht doch immer am Anfang. Portal mit RT ist, glaube ich, das erste Spiel, was von RT stärker im Sinne von umfangreich Gebrauch macht, als die Spiele bisher. RT wird sich meiner Meinung nach durchsetzen, weil Rasterization in Sachen Bildverbesserungen am Ende der Fahnenstange angekommen ist.

Von daher ist RT gar nicht mit PhysX und ähnlichem zu vergleichen. Ohne Ausweitung von RT lässt sich die Bildqualität kaum noch verbessern. Einziger Bremsklotz werden hier wieder die Konsolen sein, weil die mehr RT einfach nicht packen.

Zur Zeit befinden wir uns in einer ähnlichen Situation wie Mitte der 90er, als 3D und DX so richtig in Fahrt kam. Da waren die Top-Karten ziemlich schnell am Limit, weil die Grafik in immer kürzeren Zyklen mehr und mehr aufgewertet wurde: Mehr Polygone, bessere Filterung, höher aufgelöste Texturen, Fortschritte in der Beleuchtung, generell höherer Auflösung etc. pp. Zu der Zeit waren fast jährlich neue CPUs und GPUs fällig, wenn man wirklich alles aus den Spielen rausholen wollte. Und ja, die waren ebenfalls für ihre Zeit sauteuer, aber niemand wollte wirklich mehr zurück zum VGA-Klötzchen-Pseudo-3D. Warum? Weil da keine Verbesserungen mehr möglich waren, um eine bessere Bildqualität zu erreichen.
Für 270 DM habe ich mir damals eine GF 2 MX gekauft. Da war die GF 3 gerade draussen und mit 1300 DM sowas von sauteuer, das konnte sich kaum einer leisten. Schon eine vollwertige GF 2 lag deutlich über meiner Schmalspurversion und konnte trotzdem nur DX 7.

Wer einmal 1300 DM auf den Tisch gelegt hatte, war für etwa 2 Jahre in der Lage, damit aus dem vollen zu schöpfen, wer nicht soviel berappen konnte, hat halt etwa 2 x 600 DM (600 für eine GF 2 und später nochmal 700 für eine GF3) ausgegeben und damit dasselbe, ohne die komplette Zeitspanne volle Grafikpracht genießen zu können, denn als die GF 3 endlich erschwinglich war, war sie auch fast schon EOL und musste spätesten mit den 5000ern ausgewechselt werden, wenn man DX9 haben wollte.

Lange Rede, kurzer Sinn: Meine "Rechnung" ergibt durchaus Sinn, weil ich einen ähnllichen Technikwandel schonmal miterlebt habe.

Genug geplaudert, Opa Balikon.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PeriQue1337, CiX und Leereiyuu
Balikon schrieb:
Zur Zeit befinden wir uns in einer ähnlichen Situation wie Mitte der 90er, als 3D und DX so richtig in Fahrt kam. Da waren die Top-Karten ziemlich schnell am Limit, weil die Grafik in immer kürzeren Zyklen mehr und mehr aufgewertet wurde:

Ich finde das wenig vergleichbar, auch weil es damals noch echte PC-Exklusives gab, die den PC als Plattform pushten, nicht nur die Grafikkarte. Wo du die GeForce 3 erwähnst, die anfangs tatsächlich sündhaft teuer war: Deren Verkauf konnte damals John Carmack alleine pushen, indem er Jahre vor Release sagte, das Spiel seit auf einer GeForce 3 mit 30 fps spielbar. Trotzdem waren auch die ersten 3D-Beschleuniger günstiger als die heutigen Boliden. Es mag später immer mal wieder Karten gegeben haben, die dreistellig kosteten -- der Mainstream hatte trotzdem immer gereicht. (Ich hatte übrigens auch mal eine Zeit eine 2MX nach meiner 3dfx-Voodo-Zeit (1+3) -- nur wenig danach gabs die ti4200 allerdings schon für teilweise 100 Euro, ich hab meine Online-Rechnung vom Shop noch hier, weil bei Amazon damals gekauft).

Vor allem hat RT ja jetzt schon teilweise ein Akzeptanzproblem. Wie man auch in der Computerbase-Umfrage herauslesen kann. Damals war eine ordentliche 3D-Karte oftmals ein echter Quantensprung (wie damals der Sprung vom C64 auf den Amiga -- oder vom Amiga auf PC). Das ist hier nicht gegeben, jedenfalls nicht zum akzeptablen Preis. Über Raytracing wird schon seit vielen Jahren geredet, vermutlich ist es auch "die Zukunft". Aber bis sich das durchsetzt, wird es wohl eine ganze Weile dauern. Nicht nur wegen den Konsolen -- vor allem dann nicht, wenn sich die Grafikkartenpreise weiter so entwickeln, wie sie es tun. Dieses Forum hier ist garantiert nicht maßgeblich dafür, welche Grafikkarten in PCs im Schnitt stecken. Ohne aber die Masse mitzunehmen, wird es nicht gehen. Denn: Mit steigender Grafikpracht steigt bisher noch immer der Aufwand und damit die Kosten. Auch deshalb gibts so wenige PC-Exclusives heutzutage. Es kann sich schlicht niemand mehr leisten, die neuesten Grafik-Kracher ausschließlich für besser ausgerüstete PCs auf den Markt zu bringen.

Tendenziell wird aber jede neue Technik Probleme bekommen, wenn sie nicht zu einem als akzeptabel empfundenen Preis verfügbar ist. Denn die Sprünge werden immer kleiner, weil es im Vergleich zu den gewaltigen Sprüngen von damals -- VERGLEICHSWEISE -- um "Detailverbesserungen" geht. Ich habe hier noch die Anleitung meines ersten Computers, einen Schneider CPC 6128. da muss man schmunzeln. Dort gibt es ein Kapitel, das aus Sicht der 1980er Jahre einen Blick in die Zukunft wagt. Ein ungefährer Satz: "Bis Heimcomputer in der Lage sein werden, zumindest Zeichentrickfilmqualität flüssig darzustellen, wird es noch lange dauern." Und das tat es auch. Da sind wir schon lange dran vorbei -- sogar bei einem Kingdom Come Deliverance von 2018 könnte man gelegentlich fast glauben, man stehe tatsächlich im Wald. Entsprechend wird die Frage sein: Wie viel ist mir die Detailverbesserung in etwa noch natürlicherer Beleuchtung und noch besseren Texturen wert? Das wird mit immer höheren Auflösungen beispielsweise genauso passieren. Von 720p auf 1080p mag es ein großer Sprung sein, von 1080p auf 1440p auch noch ein spürbarer. Aber irgendwann wirds auch hier enger werden -- schon aus anatomischen Gründen. Der Mensch sieht schon sehr gut. Nur wenige Tiere sehen schärfer. Aber irgendwann ist auch hier Sense. Vor allem, wenn die höhere Auflösung einen als ungerechtfertigt empfundenen Preis bedeutet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Felix#
Artikel-Update: Inzwischen hat auch PNY mit zwei Custom-Designs auf Basis der erwarteten GeForce RTX 4070 Ti deren im Vorfeld gemutmaßte Spezifikationen bestätigt. Erstmals ist dabei auch konkret von 7.680 FP32-ALUs die Rede – also exakt dem Wert, den auch die bereits vor Marktstart wieder eingestellte GeForce RTX 4080 12 GB vorwies. Dass es sich bei der für den 5. Januar 2023 erwarteten dritten Ada-Lovelace-Grafikkarte folglich um ein bereits bekanntes Produkt mit lediglich neuem Namen handelt, kann somit als gesichert angesehen werden. Nach wie vor unbekannt ist lediglich der Preis.
 
  • Gefällt mir
Reaktionen: BrollyLSSJ
Puh, jetzt wird es Nvidia doch schwer haben. Gerade in dem Bereich läuft der Hase komplett anders.

Für die 4070Ti spricht das Featureset und die vermutlich brutal gute Effizienz.

ABER während man bei der 4080 vs. 7900XTX noch sagen konnte, dass die 4080 mit 16GB zumindest ordentlich ausgebaut ist und die 24GB kaum einen Faktor darstellen, sind die 12GB vs. 20GB bei der 7900XT schon ein komplett anderes Blatt.

Hier überlegt man sich bestimmt 3x ob man die bessere Effizienz will, dafür einen wirklich knapp gehaltenen Speicher, oder ob man etwas mehr Vebrauch in Kauf nimmt und dafür die 20GB VRAM nutzt.

Ich hoffe, dass dies für einen Preiskampf in der Klasse sorgt. Wenn die für 799€ beide zu kaufen wären, würden sich sowohl TI als auch XT mit Sicherheit ordentlich verkaufen und ja, das wäre möglich.
 
  • Gefällt mir
Reaktionen: Edzard
Na endlich mal ne vernünftige Karte für 479 Euro... haha, der war gut.
 
  • Gefällt mir
Reaktionen: Edzard, Fab0r, CiX und 4 andere
Balikon schrieb:
Für 270 DM habe ich mir damals eine GF 2 MX gekauft. Da war die GF 3 gerade draussen und mit 1300 DM sowas von sauteuer, das konnte sich kaum einer leisten. Schon eine vollwertige GF 2 lag deutlich über meiner Schmalspurversion und konnte trotzdem nur DX 7.

Wer einmal 1300 DM auf den Tisch gelegt hatte, war für etwa 2 Jahre in der Lage, damit aus dem vollen zu schöpfen, wer nicht soviel berappen konnte, hat halt etwa 2 x 600 DM (600 für eine GF 2 und später nochmal 700 für eine GF3) ausgegeben und damit dasselbe, ohne die komplette Zeitspanne volle Grafikpracht genießen zu können, denn als die GF 3 endlich erschwinglich war, war sie auch fast schon EOL und musste spätesten mit den 5000ern ausgewechselt werden, wenn man DX9 haben wollte.

Lange Rede, kurzer Sinn: Meine "Rechnung" ergibt durchaus Sinn, weil ich einen ähnllichen Technikwandel schonmal miterlebt habe.

Genug geplaudert, Opa Balikon.
Naja.
Die Preise kann ich nicht mehr komplett nachvollziehen. Ich habe Tests auf Au-Ja gefunden, da wird die Geforce2Ti mit 119 und mit TV-Ausgang mit 170+ eingepreist.
https://www.au-ja.de/review-aopen2ti-2.phtml
Eine GF2MX hatte ich damals auch, durch Gebastel aber kaputtgemacht. Damals wurden die "alten" Karten eben auch schnell sehr viel günstiger.
Meine GF2 Ti lebt immer noch im Retrorechner und war eine Granate, weil übertaktbar auf über Ultra-Niveau.
Ja sie hatte dann nicht DX8, aber in DX7 konnte sie lange glänzen. Ich bin damals direkt auf die ebenso günstige GF4 Ti4200 gewechselt, wie tausende andere Zocker auch. Und die kostete? Richtig, die kostete laut hwmag: https://www.hardware-mag.de/artikel/grafikkarten/geforce_4_ti_4200_chip_im_preview/
irgendwas um 200 Tacken. So hatte ich das auch grob im Kopf.

Man musste damals lange Zeit nicht superviel ausgeben, wenn man nicht das Maximum brauchte. Die beschnittenen Versionen waren kaum langsamer. Ja die GF3-Generation war ein bisschen die Ausnahme, das ist korrekt.
Aber das Niveau von jetzt hat das meiner Meinung nach nicht erreicht, zumal die GF3 Ti200 auch nicht ganz so wahnsinnig teuer war.
Aber es ist müßig. Die Preise sind einfach jenseits von gut und böse. Ich habe schon für meine 6700XT im Mining-Hype viel zu viel bezahlt und dabei bleibt es jetzt erst mal wieder. Für wahrscheinlich sehr, sehr lange. Vielleicht wieder 8Jahre oder so. Die 760GTX von vorher läuft eh im Sofarechner und wenn es nach mir geht auch noch da sehr lange für Gedöns gucken. Eigentlich hätte ich da lange schon eine gut & günstige Karte reingebaut. Also so günstig, dass es sich vom Verbrauch in Watt auf der Rechnung auszahlen könnte. Da muss man im Moment recht lange warten oder ganz tief unten ins Regal greifen, wo die Karte dann kaum schneller ist.

No way, aber auf die Art und Weise beeindruckt man alte Kunden irgendwie nicht. Ich glaube es ist für mich eh an der Zeit eher auf iGPU zu gehen. Für mich (!) lohnt sich das wohl in Zukunft mehr, wenn die Karten eh kaum gefordert werden. Und wenn dann eben mit niedrigeren Details oder es wird eben einfach drauf verzichtet. Der Aufpreis ist einfach völlig brutal daneben.
 
  • Gefällt mir
Reaktionen: fox40phil
Wahrscheinlich 999,99€ um "beste Karte unter 1000€" sagen zu können
 
  • Gefällt mir
Reaktionen: Doenerbong und fox40phil
DBJ schrieb:
1000€ für ne 70er Karte, also wenn sie die Marke auch noch knacken ja dann ciao kakao. Es war mir eine Ehre, aber Computerspielen ist zu teuer mich 😭

Namen sind und waren immer Schall und Rauch. Was sollen denn die ehemaligen Titan Käufer sagen?...deren Vorzeigeprodukt heißt jetzt eben xx90.

Bei den Autos das gleiche...das BMW x30er Modell ist doch vielfach auch kein 6-Zylinder mehr. Geschadet hat es auch dort nicht, solange Leistung/Verbrauch stimmen.
 
Zurück
Oben