News Gerüchte zu Nvidia-Grafikkarten: GeForce RTX 4070 Ti, 4070 und 4060 Ti werden konkreter

Ragnarök88 schrieb:
Hast du Belege für den schleppenden Verkauf der 4080?
schau dir mal das hier an... die vollen 4080 Regale bei US Händlern, aber auch bei den Händlern in Taiwan (war es glaub ich) und das was der Händler dazu sagt... rosig ist das Bild der 4080 Absatzzahlen definitiv nicht...

Edit: na toll... 3 Deppen, ein Video :D @Crizzo @flo.in.da.base
hab es mal bei mir rausgelöscht, lasse aber den oberen Kommentarteil dazu stehen
 
  • Gefällt mir
Reaktionen: Crizzo
Ragnarök88 schrieb:
Hast du Belege für den schleppenden Verkauf der 4080?
Sie ist, im Gegensatz zur 4090 und 7900 XTX, nicht umgehend --- zu den für sie normalen Preisen --- ausverkauft gewesen. Die FE lässt sich immer noch für die UVP von 1399€ erwerben, genau wie die 7900 XT sich auch durchgehend im AMD-Shop für ihre laufend umgerechnete UVP von aktuell 1.005,84€ erwerben lässt. Von daher kann durchaus bei beiden von einem schleppenden Verkauf gesprochen werden.
 
  • Gefällt mir
Reaktionen: Steini1990 und Mcr-King
Clutch04 schrieb:
Auch nicht eine Nvidia welche "besseres Speichermanagement" hat, was im Endeffekt einfach nur eine Kompressionstechnologie ist und nicht wirklich ein "besseres Speichermanagement".
Warum ist das Mittel für den Zweck entscheidend? Zählt am Ende nur was herauskommt. Für WQHD oder 3440x1440 sollten 12GB einige Zeit genug sein.
Clutch04 schrieb:
Von den Specs her, müsste sowohl die 4070 ti als auch die 4070, im Jahr 2023, ein 4K-fähige Karte sein.
Von den Spezifikationen ist das höchstens eine 4060.

Clutch04 schrieb:
Aufgrund vom spärlichen VRAM und Memory Bus, sind das jedoch Karten mit einem recht schnellen Verfallsdatum.
Mit DLSS wird der Vram Verbrauch deutlich reduziert. Das SI ist irrelevant, entscheidend ist der Durchsatz.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bulletchief schrieb:
Schon mal im GESAMTEN INTERNET vom Händlerfeedback gelesen?
Das Ding liegt wie Blei in den Regalen...
Nur als Hinweis- du antwortest da einem bekannten NV Troll, welcher bei mir nur als "ingorierter User" angezeigt wird. Das wäre auch meine Empfehlung an dich und alle anderen, die dem in diesem Thread geantwortet haben, diese Person in der eigenen Ignore Liste willkommen zu heißen.
 
  • Gefällt mir
Reaktionen: aid0nex, Wintermute, paulemannsen und 6 andere
Bulletchief schrieb:
Wenn die 4070 ti tatsächlich die Leistung einer 3090 für 165W weniger hätte, wäre das schon ein krasser Brecher...
Also ehrlich gesagt würde sie mir reichen in meiner Kiste. Und das Gegenüber zur 3090 ist schon eine Ansage.
 
catch 22 schrieb:
Edit: na toll... 3 Deppen, ein Video :D @Crizzo @flo.in.da.base
hab es mal bei mir rausgelöscht, lasse aber den oberen Kommentarteil dazu stehen
Haha :volllol:
 
catch 22 schrieb:
...aber gerade bei dem Segment der schwachen Karten im FHD Bereich, wo es wirklich nutzen bringen würde, die sichtbarsten Nachteile mitbringt...
Wie soll es auch anders sein, wenn die FHD Ausgangsauflösung eine geringe DPI Rate hat auf den Schirmen hat.Man kann eben nicht zaubern.


catch 22 schrieb:
Naja... immerhin noch brauchbar für jene, die sich eine gute WQHD Karte holen, um dann mit der in UHD zu daddeln... wobei die derzeitige Preispolitik von Nvidia dadurch noch absurder wird...
Die Preispolitik ist hauptsächlich AMDs schwachen Karten und den gewählten Preisen zu verdanken.

ch mag Upscaling einfach nicht und es wird bei mir auch weiterhin kein positives Kriterium für eine Karte sein.
Deswegen muss man darüber noch lange keine Falschinformationen verbreiten.
Die neue Generation hat die Preise der alten Generation massiv gesenkt. 3080 und 6800XT bei Kleinanzeigen schon zwischen 500 und 600 Euro. Wo ist das Problem?

Bulletchief schrieb:
Schon mal im GESAMTEN INTERNET vom Händlerfeedback gelesen?
Das Ding liegt wie Blei in den Regalen...
Ich höre nur immer relativ viel aus den Foren aber kaum irgendwelche validen Zahlen von Händlern.

Für einen Preis von 1350 Euro müsste sich die Karte ähnlich gut wie eine 3080 Ti verkaufen. Wie viel abgesetzt werden, wird die Steam Statistik sicherlich in Bälde zeigen.
Da man hier sehr davon überzeugt zu sein scheint, ziehe ich das grundsätzlich in Zweifel. Bei der Performance der Radeon Karten und Preis/Leistung hat man sich ja auch total geirrt.
 
Zuletzt bearbeitet von einem Moderator:
Clutch04 schrieb:
Also wenn das der Plan ist, sollte man sich keine Karte mit weniger als 16 GB VRAM kaufen.

Nur, wenn man unbedingt diese 5 Jahre auch auf höchsten Einstellungen spielen möchte. Gibt genug Leute, einschließlich mich, die noch eine GTX 970 nutzen und damit zumindest dieses Jahr keine größeren Probleme hatten.
 
  • Gefällt mir
Reaktionen: wei3nicht_T und Humbertus
Bin mit meiner 1080 Ti auch noch zufrieden. Ob ich jetzt für ein wenig mehr Grafikspektakel 1200 - 1400€ auf den Tisch lege Hm....
 
  • Gefällt mir
Reaktionen: Beero84, Mcr-King, Romanow363 und eine weitere Person
Also ich sehe jetzt die geringe Steigerung der 4060ti im Vergleich zur vorherigen Generation als gar nicht so unwahrscheinlich an. Würde mich überhaupt nicht wundern, wenn es Nvidia in dem Segment eher stagnieren lässt.

Selbiges kann ich mir in AMDs Portfolio auch vorstellen. Eine 7900XT ist auch nicht um Welten schneller als eine 6900XT. Die 7800XT kann daher auch kein riesen Sprung zur 6800XT werden. Zieht sich dann halt so weiter durchs Portfolio.
 
  • Gefällt mir
Reaktionen: projectpandora, Coeckchen und newbieHW
Ragnarök88 schrieb:
Wie soll es auch anders sein, wenn die FHD Ausgangsauflösung eine geringe DPI Rate hat auf den Schirmen hat.Man kann eben nicht zaubern.
Türlich nicht... und doch wird gezaubert... Es gelingt der Zaubertrick den Leuten vorzugaukeln, mit der schwächsten Karte überhaupt in FHD ganz tolle FPS zu haben... nur halt auch dann ein echt mieses Bild... Der Zaubertrick zieht die Leute an, weil die Fan Scharen Upscaling in den Himmel loben, sich dabei wie immer natürlich nur auf die Spitzenmodelle beziehen, wobei bei den "nur am Rand vielleicht mal was mitbekommern" hängen Bleibt Firma X oder Y hat die schnellste Grafikkarte und dann der wirklich dumme Gedanke bei den Leuten aufkommt, dass dann auch alle anderen Modelle des Anbieters "die schnellte Grafikkarte" sei...


Ragnarök88 schrieb:
Die Preispolitik ist hauptsächlich AMDs schwachen Karten und den gewählten Preisen zu verdanken.
die Preise zu Lovelace wurden genannt, als es zu der Performance von RDNA3 noch nichts handfestes gab.
Aber darauf will ich hier jetzt noch nicht mal eingehen.... Kennst du den Film Forrest Gump, wo der Protagonist und seine neue Freundin als kleine Kinder im Bus sitzen und das Mädel dann unschuldig aber doch ehrlich interessiert fragt, ob es sein kann, dass der kleine Forrest dumm wäre... RDNA2 war definitiv nicht schwach gegenüber Ampere aufgestellt und doch ließ es sich Nvidia nicht nehmen, die UVP einer 3080ti (etwas mehr VRAM, etwas mehr Leistung) oder 3080-12GB (zusätzlich 2 GB Vram, ansonsten die gleiche performance) drastisch zu erhöhen... wie kann das sein, RDNA2 war da doch gar nicht schwach... und nun sag nicht Corona... AMD sah sich schließlich nicht genötigt den UVP mal eben so um mehrere 100€ zu erhöhen, trotz der schwäche der Ampere Karten...


Ragnarök88 schrieb:
Die neue Generation hat die Preise der alten Generation massiv gesenkt. 3080 und 6800XT bei Kleinanzeigen schon zwischen 500 und 600 Euro. Wo ist das Problem?
und da ist schon wieder... das Bild des kleinen Forrest Gump im Bus, als seine neue Freundin (wie hieß sie nochmal? Jenny oder so?) fragte, ob es sein kann dass er dumm sei...
was scheren mich Gebrauchtpreise von Heute, wenn es um UVP Angaben zum Release geht... davon mal ab... wie bescheu... muss man sein, um für eine Karte die sehr wahrscheinlich die Tage erst frisch aus der Garantie gefallen ist, oder mit Glück vielleicht noch ein paar wenige Wochen hat, einen so hohen Betrag hinzublättern. Second Hand Karten haben ihre Berechtigung, diese hört aber spätestens bei einem Preis von irgendwo zwischen 250 und 300€ auf, einfach weil auf dem 2nd Hand Plunder keine Gewährleistung ist.
Da würd ich, als Kind der 70er und 80er, welches diese Schrecken im Ruhrpott noch mit eigenen Augen gesehen hat und den Wahnsinn erleben durfte, in eine Jogginghose, einem Feinripp Unterhemd, weißen Tennissocken und Aldiletten kleiden und so den Rest meines Lebens durch die Stadt laufen!!!
 
  • Gefällt mir
Reaktionen: darkcrawler, Poati, Casillas und 5 andere
Leute ,echt jetzt? Wir schreiben bald 2023 und ihr tut so als ob in FHD ordentliche FPS in schöner Optik zu zaubern Raketenwissenschaft in Form von überteuerten High End GPUs erfordert und argumentiert mit DLSS3 unsw...

Letztendlich FG nutzen zu können ist unterm Strich besser als diese Option überhaupt nicht nutzen zu können wie momentan bei AMD, insbesondere bei annähernd gleichen Preisen. Abgesehen davon ist FG eine tolle Sache z.B. beim MSFS in 4k. Einfach mal selbst probieren statt pauschaler Vorurteile.
 
  • Gefällt mir
Reaktionen: lynx007, Kraeuterbutter und Mcr-King
Slashchat schrieb:
DLSS.. 🙈

Mich irritieren die 128 Bit Speicherinterface bei der 4060 Ti irgendwie?!
Spielt es eine große Rolle ob 128 oder 256 Bit?!
Wenn ja, dann finde ich die 192 Bit bei der 4070 Ti auch merkwürdig..
Beschränkt man da künstlich die Geschwindigkeit?!
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Mcr-King und SuperTuesday
also die 256bit 2070 rtx hatte bei mir mehr fps als eine 2060 rtx super, aber die hatt ab und zu leicht gestottert auf low im vergleich zur 2060 rtx super. fullhd low battlefield 2042.
bei ultra und 4k sind allerdings 256 bit smoother mmn.
@Skatch
 
Skatch schrieb:
Mich irritieren die 128 Bit Speicherinterface bei der 4060 Ti irgendwie?!
Spielt es eine große Rolle ob 128 oder 256 Bit?!
Wenn ja, dann finde ich die 192 Bit bei der 4070 Ti auch merkwürdig..
Je größer das Speicherinterface, desto größter muss auch der entsprechende Teil auf der GPU sein, was wiederum zum Rest passen muss (Ausführungseinheiten etc.), desto mehr Platz geht auch auf dem PCB dafür drauf, desto mehr Speicherchips müssen tendenziell verbaut werden und desto höher ist der Energieverbrauch. Außerdem zu bedenken ist dabei, dass eben nicht jede GB-Konfiguration an jedem Interface Sinn ergibt, bspw. passen 8 GB zu 128 (und auch 256) Bit, nicht aber zu 192 Bit und andersherum. Das war damals bei der ersten 3080 auch ein/der Grund, dass es nur 10 (und nicht bspw. 16 GB Speicher) gab.

Beschränkt man da künstlich die Geschwindigkeit?!
Künstlich nicht unbedingt, aber ja, die Geschwindigkeit leidet darunter. Zunächst einmal bei der Speicherbandbreite, die halbiert sich bei gleichem Speicher und Speicherausbau bspw. beim Schritt von 256 auf 128 Bit. Ob bzw. wie sehr das dann auf die FPS durchschlägt, hängt von Grafikkarte, API und Spiel ab. Der schnelle GDDR6X-Speicher (und bei AMD der Infinity Cache) federn das inzwischen aber relativ gut ab, sodass im Gegensatz zu früher auch kleinere Speicherinterfaces (und damit kleinere, energeffizientere GPUs und Grafikkarten) möglich werden, ohne die Leistung drastisch einzuschränken. Wie das konkret bei der 4060 Ti der Fall sein wird, bleibt abzuwarten.
 
  • Gefällt mir
Reaktionen: bullit1, TheBear1517, K4rl0 und 7 andere
Nur Mal so als Info.. die rx6800 liegt zwischen 3070ti und 3080/10gb..
Die 6800xt liegt auf dem Niveau einer 3080/12Gb und battelt sich je nach Spiel auch mit der 3080ti
 
  • Gefällt mir
Reaktionen: metoer, Onkel Föhn und Czk666
Als ob Nvidia der 4060ti nur 8 GB VRAM spendieren würde.

Ganz sicher nicht, nein! :rolleyes:
 
  • Gefällt mir
Reaktionen: bullit1, Kommando, Casillas und eine weitere Person
Blackfirehawk schrieb:
Nur Mal so als Info.. die rx6800 liegt zwischen 3070ti und 3080/10gb..
Die 6800xt liegt auf dem Niveau einer 3080/12Gb und battelt sich je nach Spiel auch mit der 3080ti
Ja, da kommt es mitunter stark auf die getesteten Spiele an. Ich hab zur Einordnung stumpf auf unser aktuelles Performancerating geschaut. Da liegt die 6800 XT am ehesten 40 Prozent unter der 4080 (die kolportierte 4070 hat 40 Prozent weniger FP32-ALUs als die 4080). Die 3080 FE liegt 5 Prozent darüber.
 
|SoulReaver| schrieb:
Bei einer RTX 4080 mit 12 GB alle am Boden zerstört. Um gelabelt als RTX 4070 TI Juhu? Aha?....
Viel Schlimmer ist die RTX4060ti WTF 8GB und 128bit für 600€ und mehr.

Was kommt dann RTX4050 mit 8 GB und 64Bit.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Gene Jackman
Da AMD nicht vorwärts kommt, hat Nvidia keinen Grund sich zu beeilen. Die Geforce 4070 werden wir erst im März oder April sehen. Die 4070Ti war ja schon fast auf dem Markt - da gehts also am 5. Januar weiter.
 
  • Gefällt mir
Reaktionen: Coeckchen, Metaxa1987 und simosh
Zurück
Oben