News ELSA Erazor X: Inno3D hat die GeForce RTX 4070 Ti schon jetzt vorgestellt

sirwuffi schrieb:
sind die box designs in den letzten 20 jahren wirklich besser geworden ?

ein riesiger fliegender oktopus über der new yorker (?) skyline hinter einem wasserstrudel was aussieht als hätte der praktikant das mit photoshop 1.0 zusammengepappt vs. eine random futuristisch anmutende struktur?
nein, früher definitiv besser :daumen: :daumen:
 
Die Vorstellung der Nvidia GeForce RTX 4070 Ti, die mittlerweile keinerlei Überraschungen mehr bereithält
wir kommt Ihr denn auf das schmale Brett? Natürlich kann die Karte noch überraschen, die tatsächliche Leistung im Vergleich zu den anderen Grafikkarten ist ja noch nicht bekannt!
Kann also sowohl positiv als auch negativ überraschen!
 
Die RTX 4070Ti dürfte eine interessante Karte für SFF werden, sofern sich die Preise etwas "normalisieren".
 
  • Gefällt mir
Reaktionen: mrcoconut
@SVΞN
Ich find's ja herrlich, wie du selbst in einer offiziellen Newsmeldung zu einer noch nicht einmal erschienenen, hochmodernen Grafikkarte durch geschickt platzierte Erwähnung gewisser Marketingnamen eine ordentliche Portion Retro-Flair mit einbringst.

Hut ab und vielen Dank :D
 
  • Gefällt mir
Reaktionen: SVΞN
Es gibt schon eine Karte mit der selben Leistung aber doppeltem Speicher, die 3090ti. Die muss sie preislich schlagen. Da die Preise für 3090ti noch recht hoch sind, wird dies vermutlich nicht so schwierig.
 
@CDLABSRadonP...
Also ich würde schon behaupten, dass Kühler wie die, die etwa auf den ganzen 4090ern sitzen, schon nicht gerade günstig sein dürften. Haben fast alle 'ne riesen Vapor Chamber und zig Heatpipes. Klar, die Finnen werden billig sein, aber ich mutmaße mal, dass Heatpipes und Vapor Chamer schon bisschen was kosten, muss ja auch in der Entwicklung gut ausgelegt sein, damit es vernünftig funktioniert, wie AMD gerade ja auch zu spüren bekommt.
Zahlen kenne ich aber natürlich keine, auch nicht zu den PCB-Sachen. Klar ist aber, dass man mit mehr und schnelleren RAM-Chips, schnelleren HDMI- und DP-Versionen und höheren PCIe-Standards höhere Ansprüche an die Signalqualität hat als bei den Platinen von alten Karten. Da wird heute sicher deutlich mehr R&D drin stecken, mehr Layer, feinere (und damit teurere) Fertigungstoleranzen, und u.U. teureres Substratmaterial für bessere HF-Eigenschaften.

Was auf jeden Fall auch ins Geld gehen wird, sind die vielen Power Stages. Dazu kann man auch Preise recherchieren, eine Power Stage kostet schon ein paar Euro. Hier mal ein Beispiel, das sind die Power Stages auf meinem Mainboard, auch mit Mengenrabatt noch deutlich über 3 €. Die RTX 4090 FE hat afaik 20+3 Phasen. Wenn Nvidia 3 € pro Power Stage zahlt, wären das schon 69 € allein dafür. Hinzu kommt dann noch der PWM-Controller - der auch teurer sein wird als bei kleineren Karten, weil er viel mehr Kanäle braucht - und die passiven Komponenten. PCB-Fläche braucht man mit mehr Phasen natürlich auch mehr. Das PCB selbst wird, denke ich, 'nen mittleren zweistelligen Betrag kosten, insofern denke ich schon, dass man auch ohne GPU und RAM schon die 100 € überschreiten wird bei so großen Karten wie den RTX 4000ern.

Wenn die Karten nicht so viel Strom saugen würden, könnte man zumindest bei den Spannungswandlern und dem Kühler auf jeden Fall gut was einsparen. Man spart wahrscheinlich schon um die 40 €, wenn man von 20 Phasen auf 10 runtergehen kann.
 
  • Gefällt mir
Reaktionen: Nobbi56
DJMadMax schrieb:
@SVΞN
Ich find's ja herrlich, wie du selbst in einer offiziellen Newsmeldung zu einer noch nicht einmal erschienenen, hochmodernen Grafikkarte durch geschickt platzierte Erwähnung gewisser Marketingnamen eine ordentliche Portion Retro-Flair mit einbringst.

Hut ab und vielen Dank :D
Naja, das versucht der Hersteller selbst ja ebenso...
 
  • Gefällt mir
Reaktionen: DJMadMax
Martinipi schrieb:
Weder die Karte selbst ist interessant, noch ist das Custom Design halbwegs vielversprechend und dann auch nur in Asien?
Die Karte ist sogar SEHR interessant, weil nur 2 Slots breit. Gerne noch eine Variante mit nur 2 90mm-Axiallüftern, mein Fractal Design Node 304 würde sich freuen.
 
@CDLABSRadonP...
Das ist korrekt, aber ein einfacher, der Geschichte entlehnter Produktname zieht da (zumindest bei mir) lange nicht so sehr, als wenn man im Beitrag zusätzlich eben noch die gute alte ELSA AG, die alten Riva-GPUs etc, dazu erwähnt.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
DonDonat schrieb:
Sollte Nvidia ihre Pläne nicht ändern und den Preis hier ordentlich nach unten drücken, dann wird das ein 4080 "Revival": DOA weil keiner mit mehr als 3 Gehirnzellen so viel für ne 70er Karte ausgeben will.
Es gibt aber genügend potenzielle Kund:innen mit bis zu 3 Gehirnzellen bei gleichzeitig hinreichend monetärem Vermögen, deshalb wird dies ein frommer Wunsch bleiben. Leider.
 
Beitrag schrieb:
Also ich würde schon behaupten, dass Kühler wie die, die etwa auf den ganzen 4090ern sitzen, schon nicht gerade günstig sein dürften. Haben fast alle 'ne riesen Vapor Chamber und zig Heatpipes. Klar, die Finnen werden billig sein, aber ich mutmaße mal, dass Heatpipes und Vapor Chamer schon bisschen was kosten, muss ja auch in der Entwicklung gut ausgelegt sein, damit es vernünftig funktioniert, wie AMD gerade ja auch zu spüren bekommt.
Zahlen kenne ich aber natürlich keine, auch nicht zu den PCB-Sachen.
Die Entwicklung des richtigen Designs wird einmalig etwas kosten. Einen ordentlichen Grafikkartenlüfter zum optimieren oder für den Ghettomod gibt´s bei Onkel Ali für unter 10USD. Diese Sachen sind alle so unglaublich billig in der Herstellung, das können wir Verbraucher und schwer vorstellen.
Die Lüfter kosten zwei Dollar inklusive der Verkabelung usw.

Wenn das ganze Geraffel, inklusive der "Premiumspannungswandler (die Kosten wohl wirklich ein bisschen was, kann ich aber nicht quantifizieren) über 50 USD kostet, wäre ich sehr überrascht.
 
CauCau23 schrieb:
Also eine 3080 "Super" mit 12GB.. kann ich ja bei meiner 3080Ti bleiben.
Nein, die Karte hat nichts mit einer 3080 SUPER zu tun. Der SUPER-Refresh zeichnete sich dadurch aus, dass es keine neue Architektur gab, keine wesentlichen P/L-Steigerungen, keine wesentlichen Effizienzsteigerungen. Es war ein MoreOfTheSame-Refresh.
Wirklich, ich sehe keinerlei Zusammenhang!
 
  • Gefällt mir
Reaktionen: shaboo
Jagdwurst schrieb:
Ich weiß nicht....für die ganzen Einschnitte, die diese Karte mit sich bringt, ist sie definitiv zu teuer.
Schlechtes Speicherinterface, viel zu wenig VRam (und das in der heutigen Zeit), viel weniger Shader Einheiten, dann diese hohe TDP.... etc ...
Die Einschnitte auf dem Papier sind doch vollkommen egal, so lange die Karte in der Praxis die nötige Leistung bringt. Bei 12 GB von "viel zu wenig VRAM" zu sprechen ...
Jagdwurst schrieb:
klingt wie eine Einstiegskarte zum Preis einer High-End-Karte...ohne mich.
... und bei 3090Ti-Leistung von einer "Einstiegskarte", zeigt mir nur, dass du zu viel Zeit in Nerd-Forenblasen wie diesen hier verbringst.
Jagdwurst schrieb:
Hab die 3090 neu vor ein Weilchen günstig geschossen. Wäre die viel bessere Option. Meine MSI ist super zu undervolten, schön leise und liegt aktuell bei 185 Watt und hat doppelt so viel Speicher und ist bestimmt nicht (viel) langsamer...
Selbst zu den aktuellen Ausverkaufspreisen ist die 3090 teurer als eine 4070Ti und kann dabei als einzigen Pluspunkt den größeren Speicher verbuchen.

Der einzige Konkurrent, an dem sich die 4070Ti wird ausrichten müssen, ist die 7900XT, da diese beiden Karten von AMD und Nvidia die ersten sind, die nicht mehr deutlich über, sondern "nur noch" um 1000 Euro kosten, und da sehe ich die 4070Ti nicht soo schlecht aufgestellt. Ich bin wirklich gespannt, wie sich Ladenpreise und Verkaufszahlen dieser beiden Modelle entwickeln werden.

Dass alle gerne eine 4070Ti mit 16 GB gesehen hätten, ist keine Frage, aber 12 GB dürften wohl - auch dank DLSS - für alles unterhalb 4k erst mal locker reichen.
 
  • Gefällt mir
Reaktionen: mrcoconut
DerRico schrieb:
Diese Sachen sind alle so unglaublich billig in der Herstellung, das können wir Verbraucher und schwer vorstellen.
Die Lüfter kosten zwei Dollar inklusive der Verkabelung usw.
Spätestens seit dem Arctic P12 sollte sich das allerdings quasi jeder vorstellen können. Selbst an Endkunden geliefert kostet der pro Stück (im Fünferpack) unter 5€ und das bei Topwerten. Da ist klar, dass 0815-Ware für Hersteller nochmals günstiger zu haben sein muss.
 
  • Gefällt mir
Reaktionen: DerRico
Simanova schrieb:
Geht man von der Effizienz der 4090 bei Undervolting aus, so rechne ich damit dass zwischen 220 und 280 Watt praktisch kein Leistungsverlust bei der 4070Ti auftritt.

Würde mich nicht wundern wenn bei 280W kaum ein Leistungsverlust spürbar wäre, immerhin sind die 3070Ti offiziell von nVidia mit 285W TDP versehen ;)

Afaik wird das also ne RTX 3080 mit 12GB und DLSS3 für knapp unter 1000€?
Prost Mahlzeit.

Ne 04er Karte zum Preis einer Titan... bei dem Preisniveau werden Gaming Notebooks mit Ada 04 vermutlich bei 3000€ anfangen :D
 
shaboo schrieb:
Selbst zu den aktuellen Ausverkaufspreisen ist die 3090 teurer als eine 4070Ti und kann dabei als einzigen Pluspunkt den größeren Speicher verbuchen.
Nur wird nichts zu den Preisen verkauft. Die Händler warten geduldig, das vielleicht irgendwann jemand die verbliebenen 2 Karten zu den Preisen kauft. Eilig scheinen sie es nicht zu haben.
 
TenDance schrieb:
Afaik wird das also ne RTX 3080 mit 12GB und DLSS3 für knapp unter 1000€?
Prost Mahlzeit.
Naja, 3090Ti-Leistung ist jetzt schon ein Stück oberhalb 3080, mit RT erst recht. Man muss die neuen Karten jetzt auch nicht schlechter reden als sie sind ...
 
  • Gefällt mir
Reaktionen: shy-Denise
shaboo schrieb:
Dass alle gerne eine 4070Ti mit 16 GB gesehen hätten, ist keine Frage, aber 12 GB dürften wohl - auch dank DLSS - für alles unterhalb 4k erst mal locker reichen.
Ist die 16 ein Vertippsler und da sollte eigentlich 18 stehen oder Absicht?
Vertippsler: Wenn Nvidia statt 2GiB-GDDR6X-Chips 3GiB-GDDR6X-Chips verbauen würde (die es meines Wissens nach bislang aber noch gar nicht gibt), dann würde die Karte nämlich bei 18GiB Kapazität landen.
Absicht: Doppelseitige Bestückung mit 2GiB-GDDR6X-Chips oder einseitige Bestückung mit 4GiB-GDDR6X-Modulen (die es meines Wissens nach bislang aber ebenfalls gar nicht gibt) würde hingegen zu 24GiB Kapazität führen. Bei 16GiB würde sie nur auskommen, wenn Nvidia zu merkwürdigen Varianten greifen würde:
  1. Sie könnten zu 1GiB-GDDR6X-Chips wechseln, die Karte doppelseitig bestücken und dann vier der zwölf Chips auf 2GiB-GDDR6X-Chips upgraden.
  2. Sie könnten an zwei der Interfaces rückseitig je einen zusätzlichen 2GiB-GDDR6X-Chip anbinden. (richtig miese Performance beim Zugriff auf die letzten 4GiB des Speichers)
  3. Sie könnten an vier der Interfaces rückseitig je einen zusätzlichen 1GiB-GDDR6X-Chip anbinden. (schwächere, aber nicht katastrophale Performance beim Zugriff auf die letzten 4GiB des Speichers)
  4. Sie könnten zwei der sechs 2GiB-GDDR6X-Chips auf 4GiB-GDDR6X upgraden. (die es meines Wissens nach bislang aber gar nicht gibt, richtig miese Performance beim Zugriff auf die letzten 4GiB des Speichers)
Variante #4 hatte Nvidia damals bei der GTX 660 gemacht, damit diese nicht mit 1,5GiB antreten musste, sondern mit werbewirksameren 2GiB.
 
CDLABSRadonP... schrieb:
Ist die 16 ein Vertippsler und da sollte eigentlich 18 stehen oder Absicht?
Ging jetzt erst mal nur um die Speichermenge, ab der die 4070Ti VRAM-mäßig keine große Angriffsfläche mehr geboten hätte, unabhängig davon, ob und wie das zum Speicherinterface passt oder welche diesbezüglichen Änderungen erforderlich würden.
 
Zurück
Oben