News Gerüchte zu Nvidia-Grafikkarten: Bilder zeigen mutmaßliche RTX 4090 Ti oder Titan Ada

Laphonso schrieb:
sagte man 2018 auch über Raytracing
Das ist es doch z.T. immer noch, wenn man sich die schwache Adaptionsrate und z.T. sehr dürftige Umsetzung anschaut, darüber täuschen leider auch nicht ein paar rosinegepickte/gelungene Spiele (Metro Exodus Enhanced, etc.) hinweg.

Das wird erst richtig etabliert sein, wenn es durch die Bank auf allen Karten (nVidia GeForce, AMD/RTG Radeon und hoffentlich auch Intel Arc) halbwegs gut läuft und sichtbare Unterschiede - die man nicht in Standbildern mit der Lupe suchen muss - daraus resultieren, also eigentlich erst mit Pathtracing und nicht der jetzigen, herumgedoktorten RT-RT/Schmalspur-Vorstufe.

Bei AMD/RTG ist richtig die Jauche am dampfen aktuell wegen der Vapor Chamber/Qualitaetkontrolle/RMA Problematik und weil die Karten nicht das reissen, was die RDNA3 Markting-Folien in Aussicht gestellt hatten zum Martkstart, keine Frage.

Das ist aber ein aehnlicher Prozess der z.T. über genügend Zeit wieder hingebogen werden dürfte, ähnlich wie bei Intel Arc die Treiber (Support) Problematik (die mit neueren Architekturen natürlich wieder angepasst werden müssen) oder bei nVidia der neue Ada Lovelace Adapterstecker bei dem die Qualitätskontrolle ebenso versagt hat.

Bei mir ziehen die Marketing-Maschen von allen drei Chipentwicklern nicht, ich bin eher nur an harten Fakten interessiert und wie man als kudne dabei wegkommt und behandelt wird.

Vorabaufpreise für unausgegorene Features wird sich nVidia auch weiter hin in die Haare schmieren können.

AMD/RTG fährt (auch weil Koduri wohl ein wenig als Ideengeber fehlen dürfte, auch wenn einige AMD/RTG Fans das vielleicht nicht wahrhaben wollen, aber HBM1 bei den Fury-Karten (evt. sogar Mantle zum Teil), HBCC und damit Infinity Cache sowie MCM-Gaming-GPUs sind alle Rajas Ideen entsprungen und nun beschränkt man sich dort eher darauf dem Marktführer nachzueifern, zumal AMD zu Rajas Zeiten noch deutlich weniger Mittel/mehr zu kämpfen hatte mit weniger Ressourcen als jetzt) bei nVidia mittlerweile meist (preis- und innovations-)technisch Trittbrett.

Intel versucht schon zu Beginn relativ innovativ und beeindruckend zu sein, aber wenn man zuviel auf einmal will, hakt es am Ende u.U. an vielen Enden und man sollte erst einmal einen soliden Einsteig schaffen (bevor man sich mit denen misst, die Jahrzehnte Vorsprung bei diskreten Grafikkarten haben), was schade aber absehbar war für den Neueinsteiger im Gaming-dGPU-Business.

Nach etlichen Patches mag das möglich sein hinsichtlich FG/DLSS3 (aber bestimmt auch nicht in allen Spielen) und Hardware Unboxed (die zum Glück auch kritischer beleuchten) waren bisher in einigen Fällen eher weniger angetan vom verursachten Input Lag durch DLSS3.
so gesehen kann die Technik (also auch FSR3 einbeziehend und wie auch immer Intel das eigene Pendant nennen wird) ruhig noch einige Jahre vor sich hin gären - falls es mangels Entwicklerinteresse nicht irgendwie einen auf Phys-X macht und bis man irgendwann hoffentlich die Nachteile generell in den Griff bekommen hat und nicht die Kundschaft erneut ständig zum Beta-Testen geladen wird und gerne für unfertige Features Aufpreise im Voraus ausgenommen wird.

Ähnlich war es bei RT-RT und DLSS1, aber es gibt ja genügend, die sich damit durch den Kakao ziehen lassen ... vielleicht kommt irgendwann wie bei bestellten Neuwagen noch eine Wartezeit für die Grafikkarte hinzu, bis diese ausgeliefert wird und die Leute zahlen dann auch alles ein halbes Jahr im Voraus (ohne zu wissen was für ein verbuggtes Produkt sie da u.U. bekommen werden, das wäre's noch ... fragt sich dann echt, ob der Kunde noch König sein wird oder eher marketing-geblendeter, süchtiger Bittsteller).
Ergänzung ()

Ragnarök88 schrieb:
MC Donalds nen Hamburger für 2 Euro gekauft - doppelter Preis vs. 2017.
Wie können die nur.
Ja, solche nichtsagenden Beispiel/Vergleiche von Äpfel und Birnen (ganz anderen Branchen) kann man sich wirklich sparen (nicht nur doppelte Presie bei Burgern, denn diese sind zum Teil auch geschrumpft; Magerquark hat übrigens früher auch 79 Cents gekostet und jetzt wird es mit 1,49 Euro im TV als gutes Angebot vermarktet, was natürlich auch eine Täuschung ist, zumal man mit 79 Cents schon damalas giut genug daran verdient hat).

Letztes Jahr habe ich eine i7-12700 Alder Lake CPU im damaligen Angebot nicht lange nach Marktstart für ca. 360 Euro gekauft und man stelle sich vor, der Raptor Lake Nachfolger ist trotz Inflation, Lieferkettendramen, etc. nur nicht einmal 20% teurer geworden (man Vergleiche das zu den RTX 3080 vs RTX 4080 Markstartpreisen ... selbe Branche, ja genau ... :n8:) ... aber in der GPU/Grafikkarten-Branche oder für nVidia speziell gelten ja ganz andere Regeln und darf die ausufernde Profitmarge nur in üppige Gefilde zusammen gestrichen werden, wenn ein massiver Shitstorm zu erwarten ist (wie geschehen bei der RTX 4080 RTX 4070Ti mit 12GB).

Sorry, aber Deine Argumentation hinkt da leider extrem und ja, Pech, dass die Kunden bei X86er CPUs - mit auch nur 2 groesseren Entwicklern - sich nicht mit solchen Mondpreisen konfrontiert sehen ;) ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Windell
dieses ganze Gerüchtegelaber gabs schon vor RTX 4090 Release. Also wird wieder nichts dran sein.
Im Einsatz wird so eine Grafikkarte, falls sie denn kommt, vllt 50 - 70 Watt mehr verbrauchen - im worstcase.
Ergänzung ()

Windell schrieb:
DLSS ist mittlerweile kein Argument mehr pro Nvidia. Keine Ahnung wieso man das immer noch zigmal erwähnt. DLSS2.0 und FSR2.0 nehmen sich nicht viel, haben Beide ihre Vor-und Nachteile.
kompletter Quatsch - DLSS DLAA und alles was von NVIDIA kommt und richtig eingesetzt wird lässt AMD im Regen stehen.
 
fox40phil schrieb:
Immer alles "maxed out" bei den Games, damit immer der Eindruck erweckt wird... mit meiner "xx Jahre alten GPU läuft nix mehr über 30FPS".
Ich habe gestern meine Red Devil (RX 6800XT) zum ersten Mal angeworfen und bin mächtig beeindruckt von der Leistung, Design und Verarbeitung der Karte (Hut ab Richtung Taiwan/Powercolor), die mir hoffentlich noch lange erhalten bleiben wird.

Unter Ultra-Einstellungen geht für viele (Grafikenthusiasten) angeblich leider nichts mehr (aber dann über RT-RT philosophieren und es lobhudeln und dann nicht konsequenter Weise in nativer Auflösung spielen sondern Mogeltechniken anwenden wohingegen man den RT-RT Puristen spielt und Rasterizing verdammt, so dass man sich für den eigenen Grafikkarten feiern kann ... wenn man sonst nichts anderes zu tun hat) und alles unter WQHD ist neuerdings kategorisch Augenkrebs ... oder ja, vielleicht werden wir auch einfach zu alt dafür ;).
Ergänzung ()

DevPandi schrieb:
Von den Preisen her - US-Preise - ist die 7900 XTX und die 4090 doch relativ fair im Preis. Problem sind die 4080, 4070 Ti und die 7900 XT.
Bei den deutschen RDNA3 Karten ist das bei den deutschen/Euro-Preisen genau anders herum gelagert, 11-17% mehr Leistung je nach Titel/Umsetzung einer XTX gegeüber einer XT und dafür 250 Euro Aufpreis ... da ist die RX 7900XT (die Geizhals) deutlich das bessere Angebot aktuell als der Vollausbau (ähnlich wie die RX 6800 XT damals - naja, eigentlich immer noch) auch der weitaus bessere Deal als die vergleichsweise überteuerte RX 6900XT Vollausbau war).

Ja, "don't get me started on RTX 4080 16 and 12GB and RTX 4070Ti 12 GB prices", damit verglichen ist die RTX 4090 eigentlich preislich noch relativ fair angesetzt für eine semi-profesionelle Karte (als Gaming-Karte halte ich diese immer noch für relativ absurd, aber gut, wem's gefällt und wer das Geld dafür locker genug sitzen hat, dem sei es gegönnt), weil man mit dem "Upselling" wohl immer noch am meisten Gewinn bei nVidia macht ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Die Bilder des Kühlers gab es doch schon im Oktober 2022, aber schön wenn man eingestaubte News neu belebt.

PS Nicht jede Hardware ist auf den Spiele-PC fokussiert.
 
domian schrieb:
Das waren noch Zeiten, als ein Doppelbrötchen 10 Pfennig gekostet hat, aber was solls. Ewig in der Vergangenheit zu schwelgen macht das Leben auch nicht billiger. Ich lasse dir deinen Traum.
Was hat dass mit Ledensmiteln zu tun die übrigens um16-32% teuer geworden sind unnötig teilweise und eine RTX3050 die Langsamer ist als eine GTX1660s oder RTX2060 auch die RX6500 ist nur eine Mogelpackung.

Wird trotzdem gekauft da liegt dass Problem sage nur UBI Bock und EA. ;)
Ergänzung ()

cookie_dent schrieb:
Jetzt machst Du Dich aber lächerlich, wo kommen Deine Zahlen her?
Ein ungelernter bekommt (mit Glück) 2300-2400€ Brutto, sind dann ca. 1680€ Netto.
Meistens 1500 Netto sogar nur grade die Metallbuden kannst du vergessen, warum geht eine nach dem anderen Pleite weil die Sklaven (Billig-Lohner) fehlen.
 
@cookie_dent Vlt. erhellt der User @JohnWickzer uns ja mit passenden Beweisen zu seinen Behauptungen. Oder er will einfach nur triggern.
 
DevPandi schrieb:
AMD hätte bei Navi31 aber eher den Mut zu einem größeren Chip haben müssen. Aber egal, NVIDIA ist mit ADA eine sehr gute Architektur gelungen. Hut ab.
Naja theoretisch immer noch möglich da ein MMC Chip ist und kein Monster ala ADA und da liegt die Herausforderung für NV mit RTX5090 ohne alles zu sprengen kosten/Verbrauch und und und.

Auch haben die ADA grade in den unteren Klassen er das nach sehen gegen über RTX30er und 20er.
Ergänzung ()

Zer0Strat schrieb:
Falls die RTX 4090 Ti tatsächlich bald schon kommt, oder die Tatsache, dass sie überhaupt kommt, ist eine reine Machtdemonstration. Nvidia rammt die Radeon Group ungespitzt in den Boden.
Naja noch nicht, denn bei Konsolen immer noch mau vertreten und BigN soll ach nicht mehr begeistert sein und bei der Switch2 über ein Wechsel nach denken. ;)
 
Super Argumentation mit Google. Hast also keine Beweise für deine Behauptungen.
 
Windell schrieb:
@cookie_dent Vlt. erhellt der User @JohnWickzer uns ja mit passenden Beweisen zu seinen Behauptungen. Oder er will einfach nur triggern.
Probier es doch einfach mit DLSS quality und 4K target aus...
Oh wait.. kannst es ja nicht. Ich schon.
Ergänzung ()

Windell schrieb:
Super Argumentation mit Google. Hast also keine Beweise für deine Behauptungen.
moore's law is dead bspw hat darüber mehrfach berichtet und am Ende selbst einsehen bzw eingestehen müssen dass alle leak sources Müll waren.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Das stimmt so nicht.

Wir haben ja bereits Fälle, in denen manche ihr 4090 System durch ältere CPUs limitieren auf 1440p oder UWQHD.

Doch das stimmt so. Es gab auch in der Vergangenheit GPUs, welche durch aktuelle CPUs zum Releasezeitpunkt nicht ausgelastet wurden. Das ändert sich aber mit der Zeit, da eben die Anforderungen an die Grafikkarte schneller steigen.

Gutes Beispiel ist die 8800GTX
Zum Release konnt man die GPU kaum auslasten durch die damals ebenfalls zeitgleich erschienenen CPUs. Und dennoch habe ich einen C2Q mit eine 7970 kombiniert, welche mehrere 100% schneller ist.
https://www.computerbase.de/artikel/grafikkarten/bericht-nvidia-geforce-8800-gtx-sli.617/seite-18

Woran das liegt ist schnell erklärt. Die Performancesprünge bei den Grafikkarten sind deutlich größer. Die Spieleentwickler wollen die Grafikkarte vollständig auslasten und nicht den Prozessor. Der Prozessor ist nur das Mittel zum Zweck. Die Grafikkarte zaubert das Bild auf den Monitor. Die CPU hingegen arbeitet der Grafikkarte nur zu und versort sie mit Daten. Daher auch Trends wie DirectStorage.

Gerade Spiele lassen sich schwer parallelisieren und die Singelthreadleistung steigert sich von Generation zu Generatun nur um 15%. Grafikkartensprünge sind da deutlich größer. Daher führte letzendlich auch kein Weg an Low-Level-APIs vorbei. Und wollen die Spieleentwickler mehr CPU-Leistung müssen sie prallelisieren. Die Reserven von CPUs sind also schon vorhanden, aber eben nicht so einfach nutzbar zum Releasezeitpunkt.
 
Was mich stört ist DLSS 3.0 RTX40er only und jeder nimmt es hin DLSS 4.0 RTX50er Only und auch dass wird gefeiert wie DLCs bei Autos was stimmt nicht mit den Leuten meine Meinung.
 
  • Gefällt mir
Reaktionen: Fyrex, amorosa und Windell
G3cko schrieb:
Doch das stimmt so. Es gab auch in der Vergangenheit GPUs, welche durch aktuelle CPUs zum Releasezeitpunkt nicht ausgelastet wurden. Das ändert sich aber mit der Zeit, da eben die Anforderungen an die Grafikkarte schneller steigen.
Nicht unbedingt bei RTX30er wurde der Bug erst vorm erscheinen der RTX40er beseitigt.

Ja NV hat immer noch nicht den Teillast Bug bei RTX30er ganz gelöst.
Ergänzung ()

T-Horsten schrieb:
Nvidia wird sicher eine 4090 Ti in der Hinterhand haben, die Frage ist ob sie das Ding auch raushauen.
Wirklich nötig ist das nicht.
Vielleicht um die Preise zu senken da doch mehr Konsolen wie GPUs zurzeit gehen. ;)
 
T-Horsten schrieb:
Nvidia wird sicher eine 4090 Ti in der Hinterhand haben, die Frage ist ob sie das Ding auch raushauen.
Wirklich nötig ist das nicht.

Joa ob sie das nötig haben ist natürlich die andere Frage. 800 Watt halte ich dagegen für unrealistisch.
Btw wer ist Zer0Strat?
Scheinbar ein netter Zeitgenosse :D Aber jetzt ernsthaft, kenn ich nicht bzw ist mir zumindest nicht im Gedächtnis geblieben.
 
@Mcr-King Ich hoffe AMD springt nicht auch auf den Zug und bringt FSR3.0 nur für die 7xxxer Generation.
So behalten die sich ein Future in der Hinterhand um die Leute dazu zu drängen doch auf die neue Gen aufzusteigen. Auch wenn es sicherlich machbar wäre die Technologien für die alte Technik zu bringen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Naja FSR 3.0 soll ja auch mit den neuen ki Einheiten Funktionen also nur RX7000er only nur da sage ich okay ist halt so nur DLSS ab 2 basiert immer auf den in RTX20er eingeführten Ki Kernen. Also warum geht DLSS 3.0 nicht auf RT20er und RTX30er. ;)
 
@Mcr-King Also wenn du das so argumentierst bei FSR3.0, kannste dasselbe auch bei DLSS3.0 sagen.

Da wird es bestimmt irgendwelche Einheiten bei den 4xxxer Karten geben, weswegen es bei der älteren Generation nicht funktioniert.
 
Windell schrieb:
Da wird es bestimmt irgendwelche Einheiten bei den 4xxxer Karten geben, weswegen es bei der älteren Generation nicht funktioniert.
Nee die Tensor-Kerne sind mehr oder weniger die gleichen bei den RTX GPUs nur stärker und mehr vorhanden.
 
  • Gefällt mir
Reaktionen: amorosa
Sehe ich auch so wie @Mcr-King . Hätte man wirklich gewollt, hätte man es auf der 20er und 30er Generation locker zum laufen bringen können.

Das hatte doch auch jemand gemacht, so weit ich mich erinnern kann. Irgendwo kursierte im Netz dieser Artikel, wo einer DLSS3 auf ner 2070S zum laufen gebracht hat.

Aber wo kömen wir denn dann hin ? Keine Molkerei mehr ! Das geht mal gar nicht. Damit würde uns ein Verkaufsargument flöten gehen. Das mögen die Investoren aber überhaupt nicht.

So ists nunmal...

Wie gesagt nehme ich mich nun aus dem Spielchen raus. Das finanziere/belohne ich keinesfalls mehr.
Und nein, ich bin kein AMD-Fanboy ^^. Hab von denen nichts im PC. Ich kaufe mir das, was ich wirklich brauche und nicht das, wo ich mehr Sympathie hege. Das gibts bei mir gar nicht.

LG
 
Ich nehme dann auch Mal an, daß viele dieser Karten dann in China abgesetzt werden; die China Academy of Engineering Physics (CAEP) spielt scheinbar sehr viel "nuclear bomb simulation" auf derartigen GPUs. Anders als die exportbeschränkten Rechen- und KI Beschleuniger, können GPUs ja relativ problemlos nach China verkauft werden. Und ein paar tausend solcher 4090ti Karten sind da schon sehr nützlich.
 
Jenergy schrieb:
Die RTX 4090 zeigt doch, dass aus dem AD102 selbst mit erhöhtem Powerlimit nicht viel mehr an Performance rauszuholen ist.
Da bringst aber was durcheinanderr, der chip auf der 4090 ist nicht komplett freigegeben was die cuda-cores angeht, das sind glaub ich ca 85% des Vollausbaus. Das was du meinst besagt nur, dass man aus dem 85% chip nicht mehr rausholen kann, das ja. Aber die 4090ti oder Titan wäre der Vollausbau, das können also gut und gerne nochmal 15% oder so Mehrleistung sein.
Edit: Ok, hast du selbst erkannt. Cheers.
 
  • Gefällt mir
Reaktionen: Jenergy
Zurück
Oben