Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGaming-Blackwell: Nvidia plant angeblich schon zum Start eine RTX 5070 Ti
@AnkH Mich würde es schon ärgern wenn die 5080 nicht die Geschwindigkeit der 4090 erreicht. Aber davon ist ja leider auszugehen. Die 4080 hat die 3090 noch übertroffen, wenn auch "nur" um 20%. Wenn die 5080 aber sogar langsamer wird als die 4090 und damit nur einen geringen Vorteil zur 4080 hätte würde ich mich doch ziemlich wundern wie Nvidia uns das dann andrehen will.
Genau, das arme Nvidia würde schon seit Jahren sooo gerne mehr VRAM verbauen, aber sie können einfach nicht. Die Möglichkeit, ein entsprechendes Speicherinterface mit mehr Speicher zu verbauen, hat sich AMD vermutlich patentieren lassen, weswegen das am Ende auch ausschließlich deren Schuld ist. Verflucht seist du, AMD!
@sethdiabolos Man kann auch mit GDDR5 oder meinetwegen GDDR6 nicht mehr VRAM auf 192Bit unterbringen. Ich bau keine Grafikkarten, aber ich bin mir sicher, dass Nvidia diese technische Hürde überwinden könnte, wenn das gewollt wäre.
Natürlich gibt es Gründe bei NV darüber zu diskutieren.
Aber was bei NV der VRAM ist sind fehlende oder schlecht umgesetzte Features bei AMD.
Was ich sagen möchte es gibt immer einen Grund was man am jeweiligen Herstellers auszusetzen hat.
Bei AMD mit fehlenden Features kann man noch sagen dass es technisch für AMD nicht möglich war.
Bei NV ist es reine Gewinnmaximierung um die teuren Karten los zu werden und an den Kunden zu bringen. Und eine Ausnutzung der aktuellen Monopol Situation im High End Bereich.
Klar würde ich eine 5070TI mit 24GB, 384 Bit begrüßen. Haben ist besser als brauchen.
Aber in meinem UseCase reichen 16GB aus.
Und mich stört es nicht eine Einstellung der Texturen von Ultra auf Sehr hoch oder Hoch zu setzen, solange das Game dadurch nicht viel schlechter aussieht.
Schließlich kaufe ich eine 70TI und keine High End Karte. Irgendwo müssen noch Argumente für die Leute übrig bleiben die ü2000€ nur für die Karte zahlen.
Ist am Ende alles Marketing
Verfälschen würden wir das Bild, wenn wir mit praxisfernen Einstellungen testen würden, die die Leistung und mitunter Bildqualität reduzieren, nur um Unterschiede zu suggerieren, die in der Praxis beim Spielen gar nicht bestehen.
Das würde ich so nicht unterschreiben. Denn ihr macht das selbe ja im CPU Testbereich mit 720p lowres Tests um irgendeine theoretische Leistung für ein Produkt zu suggerieren.
Mit verfälschen meine ich, dass man bei Upscaling die Anforderung an die GPU bewusst reduziert und das exakt beim Thema der Skalierung der Hardware mit der Anforderung natürlich die Ergebnisse verfälscht - wir kamen ja argumentativ von: UHD mit harten GPU Limit und 30-33% wie du sagtest, an Vorsprung für die 4090... Mit noch höheren Anforderungen - und da meine ich bspw. die Renderauflösung zu steigern, kann das durchaus nochmal deutlich stiegen. Ohne eben automatisch in unspielbarkeits FPS zu rutschen.
So kann ein UHD mit Upscaling letztlich manchmal nur unwesentlich höhere Anforderungen setzen als bspw. ein WQHD Test ohne Upscaling, wenn unter der Decke die selbe Auflösung gerendert wird.
Anyway. Am Ende ist das eure Sache wie ihr testet. Ich denke aber man muss sich durchaus die Argumentation gefallen lassen, dass Upscaling die Anforderungen reduziert. Was ja für das Endresultat am Ende auch beim Spieler sinnig ist. Bei der reinen Skalierungsbetrachtung von GPUs bzw. der Hardware von Grafikkarten ist das allerdings hinderlich.
Vitche schrieb:
Der Name und die TDP der GPU sind weiche Kriterien, die Nvidia im Grunde genommen nach Lust und Laune anpassen kann, bevor das Produkt finalisiert wird. Das trifft auf die specs der GPU selbst nicht in dem Ausmaß zu.
Das spielt aber weniger eine Rolle wenn man absolut den Bezug zu einem definierten Wort erzeugt, was nur schwarz oder weis kennt. Keine Schnittmenge ist nunmal keine Schnittmenge.
Vitche schrieb:
Ich wollte in dem Absatz auch kein Fass mehr aufmachen und da im Detail drauf eingehen; ich dachte, das anzusprechen reicht, damit jeder weiß, was gemeint ist.
Alles gut. Ich wollte nur drauf hinweisen, dass das hier konkret ein wenig unglücklich gelaufen ist und ein Fachwort im Grunde für viele Leser wahrscheinlich noch ein unbekanntes dazu, für so eine banale Sache ggf. nicht die eleganteste Beschreibung ist. Das ist meiner Ansicht nach auch kein Fachwort, was mal als Informatiker automatisch irgendwo aufschnappt. Das verbinde ich eher mit Mathematik bzw. dem Studium. In der (IT) Praxis ist mir das in 20 Jahren nicht begegnet, zumindest ist mir rückblickend kein Zusammenhang mehr bewusst. Aber genug OT von mir dazu...
Sieht man doch gerade bei CB nur allzu oft, dass mit zweierlei Maßstäben gemessen wird
Ergänzung ()
Und wieviel Watt brauchst du für die Leistung einer läppischen GTX 1070 heute?
Immer diese sinnfreien Kommentare - die Effizienz bewegt sich seit jeher nur in eine Richtung, wenn du die Leistung nicht benötigst gibt es super Grafikkarten ganz ohne zusätzliche PCIe Stromstecker
Und wieviel zockt der übliche Grafikkarten-Käufer denn, dass der Verbrauch unter Last überhaupt relevant im Verhältnis zum Kaufpreis ist?
Hier mal zur aktuellen Mittelklasse:
10-20 Stunden die Woche? Im Schnitt wird es bei berufstätigen Menschen eher die Hälfte sein, sprich 0,6kWh bzw. 16 Cent (!!!) pro Woche. In einem ganzen Jahr hat man sich da nicht einmal einen Döner zusammengespart und das trotz einer 55% höheren Effizienz, die es selten gibt.
Der Verbrauch unter Last ist viel irrelevanter, als manche es scheinen lassen wollen …
Sinnfrei ist es, solch verallgemeinerndes Geschwurbsel rauszubringen.
Ich bin berufstätig in Vollzeit mit massig Überstunden. Trotzdem zeigt Steam mir 50 Std in den letzten 2 Wochen an.
Einen Stromtarif für 16 Cent / 0,6 kwh (26,6 Cent / kwh) musst du mir auch erst einmal zeigen. Ich zahle nämlich 33 Cent / kwh und gehöre damit in einem Quervergleich unter der Nachbarschaft noch zu den günstigsten Tarifen.
Rechnet man jetzt die 50 Std auf ein Jahr hoch, kommt man auf einen Wert von 1300 Spielstunden.
Multipliziert man das bspw. mit der Differenz bei der Leistungsaufnahme im Spielbetrieb zwischen einer 4070S und einer 4070 Ti S von 63 Watt in WQHD, (289 vs 226 )kommt man bereits auf 81,9 kwh, was bei 0,33 € pro kwh 27,03 Euro entspricht.
Über eine Nutzungszeit von 5 Jahren ergibt das für mich 135 € oder 15 bis 25% des Kaufpreises. Warum sollte ich dies vernachlässigen und nicht in meine Kostenüberlegungen miteinbeziehen? Damit kaufe ich mir ein neues Mainboard, SSD, ein besseres Custom-Modell oder sogar eine neue CPU.
Es ist zwar schön, dass es eine 110W 4060 gibt. Nur hat diese 8 GB VRAM. Im Gegensatz zu den 12 GB der 3060 ziemlich knapp.
Wie gut eignet sie sich, um WQHD 144 Hz zu befeuern? Doch nicht wirklich eine ideale Lösung...
Und dann kommen da noch weitere Faktoren.
Die zusätzliche Kühlung muss gewährleistet sein.
Das ganze muss auch noch leise passieren.
Das Netzteil... Ich habe ein 550W-NT, mit dem ich seit 5 Jahren super zufrieden bin. Warum soll ich mir für über 100 Euro ein neues kaufen, wenn dieses immer noch sehr gut ist, nur weil ich eine neue Mittelklassegrafikkarte kaufen möchte?
Also ein bisschen über den Tellerrand schauen, wäre nicht schlecht, bevor man anderen Sinnbefreitheit unterstellt. Nur weil du nicht auf die Leistungsaufnahme schaust, heißt das nicht, dass das auch für andere kein Kriterium sein muss.
Als Kunde möchte ich ein rundes Produkt haben, was meinen Bedürfnissen entspricht und nicht erst n' Haufen Zeit (die ich für meinen Beruf, Familie und eben auch Spiele mit Freunden brauche) fürs Undervolten und/oder Einstellen von fps-/Watt-Limits und Lüfterkurven verschwenden.
Für mich kommt keine Graka mehr in Frage, welche nur 12GB VRAM hat bzw. nur noch mit/ab 16GB
und erst recht nicht wenn man dafür viele hundert oder um die 1000 "Geld" hinblättern soll.
Hab kein Problem ein paar Euro mehr als bei AMD zu bezahlen, weil es für mich bei NVIDIA immer
das (unterm Strich) beste Gesamtpaket gab. Aber wenn Lederjacke meint ab der 4070 keine 16GB verbauen zu müssen oder zu wollen, hat sich RTX 5000 erledigt - aus Prinzip - weil es REICHT irgendwann ^^
Bei RTX 4000 war das noch gerade so "ok" aber jetzt und für die Zukunft.. never ever!
Und wenn es wieder Salamitaktik ist, sprich, erst 12GB dann mit "Super/Ti bla blubb" 16GB die Leute abzocken,
mit mir sicher nicht.
Ich erachte 12GB als absoultes Minimum bis zur 5060Ti und 16GB ab der 5070.
Alles andere kann Lederjacke auf seiner Mega-Yacht lagern.. mir Banane..
das Sie später kommt agree, aber mehr wie 16 GB glaube ich nicht dran, Nvidia würde ich sogar zutrauen das sie die ti dann einfach mit 384Bit und nur 12GB verkaufen reicht ja aktuell noch bei 90% der Games. Nvidia Jünger kaufen eh alles aber wenn 24GB dann gibt es eben nur noch 384Bit SI