Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 4080 Super im Test: Diese Super kommt nicht ohne Grund ganz zum Schluss
Artikel-Update: ComputerBase hat die fehlenden Pathtracing-Benchmarks mit der GeForce RTX 4080 Super nachgeholt. Sowohl in Alan Wake 2 als auch Cyberpunk 2077 erreicht die neue Grafikkarte 60 FPS oder mehr in Ultra HD mit dem Einsatz von DLSS Super Resolution sowie Frame Generation. Der Abstand zur normalen GeForce RTX 4080 ist aber auch mit Pathtracing-Optik gering bis nicht vorhanden.
4 sind ja auch noch nicht viel. Hättest du z.B. 3 Kinder, die alle schon 12+ Jahre alt sind, wäre das total "normal".
Warum in einem HTPC oder im Kellerserver eine 3090 steckt, erschließt sich mir nicht ganz. Wenn man aber seine Ruhe haben will und zum Zocken in den Keller geht, dann ergibt das Sinn. So ein "Hobbyraum" ist immer geil.
Aber wie immer: Warum nicht? Wer hat, der kann.
btt:
Wolfgang schrieb:
Der Abstand zur normalen GeForce RTX 4080 ist aber auch mit Pathtracing-Optik gering bis nicht vorhanden.
Ich gebe ehrlich zu, dass der 103er Chip mit mehr Recheneinheiten so dermaßen "gar nicht" skaliert, hat mich überrascht. Und dann kann man die "Super" nicht mal ordentlich treten. Bei "OC" geht da quasi auch nichts.
Hier bin ich ganz ehrlich: Solange dies nicht recht vehement von einer Vielzahl an Lesern gefordert wird, nein.
Warum? Zumindest wenn ich hier auf das generelle Artikel-Feedback schaue, scheint es die meisten nicht zu interessieren. Und wenn ich dann bedenke, dass Karten, die man auseinander baut, eben nie mehr so werden wie im Auslieferungszustand, ist es das einfach nicht wert. Zumal wir da auch nicht die riesen Expertise haben, diesbezüglich sind einige andere Magazine besser aufgestellt.
Nachvollziehbar, aber dennoch schade.
Finde es irgendwie eigenartig das die Effizienz der 4080S >4080 ist obwohl die Spannungsversorgung degradiert wurde. Die höhere Anzahl an Recheneinheiten skalieren wohl mehr bei der Effizienz als bei der Performance.
Wenn Karten ins Watt-Limit stolpern....dann bringen auch ein paar mehr Recheneinheiten Null bis Nichts an Mehrleistung.
Man kann auch nicht schneller durch eine scharfe Kurve fahren, nur weil man einen dickeren Motor einbaut.
Typischer Fail eines unlogisch, sinnlos dahingekleisterten Produktes - was für eine Verschwendung von Ressourcen.
Die Anhebung auf 350W hätte zumindest dafür sorgen können, dass die ca. 5% mehr Power dann auch mal irgendwo in einem Spiel ausgefahren werden können.
So dann halt nicht.
Man hätte ja sogar dafür einen höheren Preis "rechtfertigen" können.
Also da hat das Management aber mal so richtig gepennt.
Alles falsch gemacht, was man hätte falsch machen können.
Bekommen da Leute Geld für?
Den Job nehme ich sofort!
Wieso? Der Preis der RTX4080 wurde dadurch stabilisiert, dass man jetzt "Super" draufschreibt.
Ich hätte es als Controller genau so gemacht. Und die Tatsache, dass der 102er Chip in dem Preisbereich einfach "Verschwendung" wäre, muss man auch beachten.
Die dunklen Kanäle funktionieren super und so ziemlich jeder 102er Chip der noch rumliegt, wird aktuell nach China verkauft.
Warum den für "kleines Geld" im 1300 Euro Bereich an verwöhnte Europäer verkaufen?
mfg
p.s.
Die Chinesen kaufen bei 102ern aktuell sogar alles, was als Reklamation zurück läuft. Die Kunden bekommen "neue" Karten und die "defekten" Karten werden um gelötet und für mehr Geld verkauft, als der "Endkonsument" in Europa jemals dafür bezahlt hat.
1000 Euro für einen defekten Rückläufer ist aktuell schon ein Preis, den man nicht mehr bekommt.
Ich glaube du hast das Prinzip der Effizienz bei Grafikkarten nicht ganz verstanden. Die Super hat ja nur wegen der zusätzlichen Recheneinheiten bei gleicher TDP diese Mehrleistung. Und wenn ich weniger von den Recheneinheiten fordere, weil ich mehr zur Verfügung habe, sinkt auch der Verbrauch.
Beispiel: Laptop GPUs haben innerhalb einer Serie i.d.r. alle die gleiche TDP (120w z.B.), trotzdem ist da die 4090 schneller als die 4060. Warum? weniger takt = effizienzer + mehr Recheneinheiten.
defacto werden mehr Recheneinheiten bei gleichem Verbrauch immer eine Mehrleistung bedeuten, innerhalb einer Generation zumindest.
eine erhöhung des TDP / Verbrauchs hätte vermutlich zur gleichen Mehrleistung auch ohne zusätzliche Recheneinheiten führen können
das is ja an Superlativität (gibts das Wort überhaupt) und Populismus kaum zu übertreffen.
Den Erfolg eines Unternehmens misst man an Zahlen, ein Blick auf Umsatz oder Aktienkurs verrät, dass Nvidia aktuell alles richtig macht.
Sie kostet nicht mehr und nicht weniger als eine 4080. Wenn Nvidia clever war, sind es sogar noch die 1B Chips, die sie von Anfang an gebaut haben. Die 1A Chips sind ins Notebook gewandert, die 1B Chips ins Lager und 1C Chips wurden an die "Master-Race" verkauft. Wenn sie richtig clever waren, ist es sogar nur eine Frage des Bios.
Man verkauft quasi das, was man hätte schon vorher verkaufen können, wenn AMD abgeliefert hätte. Sollte man jetzt durch Fortschritt bei den SpaWas oder beim RAM sogar noch billiger herstellen können, dann ist das nur noch die Kirsche auf der Torte.
Im Grunde genommen steckt dort auch nichts anderes dahinter als sich mit den üblichen Chips auf den Platinen zu befassen, welchen Ursprung sie haben, welche Qualität, wie viele Phasen die Spannungsversorgung, welche MosFets usw. Das ist alles ziemlich unspannend, außer ein Hersteller schießt mal einen richtigen Bock. Ich denke die Einschätzung ist richtig, dass sich das nicht lohnt.
Bis zur nächsten Kartengeneration ist es noch eine ganze Weile hin, und natürlich möchte Nvidia auch bis dahin weiter Karten verkaufen und gegen die Konkurrenz von AMD möglichst gut da stehen. Natürlich ist da ein voll ausgebauter Chip und ein gesenkter Preis ein probates Mittel; was ergibt daran keinen Sinn?
Für CB lohnt es sich nicht. Man muss wissen was man macht und was mit den Ressourcen, die man zur Verfügung hat, anstellt und welche Zielgruppe man damit erreichen kann und will.
Wenn Igor z.B. eine Simson 50 ccm³ mit einer Wärmebildkamera "durchleuchtet", weil es ihm Spaß macht und weil er es kann, dann ist das etwas anderes.
Jeder muss seinen Platz finden und wenn er damit noch Geld verdienen kann, sind nicht nur wir Konsumenten glücklich. Hinter die Kulissen darf man sowieso nur selten schauen aber das Endergebnis ist wichtig.
Daher wundere ich mich auch immer noch, dass @FormatC nicht mehr hier am Start ist. Habt ihr euch gestritten @Wolfgang?
mfg
p.s.
hemmi1982 schrieb:
Dann hätten die auch einfach den Preis senken können.
Wie immer, geht es da auch um Psychologie, und die hat man nun mal auf seiner Seite, wenn der Kunde erstens mit einer "Super"-Karte das Gefühl hat, etwas Besseres als eine normale 4080 zu bekommen, und zweitens mit dem Vollausbau die Gewissheit, dass bis zur nächsten Kartengeneration kein besseres Modell mehr mit diesem Chip auf den Markt kommen wird, völlig unabhängig davon, wie viel (oder wenig) Mehrleistung das in der Praxis tatsächlich bedeutet. Hinzu kommt, dass einer solchen Preissenkung - alleine schon durch die ganze Vorberichterstattung und die Tests - ungleich mehr Aufmerksamkeit zuteil wird, wenn man sie mit einem neuen Super-Modell verbindet, anstatt einfach das alte billiger zu machen. Und zu guter Letzt hat man das neue Design auch dazu genutzt, Änderungen umzusetzen, die sich aus den bisherigen Erfahrungen mit der 4080 speisen, wie etwa die modifizierten VRMs.
Man kann Nvidia schon zutrauen, dass sie den Aufwand eines neuen Modells nicht auf sich nehmen würden, wenn sie sich nicht irgendwas Handfestes davon versprechen würden.
Und wenn man bedenkt, dass innerhalb von 17 Minuten es schon 40 Kommentare gibt, 21 innerhalb 10 Minuten, dann wird eh wenig gelesen. Bildchen schauen, Meinung posten.