Jan schrieb:
Für den heute veröffentlichten
Test der Nvidia GeForce RTX 4080 Super hat ComputerBase für genau dieses Modell den Pressetreiber GeForce 551.22 genutzt, weil erst dieser das 3. Super-Modell unterstützt. Inwiefern allein der Treiber einen Leistungsunterschied ausmacht, hat sich die Redaktion aber ebenfalls angesehen.
Zur Notiz: RTX 4080 vs. RTX 4080 Super: Der neueste Treiber macht im Testparcours keinen Unterschied
Tja, Physik bleibt halt Physik. Warum sollten "gleiche" GPUs, deren Vorgänger schon vor ca 10 Jahren oft beim undervolten schneller wurden, heute noch irgenwelche Recorde brechen? Irgendwann bin ich an der grenze was man an Wattage pro mm² abführen kann.
DIe 4080 war halt schon zum release schnell! Nur halt zu teuer. Daran ändert leider auch wenig die "attraktive" Preisleiter, aus überteuerten und kastrierten "Einsteiger" und "Midrange" Produkten. ^^
Kurz gesprochen, die 4080 war schon zum release eine beidruckende Karte. Bei einer schwachen und sehr entäuschenden 40er Serie, wo das "Entrylevel" für Aufrüster bei 12GB VRam und PCIE x16 bei 600€ beginnt. Da könnte und soll vermutlich die 4080 Super als Schnäpchen anmuten.
Ich hoffe ja, das über kurz oder lang über Packaging wieder etwas richtung P/L raus zu holen ist... vermutlich erst in 5-10 Jahren, wie man bei AMD sehen kann. Ich vermisse die Zeit wo man für 200€ noch für ein echtes Upgrade brauchbare GPUs bekommen hat.
PS: wäre es mal möglich zu berechenen was zb 1std Zocken an Strom kostet liebes CB-Team? Wäre schöne es da einen praktikableren vergleich gäbe mit aktuellen kw Preis pro Stunde. Ihr habt ja oft ein ähnliches System beim Preis, wo auch der Straßenpreis inkludiert ist, was zwar manchmal, gerade bei älteren Artikeln nicht immter funktioniert, aber doch oft auch sehr praktisch im Vergleich ist. So etwas bei kilowatt stunden, muss ja nciht aufs komma genau sein. Nur fände ich sone möglichkeit wo man "Stromkosten" pro jahr, überschlagen könnte und vergleichen könnnte, schon sehr praktisch.