MrNejo schrieb:
Dann wäre man eigentlich wieder beim Verlauf vor Turing: 80er Karte (3080) und Titan (3090) zu Beginn und später eine „ti“ (oder diesmal auch „Super“) nachgeschoben. Dieses „doppelte Abkassieren“ macht Nvidia schon lange und ist nichts Überraschendes.
Das "Nachschieben" ala Super ist diesmal aber wohl nicht mehr möglich, da die 3080 direkt den GA102 nutzen wird. Bei Turing wurde am Anfang der TU104 genutzt. (Pascal GP104)
Diesmal war wohl ein eigener Chip geplant (GA103) der aber wieder in der Versenkung verschwunden ist. Warum eigentlich?
Diese direkte Nutzung des Big-Chips für die normale Oberklasse macht mich genauso, wie die sehr hohen TDPs ein wenig stutzig.
Warum machen die das, wenn sie es nicht nötig hätten?
Die einfachste Erklärung wäre noch: Sie haben ihre Designziele verfehlt und müssen nun auf anderen Wegen die Leistung herbei zaubern.
Andererseits war schon vor einem Jahr von einem "Nvidia-Killer" die Rede, wo alle (ich inklusive) herzlich drüber gelacht haben. Nebenbei war AMD aber komischerweise immer dann am besten, wen sie den Mund gehalten haben.
Daher noch die andere Erklärung: Nvidia hat letztes Jahr nicht gelacht, sich möglicherweise passende Informationen besorgt oder die (Navi) Leistung im (für sie) Worst Case hochgerechnet und quetscht diesmal schon von Anfang an alles aus den Chips heraus.
Entweder um ganz Vorne oder zumindest Wettbewerbsfähig zu bleiben.
Nachdem Nvidia Jahrelang den Effizienzkönig gegeben hat, warum sonst sollten sie diesmal alle Grenzen des guten Geschmacks niederreißen?
Alle, welche hier herum schwadronieren, wie: "Kein Problem, ich steck mir auch 500W in den Rechner", haben wohl noch nie so eine Dicke Karte gehabt. Die abzuführende Wärme ist der wahre Knackpunkt. Oder haben alle eine Klimaanlage zuhause?
Ich werde definitiv nichts kaufen, ohne mir vorher AMD angeschaut zu haben. Cyberpunk gibts im November / Dezember auch noch zu kaufen.