Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News„RTX 5090 Ti“ oder RTX 6000 Blackwell?: Prototyp mit GB202 nutzt zweimal 12V-2×6 für 800 Watt TDP
Theoretisch. Praktisch geht es darum verfügbare Produktionskapazitäten optimal auszunutzen. Heißt --> solange der Heim-Enthusiast nicht bereit ist pro Chipfläche ähnlich viel zu zahlen wie es bei bspw den AI Beschleunigern für Rechenzentren gibt, wird es auch keine 5090 TI geben.
Außer irgendein Konkurrent kommt und zwingt Nvidia dazu aus taktischen Gründen doch eine 5090 TI zu bringen (was zumindest aktuell eher unwahrscheinlich ist).
Stromverbrauch ist jedenfalls ganz weit weg von einer Fachdiskussion.
Intellektuell ansprechend wäre Strombedarf. Und man spart sich auch noch 3 Buchstaben.
ist natürlich ärgerlich für alle die sich in letzter Zeit ein neues Netzteil gekauft haben und nur einen 12V-2×6-Stromanschluss besitzt. Ansonsten wenn die Strompreise in Zukunft sinken, dann kann die Karte auch ruhig 1000Watt saugen
Iiirgendwann, verstehen auch die ComputerBaseler, dass Effizienz nicht heißt dass die Karte wenig verbraucht. Und eventuell verstehen die Leute auch irgendwann, dass es mehr als nur Gamer gibt. Irgendwann, vielleicht.
In vielen Szenarios werden sonst halt statt einer GPU die 800 Watt verbraucht, zwei mit jeweils 400 Watt gekauft. Aber das wollen viele nicht verstehen. Genau so wenig, wie dass eine 5090 keinem aufgezwungen wird, man darf sich gerne die kleineren Modelle mit weniger Stromverbrauch holen, effizienter sind die trotzdem nicht.
Also der Stromverbrauch ist ja jenseits von Gut und Böse. Ich muss die Karte nicht kaufen und das kann mir egal sein. Aber Spiele werden dahin optimiert. Wenn die 5090 draußen ist, wird es bald Spiele geben, die diese GPU aus nutzen und die Leute mit den "Einsteiger Low End Budget GPUs" (RTX 4060) stehen denn doof da. Wenn ne 5090Ti kommt, dann wird die auch ausgereizt und Spieler mit ner 4070 stehen doof da.
Ich habe um die 300€ für meine 4060 bezahlt und die ist an sich gut. Die Karte ist kein Jahr alt und es gibt jetzt schon 2 Spiele die nicht laufen. Also ich erwarte, dass ich in 1080p Mittel zocken kann. Ein Spiel startet nicht einmal mit diesen Settings.
Jaja, die Karte hat nur 8GB VRAM und Nvidia ist doof. Aber meine alte GTX 1650S hatte 4GB VRAM und das hat lange gereicht. Spiele sahen vor 5 Jahren nicht schlechter aus mMn. Dazu einen Stromverbrauch von ca 80W. Das war ein absoluter Traum.
Ich denke dass GPU Hersteller Spieleentwickler-Studios stark beeinflussen. Warum reichen 8GB nur noch für 1080p low?
Ich finde der Stromverbrauch ist zu hoch und ich hoffte auf kleinere, sparsame PCs.
Man nutzte den Hardwaremangel der Corona-Zeit und hat Einsteiger GPUs entfernt bzw die 50er Serie entfernt bzw so schlecht gemacht, dass die unbrauchbar waren. Auch AMD!
Man muss sich bewerben eine GPU zu bekommen.
Man zahlt inzwischen fast immer über UVP.
Ich sehe mich bald dazu genötigt mir einen Mac Mini zu kaufen und dazu ne Konsole.
Liest Du auch die Systemanforderungen? Sowas ist mir nämlich noch nie passiert. Zudem gibts für 8 GB Karten massig Titel. Muss ja nicht alles aus 24/25 sein, oder?
Habe Gestern Preise von Custom Karten über 3000 € für die 5090 und 1800 € für die 5080 gesehen.Das waren allerdings Händlerpreise.Aus meiner Erfahrung geht da durch die Scalper noch mehr.
Verrückte Welt…
Das finde ich zu kurz gedacht von dir
1. Die 5090 nutzt ja schon den selben Chip, nur eben mit deaktivieren Einheiten.
2. Würde man deiner Begründung folgen, hätte nvidia die 5090 gleich ganz gelassen.
3. Sind die Fertigungskapazitäten, soweit ich weiß, kein Engpass.
Eine TI wäre die Krönung zum Abschöpfen der solventesten Gamern. Deswegen muss es nicht kommen, überraschen würde es mich aber nicht.
Natürlich und das auch zurecht. Weiß nicht was es da zu lachen gibt ?
Das Ding ist ein Prototyp.
Und während für die Leistung einer 5090 die 575w vielleicht sogar noch effizient sind beim aktuellen Technik stand, steht wohl außer Frage das für die geringe weitere Steigerung 225w mehr einfach nur ineffizient wären.
Was wohl der Grund ist warum das fertige Produkt so ist wie es ist und eben nicht wie der anfängliche Prototyp.
Wie manche hier dann wieder eine 5090 ti her Fantasieren... Keine Ahnung.
Viel mehr zeigt es das Blackwell ein quasi Ada refresh ist und die Architektur am Limit ist.
ich bin ein Dummerchen... ich dachte eigentlich, der neue Stecker wurde eingeführt, damit man nicht mehr bis zu 3 Kabel braucht, auch mal mehr als nur 450 Watt durch ein Kabel geballert werden können, vor allem aber auch, damit man nicht direkt wieder mit mehr als einem Kabel hantieren muss...
da ist meine Annahme jetzt ja nicht so toll gealtert... oder wie?
Deine Annahme altert doch gut. Oder hast du ein fertiges Produkt seit Einführung des Steckers gesehenen was mehr als 675 w verbraucht? (600 Stecker + PCIe Slot)
Ich nehme eine, wenn ich die morgen bekomme zahle ich auch gern doppelt. Was soll der Geiz, ganz ehrlich. Wer will schon der reichste auf dem Friedhof sein.