Selbst ohne UV sollte die Karte effizienter sein als der Vorgänger, weil sie mit 30% mehr Einheiten bei deutlich niedrigerem Takt die gleiche Leistung bringen kann. Dafür reicht das Setzen eines entsprechenden Power Targets. Der niedrigere Takt in Verbindung mit der regulären VF Kurve der 5090 könnte bereits mehr bringen als UV einer 4090.dohderbert schrieb:Größerer Chip..die Leistung wird mit mehr Watt erkauft.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce-Leak zum Fest: Erste Fotos von PCB und GPU der Nvidia GeForce RTX 5090
- Ersteller Jan
- Erstellt am
- Zur News: GeForce-Leak zum Fest: Erste Fotos von PCB und GPU der Nvidia GeForce RTX 5090
mTw|Marco
Lt. Commander
- Registriert
- Juni 2013
- Beiträge
- 1.043
hans_meiser schrieb:Da sollte man aber auch berücksichtigen, daß man die Leistung absolut nicht vergleichen kann. Es ist nicht vergleichbar.
Und die 5500 AGP kostete bei der Markteinführung USD 450, sind heute USD 780 (ca), also billig war das auch nicht.
20 fach USD 780, also USD 15600.... das ist doch etwas an den Haaren herbeigezogen, findest Du nicht?
Du hast ihn falsch verstanden.
Er schreibt doch von der Leistungsaufnahme. Ausgehend von max 600W der kommenden 5090 in Vergleich zu den 30W der Voodoo.
spekulation ja. macht erst sinn wenn die karten auch getestet sind ich bin der überzeugung dass die 5090 ein brett wird, und genau wie die 4090 keinerlei konkurrenz haben wird. und effizienter als der vorgänger.dohderbert schrieb:aber alles andere über die RTX 5090 ist Spekulation...
Es gibt genügend Beispiele wo die Vorgängergeneration großartig war und die Nachfolgegeneration nicht so...
"Overkill" ist die 4090 wenn man vor allem Civilization oder American Truck Simulator spielt oder AMD sponsored Games mit kastriertem Raytracing, dann ja. ;-)theGucky schrieb:Unter 4k brauchste keine 90er. Da ist schon die 4090 overkill.
Unter UWQHD gilt das gerade bei RT+PT Games aber auch nicht mehr, siehe Indy, Wukong, AW2 oder das iterativ mehr durch spoinsored Nvidia Technologie aufgerüstete Cyberpunk mit PT und RR
Ich hatte zu oft Szenarien, in denen ich mir nochmal 30 oder mehr fps on top gewünscht hätte bzw, einen höheren fps Korrdor an sich.
Meine persönliche Wohlfühlzone sind auch schon längst nicht mehr 60 fps, sondern eher 80-90, da nochmals deutlich smoother.
Manche wollen auch eben generell pauschal die 120 oder 144 fps "voll" haben, egal welches Game.
TLDR: Unter 3440x1440 ist mir persönlich meine 4090 hier und dort bereits zu "langsam".
Wird Zeit für die 5090
=dantE=
Lt. Commander
- Registriert
- Feb. 2021
- Beiträge
- 1.393
Von mir aus darf die Karte ruhig 5.000€ kosten! Oder sogar 10.000€ … ich erinnere hier gern an @zeedy. Er hatte es damals auf den Punkt gebracht! /s
… und jetzt einen schönen, letzten Weihnachtstag.
Die Karte kommt, wir müssen uns nicht mehr lang in Vermutungen ergehen sondern haben bald Zugriff auf reelle Daten.
… und jetzt einen schönen, letzten Weihnachtstag.
Die Karte kommt, wir müssen uns nicht mehr lang in Vermutungen ergehen sondern haben bald Zugriff auf reelle Daten.
Ergänzung ()
Ich haber nur immer das Gefühl, dass die Leistung des nVidia Topmodels nur im ersten Jahr ausreicht … und dann kommt die verschwenderische Spieleentwicklung und sorgt wieder für Mangelerscheinung…Laphonso schrieb:TLDR: Unter 3440x1440 ist mir persönlich meine 4090 hier und dort bereits zu "langsam".
Wird Zeit für die 5090
Inno3D iChill FrostbiteLauneBaer86 schrieb:Finde ich immer wieder faszinierend wie klein sie die Boards mittlerweile bauen können im Verhältnis zur Power. Schade nur, dass dann am Ende immer ein riesiges Kühlmonster drauf gepackt werden muss 😅
https://www.inno3d.com/product/inno3d-geforce-rtx-4090-ichill-frostbite
Anzunehmen, dass die auch die 5000er Serie sehr kompakt gestalten werden.
der_Schmutzige
Commander
- Registriert
- Juli 2004
- Beiträge
- 2.802
Ich habe mir letzten Hochsommer an manchen Tagen das Zocken verkniffen mit meiner 4090.
Jetzt kommen noch mal ~150W obendrauf, und das 12v2x6-Kabel wäre somit auch schon ausgelastet.
Diese Entwicklung gefällt mir nicht...
Jetzt kommen noch mal ~150W obendrauf, und das 12v2x6-Kabel wäre somit auch schon ausgelastet.
Diese Entwicklung gefällt mir nicht...
Also ich finde das hier=dantE= schrieb:Ich haber nur immer das Gefühl, dass die Leistung des nVidia Topmodels nur im ersten Jahr ausreicht … und dann kommt die verschwenderische Spieleentwicklung und sorgt wieder für Mangelerscheinung…
https://imgur.com/a/path-tracing-indy-5827Gdd
ist schon optisch genau das, wo wir doch hin wollen.
In diesem Sinn, das schreibe ich hier seit rund 2 Jahren, wäre es toll, wenn die 90er Klasse RT Performance und DLSS für maximal 500 Euro zugänglich wäre, dann könnten alle neuen Games in die Indy Richtung gehen.
Gibt sicher auch Games, die ziehen zu viel GPU Leistung für das, was sie an Grafikeffekten auf den Screen hauen.
Aber solanghe RT on vs RT off zur Immersion beiträgt, ist es das wert.
Genau daher ist die UE5 ja so "teuer" an GPU Leistung, Lumen und Nanite brauchen am Ende dann eben doch die Hardware.
Ergänzung ()
Wobei ich glaube, dass 5000 dann wieder albern sind. Da wäre ich selbst dann auch raus.=dantE= schrieb:Von mir aus darf die Karte ruhig 5.000€ kosten!
Allerdings: Wenn sie aber noch teurer wird, dann bleibt sie im Wiederverkauf auch teuer ;-)
Die gebrauchten 4090er werden für bis zu 1500 Euro gebraucht auf ebay und Co verkauft werden, weil es kein 5070 mit 4090 Performance geben wird und weil die 24 GB VRAM halt auch für workloads tauglich und begehrt sind.
Meine 4090 ist für 1500 bereits verkauft, und vor einigen Tagen schrieb hier jemand, dass die gebrauchte 4090 für sogar 1700 Euro noch verkauft wurde.
Eine 5090 mit 32 GB VRAM wird auch in 2 Jahren dann für 70% des Launch UVP verkauft werden, daher ist es jetzt fast egal ob sie 2000 kosten wird oder 2500.
Man schaue sich mal an wie teuer die 3090er noch sind, 4 Jahre später.... Und die waren nicht so gut wie das 4090er "Paket".
Zuletzt bearbeitet:
- Registriert
- Apr. 2001
- Beiträge
- 16.034
Artikel-Update: Nach einem Foto der unbestückten Platine macht jetzt auch das Bild einer bestückten Variante die Runde durchs Internet. Zu sehen ist damit erstmals auch die GB202-300-GPU, wie sie auf der RTX 5090 zum Einsatz kommen soll. Laut Aufschrift handelt es sich noch nicht um Serienhardware, sondern ein so genanntes „Qualification Samples“, mit dem die Boardpartner ihre Platinen und Kühler testen können. Auch die GDDR7-Speicherchips haben ihren ersten Auftritt.
[Embed: Zum Betrachten bitte den Artikel aufrufen.]
sehe ich genauso, bei Nvidia wird GDDR7 die Hauptleistungsvorteile Bringen, bei AMD wird es das weg vom Chiplet sein die Frage am ende, bringt das AMD % gesehen die selben vorteile wie Nvidia der Wechsel auf GDDR7 denke nicht ganz aber es dürfte allemal einen Kostenvorteil bringentheGucky schrieb:Der Sprung wird damit eher durch den GDDR7 kommen.
was ich Interssant finde, ist das wenn der Speicher ausgeht, auf einmal das mehr an Hardware mehr bringt.
siehe Bilder in FHD liegt die 4060 5% hinter der 3060ti und 11/21% hinter der 7700xt/4060ti
in WQHD bauen 3060ti/7700xt den vorsprung auf 9/21% aus die 4060ti bleibt jedoch mit +1% fast unverändert zur im Abstand zur 4060. habe Dragon Age & Indi absichtlich rausgenommen da die wohl schon in FHD am Speicher verrecken zu scheinen und auf AMD dadruch eh schon besser laufen.
Anhänge
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 7.466
wie soll sie auch? AMD hat ja vor Monaten schon ankündigt das es da kein Konkurrenz Produkt geben wird.lazsniper schrieb:ich bin der überzeugung dass die 5090 ein brett wird, und genau wie die 4090 keinerlei konkurrenz haben wird.
Hat aber wiederum den Vorteil, dass man den Kühler am hinteren Ende mit einem großen Lüfter durchblasend gestalten kann, ohne das die Karte dann gesamt übermäßig lang wird.LauneBaer86 schrieb:Schade nur, dass dann am Ende immer ein riesiges Kühlmonster drauf gepackt werden muss
Simanova
Rear Admiral
- Registriert
- Dez. 2012
- Beiträge
- 5.312
Bin eher gespannt darauf, was AMD für RAM Module einsetzt. Die 7900XTX läuft noch auf GDDR6 (2 Generationen älter als die kommende Nvidia RTX 5090). Wenn das wieder GDDR6 ist, dann spart AMD zwar Geld, schafft sich aber neue Probleme.
Zuletzt bearbeitet:
Fighter1993
Vice Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 6.952
Das frag ich mich auch immer.HisN schrieb:Wozu ist eigentlich der ganze Schnulli auf den langen PCBs, wenn man das auch in kurz und klein hinbekommt?
Ich meine die "normalen" PCBs sind übersäht mit winzigsten Teilen. Braucht man die alle am Ende gar nicht?
Woher kommt eigentlich die Mär das die großen Karten ach so effizient sind?
Aus dem 4080 Super Test:
Die 4090 ist gerade so etwas effizienter als die AMD Konkurrenz, undervolten lässt sich jede Karte und wird dadurch effizienter, das ist kein Argument.
Beim Gaming sind mehr Shader immer weniger effizient, weil die Auslastung nicht linear skaliert. Kleine Karten werden nur ineffizienter wenn man den Takt hochprügelt um Leistung zu erhalten.
Aus dem 4080 Super Test:
Die 4090 ist gerade so etwas effizienter als die AMD Konkurrenz, undervolten lässt sich jede Karte und wird dadurch effizienter, das ist kein Argument.
Beim Gaming sind mehr Shader immer weniger effizient, weil die Auslastung nicht linear skaliert. Kleine Karten werden nur ineffizienter wenn man den Takt hochprügelt um Leistung zu erhalten.
Voodoo_Freak
Lieutenant
- Registriert
- Aug. 2005
- Beiträge
- 964
Auf der anderen Seite sollen wir E-Autos fahren, aufs Fliegen verzichten, die Heizung runter drehen und Wasser sparen. Merkste selber oder?lalanunu schrieb:Und die dummen Deutschen jammern immer weiter, bis keiner mehr auf der Welt weiß, wer oder was Deutsche überhaupt sind.
Immer schön gegen den Fortschritt stemmen.
Wenn die Karte 600 Watt benötigt, dann ist dem so - auf die Effizienz kommt es an!
Notfalls Undervolting auf 400 Watt und dann... ach ja, immer weiter jammern.
Schlusswort: Niemand wird gezwungen diese Karte (mit dem für sich zu "hohem" Verbrauch und Preis) zu kaufen!
Die Karte (und ihr Vorgänger) ist eine absolut unsinnige Verschwendung von Ressourcen. Wenn sie jetzt besonders effizient wäre (de Facto ist der Vorgänger zumindest das überhaupt nicht, auf die von dir konstruierte Effizienz bei 600 Watt Verbauch beim Nachfolger bin ich jetzt schon gespannt) oder wirklich Leistung bieten würde, die man zwingend für Spiel XY braucht und einem die Kinnlade runter klappen lässt, ok. Aber so bleibts einfach nur eine teure Spielerei. Und nein: Es ist eben kein FORTSCHRITT, einfach das maximal technisch mögliche zusammenzuklatschen, koste es was es wolle. Es geht hier auch nicht um den "Zwang" irgendwas zu kaufen, sondern zu dem Thema eine Meinung zu haben.
Interessant finde ich lediglich das kleine PCB.
Zuletzt bearbeitet:
Ich vermute das dieses Jahr AMD wieder nicht in die Pötte kommt und abliefern wird.
Allein schon die neue Namensgebung deutet an das man versucht einen direkten Vergleich 7800XT vs 8800XT,
zu unterbinden bzw. zu erschweren. AMD bietet auch wieder nur GDDR6 !?
Es kommt mir gerade vor wie zu Zeiten von Bulldozer, als einem nichts anderes übrig blieb als auf Intel umzusteigen, mal ganz abgesehen vom Preisniveau.
Wobei mir der Umstieg vermutlich nicht möglich sein wird da mir 12GB VRAM der 5070 nicht ausreichen.
Aber, zum Glück komme ich ja auch noch ein oder zwei weitere Jahre mit der 7800XT klar.
Letztlich bin ich aber wie alle sehr gespannt auf die kommenden Tests, das wird ein sehr spannender Winter25.
Allein schon die neue Namensgebung deutet an das man versucht einen direkten Vergleich 7800XT vs 8800XT,
zu unterbinden bzw. zu erschweren. AMD bietet auch wieder nur GDDR6 !?
Es kommt mir gerade vor wie zu Zeiten von Bulldozer, als einem nichts anderes übrig blieb als auf Intel umzusteigen, mal ganz abgesehen vom Preisniveau.
Wobei mir der Umstieg vermutlich nicht möglich sein wird da mir 12GB VRAM der 5070 nicht ausreichen.
Aber, zum Glück komme ich ja auch noch ein oder zwei weitere Jahre mit der 7800XT klar.
Letztlich bin ich aber wie alle sehr gespannt auf die kommenden Tests, das wird ein sehr spannender Winter25.
Siehe z.B. PCGH: PCGH: Effizienz-Rangliste Grafikkartenmetoer schrieb:Woher kommt eigentlich die Mär das die großen Karten ach so effizient sind?
Dann setze mal das Power Target einer 4090 so, dass sie die gleiche Anzahl Frames wie eine 4080 oder eine 7900XTX liefert. Natürlich ist die 4090 die mit Abstand effizienteste Karte. Eine Karte wird mit mehr Einheiten immer effizienter, weil man deutlich weniger Takt für die gleiche Leistung benötigt.metoer schrieb:Beim Gaming sind mehr Shader immer weniger effizient, weil die Auslastung nicht linear skaliert. Kleine Karten werden nur ineffizienter wenn man den Takt hochprügelt um Leistung zu erhalten.
Ähnliche Themen
- Antworten
- 210
- Aufrufe
- 18.048
- Antworten
- 234
- Aufrufe
- 21.675
- Antworten
- 183
- Aufrufe
- 22.055