News Wochenrück- und Ausblick: Die Ruhe vor dem GeForce-RTX-5000-Sturm

Bei mir hier von einem Sturm nichts zu spüren.
Wenn man still ist hört man leise die Bomben fallen im Osten, aber ansonsten alles ruhig.
Kein Grund zur Beunruhigung also.
 
Sinatra81 schrieb:
Des weiteren leidet Krik evtl an selektiver Wahrnehmung.
Nö. Ich habe die tägliche News zur 5090 kritisiert. Ich verstehe, dass da einige sehr heiß drauf sind. Sollen sie, das ist schließlich ihre Sache.
Ich finde es aber nervig, weil der Inhalt sehr wahrscheinlich mit dem kommenden Test ohnehin überholt ist. Statt täglich eine News zu posten, ergibt es vielleicht mehr Sinn, wöchentlich eine Zusammenfassung der aktuellen Gerücht zu posten, statt täglich drei Absätze zu veröffentlichen, die man auch mit einem Satz abhandeln kann.

Sinatra81 schrieb:
Wenn man jetzt daran ein Interesse hat gepaart mit Neid(dass andere daran Freude haben und gespannt auf die neuen Sachen warten) oder Gram, dann triggert das einen.
Neid ist da nicht im Spiel. Ich würde mir keine Karte im vierstelligen Bereich kaufen. Nicht weil ich es nicht könnte, sondern weil ich nicht so viel für ein paar FPS mehr ausgeben würde. Ich bin da einfach nicht die Zielgruppe.

xexex schrieb:
Die wenigsten Webseiten machen noch Netzteiltests, oder übernehmen sie von Aris (Igors Lab, TechPowerUp usw.). Man braucht dafür schlichtweg Leute vom Fach und teures Equipment, beides fällt nicht plötzlich vom Himmel.

CB ist halt kein LTT oder GN, die Millionen von Google in den Hintern gesteckt bekommen, mit den sie dann um sich werfen könnten. So sieht es halt aus, wenn man gar nicht mehr weiß wohin mit dem Geld.
Hatte CB nicht vorletztes Jahr eine große News gepostet, dass sie sich so ein schickes Strommessgerät beschafft haben? Was ist denn eigentlich daraus geworden? Ich bin damals davon ausgegangen, dass damit nun alle paar Wochen oder so ein Test herauskommt. Erwähnt wurde es aber nie wieder.
Es interessiert mich wirklich, welche Stromspitzen z. B. heutige Grafikkarten, kleine wie große, produzieren. Oder mal über den Rand schauen und vielleicht mal eine 10 GbE-Karte (in SFP+-Form ;)) ausmessen. Gerne auch mal Kupfer und Glasfaser vergleichen.
 
lynx007 schrieb:
Deshalb Produziert NV für die Industrie was das Fließband hergibt
Wenn das tatsächlich der Fall wäre und sooo viele Karten in die Industrie verkauft würden, warum wird der Gebrauchtmarkt bei Neuerscheinung neuer Generationen dann nicht mit alten Karten geflutet? Firmen die teure Hardware massenhaft kaufen um Zeitgewinne und Produktionsvorteile durch schnelleres computing kaufen stoßen schnell altes ab um es durch neueres noch schnelleres zu ersetzen, das gleiche siehst du ja all die Jahre mit vielkernigen Xeon Cpus welche immer günstig massenhaft von den Firmen abgestoßen wurden wenn wieder ein Server Austausch anstand.

Wenn also die Industrie wirklich so viele 90er Karten schluckt wie du meinst, müsste es eigentlich jetzt schon, spätestens aber in ein paar Jahren eine rießige Flut an gebrauchten 90er Karten auf dem Markt geben. Sieht man aber bisher nicht.
 
  • Gefällt mir
Reaktionen: Sinatra81
Rockbreak schrieb:
Firmen die teure Hardware massenhaft kaufen um Zeitgewinne und Produktionsvorteile durch schnelleres computing kaufen stoßen schnell altes ab um es durch neueres noch schnelleres zu ersetzen
Firmen müssen zumindest in Deutschland Gewährleistung bei solchen Verkäufen geben. Keiner bei Sinnen macht das.
 
shaboo schrieb:
Das ist doch einfach Unsinn. Was man auf den Markt bringt, das will man auch verkaufen

Nein, zumindest nicht immer in beliebiger Menge. Es ist völlig Normal in vielen branchen Produkte anzubieten, die deutlich weniger verkauft werden, als es der hersteller könnte. Warum? Weil es ein einfaches Marketingtool ist und die Gesamtwahrnehmung des Unternehmens langfristig steigert und über das gesamte portfolio strahkraft hat. Es geht um eine langfristige Strategie und nicht um kurzfristige Gewinnmaximierung.

Rolex könnte auch LKW Ladungen an Daytoas und Submariners in den Laden stellen und an jeden verkaufen, der eine will. Hint, dass machen Sie aber nicht, weil man ein Branding aufbauen und erhalten möchte. Genauso wie Ferrari deutlich mehr als 599 Daytona SP3 verkaufen könnte. Porsce könnte auch deutlich mehr GT3 RS verkaufen, ohne vorher zu verlangen das halbe Sortiment gekauft zu haben. Ja offensichtlich will nicht jede Firma jedes produkt beliebig oft verkaufen.

Die 5090 ist ein nebenprodukt aus dem deutlich kukrativeren AI Geschäft. Es ist für Nvidia ziemlich leich hier den Anteil der Chips der in 5090 Krten fließt und den Anteil der in andere Produkte fließt variabel zu gestalten.

shaboo schrieb:
lar sind derart simple Wahrheiten zu einfach für irgendwelche komplex verschwurbelten Verschwörungstheoretiker; das sehe ich ein. :rolleyes:

Ach ja, wenn einem die meinung anderer nicht passt, sind es Verschwörungstheoretiker. Ein Wort das dank solchen lächerlichen Aussagen wie deinen heutzutage keinerlei Bedeutung mehr hat. Bin ich auch ein Verschwörungstheoretiker, wenn Ende Januar nicht die ganzen Regale voll mit 5090 sind oder ignorierst du das dann einfach weg? Würde Nvidia davon Millionen verkaufen wollen, würden sie ja alles an Kapazitäten dort reinpumpen, was Sie haben.

lynx007 schrieb:
Moment, dachte GB202 wird zurückgehalten, gehortet oder gar nicht produziert.
Jetzt erzählen sie plötzlich das Ding wird eigentlich für Geschäftskunden produziert?!
Was stimmt den jetzt?

Wo habe ich das geschrieben? Der GB202 wird kräftig produziert werden, nur eben nicht für Gaminggrafikkarten. Nichts anderes habe ich geschrieben. Wenn nichts für die eigene Argumentation dasteht, erfindet man einfach was dazu?
lynx007 schrieb:
Und deshalb stehen bei einem ITler mit etwas BWL kenntnis bei der Aussage: "NV halte etwas zurück" die Haar zu Berge

Und genbau das habe ich nicht geschrieben, aber wenn etwas nicht da steht, erfindet man es halt einfach und das obwohl man schon ein Zitat nutzt...

lynx007 schrieb:
Deshalb kann AMD und Intel nicht einfach erinspringen und etwas günstigeres anbieten, wärenden NVs Kunden bereit sind "jeden" Preis pro mm² Wafer zu bezahlen. Denn warum sollte TSMC and Intel bzw AMD den Wafer günstiger abdrücken, wen NV Kunden dafür praktisches pures Gold auf den Tisch legen.

Die Logik hat ein paar ziemliche Lücken. Nvidia ist nicht im Ansatz TSMCs größter Kunde. Müssten Sie nach der abenteuerlichen Logik, Nvidia könnte jeden mm² von TSMC zu beliebigen Preisen verkaufen sein. Apple ist mehr als doppelt so groß für TSMC. Und ja NV hat ca. 50% Mehr Anteil als AMD bei TSMC. AMD ist aber auch mit ganz anderen produkten erfolgreich. Die machen guten Reibach mit ihren kleinen Zen Chiplets. TSMC hat weder Interesse daran, dass ein Kunde zu groß wird noch können AMD oder Intel einfach so Nvidias platz einnehmen. Denn entscheidend ist nicht bei TSMC einfach möglichst viele Kapazitäten zu buchen, sondern daraus auch Produkte zu designen, die der Markt nachfragt.
 
Aktuell sieht es sehr stark danach aus, dass die Mehrleistung quasi 1:1 durch mehr Strom/Hitze erkauft wird.

Ich hoffe ja noch, dass ich mich täusche, aber sollte es wirklich so sein wird das ein eher mauer Generationssprung.

Der verbesserte Upscaler ist hingegen interessant; Framegen 4x aufgrund der höheren Latenz eher weniger.
 
ja, wenn es keinen shrink gibt wo soll sie auch sonst her kommen außer man macht den Chip größer ?
ich finde es immer wieder sehr sehr Lustig was hier einige von sich geben ...
Irgendwann stößt man halt an Grenzen des Physikalisch machbaren und dann ist es halt so das der Chip größer gemacht werden muss was natürlich dann auch in Mehrverbrauch endet.
die Zeiten in den Fertigungssprüngen sind nicht mehr möglich. ist doch ganz einfach zu verstehen oder irre ich ? bei einem Verbrennungsmotor geht es dann auch nur noch über MEHR HUBRAUM. wir sind bei 3/4nm - das geht nicht immer so weiter .....
 
  • Gefällt mir
Reaktionen: Sinatra81 und xexex
Bierkotze schrieb:
die Zeiten in den Fertigungssprüngen sind nicht mehr möglich. ist doch ganz einfach zu verstehen oder irre ich
Es herrscht leider auch hier im Forum immer noch der Irrglaube, die technologische Entwicklung in der Chipfertigung wird endlos mit der "gewohnten" Geschwindigkeit weiter gehen. Dabei vergessen viele, nach UV kommt nichts mehr und auch die Strukturen sind nah am Ende des physikalisch machbaren.

Ich bin mir ziemlich sicher, die meisten hier im Forum werden noch eine Zeit erleben, in der Fortschritte in der Chipfertigung gar nicht mehr stattfinden. Es wird nur noch größere Chips, mehr Chips und vor allem teurere Lösungen gehen.
 
Also ich erwarte hinsichtlich der Fertigung auch nichts mehr großartiges.

Ich tippe eher darauf, dass man zukünftig mehr spezialisierte Chips bzw. Funktionseinheiten verbauen wird, die in ihrem engen Anwendungsbereich konkurrenzlos schnell sind.
Darüber hinaus kann ich mir vorstellen, dass man eventuell dazu übergeht, Standardcode, der überall verwendet wird, in Hardware zu gießen, sodass man hier maximale Effizienz und Performance erreicht.
 
Bierkotze schrieb:
ja, wenn es keinen shrink gibt wo soll sie auch sonst her kommen außer man macht den Chip größer ?
ich finde es immer wieder sehr sehr Lustig was hier einige von sich geben ...
Irgendwann stößt man halt an Grenzen des Physikalisch machbaren und dann ist es halt so das der Chip größer gemacht werden muss was natürlich dann auch in Mehrverbrauch endet. .....

Im Grundsatz ist das schon richtig, aber dennoch kann über Architekturverbesserung (z.B. zusätzliche Cachestrukturen) oder auch durch Software (z.B durch KI/Treiber) viel Effizienz rausgeholt werden. Am einfachsten für den Hersteller ist es natürlich einfach mehr Shader auf den Die zu packen.

Dieser Watt-Wahn ist in meinen Augen einfach nur irre…

Was willst du einem Konsolero sagen: Soll der sich dann auch in 5 Jahren seine PS6 Pro mit 1000W Verbrauch ins Wohnzimmer stellen? Weil mehr Leistung geht nur über Mehrverbrauch.
 
Wan900 schrieb:
Was willst du einem Konsolero sagen: Soll der sich dann auch in 5 Jahren seine PS6 Pro mit 1000W Verbrauch ins Wohnzimmer stellen? Weil mehr Leistung geht nur über Mehrverbrauch.
Die PS6 wird es noch geben, über eine PS7 wäre ich mir da gar nicht mehr so sicher. Die Zukunft liegt in der Cloud und so wie es jetzt schon möglich ist, einfach einen Controller an sein TV Gerät anzubinden, einloggen und losspielen, so wird es auch mit den Marken "Playstation" oder "Xbox" weiter gehen.

Genau übrigens aus dem Grund den du bereits nennst, große spezialisierte Hardwaresysteme kann es irgendwann nur noch in Datencentren geben und "niemand" stellt sich 1000W Konsolen ins Wohnzimmer, wenn er bequem ohne Lärm und ohne Sorgen von überall Spiele streamen kann.

Bei den PCs mag es ruhig noch etwas länger dauern, hier kommen ja sofort alle mit, aber Mods, aber Latenz, aber XYZ um die Ecke, bei den Konsolen wird sich durch den Weg in die Cloud hingegen kaum was ändern.
 
xexex schrieb:
und "niemand" stellt sich 1000W Konsolen ins Wohnzimmer
Müssen sie auch nicht da bei maximaler Ausnutzung was Silizium hergeben kann (Und es wird andere Materialien geben welche Silizium sehr wahrscheinlich ablösen werden), in Verbindung mit Upscaling, Frame Generation etc mehr als genug Leistungsreserven vorliegen um in Zukunft Spiele in einer Bildqualität und Framerate zu spielen wo man nicht mehr wirklich was verbessern kann und muss und das bei weit weniger als 1000W. Was soll nach Path Tracing noch kommen? Super duper mega path tracing damit man Schatten mit der Lupe nochmal pixelgenauer und realistischer machen kann? Meinst du die Leute sehen noch groß Unterschiede zwischen ihren 4k Geräten zu 8 oder 16k? Glaubst du das begeistert Leute noch extrem zum umsteigen? Ich eher weniger.

Sicher mag die Cloud mehr Zulauf bekommen aber zu glauben jeder wird darauf umsteigen sehe ich als sehr unrealistisch. Jemand der ab und zu zockt wird sich keine Abos zulegen wo er 100€+ pro Monat zahlen muss um am Wochenende mal ein bisschen spielen zu dürfen und das bei praktisch nicht merklich besserer Bildqualität, oder glaubst du die komplette Hardware in den Rechenzentren, die Entwicklungskosten für die Spiele etc sind mit 9,99€ pro Monat machbar?

Ich selbst sehe auch absolut keinen Vorteil für den Konsumer auf die Cloud umzusteigen, wo man selbst dann nichts mehr besitzt und alles leihen muss nur um anschließend Spiele nur noch mit Abos spielen zu dürfen.
 
Zuletzt bearbeitet:
Rockbreak schrieb:
Was soll nach Path Tracing noch kommen?
Selbst wenn ich mit "nichts" antworten würde, wie weit ist Pathtracing denn mit der aktuellen Hardware? Eine 4090 ist gerade so ausreichend wenn man DLSS + FG nutzt und auch nur für flüssige 60FPS. Mal angenommen eine 5090 schafft mit MFG die 120FPS bei 4K und 600W, da sind wir schon gar nicht mehr so weit von den 1000W entfernt, die CPU gönnt sich ja auch noch was, und das soll dann das Ende der Fahnenstange darstellen?
 
xexex schrieb:
Mal angenommen eine 5090 schafft mit MFG die 120FPS bei 4K und 600W, da sind wir schon gar nicht mehr so weit von den 1000W entfernt, die CPU gönnt sich ja auch noch was, und das soll dann das Ende der Fahnenstange darstellen?
Silizium hat noch genug Reserven um die Effizienz alleine durch den kleinsten Fertigungsprozess verglichen zum aktuellen Prozess nochmal mehr als zu verdoppeln, heißt 4k mit Path tracing 120fps bei 4k mit 300W. Architekturverbesserungen der Shader und Raytracingkerne sind auch noch nicht bei absoluter Perfektion, da kann auch noch etwas optimiert werden, bist du bei 120fps 4k bei 200W und dank zukünftig richtig gutem Upscaling und Framegeneration kannst du das ganze dann bei 240fps und 8k zocken.

Womit willst du die Cloud dann verkaufen? Dass sie statt 240fps und 8k dann auf 360fps in 16k zocken können (Ist ja egal ob die Latzenz dann um das dreifache oder vierfache ansteigt)?

Wo ist bei dir das Ende der Fahnenstange? Und glaubst du Leute die auf Konsolen zocken, die eh schon keine Super Tech Fanatiker sind welche die absolute Mega Grafik brauchen da sie sonst mit einer 4090 auf dem PC spielen würden, juckt das? Denen geht das doch völlig am Arsch vorbei. Die werden sich dann die Cloud für teuer Geld abonnieren nur um dann festzustellen "Warte mal, das sieht doch genauso aus wie auf meiner alten Konsole, warum muss ich dafür jetzt ein super teures Monatsabo bezahlen?"
 
Rockbreak schrieb:
Silizium hat noch genug Reserven um die Effizienz alleine durch den kleinsten Fertigungsprozess verglichen zum aktuellen Prozess nochmal mehr als zu verdoppeln, heißt 4k mit Path tracing 120fps bei 4k mit 300W.
Ich sehe seit Jahren keine wirklichen Sprünge bei der Effizienz mehr.
1737380145274.png

https://www.anandtech.com/show/1602...technology-details-full-node-scaling-for-2h22

Genau das ist zum Problem geworden, denn immer kleinere Leiterbahnen lassen den Strom einfach nicht mehr so gut fließen, während man bei der Dichte durchaus noch gut zulegen konnte.

Rockbreak schrieb:
Womit willst du die Cloud dann verkaufen? Dass sie statt 240fps und 8k dann auf 360fps in 16k zocken können (Ist ja egal ob die Latzenz dann um das dreifache oder vierfache ansteigt)?
Mit besserer Grafik als das was heute Indy auf den Schirm bringt, um 8K geht es hierbei gar nicht. Wir sind noch weit davon entfernt was visuell möglich wäre und die Anzahl der Strahlen die aktuell bei Pathtracing losgeschickt werden kann ist stark begrenzt.
 
xexex schrieb:
Ich sehe seit Jahren keine wirklichen Sprünge bei der Effizienz mehr.
Schauen wir uns hier auch die gleiche Grafik an? Ich sehe nämlich durchaus sehr gute Sprünge in Effizienz und Leistung. Von N5 auf N3 sind -30% Leistungsreduzierung möglich, das sehe ich nicht gerade als "keine wirklichen Sprünge bei der Effizienz" an. Das sagt mir dass meine Aussage oben absolut korrekt ist und wir bei einem N2 Fertigungsverfahren (Woran TSMC bereits arbeitet und schon in 1-2 Jahren starten soll) sogar mehr als eine Verdoppelung der Effizienz gegenüber einer aktuellen 5090 erwarten können.
xexex schrieb:
Genau das ist zum Problem geworden, denn immer kleinere Leiterbahnen lassen den Strom einfach nicht mehr so gut fließen
Ich kenne mich mit dem technischen Zeug auch aus, mit Quantenphysik, dem Tunneleffekt bei zu kleiner Fertigung etc. musst du mir nicht erklären.
 
Rockbreak schrieb:
Von N5 auf N3 sind -30% Leistungsreduzierung möglich,
Bei einem Anstieg von 1,7x in der Dichte ist es nichts und führt zu der Entwicklung wie wir sie aktuell haben. Mehr Leistung gibt es nur noch mit mehr Energieverbrauch. Betrachte einfach mal die Daten von "früher", die sowieso schon ein gewisses Endstadium darstellen. Da hat man damals den Energiebedarf mit einem neuen Prozess halbiert, davon sind wir schon lange entfernt.

Dabei heißt es übrigens mehr Leistung oder mehr Effizienz. Auch wenn ich deiner Behauptung folgen kann, die Leistung einer 5090 wird man in 10 Jahren vermutlich auch mit 300W haben können. Wird es dann noch immer die Leistung einer 5090 sein, also visueller Fortschritt gleich null.

Für mich ist die Entwicklung klar, gerade in Anbetracht der mobilen Geräte, die Cloud wird lokale Hardware genauso ersetzen, wie digitale Verkäufe gerade die Datenspeicher obsolet machen.
 
Zuletzt bearbeitet:
Zurück
Oben