syfsyn schrieb:
oder jensen sieht dlss3 als mittel für vergleiche vs amd rdna3.
Wenn das stimmt, was ich bisher gelesen habe, dass die meisten Benchmarks von NVIDIA mit DLSS3 gemacht wurden, dann ist Ada in weiten teilen einfach ein ziemlich langweiliges Release und die Neuheit heißt DLSS3, nicht Ada.
syfsyn schrieb:
Das würde den verdacht aufkommen das er als Ingenieur nicht versteht wie ada funktioniert.
Ich denke sogar, dass er Ada weit besser versteht als viele andere, denn zu Ada hat man sich weitgehend zurück gehalten mit Informationen und am Ende kam raus, dass es eigentlich eher ein Ampere 2.0 ist, weil die SM bis auf die neuen Tensore-Kerne quasi übernommen wurde. Es bleibt bei 64 + 64 Shadern
syfsyn schrieb:
Das RT durchaus deutlich schneller geworden ist steht sicher. Den der Ansatz dies endlich mit out of order zu ermöglichen macht Sinn.
Auch das entpupptsich aber ein wenig als "Marketinggerede", wenn man die neusten Informationen sieht und das wichtigste daran: Das OoO ist in dem Fall ein Software-Ansatz, der auch von Engineentwicklern umgesetzt werden muss.
syfsyn schrieb:
Die reine raster Leistung ist aber wie bisher rein linear und da scheint man den Ansatz von turing genommen zu haben
Nein, nicht Turing-Ansatz, es ist weiterhin Ampere. Der Turing-Ansatz wäre auch ein Rückschritt, weil man die beiden Datenpfade wieder auf einen Datentyp fest legt, was heute keinen Sinn mehr macht.
Und die Leistung beim klassischen Ansatz skaliert auch nicht wirklich rein linear, sondern die Kurven flachen in weiten Teilen sogar immer stärker ab, wenn man sich auf die Anzahl der Shader und Co bezieht, weil irgendwann das Bild nicht mehr genug Threads und Daten für die GPU zusammen bekommt um diese auszulasten.
.Sentinel. schrieb:
Ja- Dann hast Du aufgrund mangelnder Performance auf den Karten unter einer 3090 dann aber Lag und Ruckler.
Ob DLSS3.0 wirklich die neuen "Tensore-Kerne" benötigt oder mal wieder eine künstliche Beschränkung von NVIDIA ist, wird sich wohl durch findige Modder zeigen.
NVIDIA ist in der Regel eher zuzutrauen, dass sie künstliche Barrieren erschaffen, denn die meisten Tests mit DLSS3.0 und auch viel Entwicklungsarbeit finden aktuell teilweise auch auf Ampere statt und ja, ich habe in dem Fall meine Quellen für diese Aussage.
.Sentinel. schrieb:
Der Energieverbrauch sinkt durch gesteigerte Effizienz.
... immer diese Milchmädchenrechnung. Das ist das selbe Märchen wie aus dem Autosektor, dass die Motoren heute viel effizienter sind. Gleichzeitig opfert man jede Effizienz dafür, dass die Autos schwerer und größer geworden sind und immer mehr PS haben.
NVIDIA hat - und dass muss man ihnen zugestehen - wirklich alle Mittel in den letzten Jahren entwickelt um eigentlich den absoluten Bedarf an Energie sogar zusenken bei Grafikkarten. Man kann von DLSS1 halten was man will, DLSS 1 war aber der richtige Schritt in die richtige Richtung und auch DLSS2 und jetzt DLSS3 sind Schritte in die richtige Richtung, auch wenn DLSS3 jetzt wirklich anfängt Frames zu erfinden, aber all das könnte man effektiv dazu nutzen um den Energiehunger wirklich zu REDUZIEREN.
Wir rennen - auch vollkommen unabhängig der aktuellen Krise - mit weit geöffneten Augen gegen eine Wand und es findet leider immer noch kein Umdenken statt. NVIDIA hätte mit der 4090 locker die Energieaufnahme bei 350 W belassen können. Die 4080 12 GB ist mit 280 W auch in einem anständigen Bereich. NVIDIA hat sich aber erneut dazu entschieden 450 W.
Wenigsten eignet sich die 4090 damit wirklich als Heizung in einem kleinen Zimmer. So, Vitamin B bemühen, dann kommt meine sogar rechtzeitig an. Ich bin echt mal gespannt, wie die 4090 sich bei 350 W und 300 W verhält.
.Sentinel. schrieb:
Deswegen geht man auf Softwareseite und AI Seite immer weiter und bohrt eben genau NICHT einfach so alles auf, sondern verwaltet die bereits berechneten Pixel immer genauer und effizienter.
Falsch, man bohrt eben auch weiterhin alles weiter einfach so auf, auch wenn man auf der anderen Seite darum bemüht ist gleichzeitig die notwendige Rechenleistung zu "minimieren". Die RTX 4000er-Serie wäre mit 350 W oder gar nur 300 W, gerade mit dem, was man auf Softwareseite unternimmt, immer noch schneller als die 3000er und 2000er Serie und mit dem, was mit DLSS3 kommt, ist man sogar auf dem richtigen weg.
.Sentinel. schrieb:
Brutto- Margen sind uninteressant. Die Netto- Marge zählt und die liegt bei NVIDIA gesamt bei ca. 36% wobei der überwiegenden Teil aus dem Datacenter- Geschäft kommt.
Die Bruttomarge von NVIDIA liegt aktuell bei ca. 46 % und die Nettomarge bei 36 %, es gibt viele Firmen, die von 36 % Nettomarge träumen würden.
Leider ist der "stumpfe" und auch "dumme"Kapitalismus wieder zurück gekehrt, den man Anfang des 20. Jahrhunderts abgelegt hatte. Nichts gegen den Kapitalismus und Gewinne sowie ordentliche Rendite, nur heute nimmt es wieder überhand, dass Firmen, Manager und Investmentbänker denken, Nettomargen bei Firmen bei über 30 % liegen müssen und dass auf die Dauer für die Wirtschaft gesund ist. Gut, allgemein der Glaube an unendliches Wachstum ist idiotisch, aber solange wir ein infationäres Währungssystem haben, geht das noch halbwegs.
Max007 schrieb:
Bekomme leicht Brechreiz wenn ich das Statement der Lederjacke höre "Grafikkarten werden nie wieder günstiger sondern immer nur noch teurer".
Das große Problem an der Sache ist, dass NVIDIA, genauso wie AMD, Intel und Co von Investoren und Investmentbänker gewisse Erwartungen erfüllen müssen und da wird nun halt erwartet, dass mehr Umsatz und mehr Gewinn Quartal für vorjahres Quartal auf der Uhr stehen und NVIDIA macht jetzt genau das, was sie machen müssen: Sie ziehen die Preise in der Hoffnung an, dass am Ende sie eben wieder "wachsen".
Dazu kommt - für uns in Deutschland und Europa - aktuell der schwache Euro hinzu, der für unsere "Exporte" top ist, für die Importe aber die Hölle. Die 4090 ist vom US-Dollar-Preis sogar relativ "attraktiv" und nicht so übertrieben teuer, wie man durch die Euro-Preise denkt.
Auch noch wichtig ist, dass TSMC, Samsung und Co die Preise mit jeder Generation bei der Fertigung auch anziehen lässt und gerade TSMC ist echt eine Cashcow, was das angeht. Das Problem heute ist, dass auf jeder Ebene heute teilweise Rendite-Erwartungen von mindestens 25 - 30 % erwartet werden, da sonst eine Firma als ungesund gilt.
Wir erleben aktuell, dass Firmen auf jeden Fall ihre Nettomargen beibehalten wollen und dafür die Preise auch nach oben anpassen, während man auf der anderen Seite von Arbeitnehmern fordert, dass sie keine Gehaltserhöhungen und Co anstreben sollen, weil das die Preisspirale ja ankurbeln würde.
Wieder einmal werden die Gewinne auf Kosten der Arbeitnehmer und Allgemeinheit gesichert. Ein komplexes Thema, aber man kann nur hoffen, dass sich ab 2023 die Welt wieder normalisiert und nicht noch in Peking ein Früher ausrastet.