Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizCB-Funk-Podcast #103: Die große Leere nach den RTX-5000-Tests
Was war das denn bitte für ein katastrophaler Marktstart, was erhoffen wir uns jetzt von AMDs Radeon RX 9070 XT und RX 9070 mit RDNA-4-Architektur und wieso war Computergrafik schon immer voller Fake Frames? Die Leere nach den Tests füllen Jan und Fabian diese Woche mit einem GPU-Allerlei und einer großen Hörerfrage.
Ich find die Audioqualität so ausreichend. Opus mit 60 kb/s wäre mir für Musik zu wenig, aber für Sprache reicht es. Außerdem übertragen die meisten Messenger- und Streaming-Programme glaube ich auch nicht mit einer viel höheren Datenrate.
Am besten müsste jeder sich selbst mit einem Vintage-Großmembran und einer Röhrenvorstufe auf seinem eigenen PC aufzeichnen und die Wave-Datei dann hinterher per Filehoster rüberschicken um es zusammenzsuchneiden. Die ASMR-Fans freuts sicher.
@Jan: Toll, dass du im KC: D(2)-Kontext das Buch Der Brief für den König erwähnst. Ein Meistwerk...
...das tatsächlich sogar etwas mit KC: D zu tun hatten. Teil des Kickstarter-Trailers war ja das brillante Motto
no dragons
, was sie dann ja auch umgesetzt haben. Das passt auch zu jenem Büchlein. Nur wie sehen die Verfilmungen aus? Die erste ist staubtrocken und die neue von Netflix quillt vor Fantasy über. Dankeschön!
Nichts gegen Fantasy. Aber sie soll bitte nicht in Buchumsetzungen reingrätschen, in denen sie nichts verloren hat.
Zuletzt bearbeitet:
(Aus KC: D wurden Smileys beim Zusammenschreiben...)
Ich bin auch gerade beim Bump-Mapping und genieße den technischen Exkurs sehr. Gerne mehr davon.
Es war mir zum Beispiel neu dass ein Dreieck mindestens drei Eckpunkte hat, aber man lernt nie aus.
Voller erst, wenn ich einen SparkoS SS3602, auf eine Asus Xonar AE geschnallt habe. Ja, ich bin ein wenig Bluna. Sind wir das nicht alle? Deswegen bin ich doch hier.
Vielen Dank Fabian für den Exkurs durch die Geschichte der 3d Grafik. Als 3d gamer der ersten Stunde war mir garnicht bewusst das das gute alte bump mapping noch immer im Code aktueller Engines schlummert. Meiner Ansicht nach hast du den doch etwas trockenen Stoff sehr gut- und nett pointiert- rüber gebracht.
Ich werde meine bisherige Einstellung zu Dlss und Konsorten wohl überdenken müssen, ist ja schließlich nicht mehr fake als bisher
Na, also diese Aussage stimmt rein formal sogar. Nenn mir mal ein Dreieck, dass nicht mindestens drei Eckpunkte hat! Hinreichend ist diese Eingrenzung aber natürlich nicht. ^^
Was ich vor allem rüberbringen wollte: Ob es jetzt mehr Fake oder weniger ist, sei mal dahingestellt; aber alles und auch "nativ" ist letztlich überwiegend "fake". Und "fake" an sich ist erst einmal keine Aussage über die Qualität.
up.whatever schrieb:
Wäre die korrekte Übersetzung von floating point nicht eigentlich Gleitkommazahl?
Das ist auch gut so, die 5090 oder jede andere Gaming-Grafikkarte würde durch mehr FP64-ALUs nämlich 0,0 Prozent schneller werden, Computergrafik arbeitet immer nur mit FP32. Die GeForce-GPUs haben trotzdem alle zwei FP64-ALUs pro SM, damit sie dem im Podcast angesprochenen IEE-754-Standard genügen und keinen nonsense ausgeben, wenn man ihnen FP64-Rechenaufgaben gibt. Das gilt auch für INT64. Bei den Compute/AI-GPUs beispielsweise ist FP64 deutlich breiter vertreten.
Na, also diese Aussage stimmt rein formal sogar. Nenn mir mal ein Dreieck, dass nicht mindestens drei Eckpunkte hat! Hinreichend ist diese Eingrenzung aber natürlich nicht. ^^
@Vitche Sorry falls es zu sarkastisch war. Ich wollte mich gar nicht daran aufhängen, ich fand den Moment nur witzig als ich ihn gehört habe. Ansonsten hab ich hab mein Lob bezüglich des technischen Vortrags sehrwohl ernst gemeint.
Um das weiter auszuführen: Ich fänd es total cool, mehr über "historische" Techniken in der 3D-Programmierung zu erfahren. À la "Was ist T&L" oder "Warum sah das Wasser in Morrowind so verdammt gut aus?" oder "Wie konnte Quake 3D-Figuren darstellen ohne Löcher in die GPU zu brennen?". Gerade um die Jahrtausendwende gab es ja viele technologische Fortschritte auf dem Gebiet, die heute teilweise noch relevant sind. Wenn du dich da auskennst, hau gerne raus, sei es als Artikel oder im Podcast!
Vitche schrieb:
Was ich vor allem rüberbringen wollte: Ob es jetzt mehr Fake oder weniger ist, sei mal dahingestellt; aber alles und auch "nativ" ist letztlich überwiegend "fake". Und "fake" an sich ist erst einmal keine Aussage über die Qualität.
Den Punkt fand ich übrigens schon fast philosophisch wertvoll!
Bei den Simpsons gibt es eine Szene in der sich der Comicbuchverkäufer darüber echauffiert, dass die Handlung eines bestimmten Radioactive-Man-Comics so nie wirklich passiert ist. Worauf Bart erwidert, dass nichts davon jemals wirklich passiert ist. -> "Verlasse sofort meinen Laden!!"
Ich gehöre eigentlich auch zur Fraktion der Leute die sagen, DLSS ist Stuss und verwässert mir die Optik und überhaupt. Aber der Punkt ist valide; Alle 3D-Techniken, die in der digitalen Domäne zum Einsatz kommen, haben nur das Ziel, auf möglichst effiziente Weise ein immersives 3D-Bild auf den Bidschirm zu mogeln. Wer ein echtes Bild sehen möchte, der möge bitte an die frische Luft gehen.
Ich fühle mich fast kalt erwischt, dass ich solche neue Technologien mittlerweile innerlich ablehne, obwohl die Entwickler dahinter nach wie vor eigentlich nur die Immersion verbessern wollen.
Ich glaube was mich bei de neuen "KI"-gestützen 3D-Technologien abschreckt, ist das Unverständnis darüber wo die Informationen für meinen gerenderten Frame eigentlich herkommen.
Wird die Information in Echtzeit ausschließlich auf meiner GPU berechnet? Oder wurden dafür einige Terawattstunden auf irgendwelchen Supercomputern verheizt um ein Model für mein heimisches Spieleerlebnis zu errechnen?
TLDR @Vitche: Falls du noch mitliest; ich würde auch gerne mehr über den Background von modernen Technologien wie DLSS, Frame Generation und Co erfahren und wo die berechnete Information tatsächlich herkommt.
Ich finde bei der 9070ern seit ihr schlecht informiert, ihr redet immer noch von der 4070 oder vielleicht 5070 als Konkurrent das mag für die 9070 ohne XT auch stimmen aber die XT wird Raster auf 4080 schlagen und bei RT irgendwo in Richtung mindestens 4070 Ti oder 5070 Ti gehen.
Also klar es gibt keine offiziellen Benchmarks oder sowas, aber wenn ich nichts habe dann rede ich doch über die Leaks dazu, auch wenn die sich als falsch raus stellen könnten, da sich aber die oft bestätigen so das die hohen Blenderwerte aus Dezember ca. gleich schnell wie ne 4070ti und 9% über der 4070 super, dann gibts die 3dmark leaks da ist man zwischen 7900 XTX und 4070 Ti im Raytracing Benchmark Speed Way und beim Time Spy schneller als ne 4080 Super was ja eher auf Raster geht.
Und der 3. Leak mindestens wenn da nicht auch mehrere waren sind interne Benchmarks von Moore's law is dead von irgendwas 10-20 spiele oder so.
Auch da ist man Raster tendenziell >4080 und Raytracing >=7900XTX.
Kann das bei anderer Spielauswahl noch minimal schlechter sein, ja, kann es wegen besseren Treiber/Biosen auch noch leicht zulegen bis zum Release, auch möglich.
Aber 4070 und 5070 ist da komplett weg, hört auf auf die komische Folie wo ne 4070 irgendwo gelistet war, und die daneben gestellt wurde, entweder wollte man da auf die 5070 suggerieren von der man vielleicht 4070ti speed erwartet hätte und selbst dann wäre Raster noch höher...
Also 3 Leaks kann man nicht einfach so weg wischen aber sich dann auf ne Folie verlassen die nur zur Namensordung dienen sollte und ob der wo die Folie erstellt hat die finale Speed oder was überhaupt kannte... halte ich nicht für diese 1 Quelle die alles andere das zu 100% dagegen spricht widerlegt.
Auch die Preise die im Umlauf sind, wären totaler Flopp weil sie ne 4070 super mit 16gb zum 4070 Super preis verkaufen... dann können sie gleich sich nen Strick nehmen.
Ergänzung ()
Ich finde die Diskussion mit Fake vs Nicht Fake mag ja sinnvoll sein, aber die Leute suchen halt einen Begriff um zu sagen das es suckt.
Und welche Spieler wollen am ehesten unbedingt 240 fps? Multiplayer so Quake 3 Spieler Typen... und für die Suckt das Feature... ok 5000fps in irgendwelchen Singleplayer games, was für eine Verbesserung...
Ich meine irgendwelche besseren Normal Maps sind ja in der Regel enifach immer besser, bei MFG muss der Mond richtig stehen man sein erstgeborenes Opfern damit es Sinn macht.
Also man braucht wohl tendenziell mindestens ein 240hz Monitor, in Multiplayer Games sollte man es auch nicht benutzen weil da die Latenz hoch geht und er schnelle Bewegungen die sich abrupt ändern im Zweifel falsch darstellt (darauf bezieht sich das Fake denke ich am ehesten). Und man sollte schon >5080 haben da darunter der in guten Auflösungen mit vollem Raytracing und allem nicht genügend Basisframes hat.
Es wird ja mittlerweile zur Rocket Science die 500 Herstellerspezifischen Optionen im Grafikmenu jedes Games ein zu stellen, früher hat man einfach auf Mitte / High gestellt und wenn man tricksen musste hat man die Beleuchtung auf Low gestellt und damit war man fertig.
Ich bin da mitlerweile auch Durch wenn das Spiel nicht wie die absolute Pest läuft und Ruckelt oder extrem hässlich ist spiel ich das spiel wie es startet und stell nichts mehr am Grafikmenu um, außer mir fällt auf das die Falsche Auflösung eingestellt ist.
Auf konsolen kommen die meisten mit 30fps in Singleplayer klar aber der PC Spieler dem reichen auch 85fps mit Adaptivesync nicht... um schwächelnde Karten von 20/30 fps auf >60 zu bringen ist das Feature auch Nutzlos, also bei den 2 Punkten wo es am ehesten wichtig wäre Multiplayer und schwach karten >60fps zu bekommen ist das feature Nutzlos... ja dann ists halt auch nichts all zu wichtiges tut mir leid.
Raytracing wurde ja teils schon overhyped, ging in der gefühlten Gewichtung bei vielen zu mindestens 50% in die Gewichtung auch wenn bis heute >50% kein Raytracing haben oder höchstens mini effekte oder gar Software Raytracing... also das war schon fraglich und wurde seit Cyberpunk aus dem Parkur flog auch in der Gewichtung deutlich reduziert, aber das Feature tut mir leid das kann man halt nicht als riesen super feature verkaufen auch wenn man sich aufn Kopf stellt.
Und Nvidia hat es ja provoziert als sie es so extrem übertrieben haben mit ihrer Lüge die 5070 wäre gleich schnell wie ne 4090, das das provoziert war, das der Spot als Gegenreaktion dann natürlich auch sehr groß ist braucht man sich dann nicht zu wundern.