lynx007 schrieb:
Hybrid Rendering =! Pathtracing!
Auch Pathtracing verwendet einen hybriden Ansatz. Volles Raytracing wird es nie bis kaum geben. Aber der RT Anteil wird größer und da ist Intel schon jetzt teils besser aufgestellt als AMD
lynx007 schrieb:
Der rest sind Tricks!
Deshalb schrieb ich auch ohne Tricks!
Rendering sind sowieso Tricks. Und vor allem Rasterizing ist hier am Ende.
lynx007 schrieb:
Das ist wohlgemerkt eine 4090, eine 2k GPU?!??! 1,5k?!?! Wir haben ohne Tricks bei Native 4k 16 FPS....
Das kriegst du mit genug Details auch im Rastern hin.
lynx007 schrieb:
sprich wir brauchen faktor 5 an Leistung, für 1/5 des Preise..... oder 500% Leistung, für 25% des Preises.....
na was jetzt 1/5 oder 25%?
Willst du volles Raytracen "ohne Tricks" brauchst du eher den Faktor 100.
Willst du Rastern "ohne Tricks" - na dann schau dir an wie gut das funktionieren würde wenn du Fotorealismus erreichen möchtest.
lynx007 schrieb:
Ne das dauert noch etwas... vielleicht ahben wir da schon Enkel....
Kommt drauf an was du konkret meinst.
Cyberpunk 2077, RT, 4K @ 144 fps?
Da sind wir schon recht bald
lynx007 schrieb:
Worauf ich raus will, Rasterizing kann gar nicht am "Ende" sein, weil dann gäbe es das auch für jeden bezahlbar...
gemeint ist natürlich am Ende der Entwicklung/Skalierbarkeit.
Dass es auch in 10+ Jahren noch in China-GPUs Rasterizing geben wird ist ja schön und gut, die Entwicklung und zukünftige Spiele gehen klar richtung Hybrid Rendering
lynx007 schrieb:
und das ist gerade Praktisch nicht der Fall. Sprich das ist ncoh viel Marktanteile die sich Intel unter den Finger reisen könnte. Bis dahin können die gern RT ignorierne.
niemand kann mehr RT ignorieren, es ist in fast allen AAA Games drin.
DerRico schrieb:
Das stimmt ja so nicht. Intel hatte bereits viiiiiele Jahre Millionen GPUs im Mobilbereich im Umlauf gehabt. Sie sind also sicher nicht bei 0 gestartet. Das Gleiche gilt für die Fertigung und das Chipdesign.
Naja in den frühen 2000er Jahren war es großteils eine lizenzierte IP.
Und: hauptsächlich krankt es an der Treiberentwicklung und die hat man erst um 2019 herum angeworfen
DerRico schrieb:
Die Meinung hast Du aber recht exklusiv. WENN man Titel spielt, in denen die Intel-GPUs funktionieren und WENN es einem egal ist, dass sie ggf. einfach mal wieder aus den GPUs aussteigen - so dass es dann mit den Treibern eben nicht weitergeht und WENN einem ausserdem die Effizienz egal ist und daher AUSSCHLIESSLICH auf FPS/Euro schaut, DANN kann man auf die Idee kommen, dass eine Arc die beste Wahl ist. Zu dem Ergebnis kommen aber sehr wenige Leute.
Ok ich exklusiv und die Kollegen von der Presse:
https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Videos/Arc-A770-Nachtest-1436941/
DerRico schrieb:
Ich will Deine Wahl auch nicht schlechtreden: Wenn das für Dich passt, ist das wunderbar. Jede Konkurrenz ist willkommen.
Das war natürlich ein Experiment, GPUs hab ich genug rumliegen und ich bin auch ein Sammler (von Parhelia über Volari, S3, 3dfx.... und nun auch Intel. Und während ich deine Bedenken anfangs durchaus geteilt habe (vor allem weil ich immer wieder mal Spiele auf der Intel iGPU am Laptop angeworfen hab), kann ich das so nicht mehr ganz sehen. Im Moment macht die GPU weniger Probleme als meine AMDs, die teilweies beim Abspielen von Twitch-Streams überfordert waren
DerRico schrieb:
Ich persönlich würde nur nicht unbedingt davon ausgehen, dass Intel noch mehrere Generationen auf GPUs baut, wenn die Verkaufszahlen so bleiben und die Kosten sich entsprechend weiterentwickeln.
Das ist halt die Frage: wenn man nicht kauft, weil sie vielleicht bald nicht mehr gebaut werden, werden sie eben auch nicht mehr gebaut. Gab ja auch ein Interview von einem der Entwickler der meint solche Meinungen und Presse sind nicht hilfreich. Wenn das Management den Hahn zudreht haben wir weiterhin ein Duopol. Sonst wär wenigstens Intel dabei.
Immerhin die GPU Architekturentwicklung muss sowieso weitergehen und weil Nvidia die Preise in den letzten Jahren so nach oben gezogen hat ist es für Intel/AMD auch viel leichter Gewinn zu machen, auch wenn sie unter 30% Marktanteil bleiben sollten.
DerRico schrieb:
AMD geht ja nun den gleichen Weg wie Intel: NV im oberen Marksegment aus dem Weg gehen und sich im P/L-Mittelklassesegment breitmachen, wo die grossen Stückzahlen sind.
Ja, und "Mittelklasse" waren früher GPUs um 130-200€, inzwischen sind wir da eher bei 300-400€, das heißt da verdienen beide pro Karte auch viel mehr.
DerRico schrieb:
Dann können die beiden sich schön die Marktanteile streitig machen und um die verbliebenen Kapazitäten bei TSMC zum höheren Preis als NV wetteifern. Klingt für mich für beide Firmen nicht sehr erfolgsversprechend...
Intel wird früher oder später auch selbst produzieren. Abgesehen davon hat die Mittelklasse inzwischen wesentlich weniger Stückzahlen als früher, tatsächlich kaufen die PC Spieler teurer ein als früher. Dazu gibts ja immer schöne Zahlen von Mindfactory aber auch Martkuntersuchungsinstituten und den Jahreszahlen. Wenig representativ aber immer noch interessant auch kürzlich hier eine Umfrage am Sonntag.