News Nvidia vs. AMD: Wie steht ihr zum Start von GeForce RTX 4000 und Radeon RX 7000?

KitKat::new() schrieb:
Das schöne ist, man muss diese Preise nicht zahlen.
Natürlich "muss" man nicht. Ich kann mit der Performance der Xbox Series X sehr gut leben, vorallem in Anbetracht der Preise die ich für einen aktuellen Gaming PC hinlegen müsste.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Weltraumeule, Ashibe und eine weitere Person
Ich "oute" mich als 4090-Käufer. Ja, der Preis i.H.v. 1.995 EUR war/ist abartig, aber nach 5 Jahren wollte ich die 1080 Ti in Rente schicken. Allerdings spielt der Preis für mich insofern eine Rolle, dass ich nun frühestens nach 5 oder gar 6 Jahren erneut aufrüsten werde. Früher habe ich stets eine Generation übersprungen. Das werde ich aufgrund der abartigen Preise nicht länger so handhaben und stattdessen zwei Generationen überspringen.
 
  • Gefällt mir
Reaktionen: badiceman316 und Meister1982
metoer schrieb:
Bei Nvidia noch krasser, die 4080 hat im Verhältnis zur 4090 eher die Leistung einer 4070(ti), aber selbst zur 3080 die schon ordentlich im Preis erhöht wurde stieg der Preis nochmal um 50% an.
Der Name der Karten ist egal. Die 3090 hatte einen Chip, der Nvidia zum Launch etwa $80 gekostet hat. Die 3090 hatte eine Launchpreis von $1499. Der Chip der 4090 kostet über $200 und die Karte kostet zum Launch $1599. Selbst der Chip der 4080 kostet etwa 50% mehr als der GA102 der 3090 und der Launchpreis liegt bei $1199. Gegenüber dem Ampere Launch haben sich die Preise also deutlich verbessert, wenn man die Kosten für den Chip betrachtet, der verbaut ist. AMD verlangte für den Ryzen 7950X zum Launch $699 für Chips im Wert von $69. Darüber hat sich komischerweise keiner so aufgeregt wie über die 4080 oder 4090.
 
shaboo schrieb:
Können wir mit diesem Blödsinn vielleicht endlich mal aufhören? Ausgerechnet die 4090 ist die einzige Karte, die - zumindest im direkten Vergleich mit ihrem Ampere-Pendant - sehr moderat bepreist wurde. Der MSRP ist um gerade mal 7% gestiegen
Liegt aber auch daran das die 3090 schon frech überteuert auf den Markt geworfen wurde, die 3080 war da im Verhältnis noch "normaler" bepreist.

Das wurde damals auch zurecht kritisiert, und genau die Befürchtungen der Kritiker von damals sind jetzt Realität.
Der unverschämte Preis der alten Gen ist die neue Basis.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, jo0, Innocience und 2 andere
shaboo schrieb:
Wenn überhaupt, wären es die 4080-Käufer, die seltsame Signale an den Markt senden.
Alle Käufer von Grafikkarten wo es weit jenseits der 1000€ geht senden diese "Signale", ganz egal wie der Name der Karte dann ist!

Mittlerweile bekommt man die top Modelle der 4080 für 1400€ bis 1500€, die schrottigen Modelle der 4090 fangen bei 2000€ - 2100€ an. Das sind 600€ bis 700€ Unterschied wofür man die beste CPU seitens AMD oder Intel zusätzlich kaufen könnte......das ist doch schon einiges (-> wie gesagt sind die Grafikkartenpreise reine Abzocke).

Das extrem amüsante ist ja: es sind auffällig viele 4090 Käufer mit ansonsten absoluter billig Hardware unterwegs. Irgendeine lahme CPU auf dem letzten billig Mainboard und oft noch dem letzten RAM.
Da wird das ganze Geld in die GPU verpulvert und das Gesamt-System kommt bei weitem nicht auf die Performance, welche eine 4090 suggeriert bzw. bringen könnte, da der Rest halt alles ausbremst......das sendet noch viel bessere "Signale"!
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, Zitterrochen, jo0 und 4 andere
incurable schrieb:
Nein. Die Europäische Union ist u.a. auch eine Zollunion. Wir legen unsere eigenen Zölle fest, und was im Handel zwischen den Vereinigten Staaten von Amerika und der Volkrepublik China vor sich geht ist dafür nicht von Relevanz.

Nein das ist nicht ganz richtig.

Es geht nicht darum fertige Produkte aus China über die USA zu kaufen.

Zölle zwischen den USA und China treffen uns dann wenn Teile für die Fertigung in den USA aus China benötigt werden würde. Weil dann muss der amerikanische Fertiger dies Teile aufgrund der Zölle teurer zukaufen als bisher was halt auch das fertige Produkt teurer machen würde.
 
  • Gefällt mir
Reaktionen: shaboo
SLanKi schrieb:
Bei Nvidia passt die Leistung, sind aber mind. 20% zu teuer, was man sich aber aufgrund der Preisgestaltung der Konkurrenz wohl leisten kann.

Bei AMD ist eigentlich nur die XTX zu empfehlen. Super Karte, solange man auf RT verzichten kann.
Ich finde das RT Argument immer ein bisschen komisch. Die Technik wird evtl irgendwann Standard sein und sehr gut implementiert sein, ohne Einbußen bei der Leistung.

Aber warum man heute schon einen so großen Schuh bei der Wahl der GPU daraus macht, obwohl besagte Technik noch in den Kinderschuhen steckt, verstehe ich nicht.

Viele Spiele zeigen garnicht genug Mehrwert mit RT, als das sich der hohe Preis und die reduzierten FPS lohnen würden.

Und wenn man heute schon die Kohle dafür rauswirft, heißt das ja nicht, dass in 5 Jahren daraus ein Vorteil entsteht wenn RT "fertig" einwickelt ist usw.

Aber wenn man irgendwie seine überdrehten Ansprüche rechtfertigen muss, um das Geld auszugeben, dann ist es so.
Ergänzung ()

GERmaximus schrieb:
Kommend von einer 3080ti bzw. jetzt 3090, bei 3440p und nur geringfügigem bis keinem RT Einsatz, finde ich das sich keine neue Karte lohnt!

Warten auf eine 4080ti, entspannten Preisen, oder das unfassbare: mal eine GEN überspringen...
Kommend von den genannten Gpus macht das alles natürlich keinen Sinn, ich werde jedenfalls frühstens nächste gen einen Kauf erwägen.

Zum Thema gen überspringen: ich komme von einer RX580 auf die aktuelle 6900XT, das hat sich mehr als gelohnt. Vor der 580 war noch eine alte 7000er von 2011 oder so verbaut (keine Ahnung wie die genau hieß).

Aber mit dem Kaufverhalten ist man meist allein hier..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jo0, jaCk_owned und KitKat::new()
Gr33nHulk schrieb:
Das sind 600€ bis 700€ Unterschied wofür man die beste CPU seitens AMD oder Intel zusätzlich kaufen könnte......das ist doch schon einiges (-> wie gesagt sind die Grafikkartenpreise reine Abzocke).
Äpfel und Birnen Vergleich - was haben nun CPU Preise mit Grafikkartenpreisen zu tun und warum darf eine Grafikkarte nicht mehr wie eine CPU kosten?

BTW die 96 Kern CPUs von AMD kosten 10.000 Euro aufwärts
Ergänzung ()

Tilman24 schrieb:
Aber mit dem Kaufverhalten ist man meist allein hier..
komme von einer 5870 und bin auf eine 1050 TI
 
  • Gefällt mir
Reaktionen: Tilman24
Tilman24 schrieb:
Zum Thema gen überspringen: ich komme von einer RX580 auf die aktuelle 6900XT, das hat sich mehr als gelohnt. Vor der 580 war noch eine alte 7000er von 2011 oder so verbaut (keine Ahnung wie die genau hieß).

Aber mit dem Kaufverhalten ist man meist allein hier..
Ja, das irritiert mich auch jedes Mal auf's Neue. Mancher Nutzer hat in der Signatur eine Highend-CPU oder -GPU der vorherigen Generation und moniert, dass das Leistungsplus zu gering ausfällt. Sicherlich gab es zwischen einzelnen Generationen auch größere Sprünge, aber eben nicht immer. Dann lieber eine Generation überspringen und sich über ein ordentliches Leistungsplus freuen. :)
 
  • Gefällt mir
Reaktionen: Tilman24
... sind mir beide Wurst. Ich habe mich bei der 6800XT schon weit aus dem Fenster gelehnt (preislich). Ich mache erst mir Gedanken, wenn meine Games nicht mehr laufen ... bis dahin Füße hoch legen.
 
  • Gefällt mir
Reaktionen: Tilman24
KitKat::new() schrieb:
Äpfel und Birnen Vergleich - was haben nun CPU Preise mit Grafikkartenpreisen zu tun und warum darf eine Grafikkarte nicht mehr wie eine CPU kosten?
In Ruhe lesen, kurz überlegen......ich vergleiche da rein gar nichts. Der in Klammern gesetzte Satz sollte einfach nur noch einmal verdeutlichen, daß ich diese Grafikkartenpreise nicht gut heiße, egal ob 4080 oder 4090......um eine Diskussion in die Richtung zu verhindern, naja jetzt haben wir halt das hier.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Laphonso schrieb:
Wer jetzt und demnächst RDNA2 6000er (ab 6700XT) und Ampere RTX3000 (ab 3060TI) Karten zu einem guten PReis erhält, macht alles richtig.
Die sind nicht langsamer geworden
Exakt so sehe ich das auch. Wenn sich, und da schließe ich mich deinen Ausführungen auch an die Sache so weiterentwickelt haben die beiden PC gaming im high end abseits von Esport Titeln tod gewirtschaftet.

Das ist der Käse nicht wert Nvidia und AMD, das ist der Käse nicht wert. Ohne Mittelklasse zu vernünftigen Preisen Setzen sich die Mond-Features, so gut sie auch sein mögen, niemals durch.
 
  • Gefällt mir
Reaktionen: Laphonso und shy-Denise
CR4NK schrieb:
Also wenn du so schlau bist, dann antworte doch einfach nicht. Anscheinend bist du immernoch nicht auf den Kern meiner Aussage gestoßen. Weil ich den Preis kritisiere anstatt ihn zu rechtfertigen.
Es ging generell um Luxusgüter und dass ich es gut finde, dass es sie gibt (egal in welchem Bereich). Wenn du anderer Meinung bist, dann ist das ja auch in Ordnung.
Keine Ahnung wie man da auf einen VW Golf kommt. Egal ich bin da jetzt raus.
Nun einfach die neue Konsolen gen soll etwa 2023 kommen
Spätestens 2024 und die updates sind
ps5 pro
8 core zen4 cpu 4ghz +20% an ipc und +1ghz =+45%
20gb ram gddr6 und ddr4
rx7700xt bei etwa 3ghz 2048 alu etwa 18tf +80%
größere SSD 2tb pcie4 x4
~200w

ps5 aktuell
8 core zen2 cpu 3,2ghz
16gb gddr6
n22 gpu (rx6700) mit 2304 alu 2,3ghz ~10tf
512 oder 1024gb SSD pcie4 x4
~250w

Zielauflösung 1080p mit dxr

Und spiel werden zu 90% für die Konsolen designt das bedeutet aber nicht das vor 2024 spiele kommen die die Anforderungen haben
Eine preview der Anforderungen kann man derzeit bei dxr updates von
portal rtx, the witcher 3 dxr update, Minecraft rtx, a plague tale Requiem sehen meine rtx3060 in etwa auf level der ps5 schafft da nur 30fps mit dlss
ich musss da schon hart an den Regler bedienen damit ich über 40 fps komme mit upscaler.
Das kratz an mein ego
mein berg der Schande ist groß daher tendiere ich ein update erst bei 18tf mit 16gb oder 12gb vram zu machen und diese gpu kommen als rtx4060 bzw rx7700xt
Die frage die sich stellt wann.
ich gehe davon aus das nvidia ada mit n4 refreshen wird. was ein kleines update wird
einzig Takt und shaderanzahl mit mehr vram wird kommen in low end.
high end munkelt man von mcm chips bei nvidia.
Könnte aber sein das damit die Quadro sparte gemeint ist. Wo mcm keine Probleme machen wird.
Blackwell hat en Hinweis auf hopper.
Aktuell munkelt man von 128 fp32 und 18sm pro gpc maxed 10gpc=23040 alu 831mm²
Da aber ab n3 die Belichtung auf 600mm² sinkt wird das ein mcm zu je 420mm²
Daher gehe ich davon aus das blackwell exklusiv wird für quadro gpu bzw tesla
Am desktop wird es sicher nen refresh von ada geben.
also erwartet folgendes nächste gen 2024 ad202 142sm =18176 die etwa reale 76tf erreichen also +30%
Gut möglich das der refresh als rtx50 kommt 2024

Der Grund dafür ist der waferpreis
aktuell 4n bei tsmc für nvidia ~18000$
aktuell nvidia samsung 8nm 4000$
Aktuell kommend n4 22000$
Kommend n3 28000$ 2023 an

profitable chips
150mm² ~ga107 ab 15$ 150mm² ad107 40$ (24sm)
300mm² ~ga106 ab 45$ 200mm² ad106 ab 60$ (48sm aktiv maxed 34)
628mm² ~ga102 ab 75$ 400mm²ad103 ab 90$ (96sm aktiv nur 76sm)
631mm² ad102 ab 120$ (144sm aktiv aber nur 128sm)

Der Grund warum sm deaktiviert werden liegt an der yield der wafer
Samsung 8nm waren bis zu 40% der chipsfläche deaktiviert
Einzig ga107 war nur 20% deaktiviert

N3 wird min +50% teurer pro chip und der shrink liegt bei maxed 20%
Für low end unbezahlbar. sofern man noch unter 500$ was anbieten will.
Nun zur Wirtschaftlichkeit
Der Großteil des marktes machen die preise um 300$ aus
Das weiß auch nvidia der low end markt also bis 100$ wird quasi von den apu gedeckt.
also ist der einstieg ab 200$ als HTPC gpu wenn man gpu beschleunigtes encoden will oder streamen
da sehe ich den ad107(40$). gpu bei etwa 240$
Bei gb107 (min 60$) sehe ich da keine chance das unter 400$ zu realisieren mit n3.
darum erwarte ich nen refresh mit n4 was dann nur 48$ pro chip wäre grob mit 4gb vram ~260$

Erst mit mcm wird es billiger da sehe ich amd im Vorteil nvidia hat derzeit noch keine Lösung dafür.
Die wafer kosten mehr und die chips werden nicht mehr kleiner
N3 sollte 70% an Fläche sparen aber weil sram sich weigert wird daraus maximal 20% und der nächste schritt mit 3d stacking bedingt mcm
aber 3d hat den Vorteil das kaum noch ne Latenz zwischen den chips gibt.
Somit sehe ich nvidia bei 3d Fertigung wieder aufholen mit nen monolithen nur eben aufgestockte chips
Und n2 kommt erst 2026 in Betracht. Prozess node bei etwa 48000$
Da müssen die chips schon arg klein sein also pro gpc maxed 20mm² (low end fängt mit 2 gpc an)
denkbar wäre das 2 gpc übereinander sind plus L2 oben drauf somit de chip nur 30mm² misst
gleiches verdoppelt beim ad106 mit 4gpc also maxed 60mm² anders sehe ich keine chance das nvidia mit Monolithen im low end unter 500$ kommt.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
In Bezug auf deine Antwort @Cleric sind bei AMD die GPU Verkäufe nicht eingebrochen. Sondern hatte AMD nicht soviele GPUs produziert.
Wenn beide gemessen an ihren jeweiligen Marktanteilen auf zu hohen Lagerbeständen sitzen, musst du auch nicht viel produzieren. Und beide haben wohl versucht auf die Bremse zu treten.

Aber das ist trotzdem ein Problem, warum die Marktanteile so in Stein gemeißelt scheinen. AMD kann so ein Risiko kaum eingehen, dass sie mit einer halbgaren Generation wie RDNA3 einfach mal ihr Produktionsvolumen bei TSMC um mindestens Faktor 3 erhöhen, um den Markt mit Karten zu fluten. Selbst wenn sowas von den buchbaren Kapazitäten möglich wäre.

syfsyn schrieb:
N3 wird min +50% teurer pro chip und der shrink liegt bei maxed 20%
Die Frage ist, ob und wie schnell der Markt sich wieder erholt. Wenn die Krise andauert und weitere Stornierungen auf N5 und N3 folgen, wird man sehen, ob TSMC diese Preispolitik beibehalten kann.

Denn auch TSMC wird vermutlich merken, dass Zeiten, in denen sie quasi beliebig die Preise hochdrehen konnten, zu Ende sind.
 
.Sentinel. schrieb:
Ist es dann besser, wenn man Fortschritt und Vielfalt einschränkt?
Für den Geldbeutel definitiv. Wir Gamer brauchen nicht unbedingt immer schönere Spiele mit mehr und mehr Grafikfeatures. Die Optik allein macht ein Spiel nicht spielenswert und ich finde es ganz gut, wenn ich meine Hardware 5+ Jahre lang ohne Probleme nutzen kann und nach 3-4 Jahren nicht alle Settings auf low drehen muss, weil sonst nichts mehr geht.

Stell dir mal vor Intel, AMD und Nvidia würden, wie früher, die Leistung jedes Jahr verdoppeln.
1500€+ für CPU, Mainboard und RAM und 2000€ für ne Graka. Das wären 3500€ jedes Jahr. Ich könnte mir das nicht erlauben.
 
  • Gefällt mir
Reaktionen: daknoll
Bandyto85 schrieb:
Ich "oute" mich als 4090-Käufer. Ja, der Preis i.H.v. 1.995 EUR war/ist abartig, aber nach 5 Jahren wollte ich die 1080 Ti in Rente schicken.
Das passt ja auch, aber die von mir zuvor erwähnten beiden Freunde, ersetzen ihre "in die Jahre" gekommenen RTX3090. Viel Spaß mit der Karte. :)
 
  • Gefällt mir
Reaktionen: jaCk_owned, Icke-ffm, McTheRipper und eine weitere Person
MrHeisenberg schrieb:
Stell dir mal vor Intel, AMD und Nvidia würden, wie früher, die Leistung jedes Jahr verdoppeln.
1500€+ für CPU, Mainboard und RAM und 2000€ für ne Graka. Das wären 3500€ jedes Jahr. Ich könnte mir das nicht erlauben.

Bei den Preisen stimme ich dir zu, aber warum sollte ich mir jedes Jahr neue CPU oder GPU kaufen ?
 
  • Gefällt mir
Reaktionen: NerdmitHerz und KitKat::new()
wenn man gut plant, dann ersetzt man in der regel doch nur die gpu wenn deren grafikpower nicht mehr ausreicht. und das alle paar jahre so 3 oder länger je nach reglerbedienung.

als ich damals meinen 3900x noch hatte, war der erst mit einer 1070 unterwegs und ca 1,5 jahre später mit einer 2080. die 2080 habe ich immer noch. nur aus dem 3900x wurde ein 5950x vor 2 jahren, weil ich mehr kerne + power brauchte.

solange die 2080 nicht iwann unter wasser den geist aufgibt war nicht der plan diese zu ersetzen, außer wenn ich eine karte finde die beim rendern in meinen programmen den vorgang schneller schafft. denn spiele-technisch muss die 2080 bei mir nichts mehr machen, denn dafür hab ich mir einen extra spiele-pc gebaut
 
Inxession schrieb:
Gehe nahezu mit allen Umfragewerten "d´accord" ... nur leuchtet mir absolut nicht ein, wie man das Referenzdesign der RTX Karten, schöner finden kann als die Radeons :D
Die Mehrheit siehst es so und das ist überhaupt nicht verwunderlich.
Die Designs sind höherwertiger und deutlich cleaner. AMD´s Design ist ein typischer Customkühler ohne die warme Luft nach draußen zu befördern, also in mehrerer Hinsicht schlechter.

Wenn die Umfrage anders ausgefallen wäre, hätte ich das Forum als ganzes in Frage gestellt.
Das ist doch größenteils einfach nur noch Mitleid oder Fanbias, wer da für AMD stimmt.
Ergänzung ()

Gr33nHulk schrieb:
Das sind 600€ bis 700€ Unterschied wofür man die beste CPU seitens AMD oder Intel zusätzlich kaufen könnte......das ist doch schon einiges (-> wie gesagt sind die Grafikkartenpreise reine Abzocke).
Weil ja an einer CPU auch so viel dran ist. Das ist im Prinzip nur der Chip mit Heatspreader ohne irgendetwas drumherum. Kein PCB, kein Kühler, kein V-ram.. usw.
Und natürlich viel weniger Chipfläche.
Ergänzung ()

Tilman24 schrieb:
Ich finde das RT Argument immer ein bisschen komisch. Die Technik wird evtl irgendwann Standard sein und sehr gut implementiert sein, ohne Einbußen bei der Leistung.
Keine Technik wird ohne Einbußen bei der Leistung verfügbar sein.
War es nie und wird es nie und kann es nie. Diese Haltung ist für ein Technik-Forum doch extrem absurd, weil nicht mit Fakten unterfütterbar.
Tilman24 schrieb:
Aber warum man heute schon einen so großen Schuh bei der Wahl der GPU daraus macht, obwohl besagte Technik noch in den Kinderschuhen steckt, verstehe ich nicht.
Man hat bisher immer einen relativ großen Schuh daraus gemacht. Fast jede Neuerung wurde sehr schnell angenommen, auch Directx12 konnte sich innerhalb von ~5 Jahren durchsetzen., genauso sieht es momentan mit RT aus.
Tilman24 schrieb:
Viele Spiele zeigen garnicht genug Mehrwert mit RT, als das sich der hohe Preis und die reduzierten FPS lohnen würden.
Wenn man mal genauer hinsehen würde, ist der Mehrwert deutlich größer als die x-te vorab generierte Beleuchtung/Verschattung/Spiegelung. Es gibt mittlerweile so viele Beispiele, noch und nöcher.
Aktuellstes Witcher 3 Remastered, welches ohne RT total blass wirkt, weil nicht plastisch.
Tilman24 schrieb:
Und wenn man heute schon die Kohle dafür rauswirft, heißt das ja nicht, dass in 5 Jahren daraus ein Vorteil entsteht wenn RT "fertig" einwickelt ist usw.
Spielegrafik wird nie "fertig entwickelt" sein. Vielleicht dann wenn man real time dort angekommen ist, was heutige Filme mit ewiglangem Rendering zeigen. (Avatar 2)
Tilman24 schrieb:
Aber wenn man irgendwie seine überdrehten Ansprüche rechtfertigen muss, um das Geld auszugeben, dann ist es so.
Dann müssen manche eben auf dem Grafikniveau von heute stehen bleiben, wenn das bereits genug ist.
Dann brauche ich aber auch keine neue Grafikkarte, sondern stelle einfach die Regler runter.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tilman24
.Sentinel. schrieb:
Ist es dann besser, wenn man Fortschritt und Vielfalt einschränkt?
Hmm. Wenn dabei günstigere Karten bei rumkommen? Vielleicht, wäre das wirklich besser für mich und dich. Günstigere und mehr Mainstream Karten im Umlauf, High-End noch mehr Nische und vielleicht wird es auch wieder wichtiger im PC Markt umsichtiger mit Ressourcen umzugehen und die Software stärker zu optimieren. Eine weniger Breite Palate an Hardware macht auch die Entwicklung am Spielmarket einfacher und die 2000€ Klopper für Server und Workstations können sie dann ja gerne immer noch für 6000€ verkaufen.

Und mindestens einer Verlauft hier ja sicher mit Gewinnmaximierten Preisen, denn AMD soll ja diesen riesen Kostenvorteil dank Chiplets haben und Nvidia soll so mega viel für ihren Chip selbst an TSMC Überweisen.
Also selbst wenn Nvidia hier mit kleiner Marge kochen würde, könnte immer noch einwerfen das zumindest AMD noch mehr Spielraum haben sollte und auch der Abverkauf von RDNA2 zu günstigeren Preisen sicher niemanden in den Ruin getrieben hätte und viel Druck vom RDNA 3 und ADA launch genommen hätte, gerade wo Nvidia ja selbst sehr stark bemüht ihre 3000er Karten so teuer wie möglich zu halten.

Aber genau was Sache ist wird das wohl nur nVidia und AMD wissen und beide werden den Teufel tun und andere einweihen.
Ergänzung ()

Ragnarök88 schrieb:
Spielegrafik wird nie "fertig entwickelt" sein. Vielleicht dann wenn man real time dort angekommen ist, was heutige Filme mit ewiglangem Rendering zeigen. (Avatar 2)
Ja wie, nur 48 FPS? Geht mal gar nicht und dann nicht mal stable, wechselt ständig auf 24! Nennt dann bestimmt noch eine cineastisch! Nach 312 Minuten hab ich das Ding gleich auf Origin zurück gegeben!

SCNR! ;-)
 
Zurück
Oben